JP2003123091A - Image composition system and video game player using the same - Google Patents

Image composition system and video game player using the same

Info

Publication number
JP2003123091A
JP2003123091A JP2002190092A JP2002190092A JP2003123091A JP 2003123091 A JP2003123091 A JP 2003123091A JP 2002190092 A JP2002190092 A JP 2002190092A JP 2002190092 A JP2002190092 A JP 2002190092A JP 2003123091 A JP2003123091 A JP 2003123091A
Authority
JP
Japan
Prior art keywords
depth
color
color signal
information
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002190092A
Other languages
Japanese (ja)
Other versions
JP3656062B2 (en
Inventor
Kazuhiro Mori
一浩 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2002190092A priority Critical patent/JP3656062B2/en
Publication of JP2003123091A publication Critical patent/JP2003123091A/en
Application granted granted Critical
Publication of JP3656062B2 publication Critical patent/JP3656062B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image composition system for performing depth cueing with a simple constitution. SOLUTION: This image composition system can perform depth queuing. The system is formed to perspectively transform and project a 3-D object represented by a combination of polygons in a virtual 3-D space onto a projection plane in a view-point coordinate system and to calculate color specifying data for each pixel to display an image on a display 18. The system includes a depth information transforming unit 30 for transforming depth information Z in the view-point coordinate system of each polygon into depth information Z' for the depth queuing to output the depth information Z', a color palette 28 responsive to the color specifying data 300 outputted for each pixel for outputting a color signal as a front-color signal, a depth cueing information setting means 26 for calculating a depth cueing back-color signal 320 for depth cueing depending on a displayed scene, and a color signal calculating means 36 responsive to the depth cueing information Z' for the depth cuing, front-color signal and back-color signal for outputting a depth-cued color signal 350 for each pixel.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、デプスキューイン
グの手法を用いた画像合成装置およびこれを用いたビデ
オゲーム装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesizing apparatus using a depth cueing method and a video game apparatus using the same.

【0002】[0002]

【背景技術及び発明が解決しようとする課題】従来、コ
ンピュータグラフィックスの技術を用い、疑似3次元画
像を合成する画像合成装置が知られており、例えば、ビ
デオゲームや、各種シミュレータおよびその他の用途に
幅広く用いられている。
2. Description of the Related Art Conventionally, an image synthesizing device for synthesizing a pseudo three-dimensional image using a computer graphics technique has been known. For example, a video game, various simulators and other applications. Widely used in.

【0003】このような画像合成装置では、視点からの
距離に応じて各ポリゴンの輝度を変えるデプスキューイ
ングという手法が用いられている。
In such an image synthesizing apparatus, a method called depth cueing is used in which the brightness of each polygon is changed according to the distance from the viewpoint.

【0004】しかし、従来の画像合成装置では、ハード
ウエアの負担を軽減しながら、デプスキューイングを行
うことができないという問題があった。
However, the conventional image synthesizing apparatus has a problem that depth queuing cannot be performed while reducing the load on the hardware.

【0005】すなわち、デプスキューイングの手法を用
い画像合成を行う場合、仮想3次元空間300内におけ
る視点と各ポリゴンとの距離を表すZ座標値に基づき、
各ポリゴンの輝度を変化させ、奥行き方向を背景に溶け
込ませることが行われている。
That is, when performing image synthesis using the depth cueing method, based on the Z coordinate value representing the distance between the viewpoint and each polygon in the virtual three-dimensional space 300,
The brightness of each polygon is changed to blend the depth direction into the background.

【0006】しかし、従来の技術では、奥行き方向の輝
度をZ座標値に基づきN段階にわたって(Nは整数)変
化させようとすると、N個のカラーパレット用メモリを
用意し、色情報を書き込む必要がある。例えば、パレッ
ト1には基の色を書き込み、パレット2には次の色を書
き込み、……最後のパレットNには、背景に溶け込む色
を書き込むという作業を行う必要がある。この手法を用
い、スムーズに輝度を変化させるためには、パレットを
多数用意しなければならず、その分、メモリ容量が増
え、装置全体が高価なものとなってしまうという問題が
あった。
However, in the prior art, if the luminance in the depth direction is to be changed over N steps (N is an integer) based on the Z coordinate value, it is necessary to prepare N color palette memories and write the color information. There is. For example, it is necessary to write the base color to the palette 1, write the next color to the palette 2, ... Write the color that blends into the background to the last palette N. In order to smoothly change the brightness using this method, a large number of pallets must be prepared, and the memory capacity increases accordingly, resulting in a problem that the entire apparatus becomes expensive.

【0007】特に、今日の画像合成装置では、色合いを
こまやかに表示するために、基本となるパレットが多数
設けられることが多い。この場合には、基本パレット数
をM個とすると、M×N個のパレットを用意しなければ
ならず、メモリ容量がさらに大きくなり、しかもその
分、演算に用いるCPUの負担も大きなものとなる。こ
のため、装置全体がより高コストかつ複雑なものとなっ
てしまうことが避けられなかった。
Particularly, in today's image synthesizing apparatuses, a large number of basic palettes are often provided in order to display the hues carefully. In this case, assuming that the number of basic pallets is M, M × N pallets must be prepared, the memory capacity is further increased, and the load on the CPU used for calculation is correspondingly large. . Therefore, it is unavoidable that the entire apparatus becomes more expensive and complicated.

【0008】本発明は、このような従来の課題に鑑みて
成されたものであり、その目的は、簡単な構成でデプス
キューイングを行うことができる画像合成装置およびこ
れを用いたビデオゲーム装置を提供することにある。
The present invention has been made in view of such conventional problems, and an object thereof is an image synthesizing apparatus capable of performing depth cueing with a simple structure and a video game apparatus using the same. To provide.

【0009】[0009]

【課題を解決するための手段】前記目的を達成するた
め、本発明は、仮想3次元空間内に、ポリゴンを組合わ
せて表現された3次元オブジェクトを、視点座標系の投
影面に投影変換し、各画素の前色指定データを演算し表
示画像を合成する画像合成装置において、表示場面に応
じてデプスキューイング用の奥カラー信号を設定すると
ともに、前記各ポリゴンの前記視点座標系における奥行
き情報を演算するデプスキューイング情報設定手段と、
各画素毎に出力される前記前色指定データに基づき色信
号を前カラー信号として出力する第1のカラーパレット
と、前記奥行き情報、前カラー信号、奥カラー信号に基
づき、各画素毎にデプスキューイングされた色信号を出
力する色信号演算手段と、を含むことを特徴とする。
In order to achieve the above object, the present invention projects and transforms a three-dimensional object represented by combining polygons in a virtual three-dimensional space onto a projection plane of a viewpoint coordinate system. In an image synthesizing device for synthesizing front color designation data of each pixel and synthesizing a display image, a depth color signal for depth cueing is set according to a display scene, and depth information of each polygon in the viewpoint coordinate system is set. Depth cueing information setting means for calculating
A first color palette that outputs a color signal as a previous color signal based on the previous color designation data that is output for each pixel, and a depth skew for each pixel based on the depth information, the previous color signal, and the back color signal. And a color signal calculation means for outputting the injected color signal.

【0010】本発明の装置のデプスキューイング情報設
定手段は、各表示場面に応じて、デプスキューイング用
の奥カラー信号を設定する。
The depth cueing information setting means of the apparatus of the present invention sets the depth color signal for depth cueing according to each display scene.

【0011】さらにデプスキューイング情報設定手段
は、視点座標系における各ポリゴンの奥行き情報を各画
素毎に出力する。
Further, the depth cueing information setting means outputs depth information of each polygon in the viewpoint coordinate system for each pixel.

【0012】カラーパレットは、各画素毎に出力される
色指定データに基づき、色信号を前カラー信号として出
力する。
The color palette outputs a color signal as a previous color signal based on the color designation data output for each pixel.

【0013】そして、色信号演算手段は、前記奥行き情
報、前カラー信号、奥カラー信号に基づき、各画素毎に
デプスキューイングされた色信号を演算出力し、ディス
プレイ上に表示する。
Then, the color signal calculating means calculates and outputs the depth cueed color signal for each pixel based on the depth information, the front color signal and the back color signal, and displays the color signal on the display.

【0014】このように、本発明によれば、各表示場面
に応じて、デプスキューイング用の奥カラー信号を設定
することにより、デプスキューイングされた色信号を演
算により求めることができる。したがって、奥行き方向
の輝度を多段階にわたって変化させる場合でも、カラー
パレットを多数用意する必要はなく、回路全体の構成を
簡単かつ安価なものとすることができる。
As described above, according to the present invention, the depth-cueed color signal can be calculated by setting the depth color signal for depth cueing according to each display scene. Therefore, even when the brightness in the depth direction is changed in multiple stages, it is not necessary to prepare a large number of color palettes, and the configuration of the entire circuit can be made simple and inexpensive.

【0015】また、本発明は、仮想3次元空間内に、ポ
リゴンを組合わせて表現された3次元オブジェクトを、
視点座標系の投影面に投影変換し、各画素の前色指定デ
ータを演算し表示画像を合成する画像合成装置におい
て、表示場面に応じてデプスキューイング用の奥色指定
データを設定するとともに、前記各ポリゴンの前記視点
座標系における奥行き情報を演算するデプスキューイン
グ情報設定手段と、各画素毎に出力される前記前色指定
データに基づき色信号を前カラー信号として出力する第
1のカラーパレットと、前記奥色指定データに基づき色
信号を奥カラー信号として出力する第2のカラーパレッ
トと、前記奥行き情報、前カラー信号、奥カラー信号に
基づき、各画素毎にデプスキューイングされた色信号を
出力する色信号演算手段と、を含むことを特徴とする。
Further, according to the present invention, a three-dimensional object represented by combining polygons in a virtual three-dimensional space is
Projection conversion to the projection plane of the viewpoint coordinate system, in the image synthesizing device for synthesizing the display image by calculating the front color designation data of each pixel, while setting the depth color designation data for depth cueing according to the display scene, Depth cueing information setting means for calculating depth information of each polygon in the viewpoint coordinate system, and a first color palette for outputting a color signal as a front color signal based on the previous color designation data output for each pixel. And a second color palette that outputs a color signal as a back color signal based on the back color designation data, and a color signal depth cueed for each pixel based on the depth information, the previous color signal, and the back color signal. And a color signal calculating means for outputting.

【0016】このような構成を採用することによって、
本発明によれば、奥行き方向の輝度を多段階にわたって
変化させる場合でも、カラーパレットを多数用意する必
要はなく、回路全体の構成を簡単かつ安価なものとする
ことができる。
By adopting such a configuration,
According to the present invention, even when the brightness in the depth direction is changed in multiple stages, it is not necessary to prepare a large number of color palettes, and the configuration of the entire circuit can be made simple and inexpensive.

【0017】ここにおいて、本発明の装置は、前記各ポ
リゴンの前記視点座標系における実際の奥行き情報Zを
デプスキューイング用の奥行き情報Z´に変換出力する
奥行き情報変換手段を含み、前記色信号演算手段は、前
記デプスキューイング用の奥行き情報Z´、前カラー信
号、奥カラー信号に基づき、各画素毎にデプスキューイ
ングされた色信号を出力するよう形成することが好まし
い。
Here, the apparatus of the present invention includes depth information converting means for converting and outputting the actual depth information Z in the viewpoint coordinate system of each polygon into depth information Z'for depth cueing, and the color signal It is preferable that the arithmetic means is formed so as to output a depth-cueed color signal for each pixel based on the depth information Z ′ for depth cueing, the front color signal, and the back color signal.

【0018】このようにして、本発明によれば、各ポリ
ゴンの視点座標系における実際の奥行き情報Zは、奥行
き情報変換手段により、デプスキューイング用の奥行き
情報をZ´に変換出力される。これにより、表示場面に
応じて、さらに効果的なデプスキューイング処理を行う
ことができる。
In this way, according to the present invention, the actual depth information Z in the viewpoint coordinate system of each polygon is converted into depth information for depth cueing by the depth information conversion means and output. Thereby, more effective depth cueing processing can be performed according to the display scene.

【0019】また、前記奥行き情報変換手段は、前記異
なる変換テーブルが記憶された複数の変換テーブルメモ
リを含み、表示対象に応じて、前記複数の変換テーブル
のいずれかを用い実際の奥行き情報Zをデプスキューイ
ング用の奥行き情報Z´に変換出力するよう形成でき
る。
Further, the depth information converting means includes a plurality of conversion table memories in which the different conversion tables are stored, and the actual depth information Z is obtained by using one of the plurality of conversion tables according to a display object. The depth information Z ′ for depth cueing can be converted and output.

【0020】このようにして、本発明によれば、異なる
変換テーブルが記憶された複数の変換テーブルメモリを
設け、表示対象に応じて、前記複数の変換テーブルのい
ずれかを用い実際の奥行き情報Zをデプスキューイング
用の奥行き情報Z´に変換出力している。これにより、
表示対象に応じたデプスキューイングを効果的に行うこ
とが可能となる。
In this way, according to the present invention, a plurality of conversion table memories in which different conversion tables are stored are provided, and any one of the plurality of conversion tables is used to display the actual depth information Z according to the display object. Is converted into depth information Z'for depth cueing and output. This allows
It is possible to effectively perform depth cueing according to the display target.

【0021】また、前記奥行き情報変換手段は、前記各
ポリゴンの前記視点座標系における実際の奥行き情報Z
をデプスキューイング用の奥行き情報Z´に変換出力す
る変換テーブルが記憶された変換テーブルメモリと、表
示場面の切り替えに応じて、前記変換テーブルメモリに
記憶された変換テーブルの内容を書き替えるテーブル書
き替え手段と、を含むよう形成することが好ましい。
Further, the depth information conversion means is the actual depth information Z in the viewpoint coordinate system of each polygon.
To the depth information Z ′ for depth cueing, a conversion table memory storing a conversion table and a table writing for rewriting the contents of the conversion table stored in the conversion table memory according to switching of display scenes. It is preferable to form the replacement means.

【0022】このように、各表示場面に応じて、変換テ
ーブルメモリに記憶された変換テーブルの書き替えを行
うことにより、表示場面に応じたデプスキューイングを
さらに効果的に行うことが可能となる。
As described above, by rewriting the conversion table stored in the conversion table memory according to each display scene, it is possible to more effectively perform depth cuing according to the display scene. .

【0023】また、前記第2のカラーパレットを用いな
いタイプの装置において、前記デプスキューイング情報
設定手段は、前記奥カラー信号をR,G,B各色の輝度
信号情報として設定し、表示場面の切替え時には、時間
の経過に応じて前記輝度信号情報を切替え後の目標値に
向け徐々に変化させるよう形成することが好ましい。
In the apparatus of the type that does not use the second color palette, the depth cueing information setting means sets the depth color signal as luminance signal information of each color of R, G and B, and displays it. At the time of switching, it is preferable that the luminance signal information is formed so as to gradually change toward the target value after switching according to the passage of time.

【0024】この場合、前記デプスキューイング情報設
定手段は、場面切替え時における前の場面の目標値iか
ら次の場面の目標値jへの奥カラー信号の変化を、場面
切替えに要する時間をT、経過時間をtとし、次式に示
す輝度信号情報hとしてR,G,Bの各色毎に演算し、 h=(j−i)×(t/T)+i その演算値を奥カラー信号として順次設定するよう形成
することが好ましい。
In this case, the depth cueing information setting means changes the back color signal from the target value i of the previous scene to the target value j of the next scene when the scene is switched, and the time required for the scene switching is T. , Elapsed time is t, and luminance signal information h shown in the following equation is calculated for each color of R, G, B, and h = (j−i) × (t / T) + i It is preferable to form them so that they are sequentially set.

【0025】このようにすることにより、場面切り替え
時におけるデプスキューイング処理をスムースに行うこ
とができる。また、前記第2のカラーパレットを用いる
タイプの装置において、前記デプスキューイング情報設
定手段は、表示場面の切替え時には、前記奥カラー信号
のR,G,B各色の輝度信号情報を、時間の経過に応じ
て切替え後の目標値に向け徐々に変化させるよう前記第
2のカラーパレットから読み出すための奥色指定データ
を演算出力するよう形成することが好ましい。
By doing so, the depth cueing process at the time of scene switching can be smoothly performed. Further, in the apparatus of the type using the second color palette, the depth cueing information setting means displays the luminance signal information of each color of R, G, B of the back color signal with the passage of time when switching the display scene. Accordingly, it is preferable to form so as to arithmetically output the back color designation data to be read from the second color palette so as to gradually change toward the target value after switching.

【0026】この場合、前記デプスキューイング情報設
定手段は、場面切替え時における前の場面の目標値iか
ら次の場面の目標値jへの奥カラー信号の変化を、場面
切替えに要する時間をT、経過時間をtとし、次式に示
す輝度信号情報hとしてR,G,Bの各色毎に前記第2
のカラーパレットから読み出すための奥色指定データを
演算出力するよう形成することが好ましい。
In this case, the depth cueing information setting means changes the back color signal from the target value i of the previous scene to the target value j of the next scene when the scene is switched, and the time required for the scene switching is T. , The elapsed time is t, and the luminance signal information h shown in the following equation is used as the second signal for each color of R, G, and B.
It is preferable to form so as to arithmetically output the back color designation data to be read from the color palette.

【0027】h=(j−i)×(t/T)+i このようにすることにより、場面切り替え時におけるデ
プスキューイング処理をスムースに行うことができる。
H = (j-i) × (t / T) + i By doing so, the depth cueing process at the time of scene switching can be smoothly performed.

【0028】また、前記デプスキューイング情報設定手
段は、前記各ポリゴン毎に、デプスキューイング処理の
対象とするか否かの処理対象識別データを演算出力し、
前記色信号演算手段は、前記処理対象識別データに基づ
き、処理対象となるポリゴンの画素か否かを判別し、処
理対象画素に対して前記デプスキューイングされた色信
号の演算を行うよう形成できる。
The depth cueing information setting means arithmetically outputs, for each of the polygons, processing target identification data indicating whether or not to be a target of the depth cueing process.
The color signal calculation means may be configured to determine whether or not the pixel of the polygon to be processed based on the processing target identification data, and to calculate the depth cueed color signal for the processing target pixel. .

【0029】このように、表示ポリゴン毎にデプスキュ
ーイング処理の対象とするか否かを決定し、デプスキュ
ーイング処理をポリゴン単位で選択的に行うことによ
り、デプスキューイングをかけない物体をディスプレイ
上に選択的に設定することができる。例えば、夜の場面
を表示する場合に、建物の窓を表すポリゴンをデプスキ
ューイング対象としないことにより、窓から明りが洩れ
てくるような建物を効果的に表示することができる。
As described above, it is determined for each display polygon whether or not the depth cuing process is to be performed, and the depth squeezing process is selectively performed on a polygon-by-polygon basis. Can be selectively set on. For example, when a night scene is displayed, the polygon representing the window of the building is not set as the depth cueing target, so that the building where the light leaks from the window can be effectively displayed.

【0030】前記第1のカラーパレットは、N段階の輝
度のR,G,Bの色信号を出力するよう形成され、前記
色信号演算手段は、前記前カラー信号をa、奥カラー信
号をbとし、次式 c=(b−a)×(Z´/N)+a に基づき各画素毎にデプスキューイングされた色信号c
を出力するよう形成できる。
The first color palette is formed so as to output R, G, and B color signals having N levels of brightness, and the color signal calculation means outputs the front color signal a and the back color signal b. And the color signal c depth-skewed for each pixel based on the following equation c = (b−a) × (Z ′ / N) + a
Can be configured to output.

【0031】このように、所定の線形補間演算を行うこ
とにより、デプスキューイングされた色信号を各画素毎
に簡単に求めることができる。
By performing the predetermined linear interpolation calculation in this manner, the depth-cueed color signal can be easily obtained for each pixel.

【0032】また、本発明のビデオゲーム装置は、プレ
ーヤが操作するプレーヤ操作手段と、前記プレーヤ操作
手段からの入力信号と、予め記憶されたゲームプログラ
ムとに基づき、仮想3次元ゲーム空間内に、ポリゴンを
組合わせて表現された3次元オブジェクトが登場する所
定のゲーム演算を行うとともに、前記3次元オブジェク
トを視点座標系の投影面に投影変換し、各画素毎に色指
定データを演算し表示画像を合成するよう形成された本
発明の前記画像合成装置と、を含み、ディスプレイ上に
ゲーム画像を表示することを特徴とする。
Further, the video game device of the present invention, in the virtual three-dimensional game space, based on the player operating means operated by the player, the input signal from the player operating means, and the game program stored in advance, A predetermined game operation in which a three-dimensional object expressed by combining polygons appears is performed, the three-dimensional object is projected and converted on the projection plane of the viewpoint coordinate system, and color designation data is calculated for each pixel to display a display image. And the image synthesizing device of the present invention formed so as to synthesize the game image, and displaying a game image on a display.

【0033】このようにすることにより、簡単な構成の
画像合成装置を用い、デプスキューイング処理されたゲ
ーム画像をディスプレイ上に表示できるビデオゲーム装
置を得ることができる。
By doing so, it is possible to obtain a video game device capable of displaying a depth-scue processed game image on a display by using an image synthesizing device having a simple structure.

【0034】[0034]

【発明の実施の形態】次に、本発明の好適な実施例を図
面に基づき詳細に説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, preferred embodiments of the present invention will be described in detail with reference to the drawings.

【0035】図2には、実施例の業務用ビデオゲーム装
置10の外観が概略的に示されている。
FIG. 2 schematically shows the outer appearance of the professional-use video game device 10 of the embodiment.

【0036】実施例の業務用ビデオゲーム装置10は、
サーキットコースを走行するレーシングカーをプレーヤ
が運転し、コンピュータの操縦するコンピュータカーや
他のプレーヤの運転するレーシングカーと順位、時間を
競い合うように形成されている。
The commercial video game device 10 of the embodiment is
It is formed so that a player drives a racing car running on a circuit course and competes with a computer car operated by a computer and a racing car operated by another player for ranking and time.

【0037】このため、前記業務用ゲーム装置10は、
実際のレーシングカーの運転席と同様に形成されてい
る。そして、一定のゲーム料金を支払うとゲームが開始
され、シート12に座ったプレーヤは、ハンドル14、
シフトレバー16、その他のペダル類を操作しながら、
ディスプレイ18上に表示される風景を見ながら架空の
レーシングカーを運転し、ゲームを行う。
Therefore, the arcade game machine 10 is
It is formed like the driver's seat of an actual racing car. Then, when a certain game fee is paid, the game is started, and the player sitting on the seat 12 operates the steering wheel 14,
While operating the shift lever 16 and other pedals,
While watching the scenery displayed on the display 18, drive a fictitious racing car and play a game.

【0038】図1には、前記業務用ビデオゲーム装置の
ブロック図が示されている。
FIG. 1 shows a block diagram of the commercial video game apparatus.

【0039】実施例の業務用ビデオゲーム装置10は、
操作部20と、ゲーム画像演算部22と、パレットコン
トローラ24と、前記ディスプレイ18とを含む。
The commercial video game device 10 of the embodiment is
An operation unit 20, a game image calculation unit 22, a palette controller 24, and the display 18 are included.

【0040】操作部20は、図2に示すハンドル14、
シフトレバー16及びその他のペダル類等の、プレーヤ
の操作する部材である。
The operation unit 20 includes the handle 14 shown in FIG.
It is a member operated by the player, such as the shift lever 16 and other pedals.

【0041】ゲーム画像演算部22は、プレーヤ操作部
20からの入力信号と、あらかじめ定められたゲームプ
ログラムとに基づき、各種のゲーム演算を行い、パレッ
トコントローラ24を用いてディスプレイ18上にドラ
イビィングゲーム用のゲーム画面を表示させる。ここに
おいて、前記ゲーム画像演算部22は、所定の3次元ゲ
ーム空間内を、プレーヤの操縦によりレーシングカーが
移動するようにゲーム演算を行い、このようにして3次
元ゲーム空間内のさまざまな物体や移動体を所定の投影
面に透視投影変換して、ゲーム画面を形成し、これをデ
ィスプレイ18上に表示するように形成されている。
The game image calculation unit 22 performs various game calculations based on an input signal from the player operation unit 20 and a predetermined game program, and uses the palette controller 24 to display a driving game on the display 18. Display the game screen for. Here, the game image calculation unit 22 performs a game calculation so that a racing car moves by a player's control within a predetermined three-dimensional game space, and thus various objects and objects in the three-dimensional game space are calculated. It is formed such that the moving body is perspectively projected and converted to a predetermined projection surface to form a game screen, which is displayed on the display 18.

【0042】図3には、このような画像合成手法の原理
図が示されている。
FIG. 3 shows a principle diagram of such an image synthesizing method.

【0043】実施例のゲーム画像演算部22には、3次
元ゲーム空間100及びこの3次元ゲーム空間100内
に登場する3次元オブジェクト110に関する情報があ
らかじめ記憶されている。前記3次元オブジェクト11
0に関する画像情報は、複数のポリゴン112−1,1
12−2,112−3……からなる形状モデルとして表
現され、あらかじめメモリー内に記憶されている。
The game image calculation section 22 of the embodiment stores in advance information about the three-dimensional game space 100 and the three-dimensional object 110 appearing in the three-dimensional game space 100. The three-dimensional object 11
The image information regarding 0 includes a plurality of polygons 112-1, 1
It is represented as a shape model consisting of 12-2, 112-3, ... And is stored in advance in the memory.

【0044】ドライビングゲームを例にとると、3次元
オブジェクト110は3次元ゲーム空間100内に登場
するレーシングカーであり、3次元ゲーム空間100内
には、この他に道路、家などの背景を表す各種の3次元
オブジェクトが配置されている。
Taking a driving game as an example, the three-dimensional object 110 is a racing car that appears in the three-dimensional game space 100, and in the three-dimensional game space 100, other backgrounds such as roads and houses are displayed. Various three-dimensional objects are arranged.

【0045】プレーヤ200が、操作部20のハンドル
等を操作して回転、並進等の操作を行うと、ゲーム画像
演算部22は、この操作信号およびゲームプログラムに
基づいてレーシングカー、道路、家である3次元オブジ
ェクト110の回転、並進等の演算をリアルタイムで行
う。そして、この3次元オブジェクト110及びその他
の3次元オブジェクトは、視点座標系の透視投影面12
0上に透視投影変換され、疑似3次元画像122として
ディスプレイ18上に表示される。
When the player 200 operates the steering wheel or the like of the operation unit 20 to perform an operation such as rotation or translation, the game image calculation unit 22 operates in a racing car, a road, or a house based on the operation signal and the game program. Calculations such as rotation and translation of a certain three-dimensional object 110 are performed in real time. The three-dimensional object 110 and other three-dimensional objects are the perspective projection plane 12 of the viewpoint coordinate system.
0 is perspective-transformed and displayed as a pseudo three-dimensional image 122 on the display 18.

【0046】したがって、プレーヤ200は、操作部2
0を操作し、レーシングカーを操縦することにより、3
次元ゲーム空間100内に設定されたサーキットコース
内をレーシングカーを運転しながらレースに参加してい
る状態を仮想シミュレートできることになる。
Therefore, the player 200 has the operation unit 2
By operating 0 and operating a racing car, 3
It is possible to virtually simulate the state of participating in the race while driving the racing car in the circuit course set in the three-dimensional game space 100.

【0047】コンピュータグラフィックスの手法を用い
た場合、前記3次元オブジェクト110は、独立したボ
ディ座標系を用いてその形状モデルを作成している。す
なわち、3次元オブジェクト110を構成する各ポリゴ
ンを、このボディ座標系上に配置し、その形状モデルを
特定している。
When the computer graphics technique is used, the shape model of the three-dimensional object 110 is created using an independent body coordinate system. That is, each polygon that forms the three-dimensional object 110 is arranged on this body coordinate system, and its shape model is specified.

【0048】さらに、3次元ゲーム空間100は、ワー
ルド座標系を用いて構成され、ボディ座標系を用いて表
された3次元オブジェクト110は、その運動モデルに
従ってワールド座標系の中に配置される。
Further, the three-dimensional game space 100 is constructed by using the world coordinate system, and the three-dimensional object 110 represented by using the body coordinate system is arranged in the world coordinate system according to its motion model.

【0049】そして、視点210の位置を原点として、
視線の方向をZ軸の正方向にとった視点座標系にデータ
を変換し、投影面120であるスクリーン座標系へ、そ
れぞれの座標を透視投影変換する。そして、透視投影変
換された画像の色指定データ300を各画素毎に演算
し、図1に示すカラーパレットメモリ28へ向け出力す
る。
Then, with the position of the viewpoint 210 as the origin,
The data is converted into a viewpoint coordinate system in which the direction of the line of sight is in the positive direction of the Z axis, and the respective coordinates are perspectively projected and converted into the screen coordinate system which is the projection surface 120. Then, the color designation data 300 of the perspective-projected image is calculated for each pixel and output to the color palette memory 28 shown in FIG.

【0050】このカラーパレットメモリ28は、R,
G,Bの3原色が0〜255の範囲の256個の異なる
輝度のデータとして記憶されている。そして、前記色指
定データ300により、R,G,Bの各輝度が指定さ
れ、その組合わせからなる色信号が前カラー信号310
として出力される。例えば、R,G,Bの各原色の輝度
は、0(最低)〜255(最高)までの数字で表され
る。例えば、黒色は、全く色がない状態なので、輝度を
(R,G,B)で表すと、(0,0,0)となる。純粋
な赤は、(255,0,0)、赤と青の混ざった色は
(124,0,44)などとなる。このような組合わせ
情報からなる色信号が、色指定データ300により各画
素毎に指定され、前カラー信号310として出力され
る。
The color palette memory 28 stores R,
The three primary colors G and B are stored as data of 256 different luminances in the range of 0 to 255. Then, the R, G, and B luminances are designated by the color designation data 300, and the color signal formed by the combination thereof is the previous color signal 310.
Is output as. For example, the brightness of each of the R, G, and B primary colors is represented by a number from 0 (lowest) to 255 (highest). For example, since black has no color at all, the brightness is represented by (R, G, B) as (0, 0, 0). Pure red is (255,0,0), a mixture of red and blue is (124,0,44), and so on. A color signal including such combination information is designated for each pixel by the color designation data 300, and is output as the previous color signal 310.

【0051】これにより、視点210からみえる3次元
ゲーム空間100の視野内の画像が、ディスプレイ18
上にカラー表示されることになる。
As a result, the image in the visual field of the three-dimensional game space 100 seen from the viewpoint 210 is displayed on the display 18.
It will be displayed in color on the top.

【0052】特に、実施例のゲーム画像演算部22は、
ワールド座標系で構成される3次元ゲーム空間100内
において、視点210の位置を任意に変更できるように
形成されている。実施例の業務用ビデオゲーム装置10
は、ゲーム中はその視点位置をレーシングカーの運転席
位置に設定している。これにより、ディスプレイ18上
には、プレーヤの操縦するレーシングカーの運転席から
その前方を見たときの景色がゲーム画面として表示され
ることになり、プレーヤ200は、レーシングカーを実
際に運転している感覚でその運転を行うことができる。
In particular, the game image calculation unit 22 of the embodiment is
It is formed so that the position of the viewpoint 210 can be arbitrarily changed in the three-dimensional game space 100 configured by the world coordinate system. Commercial video game device 10 of the embodiment
Sets the viewpoint position to the driver's seat position of the racing car during the game. As a result, the scene of the racing car operated by the player as seen from the driver's seat is displayed as a game screen on the display 18, and the player 200 actually drives the racing car. You can drive as if you were there.

【0053】本発明の特徴は、このようにディスプレイ
上に表示されるカラー画像のデプスキューイング処理
を、カラーパレットメモリ28等のメモリ容量をさほど
増大させることなく、簡単かつ効果的に行うことにあ
る。
A feature of the present invention is that the depth cueing process of the color image displayed on the display is performed simply and effectively without increasing the memory capacity of the color palette memory 28 or the like. is there.

【0054】このため、実施例の画像合成装置では、デ
プスキューイング情報設定部26と、パレットコントロ
ーラ24とを含むように構成されている。
Therefore, the image synthesizing apparatus of the embodiment is configured to include the depth cueing information setting unit 26 and the palette controller 24.

【0055】前記デプスキューイング情報設定部26
は、ゲーム画像演算部22内に設けられており、各表示
場面に応じて奥カラー信号320をR,G,B各色の輝
度信号情報として出力するように形成されている。
The depth cueing information setting section 26
Is provided in the game image calculation unit 22 and is formed so as to output the back color signal 320 as luminance signal information for each of R, G, and B colors in accordance with each display scene.

【0056】本実施例では、後述するように朝、昼、夕
方、夜の4つの場面が用いられる。そして、各場面に応
じて、例えば朝は白色、昼は青色、夕方は赤色、夜は黒
色のカラー信号を、前記奥カラー信号として演算出力す
る。
In the present embodiment, four scenes of morning, daytime, evening and night are used as described later. Then, in accordance with each scene, for example, a color signal of white in the morning, blue in the day, red in the evening, and black in the evening is calculated and output as the back color signal.

【0057】なお、ゲーム画像演算部22内で、多くの
カラー信号を取り扱うことは、演算効率上問題を生ずる
場合がある。このため、使用する奥カラー信号の演算処
理が多くなる場合、例えば、1つの表示場面において、
複数の奥カラー信号間を取り扱うような場合には、図8
に示すよう奥カラー専用のパレットメモリ29を用いる
ことが好ましい。そして、この奥カラー専用のパレット
メモリ29内に、奥カラー信号として使用するすべての
色信号を記憶しておく。すなわち、R、G、Bの3原色
の各輝度の組み合わせからなる複数の色信号を、前記奥
カラー信号として記憶する。
It should be noted that handling a large number of color signals in the game image calculation section 22 may cause a problem in calculation efficiency. For this reason, when the calculation processing of the back color signal to be used increases, for example, in one display scene,
In the case of handling a plurality of back color signals, FIG.
It is preferable to use the palette memory 29 dedicated to the back color as shown in FIG. Then, in the palette memory 29 dedicated to the back color, all color signals used as the back color signal are stored. That is, a plurality of color signals composed of combinations of respective luminances of three primary colors of R, G and B are stored as the back color signals.

【0058】そしてデプスキューイング情報設定部26
は、各表示場面に応じて所望の奥カラー信号320を奥
カラー専用のパレットメモリ29から呼び出すための色
指定データ318を演算し、パレットメモリ29へ向け
て出力するように形成されている。これにより、使用す
る奥カラー信号の種類が多い場合でも、ゲーム画像演算
部22に大きな負担をかけることなく、パレットメモリ
29から表示画面に応じた所望の奥カラー信号320を
出力することができる。
Then, the depth cueing information setting unit 26
Is configured to calculate color designation data 318 for calling a desired back color signal 320 from the back color dedicated palette memory 29 according to each display scene and output the color designation data 318 to the palette memory 29. As a result, even when there are many types of back color signals to be used, it is possible to output a desired back color signal 320 according to the display screen from the palette memory 29 without imposing a heavy load on the game image calculation unit 22.

【0059】さらに図1に示すよう、デプスキューイン
グ情報設定部26は、各ポリゴン毎に、デプスキューイ
ング処理の対象とするか否かのフラグデータ330(処
理対象識別データ)を演算するとともに、当該ポリゴン
の視点座標系における奥行き情報Z(Zはポリゴンの代
表値として表される)およびテーブル指定データ340
を演算出力する。ここにおいて、前記フラグデータ33
0、テーブル指定データ340およびZ代表値Zは、各
画素毎に出力される色指定データ300の出力と同期し
て、付随データとして出力されることになる。
Further, as shown in FIG. 1, the depth cueing information setting unit 26 calculates flag data 330 (processing target identification data) indicating whether or not the depth cueing process is to be performed for each polygon. Depth information Z in the viewpoint coordinate system of the polygon (Z is represented as a representative value of the polygon) and table designation data 340.
Is calculated and output. Here, the flag data 33
0, the table designation data 340, and the Z representative value Z are output as accompanying data in synchronization with the output of the color designation data 300 output for each pixel.

【0060】ここにおいて、前記デプスキューイング情
報設定部26は、前記奥カラー信号を、R,G,Bの各
色毎の輝度信号情報として演算設定するよう形成されて
いる。そして、表示場面の切替え時には、時間の経過に
応じて、前記輝度信号情報を切替え後の目標値に向け、
徐々に変化させるように形成されている。
Here, the depth cueing information setting section 26 is formed to calculate and set the back color signal as luminance signal information for each color of R, G and B. Then, when the display scene is switched, the luminance signal information is directed to the target value after switching according to the passage of time,
It is formed to change gradually.

【0061】例えば、表示場面を切替える際に、場面切
替えに要する時間をT、場面切替え開始からの経過時間
をtとすると、前の場面の目標値iから次の場面の目標
値jへの輝度信号の変化は、次式に示す輝度信号情報h
として、R,G,Bの各色毎に演算される。
For example, when switching the display scenes, let T be the time required for the scene switching, and t be the elapsed time from the start of the scene switching, the brightness from the target value i of the previous scene to the target value j of the next scene. The signal change is the luminance signal information h shown in the following equation.
Is calculated for each color of R, G, and B.

【0062】 h=(j−i)×(t/T)+i ・・・(1) そして、このようにして演算されるR,G,Bの各色の
輝度信号情報を、場面切替え時の奥カラー信号として順
次演算出力するように形成されている。これにより、場
面切替え時における画面を自然に変化させることができ
る。
H = (j−i) × (t / T) + i (1) Then, the luminance signal information of each color of R, G, and B calculated in this way is stored at the back of scene switching. The color signals are formed so as to be sequentially calculated and output. As a result, the screen can be changed naturally when the scene is switched.

【0063】なお、図8に示すよう、奥カラー専用パレ
ットメモリ29を用いる場合には、同様にしてこのパレ
ットメモリ29から場面切替え時の奥カラー信号を徐々
に変化させながら出力させるよう、デプスキューイング
情報設定部26が、奥色指定データ318を演算するよ
う形成すればよい。この様にすることにより、図8に示
す実施例においても、図1に示す実施例と同様に、場面
切替え時における画面を自然に変化させることができ
る。
As shown in FIG. 8, when the back color dedicated palette memory 29 is used, the depth color is similarly output from the palette memory 29 while gradually changing the back color signal at the time of scene switching. The ing information setting unit 26 may be formed to calculate the back color designation data 318. By doing so, also in the embodiment shown in FIG. 8, the screen at the time of scene switching can be changed naturally, as in the embodiment shown in FIG.

【0064】また、前記パレットコントローラ24は、
前記カラーパレットメモリ28と、情報変換部30と、
色信号演算部36とを含む。
Further, the pallet controller 24 is
The color palette memory 28, the information conversion unit 30,
And a color signal calculation unit 36.

【0065】前記情報変換部30は、各ポリゴンの視点
座標系における奥行き情報Zを、デプスキューイング用
の奥行き情報Z´に変換し、色信号演算部36へ向け出
力するよう形成されている。
The information conversion section 30 is formed so as to convert the depth information Z in the viewpoint coordinate system of each polygon into depth information Z'for depth cueing and output it to the color signal calculation section 36.

【0066】実施例において、この情報変換部30は、
テーブル書き替え部32と、変換テーブル34とを含
む。
In the embodiment, the information conversion unit 30
It includes a table rewriting unit 32 and a conversion table 34.

【0067】前記テーブル書替部32は、ゲーム画像演
算部22により演算設定される各表示場面(例えば、
朝,昼,夕方,夜等の表示場面)毎の場面設定データに
基づき、変換テーブル34に、表示場面に応じた変換テ
ーブルを演算し設定する。この変換テーブルは、奥行き
情報Zをデプスキューイング用の奥行き情報Z´に変換
出力するデータテーブルである。この変換テーブル34
の設定の仕方により、後述するように各表示場面毎の雰
囲気を効果的に演出することができる。
The table rewriting section 32 displays each display scene (for example, set by the game image calculating section 22).
Based on the scene setting data for each display scene (morning, noon, evening, night, etc.), a conversion table corresponding to the displayed scene is calculated and set in the conversion table 34. This conversion table is a data table for converting and outputting the depth information Z into depth information Z ′ for depth cueing. This conversion table 34
Depending on how to set, the atmosphere for each display scene can be effectively produced as described later.

【0068】前記色信号演算部36は、このようにして
入力される各データに基づき、入力されたカラー信号3
10がデプスキューイングの対象となるか否かを判断す
る。対象となると判断した場合には、所定のデプスキュ
ーイング処理演算を行い、デプスキューイングされたカ
ラー信号350を出力し、このカラー信号350は図示
しないA/DコンバータによりA/D変換されディスプ
レイ18に入力する。
The color signal calculation section 36 inputs the color signal 3 based on each data thus input.
It is determined whether or not 10 is the target of depth cueing. When it is determined that the object is a target, a predetermined depth cueing processing calculation is performed, and a depth cueed color signal 350 is output. The color signal 350 is A / D converted by an A / D converter (not shown) and displayed. To enter.

【0069】すなわち、色信号演算部36は、各画素毎
に出力されるフラグデータ330に基づき、当該画素の
カラー信号310がデプスキューイング処理の対象とな
っているか否かの判断を行う。対象となっていない場合
には、カラーパレットメモリ28から出力されたカラー
信号310をそのままディスプレイ18へ向け出力す
る。デプスキューイング処理の対象となっている場合に
は、カラーパレットメモリ28から入力される前カラー
信号310と、入力される奥カラー信号320と、変換
テーブル34から入力される変換後の奥行き情報Z´と
に基づき、次式に基づく色信号の演算処理を行う。ここ
において、aは前カラー信号310、bは奥カラー信号
320を表し、Nはカラーパレットメモリ28の輝度の
段階を表す(実施例では、N=255)。
That is, the color signal calculation section 36 determines whether or not the color signal 310 of the pixel is subject to the depth cueing process based on the flag data 330 output for each pixel. If not, the color signal 310 output from the color palette memory 28 is directly output to the display 18. When it is a target of depth cueing processing, the front color signal 310 input from the color palette memory 28, the back color signal 320 input, and the depth information Z after conversion input from the conversion table 34. ′, The color signal calculation processing based on the following equation is performed. Here, a represents the front color signal 310, b represents the back color signal 320, and N represents the luminance level of the color palette memory 28 (in the embodiment, N = 255).

【0070】 c=(b−a)×(Z´/N)+a ・・・(2) そして、前記演算によりデプスキューイングされた色信
号Cを求め、これをディスプレイ18へ向け出力する。
C = (b−a) × (Z ′ / N) + a (2) Then, the depth-cueed color signal C is obtained by the above calculation and is output to the display 18.

【0071】このようにして、各ポリゴン毎にデプスキ
ューイングされた色信号を演算し、ディスプレイ18上
に表示することができる。
In this manner, the depth-cueed color signal for each polygon can be calculated and displayed on the display 18.

【0072】図4には、実施例のデプスキューイング処
理の原理図が示されている。同図において、前カラー3
10はZ´=0、奥カラー320はZ´=255の奥行
き位置に設定されている。奥カラー320は、Z´=2
55に設定されているということは、デプスキューイン
グされた出力カラーは、各画素の奥行きZ´が大きくな
るにしたがい奥カラー320の色に溶け込むようになる
ことを意味している。
FIG. 4 shows a principle diagram of the depth cueing process of the embodiment. In the figure, front color 3
10 is set at the depth position of Z ′ = 0, and the back color 320 is set at the depth position of Z ′ = 255. The back color 320 has Z '= 2
The setting of 55 means that the depth cueed output color blends into the color of the back color 320 as the depth Z ′ of each pixel increases.

【0073】すなわち、各画素の出力カラー350は、
前述したようにデプスキューイング用の奥行き情報Z´
と、前カラーa,奥カラーb等を用い、前記式(2)に
従った線形補完演算により求まる。
That is, the output color 350 of each pixel is
As described above, depth information Z'for depth cueing
Then, by using the front color a, the back color b, etc., the linear interpolation operation according to the above equation (2) is performed.

【0074】この線形補完演算は、カラーパレットメモ
リ28から前カラー信号310として出力されるR,
G,Bの3原色のそれぞれについて行われる。このよう
にすることにより、基本となる色データが書き込まれた
カラーパレットメモリ28を用いるのみで、任意に設定
される奥カラー320との間で、デプスキューイングさ
れた色信号Cを出力することができる。
This linear interpolation operation is performed by R, which is output as the previous color signal 310 from the color palette memory 28.
This is performed for each of the three primary colors G and B. By doing so, it is possible to output the depth-cueed color signal C to / from the arbitrarily set back color 320 by using the color palette memory 28 in which basic color data is written. You can

【0075】特に、実施例のパレットコントローラ24
では、各画素の実際の奥行き情報Zを用いてデプスキュ
ーイングをするのではなく、これを変換テーブルを用い
てデプスキューイング用の奥行き情報Z´に変換して、
デプスキューイング処理を行うように構成されている。
したがって、実際の奥行き情報Zを用い線形補完演算し
た場合には、その出力色Cが図4に示すP1となるのに
対し、実施例ではこの実際の奥行き情報Zを表示場面に
適した奥行き情報Z´に変換し、デプスキューイング処
理された出力色350を得るように形成されている。
In particular, the pallet controller 24 of the embodiment
Then, instead of performing depth cueing using the actual depth information Z of each pixel, this is converted into depth information Z'for depth cueing using a conversion table,
It is configured to perform depth cueing processing.
Therefore, when the linear interpolation calculation is performed using the actual depth information Z, the output color C becomes P1 shown in FIG. 4, whereas in the embodiment, the actual depth information Z is the depth information suitable for the display scene. It is formed so as to be converted into Z ′ and obtain the depth-cueed output color 350.

【0076】すなわち、本発明では、実際の奥行き情報
Zを用いてデプスキューイング処理を行うこともできる
が、本実施例のように、情報変換部30を用い、実際の
奥行き情報Zをデプスキューイングに適したZ´に変換
しているため、より効果的なデプスキューイング処理を
行うことができるのである。
That is, in the present invention, the depth cueing process can be performed using the actual depth information Z, but as in the present embodiment, the information conversion unit 30 is used to calculate the actual depth information Z. Since it is converted into Z'suitable for edging, more effective depth cueing processing can be performed.

【0077】さらに、本実施例では、変換テーブル34
内に記憶されている変換テーブルを各表示場面に応じて
切替えることにより、表示場面に合った最適なデプスキ
ューイング処理を演算により行うことができる。
Further, in this embodiment, the conversion table 34
By switching the conversion table stored therein according to each display scene, the optimum depth cueing processing suitable for the display scene can be performed by calculation.

【0078】なお、前記変換テーブル34は、全てのポ
リゴンに対し共通なものを用いることもできるが、例え
ば、ポリゴンの特性(表示対象の特性)に合せて複数の
変換テーブル34を用意し、ポリゴン毎に使用するテー
ブルをテーブル指定データ340で選択するようにして
もよい。このようにすることにより、例えば夜にライト
に照らされた物体を表現したり、霧の中の自動車のテー
ルランプを表現するなど、よりこまやかなデプスキュー
イングを得ることができる。
The conversion table 34 may be common to all polygons. For example, a plurality of conversion tables 34 may be prepared in accordance with the characteristics of the polygons (characteristics to be displayed). The table to be used for each may be selected by the table designation data 340. By doing so, more detailed depth cueing can be obtained, such as representing an object illuminated by a light at night or representing a tail lamp of a car in fog.

【0079】また、前記奥カラー信号320は、1場面
に複数個設定してもよい。このようにすることにより、
例えば、夜の道路を走行中に黄色の照明が点ったトンネ
ルが接近してくる景色等を、トンネル部分を黄色の奥カ
ラー信号に設定し、それ以外の部分を夜の景色を表す黒
色の奥カラー信号に設定して表現するようなデプスキュ
ーイング処理を行うことができる。すなわち、表示対象
に合わせた奥カラー信号をそれぞれ独立に設定し、より
演出効果に富んだデプスキューイング処理を行うことが
できる。
A plurality of back color signals 320 may be set for one scene. By doing this,
For example, for a scene where a tunnel illuminated by yellow lights approaches while driving on a road at night, set the tunnel part to a yellow back color signal and the other parts to a black scene that represents the night scene. It is possible to perform depth cueing processing such that the depth color signal is set and expressed. That is, it is possible to independently set the back color signals according to the display target and perform the depth cueing process rich in the effect.

【0080】図5には、実施例の装置のデプスキューイ
ング処理動作を示すフローチャートが示され、図6,図
7にはその表示画像の具体例が示されている。
FIG. 5 is a flow chart showing the depth queuing processing operation of the apparatus of the embodiment, and FIGS. 6 and 7 show specific examples of the displayed image.

【0081】まず、ゲーム画像演算部22が、図6に示
すゲーム画面を演算し、ディスプレイ18上にデプスキ
ューイング処理を施すことなく表示する場合を想定す
る。この場合には、ゲーム画像演算部22からは、全て
の画素に対してデプスキューイング処理をしない旨を表
すフラグデータ330が出力され、各画素毎に色指定デ
ータ300が出力される。
First, it is assumed that the game image calculation unit 22 calculates the game screen shown in FIG. 6 and displays it on the display 18 without performing depth cueing processing. In this case, the game image calculation unit 22 outputs the flag data 330 indicating that the depth cueing process is not performed for all the pixels, and the color designation data 300 is output for each pixel.

【0082】したがって、図5のステップS1,S2,
S3のフローに従い、カラーパレットメモリ28から出
力されるカラー信号310そのものがディスプレイ18
上に表示されることになる。
Therefore, steps S1, S2 in FIG.
According to the flow of S3, the color signal 310 itself output from the color palette memory 28 is displayed on the display 18
Will be displayed above.

【0083】次に、ディスプレイ18上に表示されるゲ
ーム画面を、朝→昼→夕→夜→朝の4つの場面に分け、
実施例のゲーム画像演算部22が、各場面に応じてそれ
ぞれ独自のデプスキューイング処理を行う場合を想定す
る。
Next, the game screen displayed on the display 18 is divided into four scenes of morning → day → evening → night → morning,
It is assumed that the game image calculation unit 22 of the embodiment performs a unique depth queuing process for each scene.

【0084】この場合、朝の場面では、奥カラー信号3
20として朝靄を表わす白色をセットし、昼の場面では
明るくなった日中の様子を表わす青色をセットし、(こ
の場合、遠景は、青い海や青い空にとけ込むようにな
る。)夕方の場面では夕焼けの様子を表わす赤色をセッ
トし、夜の場面では周囲の暗さを表わす黒色をそれぞれ
セットする。このとき、場面切替え時における奥カラー
信号320の切替えは、色変化が不自然とならないよう
次式に従い徐々に行う。ここにおいて、bは演算設定さ
れた奥カラー信号、b1は前の場面の奥カラー信号、b2
は次の場面の奥カラー信号を表す。但し、kは0から2
55までフレーム毎に連続または不連続に順次変化する
ものとする。
In this case, in the morning scene, the back color signal 3
20 is set to white for morning mist, and blue is used for daytime scenes to represent the brightened daytime (in this case, the distant view melts into the blue sea or blue sky). Then, set red, which represents the state of the sunset, and black, which represents the darkness of the surroundings, in the night scene. At this time, switching of the back color signal 320 at the time of scene switching is gradually performed according to the following equation so that the color change does not become unnatural. Here, b is the calculated back color signal, b1 is the back color signal of the previous scene, and b2
Represents the back color signal of the next scene. However, k is 0 to 2
Up to 55, it shall change sequentially or discontinuously for each frame.

【0085】 b=(b2−b1)×(k/255)+b1 ・・・(3) さらに、テーブル書替部32は、朝,昼,夕,夜の各場
面毎に、変換テーブル34の変換テーブルをZ´=f1
(Z),Z´=f2(Z),z´=f3(Z),z´=
f4(Z)というように順次書き替える。このとき、各
場面の切替え時における書き替えは、色変化が不自然と
ならないように行う。例えば、朝から昼の場面に切替え
る場合には、変換テーブルはf1(Z)からf2(Z)
へ切替わることになるが、このときはf1(Z)からf
2(Z)へ次第に近付くようにしてテーブル内容の書き
替えを行う。
B = (b2-b1) × (k / 255) + b1 (3) Furthermore, the table rewriting unit 32 converts the conversion table 34 for each scene of morning, daytime, evening, and night. Set the table to Z '= f1
(Z), Z '= f2 (Z), z' = f3 (Z), z '=
Rewrite sequentially like f4 (Z). At this time, rewriting when switching each scene is performed so that the color change does not become unnatural. For example, when switching from the morning to the daytime scene, the conversion table is changed from f1 (Z) to f2 (Z).
It will be switched to, but at this time from f1 (Z) to f
The contents of the table are rewritten so as to gradually approach 2 (Z).

【0086】例えば、奥行き情報Zの変換が、一次関数
よって表わされた変換式 f1(Z)=1.5・Z f2(Z)=2.0・Z で表されるとすると、設定場面の切替え時には、変換テ
ーブルf(Z)は、例えばf(Z)=1.5・Z,f
(Z)=1.6・Z,f(Z)=1.7・Z…f(Z)
=2.0・Zとなるように少しずつ切替わることにな
る。
For example, if the conversion of the depth information Z is represented by a conversion formula f1 (Z) = 1.5 · Z f2 (Z) = 2.0 · Z expressed by a linear function, the setting scene Conversion table f (Z), for example, f (Z) = 1.5 · Z, f
(Z) = 1.6 · Z, f (Z) = 1.7 · Z ... f (Z)
It will be changed little by little so that == 2.0 · Z.

【0087】そして、デプスキューイング処理を行う場
合、ゲーム画像演算部22は、ゲーム画面を構成する各
画素毎に色指定データ300を演算出力するとともに、
この色指定データ300の出力と同期して、デプスキュ
ーイング用の付随データとして奥カラー信号320、フ
ラグデータ330、テーブル指定データ340および奥
行き情報Zを出力する。なお、図8の実施例では、奥カ
ラー信号320は、パレットメモリ29から出力され
る。
When performing depth cueing processing, the game image calculation section 22 calculates and outputs the color designation data 300 for each pixel forming the game screen.
In synchronization with the output of the color designation data 300, the back color signal 320, the flag data 330, the table designation data 340, and the depth information Z are output as auxiliary data for depth cueing. In the embodiment of FIG. 8, the back color signal 320 is output from the palette memory 29.

【0088】そして、各画素毎に出力されるフラグデー
タ330に基づき、当該画素はデプスキューイングをか
ける画素か否かの判断が行われ(ステップS2)、デプ
スキューイング処理の対象となっている場合には、奥カ
ラー信号320をセットし(ステップS4)、さらにテ
ーブル指定データ340に基づき使用する変換テーブル
34を選択し、ポリゴンのZ代表値を選択された変換テ
ーブルに基づきデプスキューイング用の奥行き情報Z´
に変換出力する。
Then, based on the flag data 330 output for each pixel, it is judged whether or not the pixel is a pixel to which depth cuing is applied (step S2), and is the target of depth cuing processing. In this case, the back color signal 320 is set (step S4), the conversion table 34 to be used is further selected based on the table designation data 340, and the Z representative value of the polygon is used for depth cueing based on the selected conversion table. Depth information Z '
Converted to and output.

【0089】そして、このようにして求めた各データに
基づき、前記数式(2)にしたがってカラーパレットメ
モリ28から出力されるカラー信号310を線形補間演
算し、デプスキューイング処理された色信号350を出
力する(ステップS7)。
Then, based on each data thus obtained, the color signal 310 output from the color palette memory 28 is linearly interpolated according to the equation (2), and the depth cueing processed color signal 350 is obtained. Output (step S7).

【0090】実施例の画像合成装置は、このような処理
を各画素毎に繰り返して行う。特にフラグデータ330
によってデプスキューイング処理が指定されたポリゴン
に対して選択的にデプスキューイング処理を行うように
動作する(ステップS5〜S7)。
The image synthesizing apparatus of the embodiment repeats such processing for each pixel. Especially flag data 330
The depth cueing process is selectively performed on the polygon for which the depth cueing process is designated (steps S5 to S7).

【0091】以上の構成とすることにより、例えば朝の
場面設定においては、変換テーブル34に朝用の変換テ
ーブルZ´=f1(Z)が設定され、奥カラー信号32
0として白色が設定されると、図6に示すゲーム画面
は、朝靄がかかった画面となるようデプスキューイング
処理されることになる。
With the above configuration, for example, in the morning scene setting, the conversion table Z '= f1 (Z) for morning is set in the conversion table 34, and the back color signal 32 is set.
When white is set as 0, the game screen shown in FIG. 6 is subjected to depth cueing processing so that it becomes a screen with a mist.

【0092】このとき、実施例の装置では、各表示ポリ
ゴン毎に変換テーブル34をテーブル指定データ34で
選択できるように構成されている。このため、例えば図
中中央に表示される海岸付近のポリゴン群430と、図
中右側に表示される陸地側のポリゴン群430とが異な
った変換テーブル34をそれぞれ用いるように形成でき
る。この結果、例えば海岸付近に表示されるやしの木等
を濃い霧に霞んだ物体として表示し、図中右側に表示さ
れる建物等は比較的遠くまで見える物体として表示する
ようゲーム画面を構成できる。
At this time, in the apparatus of the embodiment, the conversion table 34 can be selected by the table designation data 34 for each display polygon. Therefore, for example, the conversion table 34 can be formed such that the polygon group 430 near the coast displayed in the center of the drawing and the land side polygon group 430 displayed on the right side of the drawing are different from each other. As a result, the game screen is configured so that, for example, palm trees and other objects displayed near the coast are displayed as objects hazeed in thick fog, and buildings and other objects displayed on the right side of the figure are displayed as objects that can be seen relatively far. it can.

【0093】また場面が、朝から昼に切替わる場合に
は、変換テーブル34内の変換テーブルはf1(Z)か
らf2(Z)へ次第に切替わるように書き替えられ、さ
らに奥カラー信号320も白色から青色に次第に変わる
よう設定される。
When the scene is switched from morning to noon, the conversion table in the conversion table 34 is rewritten so as to gradually switch from f1 (Z) to f2 (Z), and the back color signal 320 is also changed. It is set to gradually change from white to blue.

【0094】これにより、図6に示すゲーム画面は、空
の青さを反映した昼間の明るい画面として表示されるこ
とになる。このとき、変換テーブル34は、遠くの物体
までクリアに見えるよう、奥行き情報Zをデプスキュー
イング用のZ´の値に変換する。
As a result, the game screen shown in FIG. 6 is displayed as a bright daytime screen reflecting the blueness of the sky. At this time, the conversion table 34 converts the depth information Z into a value of Z ′ for depth cueing so that even a distant object can be seen clearly.

【0095】また、場面が昼から夕方に切替わった場合
には、同様に変換テーブル34の変換テーブルの書き替
えが行われるとともに、奥カラー信号320として夕方
の雰囲気を出す赤色に設定され、図6に示すゲーム画面
が夕焼けに染まった夕方の画像として表示されることに
なる。
Also, when the scene is switched from daytime to evening, the conversion table of the conversion table 34 is rewritten in the same manner, and the back color signal 320 is set to red which gives an atmosphere of evening, and The game screen shown in FIG. 6 is displayed as an image of the evening when it is dyed in the sunset.

【0096】さらに、場面が夜に切替わると、変換テー
ブル34の変換テーブルも同様にして書き替えられ、さ
らに奥カラー信号320は、夜の暗さを表す黒色に設定
される。このとき、変換テーブル34は、図6に示すゲ
ーム画面では比較的よく見える物体でも、夜の暗さによ
って見えないように画像処理する必要がある。このた
め、ある一定距離以上離れた物体はほとんど見えなくな
るように変換テーブルが設定されている。これにより、
図7に示すよう、視点位置からある一定距離以上離れた
物体は全て奥カラー信号に溶け込む黒色として表示さ
れ、夜の景色を演出することができる。
Further, when the scene is switched to night, the conversion table of the conversion table 34 is similarly rewritten, and the back color signal 320 is set to black which represents the darkness of night. At this time, the conversion table 34 needs to be image-processed so that an object that is relatively well visible on the game screen shown in FIG. 6 cannot be seen due to the darkness of the night. For this reason, the conversion table is set so that objects that are separated by a certain distance or more are almost invisible. This allows
As shown in FIG. 7, all objects that are a certain distance or more away from the viewpoint position are displayed as black that blends into the back color signal, and a night view can be rendered.

【0097】特に、実施例の画像合成装置では、このよ
うなデプスキューイング処理を各ポリゴン毎に行ってい
る。したがって、建物400の窓410を表すポリゴン
は、デプスキューイング処理しないようにフラグデータ
330を演算設定することにより、暗い景色の中に建物
の窓410だけが明るく輝いて見えるようなゲーム画面
を合成表示することができる。
Particularly, in the image synthesizing apparatus of the embodiment, such depth cueing processing is performed for each polygon. Therefore, for the polygon representing the window 410 of the building 400, by setting the flag data 330 so as not to perform depth cueing processing, a game screen in which only the window 410 of the building looks bright in a dark scene is synthesized. Can be displayed.

【0098】このようにデプスキューイングをかけない
対象物を画面上に選択的に設定表示できることにより、
「夜の灯り」等を表現したり、「対向車のヘッドライ
ト」等を効果的に表現したりすることができる。
As described above, it is possible to selectively set and display the object on which the depth cuing is not applied,
It is possible to represent "night lights" and the like, and effectively represent "headlights of oncoming vehicles" and the like.

【0099】なお、前記実施例では、デプスキューイン
グ処理により、朝、昼、夕、夜等の時間の変化を表現し
たが、本発明はこれに限らず、各種の場面設定を効果的
に行うことができ、例えば、天候の変化(霧、雲、ガス
などがかかった景色)等や、その他画面上の特殊な表現
をする場合に用いることができる。
In the above embodiment, the depth cueing process is used to express changes in time such as morning, daytime, evening, and night. However, the present invention is not limited to this, and various scene settings are effectively performed. It can be used, for example, when the weather changes (scenery covered with fog, clouds, gas, etc.) and other special expressions on the screen.

【0100】また、前記実施例では、異なる変換テーブ
ルが記憶された複数の変換テーブルメモリを設け、表示
場面に応じて、各変換テーブルメモリに記憶された変換
テーブルの書き替えを行っていたが、変換テーブルメモ
リに記憶された変換テーブルの書き替えを行うことなく
デプスキューイングを行う構成としてもよい。
In the above embodiment, a plurality of conversion table memories storing different conversion tables are provided and the conversion tables stored in the respective conversion table memories are rewritten according to the display scene. The depth queuing may be performed without rewriting the conversion table stored in the conversion table memory.

【0101】また、前記実施例では、本発明をビデオゲ
ーム装置のゲーム画面を合成する場合を例にとり説明し
たが、本発明はこれに限らず、これ以外の各種用途、例
えば3次元シミュレータおよびその他の用途に幅広く用
いることができる。
In the above embodiments, the present invention has been described by taking as an example the case of synthesizing the game screen of the video game device, but the present invention is not limited to this, and various other applications such as a three-dimensional simulator and others. It can be used for a wide range of purposes.

【0102】また、本発明の画像合成装置は、テクスチ
ャマッピングや、塗り潰し処理等の各種画像合成の手法
を用いて色指定データ300を出力する画像合成装置に
幅広く適用することができる。
Further, the image synthesizing apparatus of the present invention can be widely applied to the image synthesizing apparatus which outputs the color designation data 300 by using various image synthesizing methods such as texture mapping and filling processing.

【図面の簡単な説明】[Brief description of drawings]

【図1】図1は、本発明が適用されたビデオゲーム用の
画像合成装置のブロック図である。
FIG. 1 is a block diagram of an image synthesizing apparatus for a video game to which the present invention is applied.

【図2】図2は、図1に示す画像合成装置を用いた業務
用ビデオゲーム装置の外観斜視説明図である。
FIG. 2 is an external perspective view of a commercial video game device using the image compositing device shown in FIG.

【図3】図3は、実施例の画像合成装置の疑似3次元画
像の作成原理の説明図である。
FIG. 3 is an explanatory diagram of a principle of creating a pseudo three-dimensional image of the image compositing apparatus according to the embodiment.

【図4】図4は、実施例の画像合成装置のデプスキュー
イング処理の原理説明図である。
FIG. 4 is an explanatory view of the principle of the depth cueing processing of the image synthesizing apparatus of the embodiment.

【図5】図5は、実施例の画像合成装置のデプスキュー
イング処理動作を示すフローチャート図である。
FIG. 5 is a flowchart showing the depth queuing processing operation of the image synthesizing apparatus of the embodiment.

【図6】図6は、実施例の画像合成装置にて作成された
ゲーム画面の説明図である。
FIG. 6 is an explanatory diagram of a game screen created by the image compositing device according to the embodiment.

【図7】図7は、夜の場面用にデプスキューイング処理
されたゲーム画面の一例を示す説明図である。
FIG. 7 is an explanatory diagram showing an example of a game screen subjected to depth cueing processing for a night scene.

【図8】図8は、本発明が適用されたビテオゲーム用の
画像合成装置の他の一例を示すブロック図である。
FIG. 8 is a block diagram showing another example of an image synthesizing device for a video game to which the present invention is applied.

【符号の説明】[Explanation of symbols]

18 ディスプレイ 26 デプスキューイング情報設定手段 28 カラーパレット 30 情報変換部 36 色信号演算手段 300 色指定データ 320 奥カラー信号 350 色信号 18 display 26 Depth Cuing Information Setting Means 28 color palettes 30 Information converter 36-color signal calculation means 300 color specification data 320 back color signal 350 color signal

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成14年7月24日(2002.7.2
4)
[Submission date] July 24, 2002 (2002.7.2)
4)

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】特許請求の範囲[Name of item to be amended] Claims

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【特許請求の範囲】[Claims]

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 17/40 G06T 17/40 E Fターム(参考) 2C001 AA09 BA02 BA05 BC01 BC03 BC06 CB01 CC02 5B050 BA08 BA09 BA11 CA07 EA09 EA19 EA24 EA27 EA30 FA05 5B057 CA01 CA08 CA13 CA17 CB01 CB08 CB12 CB16 CE08 CE11 CE17 5B080 AA13 FA02 GA18 Front page continuation (51) Int.Cl. 7 Identification code FI theme code (reference) G06T 17/40 G06T 17/40 EF term (reference) 2C001 AA09 BA02 BA05 BC01 BC03 BC06 CB01 CC02 5B050 BA08 BA09 BA11 CA07 EA09 EA19 EA24 EA27 EA30 FA05 5B057 CA01 CA08 CA13 CA17 CB01 CB08 CB12 CB16 CE08 CE11 CE17 5B080 AA13 FA02 GA18

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 仮想3次元空間内に、ポリゴンを組合わ
せて表現された3次元オブジェクトを、視点座標系の投
影面に投影変換し、各画素の前色指定データを演算し表
示画像を合成する画像合成装置において、 表示場面に応じてデプスキューイング用の奥カラー信号
を設定するとともに、前記各ポリゴンの前記視点座標系
における奥行き情報を演算するデプスキューイング情報
設定手段と、 各画素毎に出力される前記前色指定データに基づき色信
号を前カラー信号として出力する第1のカラーパレット
と、 前記奥行き情報、前カラー信号、奥カラー信号に基づ
き、各画素毎にデプスキューイングされた色信号を出力
する色信号演算手段と、 を含むことを特徴とする画像合成装置。
1. A three-dimensional object represented by combining polygons in a virtual three-dimensional space is projected and converted on a projection plane of a viewpoint coordinate system, and pre-color designation data of each pixel is calculated to synthesize a display image. In the image synthesizing device, a depth cueing information setting unit that sets depth color signals for depth cueing according to a display scene, calculates depth information in the viewpoint coordinate system of each polygon, and for each pixel A first color palette that outputs a color signal as a front color signal based on the output previous color designation data, and a color depth depthed for each pixel based on the depth information, the front color signal, and the back color signal. An image synthesizing apparatus comprising: a color signal calculating unit that outputs a signal.
【請求項2】 仮想3次元空間内に、ポリゴンを組合わ
せて表現された3次元オブジェクトを、視点座標系の投
影面に投影変換し、各画素の前色指定データを演算し表
示画像を合成する画像合成装置において、 表示場面に応じてデプスキューイング用の奥色指定デー
タを設定するとともに、前記各ポリゴンの前記視点座標
系における奥行き情報を演算するデプスキューイング情
報設定手段と、 各画素毎に出力される前記前色指定データに基づき色信
号を前カラー信号として出力する第1のカラーパレット
と、 前記奥色指定データに基づき色信号を奥カラー信号とし
て出力する第2のカラーパレットと、 前記奥行き情報、前カラー信号、奥カラー信号に基づ
き、各画素毎にデプスキューイングされた色信号を出力
する色信号演算手段と、 を含むことを特徴とする画像合成装置。
2. A three-dimensional object represented by combining polygons in a virtual three-dimensional space is projected and converted onto a projection plane of a viewpoint coordinate system, and pre-color designation data of each pixel is calculated to synthesize a display image. In the image synthesizing device, a depth cueing information setting unit that sets depth color designation data for depth cueing according to a display scene, calculates depth information in the viewpoint coordinate system of each polygon, and for each pixel. A first color palette that outputs a color signal as a front color signal based on the previous color designation data that is output to the second color palette; and a second color palette that outputs a color signal as a back color signal based on the back color designation data. A color signal calculating means for outputting a depth-cueed color signal for each pixel based on the depth information, the previous color signal, and the back color signal. Image synthesizing apparatus characterized by.
【請求項3】 請求項1〜2のいずれかにおいて、 前記各ポリゴンの前記視点座標系における実際の奥行き
情報Zをデプスキューイング用の奥行き情報Z´に変換
出力する奥行き情報変換手段を含み、 前記色信号演算手段は、 前記デプスキューイング用の奥行き情報Z´、前カラー
信号、奥カラー信号に基づき、各画素毎にデプスキュー
イングされた色信号を出力することを特徴とする画像合
成装置。
3. The depth information conversion means according to claim 1, further comprising: depth information conversion means for converting and outputting actual depth information Z in the viewpoint coordinate system of each polygon into depth information Z ′ for depth cueing. The color signal calculation means outputs a depth-cueed color signal for each pixel based on the depth information Z ′ for depth cueing, a front color signal, and a back color signal. .
【請求項4】 請求項3において、 前記奥行き情報変換手段は、 前記異なる変換テーブルが記憶された複数の変換テーブ
ルメモリを含み、 表示対象に応じて、前記複数の変換テーブルのいずれか
を用い実際の奥行き情報Zをデプスキューイング用の奥
行き情報Z´に変換出力することを特徴とする画像合成
装置。
4. The depth information converting means according to claim 3, including a plurality of conversion table memories storing the different conversion tables, and using any one of the plurality of conversion tables according to a display target. An image synthesizing apparatus, which converts the depth information Z of the above into depth information Z ′ for depth cueing and outputs.
【請求項5】 請求項3において、 前記奥行き情報変換手段は、 前記各ポリゴンの前記視点座標系における実際の奥行き
情報Zをデプスキューイング用の奥行き情報Z´に変換
出力する変換テーブルが記憶された変換テーブルメモリ
と、 表示場面の切り替えに応じて、前記変換テーブルメモリ
に記憶された変換テーブルの内容を書き替えるテーブル
書き替え手段と、 を含むことを特徴とする画像合成装置。
5. The depth information conversion means according to claim 3, wherein a conversion table for converting and outputting actual depth information Z in the viewpoint coordinate system of each polygon into depth information Z ′ for depth cueing is stored. An image synthesizing apparatus, comprising: a conversion table memory; and a table rewriting unit that rewrites the contents of the conversion table stored in the conversion table memory according to switching of a display scene.
【請求項6】 請求項1、3〜5のいずれかにおいて、 前記デプスキューイング情報設定手段は、 前記奥カラー信号をR,G,B各色の輝度信号情報とし
て設定し、表示場面の切替え時には、時間の経過に応じ
て前記輝度信号情報を切替え後の目標値に向け徐々に変
化させるよう形成されたことを特徴とする画像合成装
置。
6. The depth cueing information setting means according to claim 1, wherein the depth cueing information setting means sets the back color signal as luminance signal information for each color of R, G, and B, and when switching a display scene. An image synthesizing apparatus, which is formed so as to gradually change the luminance signal information toward a target value after switching according to the passage of time.
【請求項7】 請求項6において、 前記デプスキューイング情報設定手段は、 場面切替え時における前の場面の目標値iから次の場面
の目標値jへの奥カラー信号の変化を、場面切替えに要
する時間をT、経過時間をtとし、次式に示す輝度信号
情報hとしてR,G,Bの各色毎に演算し、 h=(j−i)×(t/T)+i その演算値を奥カラー信号として順次設定することを特
徴とする画像合成装置。
7. The depth cueing information setting means according to claim 6, wherein the change of the back color signal from the target value i of the previous scene to the target value j of the next scene at the time of scene switching is used for scene switching. The required time is T, the elapsed time is t, and luminance signal information h shown in the following equation is calculated for each color of R, G, and B, and h = (j−i) × (t / T) + i An image synthesizing device characterized in that it is sequentially set as a back color signal.
【請求項8】 請求項2〜5のいずれかにおいて、 前記デプスキューイング情報設定手段は、 表示場面の切替え時には、前記奥カラー信号のR,G,
B各色の輝度信号情報を、時間の経過に応じて切替え後
の目標値に向け徐々に変化させるよう前記第2のカラー
パレットから読み出すための奥色指定データを演算出力
するよう形成されたことを特徴とする画像合成装置。
8. The depth queuing information setting means according to claim 2, wherein when the display scene is switched, the depth color signals R, G, and
It is formed so as to arithmetically output the back color designation data for reading from the second color palette so that the luminance signal information of each color B is gradually changed toward the target value after switching with the passage of time. Characteristic image synthesizer.
【請求項9】 請求項8において、 前記デプスキューイング情報設定手段は、 場面切替え時における前の場面の目標値iから次の場面
の目標値jへの奥カラー信号の変化を、場面切替えに要
する時間をT、経過時間をtとし、次式に示す輝度信号
情報hとしてR,G,Bの各色毎に前記第2のカラーパ
レットから読み出すための奥色指定データを演算出力す
ることを特徴とする画像合成装置。 h=(j−i)×(t/T)+i
9. The depth queuing information setting means according to claim 8, wherein the change of the back color signal from the target value i of the previous scene to the target value j of the next scene at the time of scene switching is used for scene switching. The time required is T, the elapsed time is t, and the brightness signal information h shown in the following equation is used to arithmetically output the back color designation data for reading from the second color palette for each color of R, G, B. Image synthesizer. h = (j−i) × (t / T) + i
【請求項10】 請求項1〜9のいずれかにおいて、 前記デプスキューイング情報設定手段は、 前記各ポリゴン毎に、デプスキューイング処理の対象と
するか否かの処理対象識別データを演算出力し、 前記色信号演算手段は、 前記処理対象識別データに基づき、処理対象となるポリ
ゴンの画素か否かを判別し、処理対象画素に対して前記
デプスキューイングされた色信号の演算を行うことを特
徴とする画像合成装置。
10. The depth queuing information setting means according to claim 1, arithmetically outputting, for each of the polygons, processing target identification data indicating whether or not to be the target of the depth cuing processing. The color signal calculation means determines whether the pixel of the polygon to be processed is based on the processing target identification data, and calculates the depth-cueed color signal for the processing target pixel. Characteristic image synthesizer.
【請求項11】 請求項1〜10のいずれかにおいて、 前記第1のカラーパレットは、 N段階の輝度のR,G,Bの色信号を出力するよう形成
され、 前記色信号演算手段は、 前記前カラー信号をa、奥カラー信号をbとし、次式 c=(b−a)×(Z´/N)+a に基づき各画素毎にデプスキューイングされた色信号c
を出力することを特徴とする画像合成装置。
11. The first color palette according to claim 1, wherein the first color palette is formed to output R, G, and B color signals having N levels of brightness, and the color signal calculation means Letting the previous color signal be a and the back color signal be b, the color signal c depth-skewed for each pixel based on the following equation c = (b−a) × (Z ′ / N) + a
An image synthesizing device which outputs
【請求項12】 プレーヤが操作するプレーヤ操作手段
と、 前記プレーヤ操作手段からの入力信号と、予め記憶され
たゲームプログラムとに基づき、仮想3次元ゲーム空間
内に、ポリゴンを組合わせて表現された3次元オブジェ
クトが登場する所定のゲーム演算を行うとともに、前記
3次元オブジェクトを視点座標系の投影面に透視投影変
換し、各画素毎に色指定データを演算し表示画像を合成
する請求の範囲第1項〜第11項のいずれかに記載の画
像合成装置と、 を含み、ディスプレイ上にゲーム画像を表示することを
特徴とするゲーム装置。
12. A polygon is combined and expressed in a virtual three-dimensional game space based on a player operating means operated by a player, an input signal from the player operating means, and a game program stored in advance. A predetermined game calculation in which a three-dimensional object appears is performed, the three-dimensional object is perspective-projected onto a projection plane of a viewpoint coordinate system, color designation data is calculated for each pixel, and a display image is combined. An image synthesizing device according to any one of items 1 to 11, wherein a game image is displayed on a display.
JP2002190092A 1993-06-21 2002-06-28 Image composition apparatus and video game apparatus using the same Expired - Lifetime JP3656062B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002190092A JP3656062B2 (en) 1993-06-21 2002-06-28 Image composition apparatus and video game apparatus using the same

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP5-173698 1993-06-21
JP17369893 1993-06-21
JP2002190092A JP3656062B2 (en) 1993-06-21 2002-06-28 Image composition apparatus and video game apparatus using the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP50264795A Division JP3394258B2 (en) 1993-06-21 1994-06-21 Image synthesizing apparatus and video game apparatus using the same

Publications (2)

Publication Number Publication Date
JP2003123091A true JP2003123091A (en) 2003-04-25
JP3656062B2 JP3656062B2 (en) 2005-06-02

Family

ID=26495577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002190092A Expired - Lifetime JP3656062B2 (en) 1993-06-21 2002-06-28 Image composition apparatus and video game apparatus using the same

Country Status (1)

Country Link
JP (1) JP3656062B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012191569A (en) * 2011-03-14 2012-10-04 National Institute Of Information & Communication Technology Stereoscopic video encoder, stereoscopic video encoding method, stereoscopic video decoder and stereoscopic video decoding method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012191569A (en) * 2011-03-14 2012-10-04 National Institute Of Information & Communication Technology Stereoscopic video encoder, stereoscopic video encoding method, stereoscopic video decoder and stereoscopic video decoding method

Also Published As

Publication number Publication date
JP3656062B2 (en) 2005-06-02

Similar Documents

Publication Publication Date Title
US6100895A (en) Apparatus and method of image synthesization
JP3442181B2 (en) 3D game device and image composition method
US5870098A (en) Method for rendering shadows on a graphical display
US5459529A (en) Video processing for composite images
US5577960A (en) Image synthesizing system and game playing apparatus using the same
JP2807608B2 (en) Sorting processing apparatus, image synthesizing apparatus using the same, and sorting processing method
US8305392B2 (en) Storage medium having game program stored therein and game apparatus
JP2000132706A (en) Recording medium, image processor and image processing method
JP3394258B2 (en) Image synthesizing apparatus and video game apparatus using the same
US20090080803A1 (en) Image processing program, computer-readable recording medium recording the program, image processing apparatus and image processing method
JP2008027064A (en) Program, information recording medium, and image forming system
JP4824514B2 (en) Program, information storage medium, and image generation system
JP2003123091A (en) Image composition system and video game player using the same
US7446767B2 (en) Game apparatus and game program
JP3367934B2 (en) Game system, image drawing method in game system, and computer-readable recording medium storing game program
JP2928119B2 (en) Image synthesis device
JP3364456B2 (en) 3D simulator apparatus and image composition method
JP2763502B2 (en) Image synthesizing apparatus and image synthesizing method
JP2004121868A (en) Three-dimensional game device and method for image synthesis
JP3538248B2 (en) Image composition apparatus and image composition method
JP3547430B2 (en) 3D game device and image composition method
JP5359054B2 (en) GAME DEVICE, GAME DEVICE IMAGE PROCESSING METHOD, GAME IMAGE PROCESSING PROGRAM, ITS STORAGE MEDIUM, AND GAME DEVICE IMAGE PROCESSING METHOD
JP2008077406A (en) Image generation system, program, and information storage medium
JPH10283499A (en) Device for generating video and method therefor and record medium
JPH08249479A (en) Device and method for picture composition

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050307

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140311

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term