JP3656062B2 - Image composition apparatus and video game apparatus using the same - Google Patents

Image composition apparatus and video game apparatus using the same Download PDF

Info

Publication number
JP3656062B2
JP3656062B2 JP2002190092A JP2002190092A JP3656062B2 JP 3656062 B2 JP3656062 B2 JP 3656062B2 JP 2002190092 A JP2002190092 A JP 2002190092A JP 2002190092 A JP2002190092 A JP 2002190092A JP 3656062 B2 JP3656062 B2 JP 3656062B2
Authority
JP
Japan
Prior art keywords
depth
color signal
color
pixel
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002190092A
Other languages
Japanese (ja)
Other versions
JP2003123091A (en
Inventor
一浩 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2002190092A priority Critical patent/JP3656062B2/en
Publication of JP2003123091A publication Critical patent/JP2003123091A/en
Application granted granted Critical
Publication of JP3656062B2 publication Critical patent/JP3656062B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、デプスキューイングの手法を用いた画像合成装置およびこれを用いたビデオゲーム装置に関する。
【0002】
【背景技術及び発明が解決しようとする課題】
従来、コンピュータグラフィックスの技術を用い、疑似3次元画像を合成する画像合成装置が知られており、例えば、ビデオゲームや、各種シミュレータおよびその他の用途に幅広く用いられている。
【0003】
このような画像合成装置では、視点からの距離に応じて各ポリゴンの輝度を変えるデプスキューイングという手法が用いられている。
【0004】
しかし、従来の画像合成装置では、ハードウエアの負担を軽減しながら、デプスキューイングを行うことができないという問題があった。
【0005】
すなわち、デプスキューイングの手法を用い画像合成を行う場合、仮想3次元空間300内における視点と各ポリゴンとの距離を表すZ座標値に基づき、各ポリゴンの輝度を変化させ、奥行き方向を背景に溶け込ませることが行われている。
【0006】
しかし、従来の技術では、奥行き方向の輝度をZ座標値に基づきN段階にわたって(Nは整数)変化させようとすると、N個のカラーパレット用メモリを用意し、色情報を書き込む必要がある。例えば、パレット1には基の色を書き込み、パレット2には次の色を書き込み、……最後のパレットNには、背景に溶け込む色を書き込むという作業を行う必要がある。この手法を用い、スムーズに輝度を変化させるためには、パレットを多数用意しなければならず、その分、メモリ容量が増え、装置全体が高価なものとなってしまうという問題があった。
【0007】
特に、今日の画像合成装置では、色合いをこまやかに表示するために、基本となるパレットが多数設けられることが多い。この場合には、基本パレット数をM個とすると、M×N個のパレットを用意しなければならず、メモリ容量がさらに大きくなり、しかもその分、演算に用いるCPUの負担も大きなものとなる。このため、装置全体がより高コストかつ複雑なものとなってしまうことが避けられなかった。
【0008】
本発明は、このような従来の課題に鑑みて成されたものであり、その目的は、簡単な構成でデプスキューイングを行うことができる画像合成装置およびこれを用いたビデオゲーム装置を提供することにある。
【0009】
【課題を解決するための手段】
前記目的を達成するため、本発明は、
仮想3次元空間内に、ポリゴンを組合わせて表現された3次元オブジェクトを、視点座標系の投影面に投影変換し、各画素の前色指定データを演算し表示画像を合成する画像合成装置において、
表示場面に応じてデプスキューイング用の奥カラー信号を設定するとともに、前記各ポリゴンの前記視点座標系における奥行き情報を演算するデプスキューイング情報設定手段と、
各画素毎に出力される前記前色指定データに基づき色信号を前カラー信号として出力する第1のカラーパレットと、
前記奥行き情報、前カラー信号、奥カラー信号に基づき、各画素毎にデプスキューイングされた色信号を出力する色信号演算手段と、
を含むことを特徴とする。
【0010】
本発明の装置のデプスキューイング情報設定手段は、各表示場面に応じて、デプスキューイング用の奥カラー信号を設定する。
【0011】
さらにデプスキューイング情報設定手段は、視点座標系における各ポリゴンの奥行き情報を各画素毎に出力する。
【0012】
カラーパレットは、各画素毎に出力される色指定データに基づき、色信号を前カラー信号として出力する。
【0013】
そして、色信号演算手段は、前記奥行き情報、前カラー信号、奥カラー信号に基づき、各画素毎にデプスキューイングされた色信号を演算出力し、ディスプレイ上に表示する。
【0014】
このように、本発明によれば、各表示場面に応じて、デプスキューイング用の奥カラー信号を設定することにより、デプスキューイングされた色信号を演算により求めることができる。したがって、奥行き方向の輝度を多段階にわたって変化させる場合でも、カラーパレットを多数用意する必要はなく、回路全体の構成を簡単かつ安価なものとすることができる。
【0015】
また、本発明は、
仮想3次元空間内に、ポリゴンを組合わせて表現された3次元オブジェクトを、視点座標系の投影面に投影変換し、各画素の前色指定データを演算し表示画像を合成する画像合成装置において、
表示場面に応じてデプスキューイング用の奥色指定データを設定するとともに、前記各ポリゴンの前記視点座標系における奥行き情報を演算するデプスキューイング情報設定手段と、
各画素毎に出力される前記前色指定データに基づき色信号を前カラー信号として出力する第1のカラーパレットと、
前記奥色指定データに基づき色信号を奥カラー信号として出力する第2のカラーパレットと、
前記奥行き情報、前カラー信号、奥カラー信号に基づき、各画素毎にデプスキューイングされた色信号を出力する色信号演算手段と、
を含むことを特徴とする。
【0016】
このような構成を採用することによって、本発明によれば、奥行き方向の輝度を多段階にわたって変化させる場合でも、カラーパレットを多数用意する必要はなく、回路全体の構成を簡単かつ安価なものとすることができる。
【0017】
ここにおいて、本発明の装置は、
前記各ポリゴンの前記視点座標系における実際の奥行き情報Zをデプスキューイング用の奥行き情報Z´に変換出力する奥行き情報変換手段を含み、
前記色信号演算手段は、
前記デプスキューイング用の奥行き情報Z´、前カラー信号、奥カラー信号に基づき、各画素毎にデプスキューイングされた色信号を出力するよう形成することが好ましい。
【0018】
このようにして、本発明によれば、各ポリゴンの視点座標系における実際の奥行き情報Zは、奥行き情報変換手段により、デプスキューイング用の奥行き情報をZ´に変換出力される。これにより、表示場面に応じて、さらに効果的なデプスキューイング処理を行うことができる。
【0019】
また、前記奥行き情報変換手段は、
前記異なる変換テーブルが記憶された複数の変換テーブルメモリを含み、
表示対象に応じて、前記複数の変換テーブルのいずれかを用い実際の奥行き情報Zをデプスキューイング用の奥行き情報Z´に変換出力するよう形成できる。
【0020】
このようにして、本発明によれば、異なる変換テーブルが記憶された複数の変換テーブルメモリを設け、表示対象に応じて、前記複数の変換テーブルのいずれかを用い実際の奥行き情報Zをデプスキューイング用の奥行き情報Z´に変換出力している。これにより、表示対象に応じたデプスキューイングを効果的に行うことが可能となる。
【0021】
また、前記奥行き情報変換手段は、
前記各ポリゴンの前記視点座標系における実際の奥行き情報Zをデプスキューイング用の奥行き情報Z´に変換出力する変換テーブルが記憶された変換テーブルメモリと、
表示場面の切り替えに応じて、前記変換テーブルメモリに記憶された変換テーブルの内容を書き替えるテーブル書き替え手段と、
を含むよう形成することが好ましい。
【0022】
このように、各表示場面に応じて、変換テーブルメモリに記憶された変換テーブルの書き替えを行うことにより、表示場面に応じたデプスキューイングをさらに効果的に行うことが可能となる。
【0023】
また、前記第2のカラーパレットを用いないタイプの装置において、
前記デプスキューイング情報設定手段は、
前記奥カラー信号をR,G,B各色の輝度信号情報として設定し、表示場面の切替え時には、時間の経過に応じて前記輝度信号情報を切替え後の目標値に向け徐々に変化させるよう形成することが好ましい。
【0024】
この場合、前記デプスキューイング情報設定手段は、
場面切替え時における前の場面の目標値iから次の場面の目標値jへの奥カラー信号の変化を、場面切替えに要する時間をT、経過時間をtとし、次式に示す輝度信号情報hとしてR,G,Bの各色毎に演算し、
h=(j−i)×(t/T)+i
その演算値を奥カラー信号として順次設定するよう形成することが好ましい。
【0025】
このようにすることにより、場面切り替え時におけるデプスキューイング処理をスムースに行うことができる。
また、前記第2のカラーパレットを用いるタイプの装置において、
前記デプスキューイング情報設定手段は、
表示場面の切替え時には、前記奥カラー信号のR,G,B各色の輝度信号情報を、時間の経過に応じて切替え後の目標値に向け徐々に変化させるよう前記第2のカラーパレットから読み出すための奥色指定データを演算出力するよう形成することが好ましい。
【0026】
この場合、前記デプスキューイング情報設定手段は、
場面切替え時における前の場面の目標値iから次の場面の目標値jへの奥カラー信号の変化を、場面切替えに要する時間をT、経過時間をtとし、次式に示す輝度信号情報hとしてR,G,Bの各色毎に前記第2のカラーパレットから読み出すための奥色指定データを演算出力するよう形成することが好ましい。
【0027】
h=(j−i)×(t/T)+i
このようにすることにより、場面切り替え時におけるデプスキューイング処理をスムースに行うことができる。
【0028】
また、前記デプスキューイング情報設定手段は、
前記各ポリゴン毎に、デプスキューイング処理の対象とするか否かの処理対象識別データを演算出力し、
前記色信号演算手段は、
前記処理対象識別データに基づき、処理対象となるポリゴンの画素か否かを判別し、処理対象画素に対して前記デプスキューイングされた色信号の演算を行うよう形成できる。
【0029】
このように、表示ポリゴン毎にデプスキューイング処理の対象とするか否かを決定し、デプスキューイング処理をポリゴン単位で選択的に行うことにより、デプスキューイングをかけない物体をディスプレイ上に選択的に設定することができる。例えば、夜の場面を表示する場合に、建物の窓を表すポリゴンをデプスキューイング対象としないことにより、窓から明りが洩れてくるような建物を効果的に表示することができる。
【0030】
前記第1のカラーパレットは、
N段階の輝度のR,G,Bの色信号を出力するよう形成され、
前記色信号演算手段は、
前記前カラー信号をa、奥カラー信号をbとし、次式
c=(b−a)×(Z´/N)+a
に基づき各画素毎にデプスキューイングされた色信号cを出力するよう形成できる。
【0031】
このように、所定の線形補間演算を行うことにより、デプスキューイングされた色信号を各画素毎に簡単に求めることができる。
【0032】
また、本発明のビデオゲーム装置は、
プレーヤが操作するプレーヤ操作手段と、
前記プレーヤ操作手段からの入力信号と、予め記憶されたゲームプログラムとに基づき、仮想3次元ゲーム空間内に、ポリゴンを組合わせて表現された3次元オブジェクトが登場する所定のゲーム演算を行うとともに、前記3次元オブジェクトを視点座標系の投影面に投影変換し、各画素毎に色指定データを演算し表示画像を合成するよう形成された本発明の前記画像合成装置と、
を含み、ディスプレイ上にゲーム画像を表示することを特徴とする。
【0033】
このようにすることにより、簡単な構成の画像合成装置を用い、デプスキューイング処理されたゲーム画像をディスプレイ上に表示できるビデオゲーム装置を得ることができる。
【0034】
【発明の実施の形態】
次に、本発明の好適な実施例を図面に基づき詳細に説明する。
【0035】
図2には、実施例の業務用ビデオゲーム装置10の外観が概略的に示されている。
【0036】
実施例の業務用ビデオゲーム装置10は、サーキットコースを走行するレーシングカーをプレーヤが運転し、コンピュータの操縦するコンピュータカーや他のプレーヤの運転するレーシングカーと順位、時間を競い合うように形成されている。
【0037】
このため、前記業務用ゲーム装置10は、実際のレーシングカーの運転席と同様に形成されている。そして、一定のゲーム料金を支払うとゲームが開始され、シート12に座ったプレーヤは、ハンドル14、シフトレバー16、その他のペダル類を操作しながら、ディスプレイ18上に表示される風景を見ながら架空のレーシングカーを運転し、ゲームを行う。
【0038】
図1には、前記業務用ビデオゲーム装置のブロック図が示されている。
【0039】
実施例の業務用ビデオゲーム装置10は、操作部20と、ゲーム画像演算部22と、パレットコントローラ24と、前記ディスプレイ18とを含む。
【0040】
操作部20は、図2に示すハンドル14、シフトレバー16及びその他のペダル類等の、プレーヤの操作する部材である。
【0041】
ゲーム画像演算部22は、プレーヤ操作部20からの入力信号と、あらかじめ定められたゲームプログラムとに基づき、各種のゲーム演算を行い、パレットコントローラ24を用いてディスプレイ18上にドライビィングゲーム用のゲーム画面を表示させる。ここにおいて、前記ゲーム画像演算部22は、所定の3次元ゲーム空間内を、プレーヤの操縦によりレーシングカーが移動するようにゲーム演算を行い、このようにして3次元ゲーム空間内のさまざまな物体や移動体を所定の投影面に透視投影変換して、ゲーム画面を形成し、これをディスプレイ18上に表示するように形成されている。
【0042】
図3には、このような画像合成手法の原理図が示されている。
【0043】
実施例のゲーム画像演算部22には、3次元ゲーム空間100及びこの3次元ゲーム空間100内に登場する3次元オブジェクト110に関する情報があらかじめ記憶されている。前記3次元オブジェクト110に関する画像情報は、複数のポリゴン112−1,112−2,112−3……からなる形状モデルとして表現され、あらかじめメモリー内に記憶されている。
【0044】
ドライビングゲームを例にとると、3次元オブジェクト110は3次元ゲーム空間100内に登場するレーシングカーであり、3次元ゲーム空間100内には、この他に道路、家などの背景を表す各種の3次元オブジェクトが配置されている。
【0045】
プレーヤ200が、操作部20のハンドル等を操作して回転、並進等の操作を行うと、ゲーム画像演算部22は、この操作信号およびゲームプログラムに基づいてレーシングカー、道路、家である3次元オブジェクト110の回転、並進等の演算をリアルタイムで行う。そして、この3次元オブジェクト110及びその他の3次元オブジェクトは、視点座標系の透視投影面120上に透視投影変換され、疑似3次元画像122としてディスプレイ18上に表示される。
【0046】
したがって、プレーヤ200は、操作部20を操作し、レーシングカーを操縦することにより、3次元ゲーム空間100内に設定されたサーキットコース内をレーシングカーを運転しながらレースに参加している状態を仮想シミュレートできることになる。
【0047】
コンピュータグラフィックスの手法を用いた場合、前記3次元オブジェクト110は、独立したボディ座標系を用いてその形状モデルを作成している。すなわち、3次元オブジェクト110を構成する各ポリゴンを、このボディ座標系上に配置し、その形状モデルを特定している。
【0048】
さらに、3次元ゲーム空間100は、ワールド座標系を用いて構成され、ボディ座標系を用いて表された3次元オブジェクト110は、その運動モデルに従ってワールド座標系の中に配置される。
【0049】
そして、視点210の位置を原点として、視線の方向をZ軸の正方向にとった視点座標系にデータを変換し、投影面120であるスクリーン座標系へ、それぞれの座標を透視投影変換する。そして、透視投影変換された画像の色指定データ300を各画素毎に演算し、図1に示すカラーパレットメモリ28へ向け出力する。
【0050】
このカラーパレットメモリ28は、R,G,Bの3原色が0〜255の範囲の256個の異なる輝度のデータとして記憶されている。そして、前記色指定データ300により、R,G,Bの各輝度が指定され、その組合わせからなる色信号が前カラー信号310として出力される。例えば、R,G,Bの各原色の輝度は、0(最低)〜255(最高)までの数字で表される。例えば、黒色は、全く色がない状態なので、輝度を(R,G,B)で表すと、(0,0,0)となる。純粋な赤は、(255,0,0)、赤と青の混ざった色は(124,0,44)などとなる。このような組合わせ情報からなる色信号が、色指定データ300により各画素毎に指定され、前カラー信号310として出力される。
【0051】
これにより、視点210からみえる3次元ゲーム空間100の視野内の画像が、ディスプレイ18上にカラー表示されることになる。
【0052】
特に、実施例のゲーム画像演算部22は、ワールド座標系で構成される3次元ゲーム空間100内において、視点210の位置を任意に変更できるように形成されている。実施例の業務用ビデオゲーム装置10は、ゲーム中はその視点位置をレーシングカーの運転席位置に設定している。これにより、ディスプレイ18上には、プレーヤの操縦するレーシングカーの運転席からその前方を見たときの景色がゲーム画面として表示されることになり、プレーヤ200は、レーシングカーを実際に運転している感覚でその運転を行うことができる。
【0053】
本発明の特徴は、このようにディスプレイ上に表示されるカラー画像のデプスキューイング処理を、カラーパレットメモリ28等のメモリ容量をさほど増大させることなく、簡単かつ効果的に行うことにある。
【0054】
このため、実施例の画像合成装置では、デプスキューイング情報設定部26と、パレットコントローラ24とを含むように構成されている。
【0055】
前記デプスキューイング情報設定部26は、ゲーム画像演算部22内に設けられており、各表示場面に応じて奥カラー信号320をR,G,B各色の輝度信号情報として出力するように形成されている。
【0056】
本実施例では、後述するように朝、昼、夕方、夜の4つの場面が用いられる。そして、各場面に応じて、例えば朝は白色、昼は青色、夕方は赤色、夜は黒色のカラー信号を、前記奥カラー信号として演算出力する。
【0057】
なお、ゲーム画像演算部22内で、多くのカラー信号を取り扱うことは、演算効率上問題を生ずる場合がある。このため、使用する奥カラー信号の演算処理が多くなる場合、例えば、1つの表示場面において、複数の奥カラー信号間を取り扱うような場合には、図8に示すよう奥カラー専用のパレットメモリ29を用いることが好ましい。そして、この奥カラー専用のパレットメモリ29内に、奥カラー信号として使用するすべての色信号を記憶しておく。すなわち、R、G、Bの3原色の各輝度の組み合わせからなる複数の色信号を、前記奥カラー信号として記憶する。
【0058】
そしてデプスキューイング情報設定部26は、各表示場面に応じて所望の奥カラー信号320を奥カラー専用のパレットメモリ29から呼び出すための色指定データ318を演算し、パレットメモリ29へ向けて出力するように形成されている。これにより、使用する奥カラー信号の種類が多い場合でも、ゲーム画像演算部22に大きな負担をかけることなく、パレットメモリ29から表示画面に応じた所望の奥カラー信号320を出力することができる。
【0059】
さらに図1に示すよう、デプスキューイング情報設定部26は、各ポリゴン毎に、デプスキューイング処理の対象とするか否かのフラグデータ330(処理対象識別データ)を演算するとともに、当該ポリゴンの視点座標系における奥行き情報Z(Zはポリゴンの代表値として表される)およびテーブル指定データ340を演算出力する。ここにおいて、前記フラグデータ330、テーブル指定データ340およびZ代表値Zは、各画素毎に出力される色指定データ300の出力と同期して、付随データとして出力されることになる。
【0060】
ここにおいて、前記デプスキューイング情報設定部26は、前記奥カラー信号を、R,G,Bの各色毎の輝度信号情報として演算設定するよう形成されている。そして、表示場面の切替え時には、時間の経過に応じて、前記輝度信号情報を切替え後の目標値に向け、徐々に変化させるように形成されている。
【0061】
例えば、表示場面を切替える際に、場面切替えに要する時間をT、場面切替え開始からの経過時間をtとすると、前の場面の目標値iから次の場面の目標値jへの輝度信号の変化は、次式に示す輝度信号情報hとして、R,G,Bの各色毎に演算される。
【0062】
h=(j−i)×(t/T)+i ・・・(1)
そして、このようにして演算されるR,G,Bの各色の輝度信号情報を、場面切替え時の奥カラー信号として順次演算出力するように形成されている。これにより、場面切替え時における画面を自然に変化させることができる。
【0063】
なお、図8に示すよう、奥カラー専用パレットメモリ29を用いる場合には、同様にしてこのパレットメモリ29から場面切替え時の奥カラー信号を徐々に変化させながら出力させるよう、デプスキューイング情報設定部26が、奥色指定データ318を演算するよう形成すればよい。この様にすることにより、図8に示す実施例においても、図1に示す実施例と同様に、場面切替え時における画面を自然に変化させることができる。
【0064】
また、前記パレットコントローラ24は、前記カラーパレットメモリ28と、情報変換部30と、色信号演算部36とを含む。
【0065】
前記情報変換部30は、各ポリゴンの視点座標系における奥行き情報Zを、デプスキューイング用の奥行き情報Z´に変換し、色信号演算部36へ向け出力するよう形成されている。
【0066】
実施例において、この情報変換部30は、テーブル書き替え部32と、変換テーブル34とを含む。
【0067】
前記テーブル書替部32は、ゲーム画像演算部22により演算設定される各表示場面(例えば、朝,昼,夕方,夜等の表示場面)毎の場面設定データに基づき、変換テーブル34に、表示場面に応じた変換テーブルを演算し設定する。この変換テーブルは、奥行き情報Zをデプスキューイング用の奥行き情報Z´に変換出力するデータテーブルである。この変換テーブル34の設定の仕方により、後述するように各表示場面毎の雰囲気を効果的に演出することができる。
【0068】
前記色信号演算部36は、このようにして入力される各データに基づき、入力されたカラー信号310がデプスキューイングの対象となるか否かを判断する。対象となると判断した場合には、所定のデプスキューイング処理演算を行い、デプスキューイングされたカラー信号350を出力し、このカラー信号350は図示しないA/DコンバータによりA/D変換されディスプレイ18に入力する。
【0069】
すなわち、色信号演算部36は、各画素毎に出力されるフラグデータ330に基づき、当該画素のカラー信号310がデプスキューイング処理の対象となっているか否かの判断を行う。対象となっていない場合には、カラーパレットメモリ28から出力されたカラー信号310をそのままディスプレイ18へ向け出力する。デプスキューイング処理の対象となっている場合には、カラーパレットメモリ28から入力される前カラー信号310と、入力される奥カラー信号320と、変換テーブル34から入力される変換後の奥行き情報Z´とに基づき、次式に基づく色信号の演算処理を行う。ここにおいて、aは前カラー信号310、bは奥カラー信号320を表し、Nはカラーパレットメモリ28の輝度の段階を表す(実施例では、N=255)。
【0070】
c=(b−a)×(Z´/N)+a ・・・(2)
そして、前記演算によりデプスキューイングされた色信号Cを求め、これをディスプレイ18へ向け出力する。
【0071】
このようにして、各ポリゴン毎にデプスキューイングされた色信号を演算し、ディスプレイ18上に表示することができる。
【0072】
図4には、実施例のデプスキューイング処理の原理図が示されている。同図において、前カラー310はZ´=0、奥カラー320はZ´=255の奥行き位置に設定されている。奥カラー320は、Z´=255に設定されているということは、デプスキューイングされた出力カラーは、各画素の奥行きZ´が大きくなるにしたがい奥カラー320の色に溶け込むようになることを意味している。
【0073】
すなわち、各画素の出力カラー350は、前述したようにデプスキューイング用の奥行き情報Z´と、前カラーa,奥カラーb等を用い、前記式(2)に従った線形補完演算により求まる。
【0074】
この線形補完演算は、カラーパレットメモリ28から前カラー信号310として出力されるR,G,Bの3原色のそれぞれについて行われる。このようにすることにより、基本となる色データが書き込まれたカラーパレットメモリ28を用いるのみで、任意に設定される奥カラー320との間で、デプスキューイングされた色信号Cを出力することができる。
【0075】
特に、実施例のパレットコントローラ24では、各画素の実際の奥行き情報Zを用いてデプスキューイングをするのではなく、これを変換テーブルを用いてデプスキューイング用の奥行き情報Z´に変換して、デプスキューイング処理を行うように構成されている。したがって、実際の奥行き情報Zを用い線形補完演算した場合には、その出力色Cが図4に示すP1となるのに対し、実施例ではこの実際の奥行き情報Zを表示場面に適した奥行き情報Z´に変換し、デプスキューイング処理された出力色350を得るように形成されている。
【0076】
すなわち、本発明では、実際の奥行き情報Zを用いてデプスキューイング処理を行うこともできるが、本実施例のように、情報変換部30を用い、実際の奥行き情報Zをデプスキューイングに適したZ´に変換しているため、より効果的なデプスキューイング処理を行うことができるのである。
【0077】
さらに、本実施例では、変換テーブル34内に記憶されている変換テーブルを各表示場面に応じて切替えることにより、表示場面に合った最適なデプスキューイング処理を演算により行うことができる。
【0078】
なお、前記変換テーブル34は、全てのポリゴンに対し共通なものを用いることもできるが、例えば、ポリゴンの特性(表示対象の特性)に合せて複数の変換テーブル34を用意し、ポリゴン毎に使用するテーブルをテーブル指定データ340で選択するようにしてもよい。このようにすることにより、例えば夜にライトに照らされた物体を表現したり、霧の中の自動車のテールランプを表現するなど、よりこまやかなデプスキューイングを得ることができる。
【0079】
また、前記奥カラー信号320は、1場面に複数個設定してもよい。このようにすることにより、例えば、夜の道路を走行中に黄色の照明が点ったトンネルが接近してくる景色等を、トンネル部分を黄色の奥カラー信号に設定し、それ以外の部分を夜の景色を表す黒色の奥カラー信号に設定して表現するようなデプスキューイング処理を行うことができる。すなわち、表示対象に合わせた奥カラー信号をそれぞれ独立に設定し、より演出効果に富んだデプスキューイング処理を行うことができる。
【0080】
図5には、実施例の装置のデプスキューイング処理動作を示すフローチャートが示され、図6,図7にはその表示画像の具体例が示されている。
【0081】
まず、ゲーム画像演算部22が、図6に示すゲーム画面を演算し、ディスプレイ18上にデプスキューイング処理を施すことなく表示する場合を想定する。この場合には、ゲーム画像演算部22からは、全ての画素に対してデプスキューイング処理をしない旨を表すフラグデータ330が出力され、各画素毎に色指定データ300が出力される。
【0082】
したがって、図5のステップS1,S2,S3のフローに従い、カラーパレットメモリ28から出力されるカラー信号310そのものがディスプレイ18上に表示されることになる。
【0083】
次に、ディスプレイ18上に表示されるゲーム画面を、朝→昼→夕→夜→朝の4つの場面に分け、実施例のゲーム画像演算部22が、各場面に応じてそれぞれ独自のデプスキューイング処理を行う場合を想定する。
【0084】
この場合、朝の場面では、奥カラー信号320として朝靄を表わす白色をセットし、昼の場面では明るくなった日中の様子を表わす青色をセットし、(この場合、遠景は、青い海や青い空にとけ込むようになる。)夕方の場面では夕焼けの様子を表わす赤色をセットし、夜の場面では周囲の暗さを表わす黒色をそれぞれセットする。このとき、場面切替え時における奥カラー信号320の切替えは、色変化が不自然とならないよう次式に従い徐々に行う。ここにおいて、bは演算設定された奥カラー信号、b1は前の場面の奥カラー信号、b2は次の場面の奥カラー信号を表す。但し、kは0から255までフレーム毎に連続または不連続に順次変化するものとする。
【0085】
b=(b2−b1)×(k/255)+b1 ・・・(3)
さらに、テーブル書替部32は、朝,昼,夕,夜の各場面毎に、変換テーブル34の変換テーブルをZ´=f1(Z),Z´=f2(Z),z´=f3(Z),z´=f4(Z)というように順次書き替える。このとき、各場面の切替え時における書き替えは、色変化が不自然とならないように行う。例えば、朝から昼の場面に切替える場合には、変換テーブルはf1(Z)からf2(Z)へ切替わることになるが、このときはf1(Z)からf2(Z)へ次第に近付くようにしてテーブル内容の書き替えを行う。
【0086】
例えば、奥行き情報Zの変換が、一次関数よって表わされた変換式
f1(Z)=1.5・Z
f2(Z)=2.0・Z
で表されるとすると、設定場面の切替え時には、変換テーブルf(Z)は、例えばf(Z)=1.5・Z,f(Z)=1.6・Z,f(Z)=1.7・Z…f(Z)=2.0・Zとなるように少しずつ切替わることになる。
【0087】
そして、デプスキューイング処理を行う場合、ゲーム画像演算部22は、ゲーム画面を構成する各画素毎に色指定データ300を演算出力するとともに、この色指定データ300の出力と同期して、デプスキューイング用の付随データとして奥カラー信号320、フラグデータ330、テーブル指定データ340および奥行き情報Zを出力する。なお、図8の実施例では、奥カラー信号320は、パレットメモリ29から出力される。
【0088】
そして、各画素毎に出力されるフラグデータ330に基づき、当該画素はデプスキューイングをかける画素か否かの判断が行われ(ステップS2)、デプスキューイング処理の対象となっている場合には、奥カラー信号320をセットし(ステップS4)、さらにテーブル指定データ340に基づき使用する変換テーブル34を選択し、ポリゴンのZ代表値を選択された変換テーブルに基づきデプスキューイング用の奥行き情報Z´に変換出力する。
【0089】
そして、このようにして求めた各データに基づき、前記数式(2)にしたがってカラーパレットメモリ28から出力されるカラー信号310を線形補間演算し、デプスキューイング処理された色信号350を出力する(ステップS7)。
【0090】
実施例の画像合成装置は、このような処理を各画素毎に繰り返して行う。特にフラグデータ330によってデプスキューイング処理が指定されたポリゴンに対して選択的にデプスキューイング処理を行うように動作する(ステップS5〜S7)。
【0091】
以上の構成とすることにより、例えば朝の場面設定においては、変換テーブル34に朝用の変換テーブルZ´=f1(Z)が設定され、奥カラー信号320として白色が設定されると、図6に示すゲーム画面は、朝靄がかかった画面となるようデプスキューイング処理されることになる。
【0092】
このとき、実施例の装置では、各表示ポリゴン毎に変換テーブル34をテーブル指定データ34で選択できるように構成されている。このため、例えば図中中央に表示される海岸付近のポリゴン群430と、図中右側に表示される陸地側のポリゴン群430とが異なった変換テーブル34をそれぞれ用いるように形成できる。この結果、例えば海岸付近に表示されるやしの木等を濃い霧に霞んだ物体として表示し、図中右側に表示される建物等は比較的遠くまで見える物体として表示するようゲーム画面を構成できる。
【0093】
また場面が、朝から昼に切替わる場合には、変換テーブル34内の変換テーブルはf1(Z)からf2(Z)へ次第に切替わるように書き替えられ、さらに奥カラー信号320も白色から青色に次第に変わるよう設定される。
【0094】
これにより、図6に示すゲーム画面は、空の青さを反映した昼間の明るい画面として表示されることになる。このとき、変換テーブル34は、遠くの物体までクリアに見えるよう、奥行き情報Zをデプスキューイング用のZ´の値に変換する。
【0095】
また、場面が昼から夕方に切替わった場合には、同様に変換テーブル34の変換テーブルの書き替えが行われるとともに、奥カラー信号320として夕方の雰囲気を出す赤色に設定され、図6に示すゲーム画面が夕焼けに染まった夕方の画像として表示されることになる。
【0096】
さらに、場面が夜に切替わると、変換テーブル34の変換テーブルも同様にして書き替えられ、さらに奥カラー信号320は、夜の暗さを表す黒色に設定される。このとき、変換テーブル34は、図6に示すゲーム画面では比較的よく見える物体でも、夜の暗さによって見えないように画像処理する必要がある。このため、ある一定距離以上離れた物体はほとんど見えなくなるように変換テーブルが設定されている。これにより、図7に示すよう、視点位置からある一定距離以上離れた物体は全て奥カラー信号に溶け込む黒色として表示され、夜の景色を演出することができる。
【0097】
特に、実施例の画像合成装置では、このようなデプスキューイング処理を各ポリゴン毎に行っている。したがって、建物400の窓410を表すポリゴンは、デプスキューイング処理しないようにフラグデータ330を演算設定することにより、暗い景色の中に建物の窓410だけが明るく輝いて見えるようなゲーム画面を合成表示することができる。
【0098】
このようにデプスキューイングをかけない対象物を画面上に選択的に設定表示できることにより、「夜の灯り」等を表現したり、「対向車のヘッドライト」等を効果的に表現したりすることができる。
【0099】
なお、前記実施例では、デプスキューイング処理により、朝、昼、夕、夜等の時間の変化を表現したが、本発明はこれに限らず、各種の場面設定を効果的に行うことができ、例えば、天候の変化(霧、雲、ガスなどがかかった景色)等や、その他画面上の特殊な表現をする場合に用いることができる。
【0100】
また、前記実施例では、異なる変換テーブルが記憶された複数の変換テーブルメモリを設け、表示場面に応じて、各変換テーブルメモリに記憶された変換テーブルの書き替えを行っていたが、変換テーブルメモリに記憶された変換テーブルの書き替えを行うことなくデプスキューイングを行う構成としてもよい。
【0101】
また、前記実施例では、本発明をビデオゲーム装置のゲーム画面を合成する場合を例にとり説明したが、本発明はこれに限らず、これ以外の各種用途、例えば3次元シミュレータおよびその他の用途に幅広く用いることができる。
【0102】
また、本発明の画像合成装置は、テクスチャマッピングや、塗り潰し処理等の各種画像合成の手法を用いて色指定データ300を出力する画像合成装置に幅広く適用することができる。
【図面の簡単な説明】
【図1】図1は、本発明が適用されたビデオゲーム用の画像合成装置のブロック図である。
【図2】図2は、図1に示す画像合成装置を用いた業務用ビデオゲーム装置の外観斜視説明図である。
【図3】図3は、実施例の画像合成装置の疑似3次元画像の作成原理の説明図である。
【図4】図4は、実施例の画像合成装置のデプスキューイング処理の原理説明図である。
【図5】図5は、実施例の画像合成装置のデプスキューイング処理動作を示すフローチャート図である。
【図6】図6は、実施例の画像合成装置にて作成されたゲーム画面の説明図である。
【図7】図7は、夜の場面用にデプスキューイング処理されたゲーム画面の一例を示す説明図である。
【図8】図8は、本発明が適用されたビテオゲーム用の画像合成装置の他の一例を示すブロック図である。
【符号の説明】
18 ディスプレイ
26 デプスキューイング情報設定手段
28 カラーパレット
30 情報変換部
36 色信号演算手段
300 色指定データ
320 奥カラー信号
350 色信号
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image composition apparatus using a depth cueing technique and a video game apparatus using the same.
[0002]
[Background Art and Problems to be Solved by the Invention]
2. Description of the Related Art Conventionally, an image composition device that synthesizes a pseudo three-dimensional image using a computer graphics technique is known, and is widely used in, for example, video games, various simulators, and other applications.
[0003]
In such an image synthesizing apparatus, a technique called depth cueing is used in which the luminance of each polygon is changed according to the distance from the viewpoint.
[0004]
However, the conventional image synthesizing apparatus has a problem that depth cueing cannot be performed while reducing the hardware load.
[0005]
That is, when image synthesis is performed using the depth cueing technique, the luminance of each polygon is changed based on the Z coordinate value representing the distance between the viewpoint and each polygon in the virtual three-dimensional space 300, and the depth direction is used as the background. Melting is done.
[0006]
However, in the conventional technique, if the luminance in the depth direction is to be changed over N stages (N is an integer) based on the Z coordinate value, it is necessary to prepare N color palette memories and write color information. For example, it is necessary to write the base color in the palette 1, write the next color in the palette 2, and write the color that blends into the background into the last palette N. In order to smoothly change the brightness using this method, a large number of palettes must be prepared, and accordingly, there is a problem that the memory capacity increases and the entire apparatus becomes expensive.
[0007]
In particular, in today's image composition apparatuses, a large number of basic palettes are often provided in order to display colors in a fine manner. In this case, if the number of basic pallets is M, M × N pallets must be prepared, the memory capacity is further increased, and the burden on the CPU used for the calculation is increased accordingly. . For this reason, it is inevitable that the entire apparatus becomes more expensive and complicated.
[0008]
The present invention has been made in view of such a conventional problem, and an object of the present invention is to provide an image composition device capable of performing depth cueing with a simple configuration and a video game device using the image composition device. There is.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides:
In an image synthesizer that projects and converts a three-dimensional object expressed by combining polygons in a virtual three-dimensional space onto a projection plane of a viewpoint coordinate system, calculates the previous color designation data of each pixel, and combines the display image ,
Depth cueing information setting means for setting the depth color signal for depth cueing according to the display scene, and calculating depth information in the viewpoint coordinate system of each polygon,
A first color palette for outputting a color signal as a previous color signal based on the previous color designation data output for each pixel;
Based on the depth information, the previous color signal, and the back color signal, a color signal calculation means for outputting a color signal depth-cueed for each pixel;
It is characterized by including.
[0010]
The depth cueing information setting means of the apparatus of the present invention sets the depth color signal for depth cueing according to each display scene.
[0011]
Further, the depth cueing information setting means outputs depth information of each polygon in the viewpoint coordinate system for each pixel.
[0012]
The color palette outputs a color signal as a previous color signal based on color designation data output for each pixel.
[0013]
Then, the color signal calculation means calculates and outputs the color signal depth-cueed for each pixel based on the depth information, the previous color signal, and the back color signal, and displays it on the display.
[0014]
Thus, according to the present invention, the depth-cueed color signal can be obtained by calculation by setting the depth color signal for depth-cueing according to each display scene. Therefore, even when the luminance in the depth direction is changed in multiple stages, it is not necessary to prepare a large number of color palettes, and the configuration of the entire circuit can be made simple and inexpensive.
[0015]
The present invention also provides:
In an image synthesizer that projects and converts a three-dimensional object expressed by combining polygons in a virtual three-dimensional space onto a projection plane of a viewpoint coordinate system, calculates the previous color designation data of each pixel, and combines the display image ,
Depth cueing information setting means for setting depth color designation data for depth cueing according to the display scene, and calculating depth information in the viewpoint coordinate system of each polygon,
A first color palette for outputting a color signal as a previous color signal based on the previous color designation data output for each pixel;
A second color palette for outputting a color signal as a back color signal based on the back color designation data;
Based on the depth information, the previous color signal, and the back color signal, a color signal calculation means for outputting a color signal depth-cueed for each pixel;
It is characterized by including.
[0016]
By adopting such a configuration, according to the present invention, it is not necessary to prepare a large number of color palettes even when the luminance in the depth direction is changed in multiple stages, and the configuration of the entire circuit is simple and inexpensive. can do.
[0017]
Here, the device of the present invention is
Depth information conversion means for converting and outputting actual depth information Z in the viewpoint coordinate system of each polygon into depth information Z ′ for depth cueing;
The color signal calculation means includes
It is preferable to form a color signal that is depth-cueed for each pixel based on the depth information Z ′ for depth cueing, the previous color signal, and the back color signal.
[0018]
As described above, according to the present invention, the depth information Z in the viewpoint coordinate system of each polygon is converted into depth information Z ′ by depth information conversion means. Thereby, more effective depth cueing processing can be performed according to the display scene.
[0019]
Further, the depth information converting means includes
A plurality of conversion table memories in which the different conversion tables are stored;
Depending on the display object, the actual depth information Z can be converted into depth information Z ′ for depth cueing using any one of the plurality of conversion tables.
[0020]
Thus, according to the present invention, a plurality of conversion table memories storing different conversion tables are provided, and the actual depth information Z is depth-squeezed using one of the plurality of conversion tables according to the display target. It is converted and output to depth information Z ′ for ing. Thereby, it is possible to effectively perform depth cueing according to the display target.
[0021]
Further, the depth information converting means includes
A conversion table memory storing a conversion table for converting and outputting actual depth information Z in the viewpoint coordinate system of each polygon to depth information Z ′ for depth cueing;
Table rewriting means for rewriting the contents of the conversion table stored in the conversion table memory in accordance with switching of the display scene;
It is preferable to form so that it may contain.
[0022]
In this way, by rewriting the conversion table stored in the conversion table memory in accordance with each display scene, depth cueing according to the display scene can be performed more effectively.
[0023]
In the type of apparatus that does not use the second color palette,
The depth cueing information setting means includes:
The back color signal is set as luminance signal information for each color of R, G, and B, and when the display scene is switched, the luminance signal information is gradually changed toward the target value after switching over time. It is preferable.
[0024]
In this case, the depth cueing information setting means
Luminance signal information h expressed by the following equation, where T is the time required for scene switching and t is the elapsed time, from the target value i of the previous scene to the target value j of the next scene at the time of scene switching. For each color of R, G, B,
h = (j−i) × (t / T) + i
It is preferable that the calculated values are sequentially set as the back color signal.
[0025]
In this way, the depth cueing process at the time of scene switching can be performed smoothly.
In the type of apparatus using the second color palette,
The depth cueing information setting means includes:
At the time of switching the display scene, the luminance signal information of each color of R, G, B of the back color signal is read out from the second color palette so as to gradually change toward the target value after switching over time. It is preferable to form so as to calculate and output the back color designation data.
[0026]
In this case, the depth cueing information setting means
Luminance signal information h expressed by the following equation, where T is the time required for scene switching and t is the elapsed time, from the target value i of the previous scene to the target value j of the next scene at the time of scene switching. It is preferable that the back color designation data for reading out from the second color palette is calculated and output for each of R, G, and B colors.
[0027]
h = (j−i) × (t / T) + i
In this way, the depth cueing process at the time of scene switching can be performed smoothly.
[0028]
The depth cueing information setting means includes
For each of the polygons, processing target identification data as to whether or not to be a target of depth cueing processing is calculated and output,
The color signal calculation means includes
Based on the processing target identification data, it can be determined whether or not the pixel is a polygon pixel to be processed, and the depth-cueed color signal is calculated for the processing target pixel.
[0029]
In this way, it is determined whether or not to display the depth cueing process for each display polygon, and the depth cueing process is selectively performed in units of polygons, so that objects that are not subject to depth cueing are selected on the display. Can be set automatically. For example, when a night scene is displayed, a polygon in which light leaks from the window can be effectively displayed by not making the polygon representing the building window a depth cueing target.
[0030]
The first color palette is
It is formed to output R, G, B color signals with N levels of brightness,
The color signal calculation means includes
The front color signal is a and the back color signal is b.
c = (b−a) × (Z ′ / N) + a
Thus, the color signal c depth-cueed for each pixel can be output.
[0031]
As described above, by performing a predetermined linear interpolation calculation, the depth-cueed color signal can be easily obtained for each pixel.
[0032]
The video game device of the present invention is
Player operating means operated by the player;
Based on an input signal from the player operation means and a pre-stored game program, a predetermined game calculation is performed in which a three-dimensional object represented by combining polygons appears in a virtual three-dimensional game space, The image synthesizing apparatus of the present invention formed to project the three-dimensional object onto the projection plane of the viewpoint coordinate system, calculate color designation data for each pixel, and synthesize a display image;
And a game image is displayed on a display.
[0033]
By doing so, it is possible to obtain a video game apparatus capable of displaying a depth-cueed game image on a display using an image composition apparatus having a simple configuration.
[0034]
DETAILED DESCRIPTION OF THE INVENTION
Next, preferred embodiments of the present invention will be described in detail with reference to the drawings.
[0035]
FIG. 2 schematically shows the appearance of the business video game apparatus 10 of the embodiment.
[0036]
The commercial video game apparatus 10 according to the embodiment is configured such that a player drives a racing car that runs on a circuit course and competes with a computer car operated by a computer or a racing car driven by another player in order and time. Yes.
[0037]
For this reason, the arcade game apparatus 10 is formed in the same manner as an actual driver seat of a racing car. When a certain game fee is paid, the game is started, and the player sitting on the seat 12 operates the handle 14, the shift lever 16, and other pedals while looking at the scenery displayed on the display 18 and imaginary. Drive a racing car and play a game.
[0038]
FIG. 1 is a block diagram of the professional video game apparatus.
[0039]
The commercial video game apparatus 10 according to the embodiment includes an operation unit 20, a game image calculation unit 22, a palette controller 24, and the display 18.
[0040]
The operation unit 20 is a member operated by the player, such as the handle 14, the shift lever 16, and other pedals shown in FIG.
[0041]
The game image calculation unit 22 performs various game calculations based on an input signal from the player operation unit 20 and a predetermined game program, and uses the palette controller 24 to display a game for a driving game on the display 18. Display the screen. Here, the game image calculation unit 22 performs a game calculation so that the racing car moves in a predetermined three-dimensional game space by the player's control, and thus various objects and objects in the three-dimensional game space are recorded. The moving body is perspective-projected to a predetermined projection surface to form a game screen, which is displayed on the display 18.
[0042]
FIG. 3 shows a principle diagram of such an image composition method.
[0043]
In the game image calculation unit 22 of the embodiment, information regarding the three-dimensional game space 100 and the three-dimensional object 110 appearing in the three-dimensional game space 100 is stored in advance. The image information related to the three-dimensional object 110 is expressed as a shape model composed of a plurality of polygons 112-1, 112-2, 112-3... And stored in advance in a memory.
[0044]
Taking a driving game as an example, the three-dimensional object 110 is a racing car that appears in the three-dimensional game space 100. In the three-dimensional game space 100, there are various other three types representing backgrounds such as roads and houses. Dimensional objects are placed.
[0045]
When the player 200 operates the handle or the like of the operation unit 20 to perform operations such as rotation and translation, the game image calculation unit 22 is a three-dimensional vehicle that is a racing car, a road, or a house based on the operation signal and the game program. Calculations such as rotation and translation of the object 110 are performed in real time. The three-dimensional object 110 and other three-dimensional objects are perspective-projected on the perspective projection surface 120 of the viewpoint coordinate system, and are displayed on the display 18 as a pseudo three-dimensional image 122.
[0046]
Therefore, the player 200 operates the operation unit 20 and steers the racing car, thereby virtualizing a state in which the player 200 participates in the race while driving the racing car in the circuit course set in the three-dimensional game space 100. It can be simulated.
[0047]
When a computer graphics method is used, the shape model of the three-dimensional object 110 is created using an independent body coordinate system. That is, each polygon constituting the three-dimensional object 110 is arranged on this body coordinate system, and its shape model is specified.
[0048]
Further, the three-dimensional game space 100 is configured using the world coordinate system, and the three-dimensional object 110 represented using the body coordinate system is arranged in the world coordinate system according to the motion model.
[0049]
Then, data is converted into a viewpoint coordinate system in which the position of the viewpoint 210 is the origin and the direction of the line of sight is the positive direction of the Z axis, and each coordinate is perspective-projected into the screen coordinate system that is the projection plane 120. Then, the color designation data 300 of the perspective-projected image is calculated for each pixel and output to the color palette memory 28 shown in FIG.
[0050]
The color palette memory 28 is stored as data of 256 different luminances in which the three primary colors of R, G, and B are in the range of 0 to 255. The R, G, and B luminances are designated by the color designation data 300, and a color signal that is a combination thereof is output as the previous color signal 310. For example, the luminance of each primary color of R, G, B is represented by a number from 0 (lowest) to 255 (highest). For example, since black has no color at all, the luminance is represented by (0, 0, 0) when represented by (R, G, B). Pure red is (255, 0, 0), mixed color of red and blue is (124, 0, 44), etc. A color signal composed of such combination information is designated for each pixel by the color designation data 300 and is output as a previous color signal 310.
[0051]
As a result, an image in the field of view of the three-dimensional game space 100 seen from the viewpoint 210 is displayed in color on the display 18.
[0052]
In particular, the game image calculation unit 22 of the embodiment is formed so that the position of the viewpoint 210 can be arbitrarily changed in the three-dimensional game space 100 configured by the world coordinate system. The business video game apparatus 10 of the embodiment sets the viewpoint position to the driver's seat position of the racing car during the game. As a result, on the display 18, the scenery when the front is viewed from the driver's seat of the racing car operated by the player is displayed as a game screen, and the player 200 actually drives the racing car. You can drive as you feel.
[0053]
The feature of the present invention is that the depth cueing process of the color image displayed on the display is easily and effectively performed without increasing the memory capacity of the color palette memory 28 or the like.
[0054]
For this reason, the image composition apparatus according to the embodiment is configured to include a depth cueing information setting unit 26 and a palette controller 24.
[0055]
The depth cueing information setting unit 26 is provided in the game image calculation unit 22 and is configured to output a back color signal 320 as luminance signal information of each color of R, G, and B according to each display scene. ing.
[0056]
In this embodiment, four scenes of morning, noon, evening, and night are used as will be described later. Depending on the scene, for example, a color signal of white in the morning, blue in the day, red in the evening, and black in the evening is calculated and output as the back color signal.
[0057]
Note that handling many color signals in the game image calculation unit 22 may cause a problem in calculation efficiency. For this reason, when the calculation processing of the back color signal to be used increases, for example, when handling a plurality of back color signals in one display scene, the palette memory 29 dedicated to the back color as shown in FIG. Is preferably used. Then, all the color signals used as the back color signal are stored in the palette memory 29 dedicated to the back color. That is, a plurality of color signals composed of combinations of the R, G, and B primary colors are stored as the back color signal.
[0058]
The depth cueing information setting unit 26 calculates color designation data 318 for calling a desired back color signal 320 from the palette memory 29 dedicated to the back color according to each display scene, and outputs the data to the palette memory 29. It is formed as follows. Thus, even when there are many types of back color signals to be used, a desired back color signal 320 corresponding to the display screen can be output from the palette memory 29 without imposing a heavy burden on the game image calculation unit 22.
[0059]
Further, as shown in FIG. 1, the depth cueing information setting unit 26 calculates flag data 330 (processing target identification data) as to whether or not to make a depth cueing process target for each polygon, Depth information Z (Z is represented as a representative value of polygons) and table designation data 340 in the viewpoint coordinate system are calculated and output. Here, the flag data 330, the table specifying data 340, and the Z representative value Z are output as accompanying data in synchronization with the output of the color specifying data 300 output for each pixel.
[0060]
Here, the depth cueing information setting unit 26 is configured to calculate and set the back color signal as luminance signal information for each color of R, G, and B. When the display scene is switched, the luminance signal information is gradually changed toward the target value after switching as time elapses.
[0061]
For example, when switching the display scene, if the time required for scene switching is T and the elapsed time from the start of scene switching is t, the change in the luminance signal from the target value i of the previous scene to the target value j of the next scene Is calculated for each color of R, G, and B as luminance signal information h shown in the following equation.
[0062]
h = (j−i) × (t / T) + i (1)
The luminance signal information of each color of R, G, and B calculated in this way is sequentially calculated and output as the back color signal at the time of scene switching. Thereby, the screen at the time of scene switching can be changed naturally.
[0063]
As shown in FIG. 8, when the rear color dedicated palette memory 29 is used, the depth cueing information setting is similarly performed so that the rear color signal at the time of scene switching is output from the palette memory 29 while gradually changing. The unit 26 may be formed so as to calculate the back color designation data 318. In this way, in the embodiment shown in FIG. 8 as well, the screen at the time of scene switching can be changed naturally as in the embodiment shown in FIG.
[0064]
The palette controller 24 includes the color palette memory 28, an information conversion unit 30, and a color signal calculation unit 36.
[0065]
The information conversion unit 30 is configured to convert the depth information Z in the viewpoint coordinate system of each polygon into depth information Z ′ for depth cueing and output it to the color signal calculation unit 36.
[0066]
In the embodiment, the information conversion unit 30 includes a table rewriting unit 32 and a conversion table 34.
[0067]
The table rewriting unit 32 displays on the conversion table 34 based on scene setting data for each display scene (for example, display scenes such as morning, noon, evening, night, etc.) calculated and set by the game image calculation unit 22. Calculate and set the conversion table according to the scene. This conversion table is a data table for converting the depth information Z into depth information Z ′ for depth cueing and outputting it. Depending on how the conversion table 34 is set, the atmosphere of each display scene can be effectively produced as described later.
[0068]
The color signal calculation unit 36 determines whether or not the input color signal 310 is subject to depth cueing based on the data input in this way. If it is determined that it is the target, a predetermined depth cueing calculation is performed, and a depth-cueed color signal 350 is output. This color signal 350 is A / D converted by an A / D converter (not shown) and is displayed. To enter.
[0069]
That is, the color signal calculation unit 36 determines whether or not the color signal 310 of the pixel is a target of the depth cueing process based on the flag data 330 output for each pixel. If not, the color signal 310 output from the color palette memory 28 is output to the display 18 as it is. When the depth queuing process is performed, the previous color signal 310 input from the color palette memory 28, the input back color signal 320, and the converted depth information Z input from the conversion table 34 are displayed. Based on ′, color signal calculation processing based on the following equation is performed. Here, a represents the front color signal 310, b represents the back color signal 320, and N represents the luminance level of the color palette memory 28 (N = 255 in the embodiment).
[0070]
c = (b−a) × (Z ′ / N) + a (2)
Then, the color signal C depth-cueed by the calculation is obtained and output to the display 18.
[0071]
In this manner, the depth signal for each polygon can be calculated and displayed on the display 18.
[0072]
FIG. 4 shows a principle diagram of the depth cueing process of the embodiment. In the drawing, the front color 310 is set to a depth position of Z ′ = 0, and the back color 320 is set to a depth position of Z ′ = 255. The depth color 320 is set to Z ′ = 255, which means that the depth-cueed output color merges with the color of the depth color 320 as the depth Z ′ of each pixel increases. I mean.
[0073]
That is, as described above, the output color 350 of each pixel is obtained by linear interpolation using the depth information Z ′ for depth cueing, the front color “a”, the back color “b”, and the like according to the equation (2).
[0074]
This linear interpolation operation is performed for each of the three primary colors R, G, and B output from the color palette memory 28 as the previous color signal 310. In this way, the depth-cueed color signal C is output between the arbitrarily set back color 320 only by using the color palette memory 28 in which basic color data is written. Can do.
[0075]
In particular, the palette controller 24 of the embodiment does not perform depth cueing using the actual depth information Z of each pixel, but converts this into depth information Z ′ for depth cueing using a conversion table. The depth cueing process is performed. Therefore, when linear interpolation is performed using the actual depth information Z, the output color C becomes P1 shown in FIG. 4, whereas in the embodiment, the actual depth information Z is used as the depth information suitable for the display scene. It is formed so as to obtain an output color 350 converted into Z ′ and subjected to depth queuing processing.
[0076]
That is, in the present invention, the depth cueing process can be performed using the actual depth information Z, but the actual depth information Z is suitable for depth cueing using the information conversion unit 30 as in the present embodiment. Therefore, more effective depth cueing processing can be performed.
[0077]
Furthermore, in the present embodiment, by switching the conversion table stored in the conversion table 34 according to each display scene, the optimum depth cueing process suitable for the display scene can be performed by calculation.
[0078]
The conversion table 34 may be the same for all polygons. For example, a plurality of conversion tables 34 are prepared according to the characteristics of the polygon (characteristics to be displayed) and used for each polygon. The table to be selected may be selected by the table designation data 340. By doing so, it is possible to obtain more detailed depth cueing, for example, expressing an object illuminated by light at night or expressing a car tail lamp in fog.
[0079]
A plurality of the back color signals 320 may be set for one scene. In this way, for example, when a tunnel with yellow light is approaching while traveling on a night road, the tunnel part is set to a yellow back color signal, and the other parts are Depth cueing processing can be performed in which the black back color signal representing the night scene is set and expressed. That is, it is possible to independently set the depth color signals according to the display target, and to perform depth cueing processing with a richer effect.
[0080]
FIG. 5 shows a flowchart showing the depth cueing processing operation of the apparatus of the embodiment, and FIGS. 6 and 7 show specific examples of the display image.
[0081]
First, it is assumed that the game image calculation unit 22 calculates the game screen shown in FIG. 6 and displays it on the display 18 without performing depth cueing processing. In this case, the game image calculation unit 22 outputs flag data 330 indicating that depth cueing processing is not performed on all pixels, and outputs color designation data 300 for each pixel.
[0082]
Therefore, the color signal 310 itself output from the color palette memory 28 is displayed on the display 18 in accordance with the flow of steps S1, S2, and S3 of FIG.
[0083]
Next, the game screen displayed on the display 18 is divided into four scenes of morning → daytime → evening → night → morning, and the game image calculation unit 22 according to the embodiment has its own depth cue according to each scene. Assume that ingress processing is performed.
[0084]
In this case, in the morning scene, the white color representing the morning glory is set as the back color signal 320, and in the daytime scene, the blue color representing the bright daytime is set (in this case, the distant view is the blue sea or the blue Set in red for the evening scene, and set black for the darkness in the evening scene. At this time, switching of the back color signal 320 at the time of scene switching is performed gradually according to the following equation so that the color change does not become unnatural. Here, b represents the calculated back color signal, b1 represents the back color signal of the previous scene, and b2 represents the back color signal of the next scene. However, k is assumed to change sequentially from 0 to 255 continuously or discontinuously for each frame.
[0085]
b = (b2−b1) × (k / 255) + b1 (3)
Further, the table rewriting unit 32 converts the conversion table of the conversion table 34 to Z ′ = f1 (Z), Z ′ = f2 (Z), z ′ = f3 (for each scene of morning, noon, evening, and night). Z) and z ′ = f4 (Z) are sequentially rewritten. At this time, rewriting at the time of switching of each scene is performed so that the color change does not become unnatural. For example, when switching from the morning to the noon scene, the conversion table is switched from f1 (Z) to f2 (Z). At this time, the conversion table gradually approaches from f1 (Z) to f2 (Z). Rewrite the table contents.
[0086]
For example, the conversion formula in which the conversion of the depth information Z is expressed by a linear function
f1 (Z) = 1.5 · Z
f2 (Z) = 2.0 · Z
When the setting scene is switched, the conversion table f (Z) is, for example, f (Z) = 1.5 · Z, f (Z) = 1.6 · Z, f (Z) = 1. .7 · Z... F (Z) = 2.0 · Z.
[0087]
When the depth cueing process is performed, the game image calculation unit 22 calculates and outputs the color designation data 300 for each pixel constituting the game screen, and synchronizes with the output of the color designation data 300 to obtain the depth cue. The back color signal 320, the flag data 330, the table designation data 340, and the depth information Z are output as the accompanying data for the ing. In the embodiment of FIG. 8, the back color signal 320 is output from the palette memory 29.
[0088]
Then, based on the flag data 330 output for each pixel, it is determined whether or not the pixel is a pixel to which depth cueing is applied (step S2). Then, the back color signal 320 is set (step S4), the conversion table 34 to be used is further selected based on the table designation data 340, and the depth information Z for depth cueing is selected based on the Z representative value of the polygon based on the selected conversion table. Convert to ´ and output.
[0089]
Based on the data thus obtained, the color signal 310 output from the color palette memory 28 is linearly interpolated according to the equation (2), and the color signal 350 subjected to the depth cueing process is output ( Step S7).
[0090]
The image synthesizing apparatus according to the embodiment repeats such processing for each pixel. In particular, the operation is performed so as to selectively perform the depth cueing process on the polygon for which the depth cueing process is designated by the flag data 330 (steps S5 to S7).
[0091]
With the above configuration, for example, in the morning scene setting, when the morning conversion table Z ′ = f1 (Z) is set in the conversion table 34 and white is set as the back color signal 320, FIG. The game screen shown in FIG. 5 is processed by depth cueing so that it becomes a screen with morning glory.
[0092]
At this time, the apparatus according to the embodiment is configured such that the conversion table 34 can be selected by the table designation data 34 for each display polygon. For this reason, for example, the conversion table 34 in which the polygon group 430 near the coast displayed in the center in the figure and the polygon group 430 on the land side displayed in the right side in the figure can be used respectively. As a result, the game screen is configured so that, for example, palm trees displayed near the coast are displayed as objects in a thick mist, and buildings displayed on the right side in the figure are displayed as objects that can be seen far away. it can.
[0093]
When the scene is switched from morning to noon, the conversion table in the conversion table 34 is rewritten so as to gradually switch from f1 (Z) to f2 (Z), and the back color signal 320 is also changed from white to blue. It is set to change gradually.
[0094]
Thereby, the game screen shown in FIG. 6 is displayed as a bright daytime screen reflecting the blueness of the sky. At this time, the conversion table 34 converts the depth information Z into a value of Z ′ for depth cueing so that a far object can be seen clearly.
[0095]
Further, when the scene is switched from noon to evening, the conversion table of the conversion table 34 is similarly rewritten, and the back color signal 320 is set to red to give the evening atmosphere, as shown in FIG. The game screen will be displayed as an evening image dyed in the sunset.
[0096]
Further, when the scene is switched to night, the conversion table of the conversion table 34 is similarly rewritten, and the back color signal 320 is set to black representing the darkness of the night. At this time, the conversion table 34 needs to perform image processing so that an object that is relatively well visible on the game screen shown in FIG. 6 is not visible due to the darkness of the night. Therefore, the conversion table is set so that objects that are more than a certain distance are hardly visible. As a result, as shown in FIG. 7, all objects that are more than a certain distance from the viewpoint position are displayed as black that blends into the back color signal, and a night scene can be produced.
[0097]
In particular, in the image synthesizing apparatus according to the embodiment, such depth cueing processing is performed for each polygon. Therefore, the polygon representing the window 410 of the building 400 is set by calculating the flag data 330 so that the depth cueing process is not performed, thereby synthesizing a game screen in which only the building window 410 appears brightly shining in a dark landscape. Can be displayed.
[0098]
In this way, objects that are not subject to depth cueing can be selectively set and displayed on the screen, so that "night lights" etc. can be expressed and "headlights of oncoming vehicles" etc. can be expressed effectively be able to.
[0099]
In the above-described embodiment, the change in time such as morning, noon, evening, and night is expressed by the depth cueing process. However, the present invention is not limited to this, and various scene settings can be effectively performed. For example, it can be used to change the weather (scenes with fog, clouds, gas, etc.) and other special expressions on the screen.
[0100]
In the above embodiment, a plurality of conversion table memories storing different conversion tables are provided, and the conversion table stored in each conversion table memory is rewritten according to the display scene. The depth cueing may be performed without rewriting the conversion table stored in the table.
[0101]
In the above-described embodiment, the present invention has been described by taking the case where the game screen of the video game apparatus is synthesized as an example. Can be used widely.
[0102]
In addition, the image composition apparatus of the present invention can be widely applied to image composition apparatuses that output the color designation data 300 using various image composition methods such as texture mapping and paint processing.
[Brief description of the drawings]
FIG. 1 is a block diagram of an image composition device for a video game to which the present invention is applied.
FIG. 2 is an external perspective explanatory view of a commercial video game apparatus using the image composition apparatus shown in FIG. 1;
FIG. 3 is an explanatory diagram of a principle of creating a pseudo three-dimensional image of the image composition device according to the embodiment.
FIG. 4 is a diagram illustrating the principle of depth cueing processing performed by the image composition apparatus according to the embodiment.
FIG. 5 is a flowchart illustrating the depth cueing processing operation of the image composition apparatus according to the embodiment.
FIG. 6 is an explanatory diagram of a game screen created by the image composition device of the embodiment.
FIG. 7 is an explanatory diagram showing an example of a game screen that has been subjected to depth cueing processing for a night scene.
FIG. 8 is a block diagram showing another example of an image composition device for a video game to which the present invention is applied.
[Explanation of symbols]
18 display
26 Depth cueing information setting means
28 Color palette
30 Information converter
36 color signal calculation means
300 color specification data
320 Back color signal
350 color signal

Claims (5)

仮想3次元空間内に、表現された3次元オブジェクトを、視点座標系の投影面に投影変換し、各画素の前色指定データを演算し表示画像を合成する画像合成装置において、
表示場面に応じてデプスキューイング用の奥カラー信号を設定するとともに、前記3次元オブジェクトの前記視点座標系における奥行き情報を演算するデプスキューイング情報設定手段と、
各画素毎に出力される前記前色指定データに基づき色信号を前カラー信号として出力する第1のカラーパレットと、
前記奥行き情報、前カラー信号、奥カラー信号に基づき、各画素毎にデプスキューイングされた色信号を出力する色信号演算手段と、
前記3次元オブジェクトの前記視点座標系における実際の奥行き情報Zを、前記表示場面に応じてデプスキューイング用の奥行き情報Z′に変換出力する奥行き情報変換手段と、
前記色信号演算手段は、
前記デプスキューイング用の奥行き情報Z′、前カラー信号、奥カラー信号に基づき、各画素毎にデプスキューイングされた色信号を出力することを特徴とする画像合成装置。
In an image synthesizer for projecting and transforming a three-dimensional object represented in a virtual three-dimensional space onto a projection plane of a viewpoint coordinate system, calculating a previous color designation data of each pixel, and synthesizing a display image,
Depth cueing information setting means for setting depth color signals for depth cueing according to a display scene and calculating depth information of the three-dimensional object in the viewpoint coordinate system;
A first color palette for outputting a color signal as a previous color signal based on the previous color designation data output for each pixel;
Based on the depth information, the previous color signal, and the back color signal, a color signal calculation means for outputting a color signal depth-cueed for each pixel;
Depth information conversion means for converting and outputting actual depth information Z of the three-dimensional object in the viewpoint coordinate system to depth information Z ′ for depth cueing according to the display scene ;
The color signal calculation means includes
An image synthesizing apparatus that outputs a depth signal for each pixel based on the depth information Z ′ for depth cueing, the previous color signal, and the back color signal.
仮想3次元空間内に、表現された3次元オブジェクトを、視点座標系の投影面に投影変換し、各画素の前色指定データを演算し表示画像を合成する画像合成装置において、
表示場面に応じてデプスキューイング用の奥色指定データを設定するとともに、前記3次元オブジェクトの前記視点座標系における奥行き情報を演算するデプスキューイング情報設定手段と、
各画素毎に出力される前記前色指定データに基づき色信号を前カラー信号として出力する第1のカラーパレットと、
前記奥色指定データに基づき色信号を奥カラー信号として出力する第2のカラーパレットと、
前記奥行き情報、前カラー信号、奥カラー信号に基づき、各画素毎にデプスキューイングされた色信号を出力する色信号演算手段と、
前記3次元オブジェクトの前記視点座標系における実際の奥行き情報Zを、前記表示場面に応じてデプスキューイング用の奥行き情報Z′に変換出力する奥行き情報変換手段と、
前記色信号演算手段は、
前記デプスキューイング用の奥行き情報Z′、前カラー信号、奥カラー信号に基づき、各画素毎にデプスキューイングされた色信号を出力することを特徴とする画像合成装置。
In an image synthesizer for projecting and transforming a three-dimensional object represented in a virtual three-dimensional space onto a projection plane of a viewpoint coordinate system, calculating a previous color designation data of each pixel, and synthesizing a display image,
Depth cueing information setting means for setting depth color designation data for depth cueing according to a display scene and calculating depth information of the three-dimensional object in the viewpoint coordinate system;
A first color palette for outputting a color signal as a previous color signal based on the previous color designation data output for each pixel;
A second color palette for outputting a color signal as a back color signal based on the back color designation data;
Based on the depth information, the previous color signal, and the back color signal, a color signal calculation means for outputting a color signal depth-cueed for each pixel;
Depth information conversion means for converting and outputting actual depth information Z of the three-dimensional object in the viewpoint coordinate system to depth information Z ′ for depth cueing according to the display scene ;
The color signal calculation means includes
An image synthesizing apparatus that outputs a depth signal for each pixel based on the depth information Z ′ for depth cueing, the previous color signal, and the back color signal.
仮想3次元空間内に、ポリゴンを組合せて表現された3次元オブジェクトを、視点座標系の投影面に投影変換し、各画素の前色指定データを演算し表示画像を合成する画像合成装置において、
前記各ポリゴンの特性に応じてデプスキューイング用の奥カラー信号を設定するとともに、前記各ポリゴンの前記視点座標系における奥行き情報を演算するデプスキューイング情報設定手段と、
各画素毎に出力される前記前色指定データに基づき色信号を前カラー信号として出力する第1のカラーパレットと、
前記奥行き情報、前カラー信号、奥カラー信号に基づき、各画素毎にデプスキューイングされた色信号を出力する色信号演算手段と、
前記各ポリゴンの前記視点座標系における実際の奥行き情報Zを、前記各ポリゴンの特性に応じてデプスキューイング用の奥行き情報Z′に変換出力する奥行き情報変換手段と、
前記色信号演算手段は、
前記デプスキューイング用の奥行き情報Z′、前カラー信号、奥カラー信号に基づき、各画素毎にデプスキューイングされた色信号を出力することを特徴とする画像合成装置。
In an image synthesizer for projecting and transforming a three-dimensional object expressed by combining polygons in a virtual three-dimensional space onto a projection plane of a viewpoint coordinate system, calculating a previous color designation data of each pixel, and synthesizing a display image,
A depth cueing information setting means for setting depth information in the viewpoint coordinate system of each polygon, while setting a depth color signal for depth cueing according to the characteristics of each polygon,
A first color palette for outputting a color signal as a previous color signal based on the previous color designation data output for each pixel;
Based on the depth information, the previous color signal, and the back color signal, a color signal calculation means for outputting a color signal depth-cueed for each pixel;
Depth information converting means for converting and outputting the actual depth information Z of each polygon in the viewpoint coordinate system to depth information Z ′ for depth cueing according to the characteristics of each polygon ;
The color signal calculation means includes
An image synthesizing apparatus that outputs a depth signal for each pixel based on the depth information Z ′ for depth cueing, the previous color signal, and the back color signal.
仮想3次元空間内に、ポリゴンを組合せて表現された3次元オブジェクトを、視点座標系の投影面に投影変換し、各画素の前色指定データを演算し表示画像を合成する画像合成装置において、
前記各ポリゴンの特性に応じてデプスキューイング用の奥色指定データを設定するとともに、前記各ポリゴンの前記視点座標系における奥行き情報を演算するデプスキューイング情報設定手段と、
各画素毎に出力される前記前色指定データに基づき色信号を前カラー信号として出力する第1のカラーパレットと、
前記奥色指定データに基づき色信号を奥カラー信号として出力する第2のカラーパレットと、
前記奥行き情報、前カラー信号、奥カラー信号に基づき、各画素毎にデプスキューイングされた色信号を出力する色信号演算手段と、
前記各ポリゴンの前記視点座標系における実際の奥行き情報Zを、各ポリゴンの特性に応じてデプスキューイング用の奥行き情報Z′に変換出力する奥行き情報変換手段と、
前記色信号演算手段は、
前記デプスキューイング用の奥行き情報Z′、前カラー信号、奥カラー信号に基づき、各画素毎にデプスキューイングされた色信号を出力することを特徴とする画像合成装置。
In an image synthesizer for projecting and transforming a three-dimensional object expressed by combining polygons in a virtual three-dimensional space onto a projection plane of a viewpoint coordinate system, calculating a previous color designation data of each pixel, and synthesizing a display image,
Depth data specifying data for depth cueing according to the characteristics of each polygon, and depth cueing information setting means for calculating depth information of each polygon in the viewpoint coordinate system;
A first color palette for outputting a color signal as a previous color signal based on the previous color designation data output for each pixel;
A second color palette for outputting a color signal as a back color signal based on the back color designation data;
Based on the depth information, the previous color signal, and the back color signal, a color signal calculation means for outputting a color signal depth-cueed for each pixel;
Depth information converting means for converting and outputting actual depth information Z of each polygon in the viewpoint coordinate system to depth information Z ′ for depth cueing according to the characteristics of each polygon ;
The color signal calculation means includes
An image synthesizing apparatus that outputs a depth signal for each pixel based on the depth information Z ′ for depth cueing, the previous color signal, and the back color signal.
プレーヤが操作するプレーヤ操作手段と、
前記プレーヤ操作手段からの入力信号と、予め記憶されたゲームプログラムとに基づき、仮想3次元ゲーム空間内に、ポリゴンを組合わせて表現された3次元オブジェクトが登場する所定のゲーム演算を行うとともに、前記3次元オブジェクトを視点座標系の投影面に透視投影変換し、各画素毎に色指定データを演算し表示画像を合成する請求項1〜のいずれかに記載の画像合成装置と、
を含み、ディスプレイ上にゲーム画像を表示することを特徴とするゲーム装置。
Player operating means operated by the player;
Based on an input signal from the player operation means and a pre-stored game program, a predetermined game calculation is performed in which a three-dimensional object represented by combining polygons appears in a virtual three-dimensional game space, The image composition device according to any one of claims 1 to 4 , wherein the three-dimensional object is perspective-projected to a projection plane of a viewpoint coordinate system, color designation data is calculated for each pixel, and a display image is synthesized.
A game apparatus that displays a game image on a display.
JP2002190092A 1993-06-21 2002-06-28 Image composition apparatus and video game apparatus using the same Expired - Lifetime JP3656062B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002190092A JP3656062B2 (en) 1993-06-21 2002-06-28 Image composition apparatus and video game apparatus using the same

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP5-173698 1993-06-21
JP17369893 1993-06-21
JP2002190092A JP3656062B2 (en) 1993-06-21 2002-06-28 Image composition apparatus and video game apparatus using the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP50264795A Division JP3394258B2 (en) 1993-06-21 1994-06-21 Image synthesizing apparatus and video game apparatus using the same

Publications (2)

Publication Number Publication Date
JP2003123091A JP2003123091A (en) 2003-04-25
JP3656062B2 true JP3656062B2 (en) 2005-06-02

Family

ID=26495577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002190092A Expired - Lifetime JP3656062B2 (en) 1993-06-21 2002-06-28 Image composition apparatus and video game apparatus using the same

Country Status (1)

Country Link
JP (1) JP3656062B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5751616B2 (en) * 2011-03-14 2015-07-22 国立研究開発法人情報通信研究機構 Stereoscopic video encoding apparatus and method thereof, and stereoscopic video decoding apparatus and method thereof

Also Published As

Publication number Publication date
JP2003123091A (en) 2003-04-25

Similar Documents

Publication Publication Date Title
JP3442181B2 (en) 3D game device and image composition method
US6100895A (en) Apparatus and method of image synthesization
EP0633533B1 (en) Producing image data representing a picture
EP1795245B1 (en) Storage medium having game program stored therein and game apparatus
JP2000132706A (en) Recording medium, image processor and image processing method
JP4982862B2 (en) Program, information storage medium, and image generation system
JP3394258B2 (en) Image synthesizing apparatus and video game apparatus using the same
JP2008027064A (en) Program, information recording medium, and image forming system
JP3990258B2 (en) Image generation system, program, and information storage medium
JP3656062B2 (en) Image composition apparatus and video game apparatus using the same
JP4447000B2 (en) Image generation system, program, and information storage medium
JP3586460B2 (en) 3D game device and image composition method
JP3367934B2 (en) Game system, image drawing method in game system, and computer-readable recording medium storing game program
JP4000812B2 (en) Image generation system and image generation program
JP3364456B2 (en) 3D simulator apparatus and image composition method
JP2928119B2 (en) Image synthesis device
JP2763502B2 (en) Image synthesizing apparatus and image synthesizing method
JP3269813B2 (en) Image generation system and information storage medium
JP3547430B2 (en) 3D game device and image composition method
JP3538248B2 (en) Image composition apparatus and image composition method
JP5359054B2 (en) GAME DEVICE, GAME DEVICE IMAGE PROCESSING METHOD, GAME IMAGE PROCESSING PROGRAM, ITS STORAGE MEDIUM, AND GAME DEVICE IMAGE PROCESSING METHOD
JP2008077406A (en) Image generation system, program, and information storage medium
JPH10283499A (en) Device for generating video and method therefor and record medium
JP2002197483A (en) Image generation system and information storage medium
JP2002273029A (en) Game information, information storage medium, and game apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050307

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140311

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term