JP2002092631A - Game system, program, and information storage medium - Google Patents

Game system, program, and information storage medium

Info

Publication number
JP2002092631A
JP2002092631A JP2001020521A JP2001020521A JP2002092631A JP 2002092631 A JP2002092631 A JP 2002092631A JP 2001020521 A JP2001020521 A JP 2001020521A JP 2001020521 A JP2001020521 A JP 2001020521A JP 2002092631 A JP2002092631 A JP 2002092631A
Authority
JP
Japan
Prior art keywords
information
image
color
original image
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001020521A
Other languages
Japanese (ja)
Other versions
JP4656617B2 (en
Inventor
Shigeru Kikko
繁 橘高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2001020521A priority Critical patent/JP4656617B2/en
Publication of JP2002092631A publication Critical patent/JP2002092631A/en
Application granted granted Critical
Publication of JP4656617B2 publication Critical patent/JP4656617B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a game system, a program, and an information storage medium capable of realizing a video filter such as γ-correction with a low processing load. SOLUTION: Original image information (R, G, B, a Z-value) is set as an index number in an index color texture mapping lookup table LUT. Using the LUT, texture mapping is carried out on a polygon of a display screen size (split block size), and γ-correction, negative-positive reversion, monotone filtering and the like are realized. When color information is transformed while a color constituent R of the original image is set as an index number of the LUT, masking is carried out so that other color constituents G and B, are not drawn. Information about respective colors after transformation obtained by setting the respective color constituents R, G, and B to the index numbers of the LUT is synthesized. Monitor brightness adjusting data are set on the basis of operation data inputted by a player through a game controller, the set adjusting data are saved in a saving information storage device, and the original image is transformed on the basis of the adjusting data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ゲームシステム、
プログラム及び情報記憶媒体に関する。
[0001] The present invention relates to a game system,
The present invention relates to a program and an information storage medium.

【0002】[0002]

【背景技術及び発明が解決しようとする課題】従来よ
り、仮想的な3次元空間であるオブジェクト空間内の所
与の視点から見える画像を生成するゲームシステムが知
られており、いわゆる仮想現実を体験できるものとして
人気が高い。レーシングゲームを楽しむことができるゲ
ームシステムを例にとれば、プレーヤは、車(オブジェ
クト)を操作してオブジェクト空間内で走行させ、他の
プレーヤやコンピュータが操作する車と競争することで
3次元ゲームを楽しむ。
2. Description of the Related Art Conventionally, there has been known a game system for generating an image which can be viewed from a given viewpoint in an object space which is a virtual three-dimensional space. Popular as something you can do. For example, in a game system in which a racing game can be enjoyed, a player operates a car (object) to run in an object space, and competes with another player or a car operated by a computer to perform a three-dimensional game. Enjoy.

【0003】さて、このようなゲームシステムでは、モ
ニタ(表示部)の非線形特性を補正するために、画像に
対してガンマ補正と呼ばれる変換を施すことが望まし
い。
In such a game system, it is desirable to apply a conversion called gamma correction to the image in order to correct the non-linear characteristics of the monitor (display unit).

【0004】そして、このようなガンマ補正を実現する
手法としては、以下に説明する第1、第2の手法があ
る。
[0004] As a method for realizing such gamma correction, there are first and second methods described below.

【0005】第1の手法では、図1(A)に示すよう
に、メインメモリ802上にガンマ補正用のルックアッ
プテーブル(LUT)を用意しておく。そして、CPU
800(CPU上で動作するソフトウェア)は、VRA
M806内にあるフレームバッファ808から、元画像
の各画素の色情報(RGB)を読み出す。そして、読み
出された色情報に基づいてガンマ補正用LUTを参照
し、ガンマ補正後の色情報を得る。次に、得られたガン
マ補正後の色情報をフレームバッファの対応する画素に
書き戻す。そして、以上の処理を、元画像の全ての画素
に対して行う。
In the first method, as shown in FIG. 1A, a look-up table (LUT) for gamma correction is prepared on a main memory 802. And CPU
800 (software running on the CPU)
The color information (RGB) of each pixel of the original image is read from the frame buffer 808 in M806. Then, the color information after gamma correction is obtained by referring to the gamma correction LUT based on the read color information. Next, the obtained gamma corrected color information is written back to the corresponding pixel in the frame buffer. Then, the above processing is performed on all pixels of the original image.

【0006】一方、第2の手法では、図1(B)に示す
ように、CPU810の制御下で動作する描画プロセッ
サ812の後段に、ハードウェアによりガンマ補正を実
現するガンマ補正回路814を設ける。そして、描画プ
ロセッサ812により生成された色情報に対して、ガン
マ補正回路814がガンマ補正を施し、モニタ816に
出力する。
On the other hand, in the second method, as shown in FIG. 1B, a gamma correction circuit 814 for realizing gamma correction by hardware is provided at a stage subsequent to a drawing processor 812 operating under the control of the CPU 810. The gamma correction circuit 814 performs gamma correction on the color information generated by the drawing processor 812, and outputs the result to the monitor 816.

【0007】しかしながら、図1(A)の第1の手法で
は、フレームバッファ808からの色情報の読み出し、
ガンマ補正用LUT804の参照、ガンマ補正用LUT
804からの色情報の読み出し、読み出した色情報のフ
レームバッファ808への書き戻しなどの全ての処理
を、CPU800上で動作するソフトウェアが行うこと
になる。従って、処理の高速化を図れず、表示画面の全
画素に対するガンマ補正を、1フレーム内で完了するの
は困難となる。また、CPU800の処理負荷が非常に
重くなり、他の処理に悪影響を及ぼすという問題も招
く。
However, in the first method shown in FIG. 1A, reading of color information from the frame buffer 808,
Gamma correction LUT 804 reference, gamma correction LUT
Software operating on the CPU 800 performs all processes such as reading of color information from the 804 and writing back of the read color information to the frame buffer 808. Therefore, the processing speed cannot be increased, and it becomes difficult to complete gamma correction for all pixels on the display screen within one frame. In addition, the processing load of the CPU 800 becomes very heavy, which causes a problem that other processes are adversely affected.

【0008】一方、図1(B)の第2の手法では、専用
のハードウェアであるガンマ補正回路814が使用され
るため、高速なガンマ補正が可能になる。従って、表示
画面の全画素に対するガンマ補正を1フレーム内で完了
することも容易となる。また、CPU810の処理負荷
も少ないため、他の処理に悪影響が及ぶ問題も解決でき
る。
On the other hand, in the second method shown in FIG. 1B, the gamma correction circuit 814, which is dedicated hardware, is used, so that high-speed gamma correction can be performed. Therefore, it becomes easy to complete the gamma correction for all the pixels of the display screen within one frame. Further, since the processing load on the CPU 810 is small, it is possible to solve the problem that other processes are adversely affected.

【0009】しかしながら、図1(B)の第2の手法で
は、専用のハードウェアであるガンマ補正回路814が
別途必要になってしまう。従って、ゲームシステムが大
規模化し、製品コストの増加の問題を招く。
However, in the second method shown in FIG. 1B, a gamma correction circuit 814 which is dedicated hardware is separately required. Therefore, the game system becomes large-scale, which causes a problem of an increase in product cost.

【0010】特に、家庭用ゲームシステムにおいては、
製品の普及化を図るために、低コスト化が厳しく要求さ
れており、ほとんどの家庭用ゲームシステムでは、図1
(B)に示すようなガンマ補正回路がハードウェアとし
て設けられていない。従って、ガンマ補正を実現するた
めには、図1(A)のような第1の手法を採用せざるを
得ない。
In particular, in a home game system,
In order to popularize products, cost reduction is strictly required. In most home game systems, FIG.
The gamma correction circuit as shown in (B) is not provided as hardware. Therefore, in order to realize gamma correction, the first method as shown in FIG. 1A must be adopted.

【0011】ところが、前述のように第1の手法では、
1フレーム内で全表示画面分のガンマ補正を完了するの
は困難であり、他の処理にも悪影響を及ぼす。従って、
家庭用ゲームシステムにおいては、ガンマ補正の実施自
体を断念せざるを得なかった。
However, as described above, in the first method,
It is difficult to complete the gamma correction for the entire display screen within one frame, and this adversely affects other processes. Therefore,
In a home game system, the implementation of gamma correction itself has to be abandoned.

【0012】本発明は、以上のような課題に鑑みてなさ
れたものであり、その目的とするところは、ガンマ補正
などのビデオフィルタを少ない処理負担で実現できるゲ
ームシステム及び情報記憶媒体を提供することにある。
The present invention has been made in view of the above problems, and an object of the present invention is to provide a game system and an information storage medium which can realize a video filter such as gamma correction with a small processing load. It is in.

【0013】[0013]

【課題を解決するための手段】上記課題を解決するため
に、本発明は、画像生成を行うゲームシステムであっ
て、元画像の画像情報を、インデックスカラー・テクス
チャマッピング用のルックアップテーブルのインデック
ス番号として設定する手段と、元画像の画像情報がイン
デックス番号として設定された前記ルックアップテーブ
ルを用いて、仮想オブジェクトに対してインデックスカ
ラー・テクスチャマッピングを行い、元画像の画像情報
を変換する手段とを含むことを特徴とする。また本発明
に係る情報記憶媒体は、コンピュータにより使用可能な
情報記憶媒体であって、上記手段を実行するためのプロ
グラムを含むことを特徴とする。また本発明に係るプロ
グラムは、コンピュータにより使用可能なプログラム
(搬送波に具現化されるプログラムを含む)であって、
上記手段を実行するための処理ルーチンを含むことを特
徴とする。
In order to solve the above-mentioned problems, the present invention is directed to a game system for generating an image, wherein image information of an original image is stored in an index of a lookup table for index color / texture mapping. Means for setting as a number, means for performing index color texture mapping on the virtual object using the look-up table in which image information of the original image is set as an index number, and converting image information of the original image. It is characterized by including. Further, an information storage medium according to the present invention is an information storage medium usable by a computer, and includes a program for executing the above means. The program according to the present invention is a program usable by a computer (including a program embodied in a carrier wave),
A processing routine for executing the above means is included.

【0014】本発明によれば、元画像の画像情報がイン
デックス番号として設定されたルックアップテーブルを
用いて、仮想オブジェクトに対してインデックスカラー
・テクスチャマッピングが行われ、元画像の画像情報が
変換される。このように本発明によれば、ゲームシステ
ム(画像生成システム)が元々有しているインデックス
カラー・テクスチャマッピングの機能を有効利用して、
元画像の画像情報の変換が行われる。従って、ガンマ補
正などのビデオフィルタの処理を、新たなハードウェア
を追加することなく、高速に実行できるようになり、全
表示画面分の画像情報を変換することも容易となる。
According to the present invention, the index color / texture mapping is performed on the virtual object using the look-up table in which the image information of the original image is set as the index number, and the image information of the original image is converted. You. As described above, according to the present invention, the index color / texture mapping function originally provided in the game system (image generation system) is effectively used,
The conversion of the image information of the original image is performed. Therefore, video filter processing such as gamma correction can be performed at high speed without adding new hardware, and image information for the entire display screen can be easily converted.

【0015】なお、元画像の画像情報は、例えば、描画
領域(フレームバッファ、別バッファ等)に描画されて
いる情報であり、色情報、α値又は奥行き値などを含
む。また、元画像の画像情報の変換としては、ガンマ補
正以外にも種々の変換を考えることができる。また、元
画像の画像情報をルックアップテーブルのインデックス
番号として設定することで得られる変換後の画像情報
は、色情報に限定されない。また、仮想オブジェクトと
しては、1又は複数のプリミティブ面(ポリゴン、自由
曲面)を考えることができる。
The image information of the original image is, for example, information drawn in a drawing area (a frame buffer, another buffer, or the like) and includes color information, an α value, a depth value, and the like. As the conversion of the image information of the original image, various conversions other than the gamma correction can be considered. The converted image information obtained by setting the image information of the original image as the index number of the lookup table is not limited to the color information. In addition, one or a plurality of primitive surfaces (polygon, free-form surface) can be considered as the virtual object.

【0016】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、前記仮想オブジェクトが、表
示画面サイズのポリゴンであることを特徴とする。
The game system, the information storage medium, and the program according to the present invention are characterized in that the virtual object is a polygon having a display screen size.

【0017】このようにすれば、全表示画面分の元画像
の画像情報を例えば1回(或いは数回)のテクスチャマ
ッピングで変換できるようになる。
In this manner, the image information of the original image for the entire display screen can be converted by, for example, one (or several) texture mappings.

【0018】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、前記仮想オブジェクトが、表
示画面を分割したブロックのサイズのポリゴンであるこ
とを特徴とする。
In the game system, the information storage medium, and the program according to the present invention, the virtual object is a polygon having a size of a block obtained by dividing a display screen.

【0019】このようにすれば、仮想オブジェクトを描
画する領域の大きさを小さくすることが可能になり、記
憶部の使用記憶容量を節約できる。
This makes it possible to reduce the size of the area where the virtual object is drawn, thereby saving the storage capacity of the storage unit.

【0020】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、ガンマ補正、ネガポジ反転、
ポスタリゼーション、ソラリゼーション、2値化、モノ
トーンフィルタ又はセピアフィルタの変換のための前記
ルックアップテーブルを用意し、該ルックアップテーブ
ルを用いて、元画像の画像情報に対してガンマ補正、ネ
ガポジ反転、ポスタリゼーション、ソラリゼーション、
2値化、モノトーンフィルタ又はセピアフィルタの変換
を施すことを特徴とする。
Further, the game system, the information storage medium and the program according to the present invention provide gamma correction, negative / positive inversion,
Prepare the look-up table for posterization, solarization, binarization, conversion of a monotone filter or a sepia filter, using the look-up table, gamma correction, negative-positive inversion, posterization, image information of the original image, Solarization,
It is characterized by performing binarization, conversion of a monotone filter or a sepia filter.

【0021】このようにすれば、元画像に対して種々の
画像エフェクトを施した画像を得ることが可能になり、
生成される画像のバラエティ度を増すことができる。但
し、本発明における画像情報の変換は、ガンマ補正、ネ
ガポジ反転、ポスタリゼーション、ソラリゼーション、
2値化、モノトーンフィルタ、セピアフィルタに限定さ
れるものではない。
This makes it possible to obtain an image obtained by applying various image effects to the original image.
The variety of generated images can be increased. However, the conversion of image information in the present invention includes gamma correction, negative / positive inversion, posterization, solarization,
The present invention is not limited to binarization, a monotone filter, and a sepia filter.

【0022】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、元画像の画像情報が含む色情
報の色成分を前記ルックアップテーブルのインデックス
番号として設定して色情報を変換する場合において、変
換後の色情報の他の色成分が描画領域に描画されないよ
うにするためのマスク処理を行う手段(或いは該手段を
実行するためのプログラム又は処理ルーチン)を含むこ
とを特徴とする。
The game system, the information storage medium, and the program according to the present invention, when converting color information by setting a color component of color information included in image information of an original image as an index number of the look-up table, The image processing apparatus further includes means for performing a mask process for preventing other color components of the converted color information from being drawn in the drawing area (or a program or a processing routine for executing the means).

【0023】このようにすれば、1つの入力値に対して
複数の値が出力されてしまうインデックスカラー・テク
スチャマッピング用のルックアップテーブルを用いなが
らも、1つの入力値に対して1つの値が出力されるガン
マ補正などの画像変換を実現できるようになる。
In this way, while using a look-up table for index color / texture mapping in which a plurality of values are output for one input value, one value is obtained for one input value. Image conversion such as output gamma correction can be realized.

【0024】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、元画像の画像情報が含む色情
報の第Kの色成分を前記ルックアップテーブルのインデ
ックス番号として設定することで得られる変換後の色情
報と、色情報の第Lの色成分を前記ルックアップテーブ
ルのインデックス番号として設定することで得られる変
換後の色情報と、色情報の第Mの色成分を前記ルックア
ップテーブルのインデックス番号として設定することで
得られる変換後の色情報とを合成する手段(或いは該手
段を実行するためのプログラム又は処理ルーチン)を含
むことを特徴とする。
Further, the game system, the information storage medium and the program according to the present invention provide a game system comprising: a converted K-color component obtained by setting a K-th color component of color information included in image information of an original image as an index number of the lookup table; , The converted color information obtained by setting the L-th color component of the color information as the index number of the lookup table, and the M-th color component of the color information as the index of the lookup table. It is characterized by including means (or a program or a processing routine for executing the means) for synthesizing the converted color information obtained by setting as a number.

【0025】このようにすれば、例えば第Kの色成分の
入力に対して、第K、第L、第Mの色成分が合成された
色情報の画像が生成されるような画像変換も実現できる
ようになる。
In this way, for example, image conversion such that an image of color information in which the Kth, Lth, and Mth color components are combined with respect to the input of the Kth color component is also realized. become able to.

【0026】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、元画像の画像情報の変換によ
り、元画像の画像情報に応じた値のα値が生成されるこ
とを特徴とする。
The game system, the information storage medium, and the program according to the present invention are characterized in that an α value of a value corresponding to the image information of the original image is generated by converting the image information of the original image.

【0027】このようにすれば、例えば、元画像の画像
情報が奥行き値である場合には、元画像の各画素の奥行
き値に応じた値に各画素のα値を設定することが可能に
なる。これにより、例えば、元画像と該元画像に対応す
るぼかし画像とを、各画素に設定されるα値に基づいて
合成することなどが可能になり、被写界深度の実現も可
能になる。
In this way, for example, when the image information of the original image is a depth value, it is possible to set the α value of each pixel to a value corresponding to the depth value of each pixel of the original image. Become. Thereby, for example, it is possible to combine the original image and the blurred image corresponding to the original image based on the α value set for each pixel, and it is also possible to realize the depth of field.

【0028】また、生成されたα値を利用することで、
元画像の画像情報の値に応じたマスク処理なども可能に
なる。
Also, by using the generated α value,
Mask processing or the like according to the value of the image information of the original image can also be performed.

【0029】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、元画像の画像情報が含む奥行
き値が、前記ルックアップテーブルのインデックス番号
として設定されることを特徴とする。
The game system, the information storage medium, and the program according to the present invention are characterized in that a depth value included in image information of an original image is set as an index number of the lookup table.

【0030】このように本発明においてルックアップテ
ーブルのインデックス番号として設定される画像情報と
しては、種々の情報を考えることができる。
As described above, various information can be considered as the image information set as the index number of the lookup table in the present invention.

【0031】また本発明は、家庭用ゲームのゲーム画像
を生成するためのゲームシステムであって、プレーヤが
ゲームコントローラを用いて入力した操作データに基づ
いて、モニタの表示特性を調整するための調整データを
設定する手段と、設定された調整データを、プレーヤの
個人データを記憶するためのセーブ用情報記憶装置にセ
ーブするセーブ手段と、表示特性の調整により得られた
調整データ又はセーブ用情報記憶装置からロードされた
調整データに基づいて、元画像の画像情報に対して変換
処理を施す手段とを含むことを特徴とする。また本発明
に係る情報記憶媒体は、コンピュータにより使用可能な
情報記憶媒体であって、上記手段を実行するためのプロ
グラムを含むことを特徴とする。また本発明に係るプロ
グラムは、コンピュータにより使用可能なプログラム
(搬送波に具現化されるプログラムを含む)であって、
上記手段を実行するための処理ルーチンを含むことを特
徴とする。
Further, the present invention is a game system for generating a game image of a home game, wherein an adjustment for adjusting a display characteristic of a monitor is performed based on operation data input by a player using a game controller. Means for setting data; saving means for saving the set adjustment data in a saving information storage device for storing personal data of the player; and adjusting data or saving information obtained by adjusting display characteristics. Means for performing a conversion process on the image information of the original image based on the adjustment data loaded from the apparatus. Further, an information storage medium according to the present invention is an information storage medium usable by a computer, and includes a program for executing the above means. The program according to the present invention is a program usable by a computer (including a program embodied in a carrier wave),
A processing routine for executing the above means is included.

【0032】本発明によれば、プレーヤは、ゲームコン
トローラを用いてモニタの表示特性(明るさ、色の濃
さ、色合い、又はシャープネス等)を調整するための調
整データを設定できる。従って、プレーヤがモニタを直
接操作しなくて済むため、プレーヤの利便性を向上でき
る。そして、設定された調整データはセーブ用情報記憶
装置にセーブされると共に、表示特性の調整により得ら
れた調整データ又はセーブ用情報記憶装置からロードさ
れた調整データに基づいて、元画像の画像情報の変換処
理が行われる。従って、プレーヤがプレイするゲームに
応じた最適な表示特性でゲーム画像を表示できるように
なる。また、プレーヤが他の映像ソースの映像を見た場
合などに、モニタの表示特性の調整の悪影響が及んだり
する事態を防止できる。
According to the present invention, the player can set the adjustment data for adjusting the display characteristics (brightness, color density, hue, sharpness, etc.) of the monitor using the game controller. Therefore, since the player does not need to directly operate the monitor, the convenience of the player can be improved. The set adjustment data is saved in the save information storage device, and based on the adjustment data obtained by adjusting the display characteristics or the adjustment data loaded from the save information storage device, the image information of the original image is stored. Is performed. Therefore, a game image can be displayed with optimal display characteristics according to the game played by the player. In addition, it is possible to prevent a situation in which the adjustment of the display characteristics of the monitor is adversely affected when the player watches an image from another image source.

【0033】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、前記セーブ手段が、画像情報
の変換特性を表す自由曲線の制御点のデータを、前記調
整データとしてセーブ用情報記憶装置にセーブすること
を特徴とする。
Further, in the game system, the information storage medium and the program according to the present invention, the saving means saves data of a control point of a free curve representing a conversion characteristic of image information in the saving information storage device as the adjustment data. It is characterized by doing.

【0034】このようにすれば、セーブ用情報記憶装置
の使用記憶容量を節約できるようになり、空いた記憶容
量を他の用途に使用できるようになる。
In this way, the used storage capacity of the save information storage device can be saved, and the free storage capacity can be used for other purposes.

【0035】[0035]

【発明の実施の形態】以下、本発明の好適な実施形態に
ついて図面を用いて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings.

【0036】1.構成 図2に、本実施形態のゲームシステム(画像生成システ
ム)のブロック図の一例を示す。なお同図において本実
施形態は、少なくとも処理部100を含めばよく、それ
以外のブロックについては、任意の構成要素とすること
ができる。
1. Configuration FIG. 2 shows an example of a block diagram of a game system (image generation system) of the present embodiment. In this figure, the present embodiment only needs to include at least the processing unit 100, and the other blocks can be optional components.

【0037】ここで処理部100は、システム全体の制
御、システム内の各ブロックへの命令の指示、ゲーム処
理、画像処理、音処理などの各種の処理を行うものであ
り、その機能は、各種プロセッサ(CPU、DSP
等)、或いはASIC(ゲートアレイ等)などのハード
ウェアや、所与のプログラム(ゲームプログラム)によ
り実現できる。
The processing unit 100 performs various processes such as control of the entire system, instruction of instructions to each block in the system, game processing, image processing, and sound processing. Processor (CPU, DSP)
Or an ASIC (gate array or the like) or a given program (game program).

【0038】操作部160は、プレーヤが操作データを
入力するためのものであり、その機能は、レバー、ボタ
ン、筺体などのハードウェアにより実現できる。
The operation section 160 is used by a player to input operation data, and its function can be realized by hardware such as a lever, a button, and a housing.

【0039】記憶部170は、処理部100や通信部1
96などのワーク領域となるもので、その機能はRAM
などのハードウェアにより実現できる。
The storage unit 170 stores the processing unit 100 and the communication unit 1
A work area such as 96
It can be realized by hardware such as.

【0040】情報記憶媒体(コンピュータにより使用可
能な記憶媒体)180は、プログラムやデータなどの情
報を格納するものであり、その機能は、光ディスク(C
D、DVD)、光磁気ディスク(MO)、磁気ディス
ク、ハードディスク、磁気テープ、或いはメモリ(RO
M)などのハードウェアにより実現できる。処理部10
0は、この情報記憶媒体180に格納される情報に基づ
いて本発明(本実施形態)の種々の処理を行う。即ち情
報記憶媒体180には、本発明(本実施形態)の手段
(特に処理部100に含まれるブロック)を実行するた
めの情報(プログラム或いはデータ)が格納される。
An information storage medium (storage medium usable by a computer) 180 stores information such as programs and data.
D, DVD), magneto-optical disk (MO), magnetic disk, hard disk, magnetic tape, or memory (RO
M) and the like. Processing unit 10
0 performs various processes of the present invention (the present embodiment) based on the information stored in the information storage medium 180. That is, the information storage medium 180 stores information (program or data) for executing the means of the present invention (the present embodiment) (particularly, the blocks included in the processing unit 100).

【0041】なお、情報記憶媒体180に格納される情
報の一部又は全部は、システムへの電源投入時等に記憶
部170に転送されることになる。また情報記憶媒体1
80に記憶される情報は、本発明の処理を行うためのプ
ログラムコード、画像データ、音データ、表示物の形状
データ、テーブルデータ、リストデータ、本発明の処理
を指示するための情報、その指示に従って処理を行うた
めの情報等の少なくとも1つを含むものである。
A part or all of the information stored in the information storage medium 180 is transferred to the storage unit 170 when the power to the system is turned on. Information storage medium 1
The information stored in 80 is a program code for performing the processing of the present invention, image data, sound data, shape data of a display object, table data, list data, information for instructing the processing of the present invention, and an instruction thereof. At least one of information for performing the processing according to the above.

【0042】表示部190は、本実施形態により生成さ
れた画像を出力するものであり、その機能は、CRT、
LCD、或いはHMD(ヘッドマウントディスプレイ)
などのハードウェアにより実現できる。
The display unit 190 outputs an image generated according to the present embodiment.
LCD or HMD (head mounted display)
It can be realized by hardware such as.

【0043】音出力部192は、本実施形態により生成
された音を出力するものであり、その機能は、スピーカ
などのハードウェアにより実現できる。
The sound output section 192 outputs the sound generated according to the present embodiment, and its function can be realized by hardware such as a speaker.

【0044】セーブ用情報記憶装置194は、プレーヤ
の個人データ(セーブデータ)などが記憶されるもので
あり、このセーブ用情報記憶装置194としては、メモ
リカードや携帯型ゲーム装置などを考えることができ
る。
The save information storage device 194 stores player personal data (save data) and the like, and the save information storage device 194 may be a memory card, a portable game device, or the like. it can.

【0045】通信部196は、外部(例えばホスト装置
や他のゲームシステム)との間で通信を行うための各種
の制御を行うものであり、その機能は、各種プロセッ
サ、或いは通信用ASICなどのハードウェアや、プロ
グラムなどにより実現できる。
The communication unit 196 performs various controls for communicating with the outside (for example, a host device or another game system), and has a function of various processors or a communication ASIC. This can be realized by hardware, a program, or the like.

【0046】なお本発明(本実施形態)の手段を実行す
るためのプログラム或いはデータは、ホスト装置(サー
バー)が有する情報記憶媒体からネットワーク及び通信
部196を介して情報記憶媒体180に配信するように
してもよい。このようなホスト装置(サーバー)の情報
記憶媒体の使用も本発明の範囲内に含まれる。
A program or data for executing the means of the present invention (the present embodiment) is distributed from the information storage medium of the host device (server) to the information storage medium 180 via the network and the communication unit 196. It may be. Use of such an information storage medium of the host device (server) is also included in the scope of the present invention.

【0047】処理部100は、ゲーム処理部110、画
像生成部130、音生成部150を含む。
The processing section 100 includes a game processing section 110, an image generation section 130, and a sound generation section 150.

【0048】ここでゲーム処理部110は、コイン(代
価)の受け付け処理、各種モードの設定処理、ゲームの
進行処理、選択画面の設定処理、オブジェクト(1又は
複数のプリミティブ面)の位置や回転角度(X、Y又は
Z軸回り回転角度)を求める処理、オブジェクトを動作
させる処理(モーション処理)、視点の位置(仮想カメ
ラの位置)や視線角度(仮想カメラの回転角度)を求め
る処理、マップオブジェクトなどのオブジェクトをオブ
ジェクト空間へ配置するための処理、ヒットチェック処
理、ゲーム結果(成果、成績)を演算する処理、複数の
プレーヤが共通のゲーム空間でプレイするための処理、
或いはゲームオーバー処理などの種々のゲーム処理を、
操作部160からの操作データや、セーブ用情報記憶装
置194からの個人データや、ゲームプログラムなどに
基づいて行う。
The game processing section 110 receives coins (price), sets various modes, progresses the game, sets a selection screen, and sets the position and rotation angle of an object (one or more primitive planes). Processing for determining (rotation angle around X, Y or Z axis), processing for moving an object (motion processing), processing for determining viewpoint position (position of virtual camera) and line of sight (rotation angle of virtual camera), map object Processing for arranging objects such as objects in the object space, hit check processing, processing for calculating game results (results, results), processing for multiple players to play in a common game space,
Or various game processing such as game over processing,
This is performed based on operation data from the operation unit 160, personal data from the save information storage device 194, a game program, and the like.

【0049】画像生成部130は、ゲーム処理部110
からの指示等にしたがって各種の画像処理を行い、例え
ばオブジェクト空間内で仮想カメラ(視点)から見える
画像を生成して、表示部190に出力する。また、音生
成部150は、ゲーム処理部110からの指示等にした
がって各種の音処理を行い、BGM、効果音、音声など
の音を生成し、音出力部192に出力する。
The image generation unit 130 includes a game processing unit 110
Various image processing is performed in accordance with instructions and the like, and, for example, an image viewed from a virtual camera (viewpoint) in the object space is generated and output to the display unit 190. In addition, the sound generation unit 150 performs various types of sound processing according to instructions from the game processing unit 110 and the like, generates sounds such as BGM, sound effects, and sounds, and outputs the sounds to the sound output unit 192.

【0050】なお、ゲーム処理部110、画像生成部1
30、音生成部150の機能は、その全てをハードウェ
アにより実現してもよいし、その全てをプログラムによ
り実現してもよい。或いは、ハードウェアとプログラム
の両方により実現してもよい。
The game processing section 110 and the image generation section 1
30, all of the functions of the sound generation unit 150 may be realized by hardware, or all of the functions may be realized by a program. Alternatively, it may be realized by both hardware and a program.

【0051】ゲーム処理部110は、移動・動作演算部
112、調整情報設定部114、セーブ部116を含
む。
The game processing section 110 includes a movement / motion calculation section 112, an adjustment information setting section 114, and a save section 116.

【0052】ここで移動・動作演算部112は、車など
のオブジェクトの移動情報(位置データ、回転角度デー
タ)や動作情報(オブジェクトの各パーツの位置デー
タ、回転角度データ)を演算するものであり、例えば、
操作部160によりプレーヤが入力した操作データやゲ
ームプログラムなどに基づいて、オブジェクトを移動さ
せたり動作させたりする処理を行う。
The movement / motion calculation unit 112 calculates movement information (position data and rotation angle data) and movement information (position data and rotation angle data of each part of the object) of an object such as a car. For example,
Based on operation data or a game program input by the player through the operation unit 160, a process of moving or moving an object is performed.

【0053】より具体的には、移動・動作演算部112
は、オブジェクトの位置や回転角度を例えば1フレーム
(1/60秒)毎に求める処理を行う。例えば(k−
1)フレームでのオブジェクトの位置をPMk-1、速度
をVMk-1、加速度をAMk-1、1フレームの時間を△t
とする。するとkフレームでのオブジェクトの位置PM
k、速度VMkは例えば下式(1)、(2)のように求め
られる。
More specifically, the movement / motion calculation unit 112
Performs a process of obtaining the position and rotation angle of the object, for example, every frame (1/60 second). For example, (k-
1) The position of the object in the frame is PMk-1, the speed is VMk-1, the acceleration is AMk-1, and the time of one frame is Δt.
And Then, the position PM of the object at k frame
k and the speed VMk are obtained, for example, by the following equations (1) and (2).

【0054】 PMk=PMk-1+VMk-1×△t (1) VMk=VMk-1+AMk-1×△t (2) 調整情報設定部114は、プレーヤが操作部160(ゲ
ームコントローラ)を用いて入力した操作データに基づ
いて、表示部160(モニタ)の表示特性(明るさ、色
の濃さ、色合い、又はシャープネス等)を調整するため
の調整データを設定(作成)する処理を行う。
PMk = PMk−1 + VMk−1 × Δt (1) VMk = VMk−1 + AMk−1 × Δt (2) The adjustment information setting unit 114 is input by the player using the operation unit 160 (game controller). Based on the operation data, a process of setting (creating) adjustment data for adjusting display characteristics (brightness, color density, hue, sharpness, etc.) of the display unit 160 (monitor) is performed.

【0055】セーブ部116は、調整情報設定部114
により設定された調整データ(明るさ、色の濃さ、色合
い、又はシャープネス等を調整するためのデータ)を、
セーブ用情報記憶装置194にセーブするための処理を
行う。
The save unit 116 is provided with an adjustment information setting unit 114
Adjustment data (data for adjusting brightness, color density, hue, sharpness, etc.)
A process for saving in the save information storage device 194 is performed.

【0056】そして本実施形態では、表示特性の調整に
より得られた調整データやセーブ用情報記憶装置194
からロードされた調整データなどに基づいて、元画像の
画像情報に対して変換処理が行われる。この場合の元画
像の画像情報の変換処理は、インデックス番号設定部1
34や描画部140(テクスチャマッピング部142)
の機能により、実現されることになる。
In the present embodiment, the adjustment data obtained by adjusting the display characteristics and the save information storage device 194 are provided.
The conversion processing is performed on the image information of the original image based on the adjustment data and the like loaded from. The conversion process of the image information of the original image in this case is performed by the index number setting unit 1
34 and the drawing unit 140 (texture mapping unit 142)
Function is realized.

【0057】画像生成部130は、ジオメトリ処理部1
32、インデックス番号設定部134、描画部140を
含む。
The image generation unit 130 includes the geometry processing unit 1
32, an index number setting unit 134, and a drawing unit 140.

【0058】ここで、ジオメトリ処理部132は、座標
変換、クリッピング処理、透視変換、或いは光源計算な
どの種々のジオメトリ処理(3次元演算)を行う。そし
て、ジオメトリ処理後(透視変換後)のオブジェクトデ
ータ(オブジェクトの頂点座標などの形状データ、或い
は頂点テクスチャ座標、輝度データ等)は、記憶部17
0のメインメモリ172に保存される。
Here, the geometry processing unit 132 performs various types of geometry processing (three-dimensional operation) such as coordinate transformation, clipping processing, perspective transformation, and light source calculation. Then, the object data (shape data such as vertex coordinates of the object, vertex texture coordinates, luminance data, etc.) after the geometry processing (after the perspective transformation) is stored in the storage unit 17.
0 in the main memory 172.

【0059】インデックス番号設定部134は、元画像
の画像情報を、LUT記憶部178に記憶されるインデ
ックスカラー・テクスチャマッピング用のLUTのイン
デックス番号として設定するための処理を行う。ここ
で、元画像の画像情報としては、例えば、色情報(RG
B、YUV等)、α値(各画素に関連づけられて記憶さ
れる情報であり色情報以外のプラスアルファの情報)、
奥行き値(Z値)等、種々の情報を考えることができ
る。
The index number setting section 134 performs processing for setting the image information of the original image as the index number of the LUT for index color / texture mapping stored in the LUT storage section 178. Here, as the image information of the original image, for example, color information (RG
B, YUV, etc.), α value (information stored in association with each pixel and plus alpha information other than color information),
Various information such as a depth value (Z value) can be considered.

【0060】描画部140は、ジオメトリ処理後のオブ
ジェクト(モデル)を、フレームバッファ174に描画
するための処理を行うものであり、テクスチャマッピン
グ部142、マスク処理部144、合成部146を含
む。
The drawing section 140 performs processing for drawing the object (model) after the geometry processing in the frame buffer 174, and includes a texture mapping section 142, a mask processing section 144, and a synthesis section 146.

【0061】ここでテクスチャマッピング部142は、
テクスチャ記憶部176に記憶されるテクスチャをオブ
ジェクトにマッピングするための処理(オブジェクトに
マッピングするテクスチャを指定する処理、テクスチャ
を転送する処理等)を行う。この場合、テクスチャマッ
ピング部142は、LUT記憶部178に記憶されるイ
ンデックスカラー・テクスチャマッピング用のルックア
ップテーブルLUTを用いたテクスチャマッピングを行
うことができる。
Here, the texture mapping unit 142
A process for mapping the texture stored in the texture storage unit 176 to the object (a process for specifying a texture to be mapped to the object, a process for transferring the texture, and the like) is performed. In this case, the texture mapping unit 142 can perform texture mapping using the lookup table LUT for index color / texture mapping stored in the LUT storage unit 178.

【0062】そして本実施形態では、テクスチャマッピ
ング部142が、元画像の画像情報がインデックス番号
として設定されたLUTを用いて、仮想オブジェクト
(表示画面サイズのポリゴン、分割ブロックサイズのポ
リゴン等)に対してテクスチャマッピングを行う。これ
により、後述するように、ガンマ補正、ネガポジ反転、
ポスタリゼーション、ソラリゼーション、2値化、モノ
トーンフィルタ、セピアフィルタなどの種々の画像変換
(ビデオフィルタ)を実現できるようになる。
In the present embodiment, the texture mapping unit 142 uses the LUT in which the image information of the original image is set as an index number for a virtual object (a polygon having a display screen size, a polygon having a divided block size, etc.). To perform texture mapping. This allows gamma correction, negative / positive inversion,
Various image conversions (video filters) such as posterization, solarization, binarization, a monotone filter, and a sepia filter can be realized.

【0063】マスク処理部144は、元画像の色成分
(例えばR成分)をLUTのインデックス番号として設
定して色情報を変換する場合において、変換後の色情報
の他の色成分(例えばG、B成分)が描画領域(フレー
ムバッファ或いは別バッファ)に描画されないようにす
るためのマスク処理を行う。なお、G成分をインデック
ス番号として設定して色情報を変換する場合には、R、
B成分に対するマスク処理を行い、B成分をインデック
ス番号として設定して色情報を変換する場合には、R、
G成分に対するマスク処理を行うことになる。
When the color information (for example, R component) of the original image is set as the index number of the LUT and the color information is converted, the mask processing unit 144 converts the other color components (for example, G, A mask process is performed to prevent the B component) from being drawn in the drawing area (frame buffer or another buffer). When color information is converted by setting the G component as an index number, R,
When mask processing is performed on the B component and color information is converted by setting the B component as an index number, R,
The mask processing for the G component is performed.

【0064】合成部146は、元画像の第Kの色成分
(例えばR成分)をLUTのインデックス番号として設
定することで得られる変換後の色情報(R、G、B)
と、第Lの色成分(例えばG成分)をLUTのインデッ
クス番号として設定することで得られる変換後の色情報
と、第Mの色成分(例えばB成分)をLUTのインデッ
クス番号として設定することで得られる変換後の色情報
とを、合成するための処理(α加算、αブレンド等)を
行う。
The synthesizing unit 146 converts the color information (R, G, B) obtained by setting the K-th color component (for example, R component) of the original image as the index number of the LUT.
And the converted color information obtained by setting the L-th color component (for example, G component) as the index number of the LUT, and setting the M-th color component (for example, B component) as the index number of the LUT. (Α addition, α blending, etc.) for synthesizing with the converted color information obtained in (1).

【0065】なお、本実施形態のゲームシステムは、1
人のプレーヤのみがプレイできるシングルプレーヤモー
ド専用のシステムにしてもよいし、このようなシングル
プレーヤモードのみならず、複数のプレーヤがプレイで
きるマルチプレーヤモードも備えるシステムにしてもよ
い。
It should be noted that the game system according to the present embodiment
A system dedicated to the single player mode in which only a single player can play may be provided, or a system provided with not only such a single player mode but also a multi-player mode in which a plurality of players can play.

【0066】また複数のプレーヤがプレイする場合に、
これらの複数のプレーヤに提供するゲーム画像やゲーム
音を、1つの端末を用いて生成してもよいし、ネットワ
ーク(伝送ライン、通信回線)などで接続された複数の
端末を用いて生成してもよい。
When a plurality of players play,
The game images and game sounds to be provided to the plurality of players may be generated using one terminal, or may be generated using a plurality of terminals connected by a network (transmission line, communication line) or the like. Is also good.

【0067】2.本実施形態の特徴 2.1 インデックスカラー・テクスチャマッピングを
利用したガンマ補正 さて、前述のように、図1(A)に示す第1の手法で
は、CPUの処理負荷が過大になってしまうため、ガン
マ補正(ビデオフィルタ)を実現するのは実質的に不可
能である。また図1(B)に示す第2の手法では、専用
のハードウェアであるガンマ補正回路が別途必要である
ため、このようなガンマ補正回路が設けられていない家
庭用ゲームシステムでは、ガンマ補正を実現できない。
2. 2. Features of the Present Embodiment 2.1 Gamma Correction Using Index Color / Texture Mapping As described above, in the first method shown in FIG. 1A, the processing load on the CPU becomes excessively large. It is virtually impossible to achieve gamma correction (video filter). Further, in the second method shown in FIG. 1B, a gamma correction circuit which is dedicated hardware is separately required. Therefore, in a home-use game system not provided with such a gamma correction circuit, gamma correction is performed. I can't.

【0068】そこで、本出願の発明者は、インデックス
カラー・テクスチャマッピングにおいて使用されるルッ
クアップテーブルLUTの存在に着目した。
Therefore, the inventor of the present application paid attention to the existence of a lookup table LUT used in index color texture mapping.

【0069】即ち、インデックスカラーテクスチャーマ
ッピングでは、テクスチャ記憶部の使用記憶容量を節約
するために、図3のA1に示すように、実際の色情報
(RGB)ではなくインデックス番号が、テクスチャの
各テクセルに関連づけて記憶される。また、図3のA2
に示すように、インデックスカラー・テクスチャマッピ
ング用のルックアップテーブルLUT(カラーパレッ
ト)には、インデックス番号により指定される色情報が
記憶される。そして、オブジェクトに対してテクスチャ
マッピングを行う際には、テクスチャの各テクセルのイ
ンデックス番号に基づいてLUTを参照し、対応する色
情報をLUTから読み出し、読み出された色情報をフレ
ームバッファに描画する。
That is, in the index color texture mapping, in order to save the used storage capacity of the texture storage unit, as shown in A1 of FIG. 3, the index number is used instead of the actual color information (RGB) for each texel of the texture. Is stored in association with. A2 in FIG.
As shown in (1), a lookup table LUT (color palette) for index color / texture mapping stores color information specified by an index number. Then, when texture mapping is performed on the object, the LUT is referred to based on the index number of each texel of the texture, the corresponding color information is read from the LUT, and the read color information is drawn in the frame buffer. .

【0070】このようなインデックスカラーモードのテ
クスチャマッピングでは、LUTを用いない通常モード
のテクスチャマッピングに比べて、使用できる色数は少
なくなる(例えば16色)。しかしながら、テクスチャ
記憶部に実際の色情報(例えば16ビットの色情報)を
記憶する必要が無くなるため、テクスチャ記憶部の使用
記憶容量を大幅に節約できる。
In such an index color mode texture mapping, the number of colors that can be used is smaller (for example, 16 colors) than in a normal mode texture mapping that does not use an LUT. However, since there is no need to store actual color information (for example, 16-bit color information) in the texture storage unit, the storage capacity used by the texture storage unit can be greatly reduced.

【0071】本実施形態は、このようなインデックスカ
ラー・テクスチャマッピングを通常とは異なる形態で利
用している点に特徴がある。
The present embodiment is characterized in that such an index color / texture mapping is used in a form different from usual.

【0072】即ち、まず図4のB1に示すように、フレ
ームバッファ(広義には描画領域)に描画されている元
画像の各画素の画像情報(例えば色情報)を、ガンマ補
正用のルックアップテーブルLUTのインデックス番号
として設定する(インデックス番号とみなす)。そして
B2に示すように、元画像の画像情報がインデックス番
号として設定されたLUTを用いて、仮想オブジェクト
(例えば表示画面サイズのポリゴン)に対してインデッ
クスカラー・テクスチャマッピングを行い、元画像の画
像情報を変換する。そしてB3に示すように、変換後の
画像情報を、フレームバッファ(描画領域)などに描き
戻す。
First, as shown at B1 in FIG. 4, image information (for example, color information) of each pixel of an original image drawn in a frame buffer (drawing area in a broad sense) is looked up for gamma correction. Set as an index number of the table LUT (assumed as an index number). Then, as shown in B2, using an LUT in which image information of the original image is set as an index number, index color / texture mapping is performed on a virtual object (for example, a polygon having a display screen size), and image information of the original image is obtained. To convert. Then, as shown in B3, the converted image information is drawn back to a frame buffer (drawing area) or the like.

【0073】以上のようにして本実施形態では、図5
(A)に示すような元画像から、図5(B)に示すよう
なガンマ補正が施された画像を得ることに成功してい
る。即ち図5(B)の画像では、図5(A)に比べて、
よりコントラストのはっきりした画像になっている。
As described above, in the present embodiment, FIG.
From the original image as shown in FIG. 5A, a gamma-corrected image as shown in FIG. 5B has been successfully obtained. That is, in the image of FIG. 5B, compared to FIG.
The image has a clearer contrast.

【0074】例えば図1(A)の第1の手法では、元画
像の色情報の読み出し、ガンマ補正用LUTの参照、色
情報のフレームバッファへの書き戻しなどの全ての処理
をCPU上で動作するソフトウェアが行うことになるた
め、処理の高速化を図れないと共に、CPUの処理負荷
も過大になる。
For example, in the first method shown in FIG. 1A, all processes such as reading of color information of an original image, reference of a gamma correction LUT, and writing back of color information to a frame buffer are performed on a CPU. Software to perform the processing, the processing cannot be speeded up, and the processing load on the CPU becomes excessive.

【0075】これに対して本実施形態では、インデック
スカラー・テクスチャマッピングを有効利用してガンマ
補正を実現しており、このインデックスカラー・テクス
チャマッピングは、専用のハードウェアである描画プロ
セッサ(描画部)により高速に実行される。従って本実
施形態によれば、図1(A)の第1の手法に比べて高速
にガンマ補正を実行でき、全表示画面分のガンマ補正を
1フレーム(例えば1/60秒、1/30秒)内で完了
することも容易となる。
On the other hand, in the present embodiment, the gamma correction is realized by effectively utilizing the index color / texture mapping, and the index color / texture mapping is performed by a drawing processor (drawing unit) which is dedicated hardware. Is executed faster. Therefore, according to the present embodiment, gamma correction can be executed at a higher speed than in the first method of FIG. 1A, and gamma correction for the entire display screen can be performed for one frame (for example, 1/60 second, 1/30 second). ) Is also easy to complete.

【0076】また、インデックスカラー・テクスチャマ
ッピングは、メインプロセッサ(CPU)とは独立に動
作する描画プロセッサにより実行できるため、メインプ
ロセッサ(CPU)の処理負荷の増加も最小限に抑える
ことができる。従って、ガンマ補正の実行が要因となっ
て他の処理に悪影響が及ぶ事態も防止できる。
Since the index color / texture mapping can be executed by the drawing processor which operates independently of the main processor (CPU), the increase in the processing load on the main processor (CPU) can be minimized. Therefore, it is possible to prevent a situation in which the execution of the gamma correction adversely affects other processes.

【0077】また、従来のゲームシステムでは、描画プ
ロセッサの処理能力はそれほど高くなかった。従って、
フレームバッファへの元画像の描画と、表示画面サイズ
のポリゴンの描画を、1フレーム内で完了させることは
難しかった。
In the conventional game system, the processing capability of the drawing processor is not so high. Therefore,
It has been difficult to complete the drawing of the original image in the frame buffer and the drawing of the polygon of the display screen size within one frame.

【0078】しかしながら、ゲームシステムにおいて、
描画プロセッサの処理能力の向上は、他の回路ブロック
の処理能力の向上に比べて著しく大きく、非常に高いフ
ィルレート(1秒間にレンダリングできるテクセル数)
を持つ描画プロセッサがゲームシステムに使用されるよ
うになってきた。従って、フレームバッファへの元画像
の描画と、表示画面サイズのポリゴンの描画を、1フレ
ーム内で完了させることも容易となり、インデックスカ
ラー・テクスチャマッピングを有効利用したガンマ補正
も無理なく実現できるようになってきた。
However, in the game system,
The improvement in the processing power of the drawing processor is significantly larger than the improvement in the processing power of other circuit blocks, and a very high fill rate (the number of texels that can be rendered per second)
Rendering processors with are being used in game systems. Therefore, it is easy to complete the drawing of the original image in the frame buffer and the drawing of the polygon of the display screen size within one frame, and the gamma correction effectively utilizing the index color / texture mapping can be realized without difficulty. It has become.

【0079】また図1(B)の第2の手法では、専用の
ハードウェアであるガンマ補正回路が別途必要になり、
ゲームシステムの高コスト化を招く。また、このような
ガンマ補正回路を元々有しない家庭用ゲームシステムな
どでは、図1(B)に示す第2の手法を実現することは
できず、図1(A)の手法を採用せざるを得なかった。
In the second method shown in FIG. 1B, a gamma correction circuit which is a dedicated hardware is separately required.
This leads to an increase in the cost of the game system. Further, in a home-use game system or the like that does not originally have such a gamma correction circuit, the second method shown in FIG. 1B cannot be realized, and the method shown in FIG. I didn't get it.

【0080】これに対して本実施形態では、インデック
スカラー・テクスチャマッピングを有効利用してガンマ
補正を実現しており、このインデックスカラー・テクス
チャマッピングは、描画プロセッサが元々持っているハ
ードウェアにより実行される。従って本実施形態によれ
ば、図1(B)のようなガンマ補正回路を新たに付加す
る必要がなく、ゲームシステムが高コスト化してしまう
事態を防止できる。また、ガンマ補正回路を元々有して
いない家庭用ゲームシステムにおいても、ハードウェア
による高速なガンマ補正を実現できるようになる。
On the other hand, in the present embodiment, gamma correction is realized by effectively utilizing index color / texture mapping, and this index color / texture mapping is executed by hardware originally included in the drawing processor. You. Therefore, according to the present embodiment, it is not necessary to newly add a gamma correction circuit as shown in FIG. 1B, and it is possible to prevent a situation in which the cost of the game system is increased. Further, even in a home game system originally having no gamma correction circuit, high-speed gamma correction by hardware can be realized.

【0081】なお、図4では表示画面サイズのポリゴン
にテクスチャマッピングしてガンマ補正(ビデオフィル
タ)を実現しているが、表示画面を分割したブロックの
サイズのポリゴンにテクスチャマッピングするようにし
てもよい。
In FIG. 4, gamma correction (video filter) is realized by texture mapping to a polygon having a display screen size. However, texture mapping may be performed to a polygon having a block size obtained by dividing the display screen. .

【0082】即ち、図6のC1に示すように、フレーム
バッファ上の元画像(表示画面)を複数のブロックに分
割し、C2に示すように、各ブロックの画像を、LUT
を用いて分割ブロックサイズのポリゴンにテクスチャマ
ッピングする。そして、得られた分割ブロックサイズの
画像をフレームバッファ(描画領域)に描き戻す。
That is, as shown by C1 in FIG. 6, the original image (display screen) on the frame buffer is divided into a plurality of blocks, and as shown by C2, the image of each block is
Is used to perform texture mapping on a polygon having a divided block size. Then, the image of the obtained divided block size is drawn back to the frame buffer (drawing area).

【0083】このようにすれば、例えばテクスチャマッ
ピングされたポリゴンを別バッファに一時的に描画する
ような場合に、VRAM上での別バッファの占有領域を
小さくできる。
In this way, for example, when a texture-mapped polygon is temporarily drawn in another buffer, the area occupied by another buffer in the VRAM can be reduced.

【0084】即ち、図4のように表示画面サイズのポリ
ゴンにテクスチャマッピングすると、この表示画面サイ
ズのポリゴンを一時的に描画するために、表示画面サイ
ズの別バッファをVRAM上に確保しなければならず、
他の処理に支障を来すおそれがある。
That is, when texture mapping is performed on a polygon having a display screen size as shown in FIG. 4, another buffer having a display screen size must be secured in the VRAM in order to temporarily draw the polygon having the display screen size. Not
There is a risk that other processes will be hindered.

【0085】図6のように、分割ブロックサイズのポリ
ゴンにテクスチャマッピングするようにすれば、VRA
M上には分割ブロックサイズの別バッファを用意すれば
済むため、別バッファの占有領域を小さくできる。従っ
て、限られたハードウェア資源を有効利用することが可
能になる。
As shown in FIG. 6, if texture mapping is performed on a polygon having a divided block size, VRA
Since a separate buffer having a divided block size only needs to be prepared on M, the occupied area of the separate buffer can be reduced. Therefore, the limited hardware resources can be effectively used.

【0086】2.2 各種のビデオフィルタ(LUT)
の例 図7(A)にガンマ補正の変換特性例を示す。
2.2 Various Video Filters (LUT)
FIG. 7A shows an example of a conversion characteristic of gamma correction.

【0087】図7(A)では4つの制御点CP0、CP
1、CP2、CP3により、ガンマ補正の変換特性を表
すベジエ曲線(広義には自由曲線)が特定される。この
場合に、CP0のY座標はY0=0に設定され、CP3
のY座標はY3=255に設定される。そして、CP
1、CP2のY座標であるY1、Y2を可変に制御する
ことで、ガンマ補正の変換特性を調整できる。
In FIG. 7A, four control points CP0 and CP
A Bezier curve (free curve in a broad sense) representing the conversion characteristic of gamma correction is specified by 1, CP2, and CP3. In this case, the Y coordinate of CP0 is set to Y0 = 0, and CP3
Is set to Y3 = 255. And CP
The conversion characteristics of gamma correction can be adjusted by variably controlling Y1, Y2, which is the Y coordinate of CP1, CP2.

【0088】そして、ガンマ補正における入力値Xと出
力値Yの関係式は、例えば下式のようになる。
The relational expression between the input value X and the output value Y in the gamma correction is, for example, as follows.

【0089】 Y=Y20+(X/255)×(Y21−Y20) (3) 但し、 Y20=Y10+(X/255)×(Y11−Y10) Y21=Y11+(X/255)×(Y12−Y11) Y10=Y0 +(X/255)×(Y1−Y0) Y11=Y1 +(X/255)×(Y2−Y1) Y12=Y2 +(X/255)×(Y3−Y2) である。Y = Y20 + (X / 255) × (Y21−Y20) (3) However, Y20 = Y10 + (X / 255) × (Y11−Y10) Y21 = Y11 + (X / 255) × (Y12−Y11) Y10 = Y0 + (X / 255) × (Y1-Y0) Y11 = Y1 + (X / 255) × (Y2-Y1) Y12 = Y2 + (X / 255) × (Y3-Y2)

【0090】上式(3)の入力値Xにインデックス番号
を設定し、出力値Yに各色成分の出力ROUT、GOU
T、BOUTを設定することで、図7(B)に示すよう
なガンマ補正用LUTを作成する。そして、作成された
LUTをVRAMに転送し、このLUTを用いて図4等
で説明したインデックスカラー・テクスチャマッピング
を行うことで、元画像に、ガンマ補正のビデオフィルタ
を施した画像を得ることができる。
In the above equation (3), an index number is set to the input value X, and the output ROUT, GOU of each color component is set to the output value Y.
By setting T and BOUT, a gamma correction LUT as shown in FIG. 7B is created. Then, the created LUT is transferred to the VRAM, and the LUT is used to perform the index color / texture mapping described with reference to FIG. 4 and the like, thereby obtaining an image obtained by applying a gamma correction video filter to the original image. it can.

【0091】さて、本実施形態によれば、フレームバッ
ファ上の元画像に対して施すビデオフィルタとして、ガ
ンマ補正以外にも種々のビデオフィルタを実現できる。
According to the present embodiment, various video filters other than the gamma correction can be realized as the video filters applied to the original image on the frame buffer.

【0092】図8(A)に、ネガポジ反転のビデオフィ
ルタの変換特性例を示す。ネガポジ反転における入力値
Xと出力値Yの関係式は下式のようになる。
FIG. 8A shows an example of the conversion characteristics of a negative-positive inversion video filter. The relational expression between the input value X and the output value Y in the negative-positive inversion is as follows.

【0093】Y=255−X (4) 上式(4)の入力値Xにインデックス番号を設定し、出
力値Yに各色成分の出力ROUT、GOUT、BOUT
を設定することで、図8(B)に示すようなネガポジ反
転用LUTを作成する。そして、このLUTを用いて図
4で説明したインデックスカラー・テクスチャマッピン
グを行うことで、元画像に、ネガポジ反転のビデオフィ
ルタを施した画像を得ることができる。
Y = 255-X (4) An index number is set for the input value X in the above equation (4), and the output ROUT, GOUT, BOUT of each color component is set for the output value Y.
Is set, a negative / positive inversion LUT as shown in FIG. 8B is created. Then, by performing the index color / texture mapping described with reference to FIG. 4 using this LUT, it is possible to obtain an image in which a negative-positive video filter has been applied to the original image.

【0094】図9(A)に、多階調の画像をいくつかの
階調に制限して表示するためのポスタリゼーションのビ
デオフィルタの変換特性例を示す。ポスタリゼーション
における入力値Xと出力値Yの関係式は下式のようにな
る。
FIG. 9A shows an example of a conversion characteristic of a posterization video filter for displaying a multi-tone image by limiting it to several tones. The relational expression between the input value X and the output value Y in posterization is as follows.

【0095】 Y={INT(X/VAL)}×VAL (5) 上式においてINT(R)は、Rの小数点を切り捨てて
整数化する関数であり、VALは任意の値である。
Y = {INT (X / VAL)} × VAL (5) In the above equation, INT (R) is a function that rounds down the decimal point of R and converts it to an integer, and VAL is an arbitrary value.

【0096】なお、図9(B)には、ある点において入
力値と出力値の曲線関数の傾きが反転するような画像効
果を奏するソラリゼーションのビデオフィルタの変換特
性例を示す。また、図9(C)には、画像のハイコント
ラスト効果を実現する2値化のビデオフィルタの変換特
性例を示す。
FIG. 9B shows an example of a conversion characteristic of a solarization video filter that produces an image effect such that the slope of the curve function between the input value and the output value is inverted at a certain point. FIG. 9C shows an example of conversion characteristics of a binarized video filter for realizing a high contrast effect of an image.

【0097】また本実施形態によれば、モノトーンフィ
ルタやセピアフィルタのビデオフィルタも実現できる。
Further, according to the present embodiment, a video filter such as a monotone filter or a sepia filter can be realized.

【0098】モノトーンフィルタの変換前の色成分をR
IN、GIN、BINとし、変換後の色成分をROU
T、GOUT、BOUTとした場合に、モノトーンフィ
ルタの変換式は例えば下式のようになる。
The color component before conversion of the monotone filter is R
IN, GIN, BIN, and color components after conversion
When T, GOUT, and BOUT are used, the conversion formula of the monotone filter is, for example, as follows.

【0099】 ROUT=0.299×RIN+0.587×GIN+0.114×BIN (6) GOUT=0.299×RIN+0.587×GIN+0.114×BIN (7) BOUT=0.299×RIN+0.587×GIN+0.114×BIN (8) ここで、入力値RINに対する出力値(ROUTR、G
OUTR、BOUTR)の関係式として下式(9)を、
入力値GINに対する出力値(ROUTG、GOUT
G、BOUTG)の関係式として下式(10)を、入力
値BINに対する出力値(ROUTB、GOUTB、B
OUTB)の関係式として下式(11)を定義する。
ROUT = 0.299 × RIN + 0.587 × GIN + 0.114 × BIN (6) GOUT = 0.299 × RIN + 0.587 × GIN + 0.114 × BIN (7) BOUT = 0.299 × RIN + 0.587 × GIN + 0.114 × BIN (8) Here, the output value (ROTR, G for the input value RIN)
OUTR, BOUTR) is given by the following equation (9):
Output value (ROUTG, GOUT) for input value GIN
G, BOUTG) is given by the following equation (10), and the output values (ROUTB, GOUTB, B
The following expression (11) is defined as a relational expression of (OUTB).

【0100】 (ROUTR、GOUTR、BOUTR) =(0.299×RIN、0.299×RIN、0.299×RIN) (9) (ROUTG、GOUTG、BOUTG) =(0.587×GIN、0.587×GIN、0.587×GIN) (10) (ROUTB、GOUTB、BOUTB) =(0.114×BIN、0.114×BIN、0.114×BIN) (11) 上式(9)、(10)、(11)に基づいて、図10
(A)、(B)、図11に示すようなモノトーンフィル
タ用のルックアップテーブルLUTR、LUTG、LU
TBを作成する。そして、これらのLUTR、LUT
G、LUTBを用いてインデックスカラー・テクスチャ
マッピングを行うことで、元画像にモノトーンフィルタ
を施した画像を得ることができる。
(ROTR, GOUTR, BOUTR) = (0.299 × RIN, 0.299 × RIN, 0.299 × RIN) (9) (ROTG, GOUTG, BOUTG) = (0.587 × GIN, 0.587 × GIN, 0.587 × GIN) (10) (ROUTB, GOUTB, BOUTB) = (0.114 × BIN, 0.114 × BIN, 0.114 × BIN) (11) Based on the above equations (9), (10) and (11), FIG.
(A), (B), look-up tables LUTR, LUTG, LU for a monotone filter as shown in FIG.
Create a TB. And these LUTR, LUT
By performing index color / texture mapping using G and LUTB, an image obtained by applying a monotone filter to the original image can be obtained.

【0101】なお、セピアフィルタの場合の変換式は例
えば下式のようになる。
The conversion formula in the case of the sepia filter is as follows, for example.

【0102】 ROUT=0.299×RIN+0.587×GIN+0.114×BIN+6 (12) GOUT=0.299×RIN+0.587×GIN+0.114×BIN−3 (13) BOUT=0.299×RIN+0.587×GIN+0.114×BIN−3 (14) 但し、0≦(ROUT、GOUT、BOUT)≦255
となるようにクランプ処理を行う。
ROUT = 0.299 × RIN + 0.587 × GIN + 0.114 × BIN + 6 (12) GOUT = 0.299 × RIN + 0.587 × GIN + 0.114 × BIN-3 (13) BOUT = 0.299 × RIN + 0.587 × GIN + 0.114 × BIN -3 (14) where 0 ≦ (ROUT, GOUT, BOUT) ≦ 255
Clamping is performed so that

【0103】そして、セピアフィルタの場合は例えば下
記のような式を定義できる。
In the case of a sepia filter, for example, the following equation can be defined.

【0104】 (ROUTR、GOUTR、BOUTR) =(0.299×RIN+2、0.299×RIN-1、0.299×RIN-1) (15) (ROUTG、GOUTG、BOUTG) =(0.587×GIN+2、0.587×GIN-1、0.587×GIN-1) (16) (ROUTB、GOUTB、BOUTB) =(0.114×BIN+2、0.114×BIN-1、0.114×BIN-1) (17) そして、上式(15)、(16)、(17)に基づい
て、セピアフィルタ用のルックアップテーブルLUT
R、LUTG、LUTBを作成する。そして、これらの
LUTR、LUTG、LUTBを用いてインデックスカ
ラー・テクスチャマッピングを行うことで、元画像にセ
ピアフィルタを施した画像を得ることができる。
(ROTR, GOUTR, BOUTR) = (0.299 × RIN + 2, 0.299 × RIN−1, 0.299 × RIN−1) (15) (ROTG, GOUTG, BOUTG) = (0.587 × GIN + 2, 0.587 ×) GIN-1, 0.587 × GIN-1) (16) (ROUTB, GOUTB, BOUTB) = (0.114 × BIN + 2, 0.114 × BIN-1, 0.114 × BIN-1) (17) And the above equation (15) , (16), (17), a lookup table LUT for a sepia filter
Create R, LUTG, and LUTB. Then, by performing index color / texture mapping using these LUTR, LUTG, and LUTB, an image in which the original image has been subjected to the sepia filter can be obtained.

【0105】2.3 マスク処理 さて、ガンマ補正では、1つの入力値(RIN、GIN
又はBIN)に対して1つの値(ROUT、GOUT又
はBOUT)が出力されるようなLUTが必要になる。
2.3 Mask Processing In gamma correction, one input value (RIN, GIN
Or BIN) requires an LUT that outputs one value (ROUT, GOUT or BOUT).

【0106】ところが、図3に示すインデックスカラー
・テクスチャマッピング用のLUTは、元々、ガンマ補
正用に設計されたものではないため、1つ入力値(イン
デックス番号)に対して、複数の値(例えばROUT、
GOUT、及びBOUT)が出力されてしまう。従っ
て、このLUTの不整合を解決しなければならないとい
う課題がある。
However, since the LUT for index color / texture mapping shown in FIG. 3 is not originally designed for gamma correction, one input value (index number) corresponds to a plurality of values (for example, ROUT,
GOUT and BOUT) are output. Therefore, there is a problem that it is necessary to solve the LUT mismatch.

【0107】そこで、本実施形態では、元画像の1つの
色成分をLUTのインデックス番号として設定する場合
において、変換により得られる他の色成分が描画領域
(フレームバッファ又は別バッファ)に描画されないよ
うにするためのマスク処理を行っている。
Therefore, in the present embodiment, when one color component of the original image is set as the index number of the LUT, another color component obtained by the conversion is not drawn in the drawing area (frame buffer or another buffer). Is performed for the masking.

【0108】より具体的には、図12のD1に示すよう
に、元画像のRプレーンの値をインデックス番号に設定
して、LUTを用いたテクスチャマッピングを行うと、
R(ROUT)、G(GOUT)、B(BOUT)とい
う3つプレーンの値が出力される。そして、この場合に
は、D2に示すように、出力されたRプレーンの値のみ
を描画領域(フレームバッファ又は別バッファ)に描画
し、Gプレーン、Bプレーンの値についてはマスクして
描画領域に描画されないようにする。
More specifically, as shown by D1 in FIG. 12, when the value of the R plane of the original image is set to the index number and texture mapping using the LUT is performed,
R (ROUT), G (GOUT), and B (BOUT) values of three planes are output. In this case, as shown in D2, only the output R plane value is drawn in the drawing area (frame buffer or another buffer), and the G plane and B plane values are masked and drawn in the drawing area. Prevent drawing.

【0109】また、図12のD3に示すように、元画像
のGプレーンの値をインデックス番号に設定してテクス
チャマッピングを行った場合には、D4に示すように、
出力されたGプレーンの値のみを描画領域に描画し、R
プレーン、Bプレーンの値についてはマスクして描画領
域に描画されないようにする。
As shown at D3 in FIG. 12, when texture mapping is performed by setting the value of the G plane of the original image to the index number, as shown at D4,
Only the output G plane value is drawn in the drawing area, and R
The values of the plane and the B plane are masked so as not to be drawn in the drawing area.

【0110】また、図12のD5に示すように、元画像
のBプレーンの値をインデックス番号に設定してテクス
チャマッピングを行った場合には、出力されたBプレー
ンの値のみを描画領域に描画し、Rプレーン、Gプレー
ンの値についてはマスクして描画領域に描画されないよ
うにする。
As shown at D5 in FIG. 12, when texture mapping is performed by setting the value of the B plane of the original image as the index number, only the output B plane value is drawn in the drawing area. Then, the values of the R plane and the G plane are masked so as not to be drawn in the drawing area.

【0111】以上のようにすることで、元々はガンマ補
正用に設計されていないインデックスカラー・テクスチ
ャマッピング用のLUTを用いながらも、少ない処理負
荷で、元画像に対するガンマ補正を実行できるようにな
る。
As described above, the gamma correction can be performed on the original image with a small processing load while using the index color / texture mapping LUT which is not originally designed for the gamma correction. .

【0112】2.4 合成 図12で説明したマスク処理の手法は、ガンマ補正の他
にも、図8(A)〜図9(C)において説明したネガポ
ジ反転、ポスタリゼーション、ソラリゼーション、2値
化などのビデオフィルタなどに有効である。
2.4 Composition The mask processing method described with reference to FIG. 12 uses the negative-positive inversion, posterization, solarization, binarization, etc. described with reference to FIGS. 8A to 9C in addition to the gamma correction. This is effective for video filters and the like.

【0113】これに対して、モノトーンフィルタやセピ
アフィルタなどのビデオフィルタを実現する場合には、
次のような手法を採用することが望ましい。即ち、元画
像のR成分をLUTRのインデックス番号として設定す
ることで得られる色情報(R、G、B)と、G成分をL
UTGのインデックス番号として設定することで得られ
る色情報(R、G、B)と、B成分をLUTBのインデ
ックス番号として設定することで得られる色情報(R、
G、B)とを合成するようにする。
On the other hand, when implementing a video filter such as a monotone filter or a sepia filter,
It is desirable to adopt the following method. That is, the color information (R, G, B) obtained by setting the R component of the original image as the LUTR index number, and the G component as L
Color information (R, G, B) obtained by setting as an index number of UTG and color information (R, G, B) obtained by setting a B component as an index number of LUTB.
G, B).

【0114】より具体的には、図13のE1に示すよう
に、元画像のR(RIN)プレーンの値をインデックス
番号に設定して、図10(A)のLUTRを用いたテク
スチャマッピングを行うことで、E2に示すようなR
(ROUTR)、G(GOUTR)、B(BOUTR)
という3つプレーンの値を得る。この場合の、RINと
(ROUTR、GOUTR、BOUTR)の関係式は上
式(9)又は(15)のようになっている。
More specifically, as shown at E1 in FIG. 13, the value of the R (RIN) plane of the original image is set as the index number, and texture mapping using the LUTR in FIG. 10A is performed. Thus, as shown in E2, R
(ROTR), G (GOUTR), B (BOUTR)
Is obtained. In this case, the relational expression between RIN and (ROTR, GOUTR, BOUTR) is as in the above expression (9) or (15).

【0115】また、図13のE3に示すように、元画像
のG(GIN)プレーンの値をインデックス番号に設定
して、図10(B)のLUTGを用いたテクスチャマッ
ピングを行うことで、E4に示すようなR(ROUT
G)、G(GOUTG)、B(BOUTG)という3つ
プレーンの値を得る。この場合の、GINと(ROUT
G、GOUTG、BOUTG)の関係式は上式(10)
又は(16)のようになっている。
Further, as shown at E3 in FIG. 13, the value of the G (GIN) plane of the original image is set as an index number, and texture mapping using the LUTG shown in FIG. R (ROUT
G), G (GOUTG), and B (BOUTG) are obtained. In this case, GIN and (ROUT
G, GOUTG, BOUTG) is given by the above equation (10)
Or (16).

【0116】また、図13のE5に示すように、元画像
のB(BIN)プレーンの値をインデックス番号に設定
して、図11のLUTBを用いたテクスチャマッピング
を行うことで、E6に示すようなR(ROUTB)、G
(GOUTB)、B(BOUTB)という3つプレーン
の値を得る。この場合の、BINと(ROUTB、GO
UTB、BOUTB)の関係式は上式(11)又は(1
7)のようになっている。
Further, as shown at E5 in FIG. 13, the value of the B (BIN) plane of the original image is set as an index number, and texture mapping is performed using the LUTB shown in FIG. Na R (ROUTB), G
(GOUTB) and three plane values B (BOUTB) are obtained. In this case, BIN and (ROUTB, GO
The relational expression of (UTB, BOUTB) is the above expression (11) or (1)
It looks like 7).

【0117】そして、図13のE7に示すように、E2
に示すR(ROUTR)、G(GOUTR)、B(BO
UTR)の色情報と、E4に示すR(ROUTG)、G
(GOUTG)、B(BOUTG)の色情報と、E6に
示すR(ROUTB)、G(GOUTB)、B(BOU
TB)の色情報とを、合成(加算)する。
Then, as shown at E7 in FIG.
R (ROUTR), G (GOUTR), B (BO
UTR) color information and R (ROUTG), G shown in E4
(GOUTG) and B (BOUTG) color information, and R (ROUTB), G (GOUTB), and B (BOU) shown in E6.
The color information of TB) is combined (added).

【0118】このようにすることで、上式(6)、
(7)、(8)或いは(12)、(13)、(14)の
変換式に示すような、モノトーンフィルタ或いはセピア
フィルタのビデオフィルタを実現できるようになる。
By doing so, the above equation (6) is obtained.
(7), (8) or a video filter of a monotone filter or a sepia filter as shown in the conversion formulas of (12), (13), and (14) can be realized.

【0119】2.5 Z値、α値への利用 以上では、インデックスカラー・テクスチャマッピング
用のLUTに基づき出力される色情報R、G、Bを利用
する場合について説明した。
2.5 Use for Z Value and α Value The case where color information R, G, and B output based on an index color / texture mapping LUT are used has been described above.

【0120】しかしながら、インデックスカラー・テク
スチャマッピング用のLUTに基づき出力されるα値
(A値。画素に関連づけて設定される色情報以外の情
報)を利用するようにしてもよい。
However, an α value (A value; information other than color information set in association with a pixel) output based on the index color / texture mapping LUT may be used.

【0121】例えば図14に示すように、Rプレーン
(又はG、B)の値をインデックス番号として設定し
て、LUTを用いたテクスチャマッピングを行い、α
(αOUT)プレーンを生成する。そして、生成された
αプレーンを用いて、マスク処理などを行うようにす
る。
For example, as shown in FIG. 14, the value of the R plane (or G, B) is set as an index number, texture mapping is performed using an LUT, and α
(ΑOUT) Generate a plane. Then, mask processing and the like are performed using the generated α plane.

【0122】即ち、例えばR値が0〜127の時にはα
値(αOUT)が0になり、R値が128〜255の時
にはα値が255になるようにα値が設定されたLUT
を使用する。そして、α値が255よりも小さい画素に
ついてはマスク処理を行わず、α値が255の画素につ
いてはマスク処理を行うようにする。このようにすれ
ば、R値が128以上の画素に対してだけマスク処理が
行われるようになり、各画素のR値の大小に応じたマス
ク処理を行うことができるようになる。
That is, for example, when the R value is 0 to 127, α
LUT in which the α value is set so that the α value becomes 255 when the value (αOUT) becomes 0 and the R value is 128 to 255
Use Then, the mask processing is not performed on the pixels having the α value smaller than 255, and the mask processing is performed on the pixels having the α value of 255. In this way, the mask processing is performed only on the pixels having the R value of 128 or more, and the mask processing according to the magnitude of the R value of each pixel can be performed.

【0123】なお、生成されたαプレーンの値をα合成
の係数(透明度、半透明度、不透明度)として使用して
もよい。
Note that the generated value of the α plane may be used as a coefficient of α synthesis (transparency, translucency, opacity).

【0124】また、LUTのインデックス番号として設
定される画像情報は色情報に限定されない。即ち、描画
領域(VRAM)上にあり、LUTのインデックス番号
として設定できる画像情報であればよい。
The image information set as the index number of the LUT is not limited to the color information. That is, any image information that is in the drawing area (VRAM) and can be set as an index number of the LUT may be used.

【0125】例えば図15に示すように、Z値(奥行き
値)をLUTのインデックス番号として設定するように
してもよい。
For example, as shown in FIG. 15, a Z value (depth value) may be set as an LUT index number.

【0126】そして、この場合には、Z値をインデック
ス番号に設定してインデックスカラー・テクスチャマッ
ピングを行うことで得られるαプレーンの値を、例えば
α合成の係数として使用するようにする。このようにす
ることで、Z値に応じた値のα値を設定できるようにな
り、ぼかし画像を用いた被写界深度などの表現が可能に
なる。
In this case, the value of the α plane obtained by setting the Z value to the index number and performing the index color / texture mapping is used, for example, as a coefficient for α synthesis. By doing so, it becomes possible to set the α value corresponding to the Z value, and it is possible to express the depth of field using a blurred image.

【0127】即ち図15に示すようなLUTを用いたテ
クスチャマッピングを行うことで、図16のF1に示す
ように、元画像の各画素A、B、C、DのZ値ZA、Z
B、ZC、ZDに応じた値に各画素のα値αA、αB、
αC、αDを設定する。そして、例えば図16のF2に
示すようなαプレーンを生成する。より具体的には、仮
想カメラ10の焦点(注視点)から遠い画素(焦点との
Z値の差が大きい画素)ほど、例えば大きなα値を設定
する。これにより、仮想カメラ10の焦点から遠い画素
ほど、ぼかし画像の合成比率が高くなる。
That is, by performing texture mapping using the LUT as shown in FIG. 15, the Z values ZA and Z of the pixels A, B, C and D of the original image are obtained as shown by F1 in FIG.
Α values αA, αB,
αC and αD are set. Then, for example, an α plane as shown by F2 in FIG. 16 is generated. More specifically, for a pixel farther from the focus (gaze point) of the virtual camera 10 (a pixel having a larger Z value difference from the focus), for example, a larger α value is set. As a result, the farther the pixel from the focal point of the virtual camera 10 is, the higher the blurred image synthesis ratio becomes.

【0128】そして、図16のF3に示すように、生成
されたαプレーン(各画素に設定されたα値)に基づい
て、元画像とぼかし画像のα合成(αブレンディング
等)を行う。
Then, as shown by F3 in FIG. 16, based on the generated α plane (α value set for each pixel), α synthesis (α blending or the like) of the original image and the blurred image is performed.

【0129】このように、Z値(奥行き値)に応じて設
定されたα値に基づき元画像とぼかし画像のα合成を行
うことで、例えば、仮想カメラの焦点(ピントが合って
いる点として設定される点)から遠くなるほどぼけて見
える画像を生成できるようになり、いわゆる被写界深度
の表現が可能になる。これにより、画面内の全ての被写
体にピントが合っていた従来のゲーム画像とは異なり、
現実世界の視界画像のように視点からの距離に応じてフ
ォーカシングされたリアルで自然なゲーム画像を生成で
きる。この結果、プレーヤの仮想現実感を格段に向上で
きる。
As described above, by performing α synthesis of the original image and the blurred image based on the α value set in accordance with the Z value (depth value), for example, the focus of the virtual camera (the point at which the virtual camera is in focus) (A point to be set), it is possible to generate an image that is more blurred as it is farther from the point, and it is possible to represent a so-called depth of field. Thus, unlike the conventional game image in which all subjects in the screen are in focus,
It is possible to generate a real and natural game image focused according to the distance from the viewpoint like a view image of the real world. As a result, the virtual reality of the player can be significantly improved.

【0130】例えば図17に、Z値に応じたα値の設定
の一例を示す。なお、図17では、α値は、その大きさ
が1.0以下になるように正規化されている。
For example, FIG. 17 shows an example of setting the α value according to the Z value. In FIG. 17, the α value is normalized so that its magnitude is 1.0 or less.

【0131】例えば図17では、Z値Z1〜Z4、Z
1’〜Z4’(しきい値)により領域AR0〜AR4、
AR1’〜AR4’の区分けが行われる。そして、これ
らの領域AR0〜AR4、AR1’〜AR4’に対し
て、α値α0〜α4、α1’〜α4’が設定される。
For example, in FIG. 17, the Z values Z1 to Z4, Z
Areas AR0 to AR4 according to 1 'to Z4' (threshold),
The classification of AR1 'to AR4' is performed. Then, α values α0 to α4 and α1 ′ to α4 ′ are set for these areas AR0 to AR4 and AR1 ′ to AR4 ′.

【0132】例えば、Z1〜Z2の間の領域AR1にあ
る画素については、そのα値がα1に設定され、Z2〜
Z3の間の領域AR2にある画素については、そのα値
がα2に設定される。また、Z1’〜Z2’の間の領域
AR1’にある画素については、そのα値がα1’に設
定され、Z2’〜Z3’の間の領域AR2’にある画素
については、そのα値がα2’に設定される。
For example, for a pixel in the area AR1 between Z1 and Z2, its α value is set to α1,
For the pixels in the area AR2 between Z3, the α value is set to α2. The α value of a pixel in the area AR1 ′ between Z1 ′ and Z2 ′ is set to α1 ′, and the α value of a pixel in the area AR2 ′ between Z2 ′ and Z3 ′ is set to α1 ′. It is set to α2 ′.

【0133】そして、各領域に設定されるα値には例え
ば以下の関係式が成り立つ。
Then, for example, the following relational expression holds for the α value set for each area.

【0134】 α0<α1 <α2 <α3 <α4 (18) α0<α1’<α2’<α3’<α4’ (19) これらの式(18)、(19)から明らかなように、仮
想カメラ10の焦点(注視点)から遠いほどα値が大き
くなっている。即ち、仮想カメラ10の焦点とのZ値の
差が大きい画素ほど、ぼかし画像の合成比率が高くなる
ように、α値が設定されている。
Α0 <α1 <α2 <α3 <α4 (18) α0 <α1 ′ <α2 ′ <α3 ′ <α4 ′ (19) As is clear from these equations (18) and (19), the virtual camera 10 Is farther from the focal point (fixation point), the α value becomes larger. That is, the α value is set so that the pixel having a larger difference in Z value from the focal point of the virtual camera 10 has a higher blurred image synthesis ratio.

【0135】このようにα値を設定することで、仮想カ
メラの焦点から遠くなるほどぼけて見える画像を生成で
き、いわゆる被写界深度の表現が可能になる。
By setting the α value in this way, it is possible to generate an image that is more blurred as the distance from the focal point of the virtual camera increases, and it is possible to express the so-called depth of field.

【0136】2.6 モニタの明るさ調整 さて、プレーヤが画面上のキャラクタを操作し、ダンジ
ョンを探索するようなRPGゲームやホラーゲームで
は、ダンジョンの暗い雰囲気をプレーヤに感じさせるた
めに、ゲーム画像の輝度が全体的に暗めに設定されてい
る場合がある。
2.6 Brightness Adjustment of Monitor Now, in an RPG game or a horror game in which a player operates a character on the screen and searches for a dungeon, a game image is displayed to make the player feel a dark atmosphere of the dungeon. May be set to be darker as a whole.

【0137】このような場合に、ゲーム画像が表示され
るモニタの明るさ調整が、暗くなる方向に偏って設定さ
れていると、ゲーム画像のコントラストが低下してしま
い、ダンジョンの形状や模様の詳細が見えにくくなった
り、ゲームの開発者が意図したものとは異なるゲーム画
像が表示されたりするなどの問題が生じる。
In such a case, if the brightness adjustment of the monitor on which the game image is displayed is set so as to be deviated in the darkening direction, the contrast of the game image decreases, and the shape and pattern of the dungeon are reduced. There are problems such as details becoming difficult to see and a game image different from the one intended by the game developer being displayed.

【0138】このような問題を解決する手法として、図
18に示すように、モニタ20に設けられている明るさ
調整ボタン22をプレーヤが直接操作して、画面全体の
明るさを調整する手法を考えることができる。
As a method of solving such a problem, as shown in FIG. 18, a method of directly operating a brightness adjustment button 22 provided on a monitor 20 by a player to adjust the brightness of the entire screen. You can think.

【0139】しかしながら、この手法によると、画面の
明るさを調整するためにプレーヤは、わざわざ自分の手
を伸ばして調整ボタン22を操作しなければならず、プ
レーヤの利便性に欠ける。
However, according to this method, the player must extend his or her hand to operate the adjustment button 22 in order to adjust the brightness of the screen, which is inconvenient for the player.

【0140】また、このようにして、ゲームのためにモ
ニタ20の明るさ調整を行ってしまうと、そのゲームを
終了して他の映像ソース(テレビチューナ、ビデオ、他
のゲーム)の映像を見るような場合に、明るさ調整を元
に戻さなければならないなどの手間が新たに生じてしま
う。
When the brightness of the monitor 20 is adjusted for the game in this way, the game is ended and the video of another video source (TV tuner, video, other game) is viewed. In such a case, trouble such as the necessity of restoring the brightness adjustment is newly generated.

【0141】そこで、本実施形態では図19に示すよう
に、プレーヤがゲームコントローラ30を用いて、モニ
タ20の明るさ調整(広義には表示特性の調整)のため
の調整データを設定できるようにする。
Therefore, in the present embodiment, as shown in FIG. 19, the player can use the game controller 30 to set adjustment data for adjusting the brightness of the monitor 20 (adjustment of display characteristics in a broad sense). I do.

【0142】例えば図19では、プレーヤがゲームコン
トローラ30の十字キー32により左方向を指示する
と、画面全体が明るくなるような調整データが設定さ
れ、プレーヤが十字キー32により右方向を指示する
と、画面全体が暗くなるような調整データが設定され
る。
For example, in FIG. 19, when the player instructs the left direction using the cross key 32 of the game controller 30, adjustment data is set so that the entire screen becomes brighter. The adjustment data is set such that the whole image becomes dark.

【0143】そして、このようにして設定された調整デ
ータは、プレーヤの個人データ(セーブデータ)を記憶
するためのセーブ用情報記憶装置40にセーブされる。
The adjustment data set as described above is saved in the save information storage device 40 for storing personal data (save data) of the player.

【0144】そして本実施形態では、明るさ調整(表示
特性の調整)により得られた調整データやセーブ用情報
記憶装置40からロードされた調整データに基づいて、
元画像の画像情報に対して変換処理が施される。
In this embodiment, based on the adjustment data obtained by the brightness adjustment (adjustment of the display characteristics) and the adjustment data loaded from the save information storage device 40,
Conversion processing is performed on the image information of the original image.

【0145】より具体的には、調整データに基づいて、
ガンマ補正の変換特性(図7(A))が特定され、その
変換特性に応じたガンマ補正用LUT(図7(B))が
作成される。そして、作成されたLUTに基づいて、図
4などで説明した手法により元画像に対して変換処理が
施される。
More specifically, based on the adjustment data,
Gamma correction conversion characteristics (FIG. 7A) are specified, and a gamma correction LUT (FIG. 7B) corresponding to the conversion characteristics is created. Then, based on the created LUT, a conversion process is performed on the original image by the method described with reference to FIG.

【0146】このようにすれば、プレーヤは、モニタ2
0に設けられている明るさ調整ボタン22に手を伸ばす
ことなく、ゲームコントローラ30を用いてモニタ20
の明るさを調整できるようになる。
In this way, the player can monitor 2
0 without using the game controller 30 to reach the brightness adjustment button 22 provided on the monitor 20.
You can adjust the brightness.

【0147】また、調整データはセーブ用情報記憶装置
40に記憶され、この調整データは、プレーヤが調整処
理を行ったゲームにおいてのみ有効となる。従って、そ
のゲームを終了して他の映像ソースの映像を見るような
場合にも、明るさ調整を元に戻さなくても済むようにな
る。そして、再度そのゲームをプレイする場合には、セ
ーブ用情報記憶装置40からロードされた調整データに
基づいてモニタ20の明るさ調整が行われるため、プレ
ーヤは、明るさ調整を再度やり直さなくても済むように
なる。従って、プレーヤの利便性を大幅に向上できる。
The adjustment data is stored in the save information storage device 40, and the adjustment data is effective only in the game in which the player has performed the adjustment processing. Therefore, even when the game is ended and the video of another video source is viewed, the brightness adjustment does not need to be restored. When the game is played again, the brightness of the monitor 20 is adjusted based on the adjustment data loaded from the save information storage device 40. Therefore, the player does not need to perform the brightness adjustment again. Will be done. Therefore, the convenience of the player can be greatly improved.

【0148】なお、セーブ用情報記憶装置40の記憶容
量には限りがあるため、セーブする調整データのデータ
量も、なるべく少ないことが望ましい。
Since the storage capacity of the save information storage device 40 is limited, it is desirable that the amount of adjustment data to be saved is as small as possible.

【0149】従って、例えばガンマ補正の変換特性を特
定するための調整データをセーブする場合には、ガンマ
補正の変換特性を表すベジエ曲線(広義には自由曲線)
の制御点のデータを、セーブ用情報記憶装置40にセー
ブすることが望ましい。即ち、例えば制御点CP0、C
P1、CP2、CP3のY座標をセーブしたり、CP
1、CP2のY座標のみをセーブしたりする。このよう
にすることで、調整データのセーブに必要な使用記憶容
量を節約でき、余った記憶容量を他の用途に使用するこ
とができるようになる。
Therefore, for example, when saving adjustment data for specifying gamma correction conversion characteristics, a Bezier curve (free curve in a broad sense) representing gamma correction conversion characteristics is used.
Is desirably saved in the save information storage device 40. That is, for example, the control points CP0, C
Save the Y coordinate of P1, CP2, CP3,
1. Save only the Y coordinate of CP2. By doing so, the used storage capacity necessary for saving the adjustment data can be saved, and the surplus storage capacity can be used for other purposes.

【0150】但し、セーブ用情報記憶装置40の残り記
憶容量に余裕がある場合には、図7(B)のガンマ補正
用LUTの内容の全てをセーブ用情報記憶装置40にセ
ーブするようにしてもよい。
However, if there is room in the remaining storage capacity of the save information storage device 40, all the contents of the gamma correction LUT of FIG. 7B are saved in the save information storage device 40. Is also good.

【0151】3.本実施形態の処理 次に、本実施形態の処理の詳細例について、図20、図
21、図22のフローチャートを用いて説明する。
[0151] 3. Next, a detailed example of the process according to the present embodiment will be described with reference to the flowcharts in FIGS. 20, 21, and 22.

【0152】図20は、図12の手法を採用した場合の
処理例を示すフローチャートである。
FIG. 20 is a flowchart showing a processing example when the method of FIG. 12 is adopted.

【0153】まず、図7(B)に示すような変換用のL
UTを作成して、VRAMに転送しておく(ステップS
1)。
First, the conversion L as shown in FIG.
Create a UT and transfer it to VRAM (step S
1).

【0154】次に、図12のD1で説明したようにフレ
ームバッファ上の元画像のRプレーンの値をLUTのイ
ンデックス番号に設定し、LUTを用いて表示画面サイ
ズのポリゴンにテクスチャマッピングを行い、そのポリ
ゴンを別バッファに描画する(ステップS2)。この
時、図12のD2で説明したように、G、B値について
はマスクしておく。
Next, as described in D1 of FIG. 12, the value of the R plane of the original image on the frame buffer is set to the index number of the LUT, and texture mapping is performed on the polygon of the display screen size using the LUT. The polygon is drawn in another buffer (step S2). At this time, as described in D2 of FIG. 12, the G and B values are masked.

【0155】次に、図12のD3で説明したようにフレ
ームバッファ上の元画像のGプレーンの値をLUTのイ
ンデックス番号に設定し、LUTを用いて表示画面サイ
ズのポリゴンにテクスチャマッピングを行い、そのポリ
ゴンを別バッファに描画する(ステップS3)。この
時、図12のD4で説明したように、R、B値について
はマスクしておく。
Next, as described in D3 of FIG. 12, the value of the G plane of the original image in the frame buffer is set to the index number of the LUT, and texture mapping is performed on the polygon of the display screen size using the LUT. The polygon is drawn in another buffer (step S3). At this time, the R and B values are masked as described in D4 of FIG.

【0156】次に、図12のD5で説明したようにフレ
ームバッファ上の元画像のBプレーンの値をLUTのイ
ンデックス番号に設定し、LUTを用いて表示画面サイ
ズのポリゴンにテクスチャマッピングを行い、そのポリ
ゴンを別バッファに描画する(ステップS4)。この
時、図12のD6で説明したように、R、G値について
はマスクしておく。
Next, as described in D5 of FIG. 12, the value of the B plane of the original image on the frame buffer is set to the index number of the LUT, and texture mapping is performed on the polygon of the display screen size using the LUT. The polygon is drawn in another buffer (step S4). At this time, as described in D6 of FIG. 12, the R and G values are masked.

【0157】そして最後に、別バッファに描画されてい
る画像を、テクスチャマッピングなどを利用してフレー
ムバッファに描画する(ステップS5)。
Finally, the image drawn in another buffer is drawn in the frame buffer by using texture mapping or the like (step S5).

【0158】図21は、図13の手法を採用した場合の
処理例を示すフローチャートである。
FIG. 21 is a flowchart showing a processing example when the method of FIG. 13 is adopted.

【0159】まず、図10(A)、(B)、図11に示
すような変換用のLUTR、LUTG、LUTBを作成
して、VRAMに転送しておく(ステップS10)。
First, LUTR, LUTG, and LUTB for conversion as shown in FIGS. 10A, 10B, and 11 are created and transferred to the VRAM (step S10).

【0160】次に、図13のE1で説明したようにフレ
ームバッファ上の元画像のRプレーンの値をLUTRの
インデックス番号に設定し、LUTRを用いて表示画面
サイズのポリゴンにテクスチャマッピングを行い、その
ポリゴンを第1の別バッファに描画する(ステップS1
1)。
Next, as described in E1 of FIG. 13, the value of the R plane of the original image in the frame buffer is set to the index number of the LUTR, and texture mapping is performed on the polygon of the display screen size using the LUTR. The polygon is drawn in a first separate buffer (step S1).
1).

【0161】次に、図13のE3で説明したようにフレ
ームバッファ上の元画像のGプレーンの値をLUTGの
インデックス番号に設定し、LUTGを用いて表示画面
サイズのポリゴンにテクスチャマッピングを行い、その
ポリゴンを第2の別バッファに描画する(ステップS1
2)。
Next, as described in E3 of FIG. 13, the value of the G plane of the original image on the frame buffer is set to the index number of LUTG, and texture mapping is performed on the polygon of the display screen size using LUTG. The polygon is drawn in a second buffer (step S1).
2).

【0162】次に、図13のE5で説明したようにフレ
ームバッファ上の元画像のBプレーンの値をLUTBの
インデックス番号に設定し、LUTBを用いて表示画面
サイズのポリゴンにテクスチャマッピングを行い、その
ポリゴンを第3の別バッファに描画する(ステップS1
3)。
Next, as described in E5 of FIG. 13, the value of the B plane of the original image on the frame buffer is set to the index number of the LUTB, and texture mapping is performed on the polygon of the display screen size using the LUTB. The polygon is drawn in a third separate buffer (step S1).
3).

【0163】次に、第1の別バッファに描画されている
画像を、テクスチャマッピングなどを利用してフレーム
バッファに描画する(ステップS14)。次に、第2の
別バッファに描画されている画像を、フレームバッファ
に加算描画(α加算)する(ステップS15)。そして
最後に、第3の別バッファに描画されている画像を、フ
レームバッファに加算描画する(ステップS16)。
Next, the image drawn in the first separate buffer is drawn in the frame buffer using texture mapping or the like (step S14). Next, the image drawn in the second separate buffer is added and drawn (α added) to the frame buffer (step S15). Finally, the image drawn in the third separate buffer is added and drawn in the frame buffer (step S16).

【0164】ステップS22は、図19で説明した明る
さ調整の処理例を示すフローチャートである。
Step S22 is a flowchart showing an example of the brightness adjustment process described with reference to FIG.

【0165】まず、メモリカード(セーブ用情報記憶装
置)に明るさ調整データが存在するか否かなどを判断
し、明るさ調整データをロードするか否かを判断する
(ステップS20)。そして、ロードすると判断した場
合には、メモリカードから明るさ調整データをロードす
る(ステップS21)。
First, it is determined whether or not the brightness adjustment data exists in the memory card (save information storage device), and it is determined whether or not to load the brightness adjustment data (step S20). If it is determined that the brightness adjustment data should be loaded, the brightness adjustment data is loaded from the memory card (step S21).

【0166】調整データをロードしないと判断した場合
には、プレーヤが明るさ調整のオプション画面(図19
の表示画面)を選択したか否かを判断する(ステップS
22)。そして、選択しなかった場合には明るさ調整デ
ータを、予め用意されている初期値に設定する(ステッ
プS23)。一方、選択した場合には、図19で説明し
たように、プレーヤからの操作データに基づいて、明る
さ調整データを設定(作成)する(ステップS24)。
そして、設定された明るさ調整データをメモリカードに
セーブする(ステップS25)。
If it is determined that the adjustment data should not be loaded, the player selects the brightness adjustment option screen (FIG. 19).
Is determined (step S).
22). If not selected, the brightness adjustment data is set to an initial value prepared in advance (step S23). On the other hand, if selected, as described with reference to FIG. 19, brightness adjustment data is set (created) based on operation data from the player (step S24).
Then, the set brightness adjustment data is saved in the memory card (step S25).

【0167】次に、得られた明るさ調整データ(初期値
の調整データ、設定された調整データ又はロードされた
調整データ)に基づき、図4などで説明した手法によ
り、ゲーム画像を、毎フレーム、動的に変換する(ステ
ップS26)。
Next, based on the obtained brightness adjustment data (initial value adjustment data, set adjustment data, or loaded adjustment data), the game image is converted to each frame by the method described with reference to FIG. Is dynamically converted (step S26).

【0168】4.ハードウェア構成次に、本実施形態を
実現できるハードウェアの構成の一例について図23を
用いて説明する。
4. Hardware Configuration Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG.

【0169】メインプロセッサ900は、CD982
(情報記憶媒体)に格納されたプログラム、通信インタ
ーフェース990を介して転送されたプログラム、或い
はROM950(情報記憶媒体の1つ)に格納されたプ
ログラムなどに基づき動作し、ゲーム処理、画像処理、
音処理などの種々の処理を実行する。
The main processor 900 has a CD 982
(Information storage medium), a program transferred via the communication interface 990, or a program stored in the ROM 950 (one of the information storage media).
Various processes such as sound processing are executed.

【0170】コプロセッサ902は、メインプロセッサ
900の処理を補助するものであり、高速並列演算が可
能な積和算器や除算器を有し、マトリクス演算(ベクト
ル演算)を高速に実行する。例えば、オブジェクトを移
動させたり動作(モーション)させるための物理シミュ
レーションに、マトリクス演算などの処理が必要な場合
には、メインプロセッサ900上で動作するプログラム
が、その処理をコプロセッサ902に指示(依頼)す
る。
The coprocessor 902 assists the processing of the main processor 900, has a multiply-accumulate unit or a divider capable of high-speed parallel operation, and executes a matrix operation (vector operation) at high speed. For example, when a process such as a matrix operation is required for a physical simulation for moving or moving an object (motion), a program operating on the main processor 900 instructs the coprocessor 902 to perform the process (request ).

【0171】ジオメトリプロセッサ904は、座標変
換、透視変換、光源計算、曲面生成などのジオメトリ処
理を行うものであり、高速並列演算が可能な積和算器や
除算器を有し、マトリクス演算(ベクトル演算)を高速
に実行する。例えば、座標変換、透視変換、光源計算な
どの処理を行う場合には、メインプロセッサ900で動
作するプログラムが、その処理をジオメトリプロセッサ
904に指示する。
The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation, and curved surface generation. The geometry processor 904 includes a multiply-accumulate unit and a divider capable of high-speed parallel operation, and performs a matrix operation (vector operation). Calculation) at high speed. For example, when performing processing such as coordinate transformation, perspective transformation, and light source calculation, a program operating on the main processor 900 instructs the geometry processor 904 to perform the processing.

【0172】データ伸張プロセッサ906は、圧縮され
た画像データや音データを伸張するデコード処理を行っ
たり、メインプロセッサ900のデコード処理をアクセ
レートする処理を行う。これにより、オープニング画
面、インターミッション画面、エンディング画面、或い
はゲーム画面などにおいて、MPEG方式等で圧縮され
た動画像を表示できるようになる。なお、デコード処理
の対象となる画像データや音データは、ROM950、
CD982に格納されたり、或いは通信インターフェー
ス990を介して外部から転送される。
The data expansion processor 906 performs a decoding process for expanding the compressed image data and sound data, and performs a process for accelerating the decoding process of the main processor 900. As a result, a moving image compressed by the MPEG method or the like can be displayed on an opening screen, an intermission screen, an ending screen, a game screen, or the like. The image data and sound data to be decoded are stored in the ROM 950,
It is stored on a CD 982 or transferred from outside via a communication interface 990.

【0173】描画プロセッサ910は、ポリゴンや曲面
などのプリミティブ面で構成されるオブジェクトの描画
(レンダリング)処理を高速に実行するものである。オ
ブジェクトの描画の際には、メインプロセッサ900
は、DMAコントローラ970の機能を利用して、オブ
ジェクトデータを描画プロセッサ910に渡すと共に、
必要であればテクスチャ記憶部924にテクスチャを転
送する。すると、描画プロセッサ910は、これらのオ
ブジェクトデータやテクスチャに基づいて、Zバッファ
などを利用した陰面消去を行いながら、オブジェクトを
フレームバッファ922に高速に描画する。また、描画
プロセッサ910は、αブレンディング(半透明処
理)、デプスキューイング、ミップマッピング、フォグ
処理、バイリニア・フィルタリング、トライリニア・フ
ィルタリング、アンチエリアシング、シェーディング処
理なども行うことができる。そして、1フレーム分の画
像がフレームバッファ922に書き込まれると、その画
像はディスプレイ912に表示される。
The drawing processor 910 executes a high-speed drawing (rendering) process of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900
Uses the function of the DMA controller 970 to pass object data to the drawing processor 910,
If necessary, the texture is transferred to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 at high speed while performing hidden surface removal using a Z buffer or the like based on the object data and the texture. The drawing processor 910 can also perform α blending (translucent processing), depth queuing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. Then, when an image for one frame is written to the frame buffer 922, the image is displayed on the display 912.

【0174】サウンドプロセッサ930は、多チャンネ
ルのADPCM音源などを内蔵し、BGM、効果音、音
声などの高品位のゲーム音を生成する。生成されたゲー
ム音は、スピーカ932から出力される。
The sound processor 930 includes a multi-channel ADPCM sound source and the like, and generates high-quality game sounds such as BGM, sound effects, and voices. The generated game sound is output from the speaker 932.

【0175】ゲームコントローラ942からの操作デー
タや、メモリカード944からのセーブデータ、個人デ
ータは、シリアルインターフェース940を介してデー
タ転送される。
Operation data from the game controller 942, save data and personal data from the memory card 944 are transferred via the serial interface 940.

【0176】ROM950にはシステムプログラムなど
が格納される。なお、業務用ゲームシステムの場合に
は、ROM950が情報記憶媒体として機能し、ROM
950に各種プログラムが格納されることになる。な
お、ROM950の代わりにハードディスクを利用する
ようにしてもよい。
A ROM 950 stores a system program and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium,
Various programs are stored in 950. Note that a hard disk may be used instead of the ROM 950.

【0177】RAM960は、各種プロセッサの作業領
域として用いられる。
The RAM 960 is used as a work area for various processors.

【0178】DMAコントローラ970は、プロセッ
サ、メモリ(RAM、VRAM、ROM等)間でのDM
A転送を制御するものである。
[0178] The DMA controller 970 is a device for controlling the DM between the processor and the memory (RAM, VRAM, ROM, etc.).
A transfer is controlled.

【0179】CDドライブ980は、プログラム、画像
データ、或いは音データなどが格納されるCD982
(情報記憶媒体)を駆動し、これらのプログラム、デー
タへのアクセスを可能にする。
[0179] The CD drive 980 stores a CD982 in which programs, image data, sound data, and the like are stored.
(Information storage medium) to enable access to these programs and data.

【0180】通信インターフェース990は、ネットワ
ークを介して外部との間でデータ転送を行うためのイン
ターフェースである。この場合に、通信インターフェー
ス990に接続されるネットワークとしては、通信回線
(アナログ電話回線、ISDN)、高速シリアルバスな
どを考えることができる。そして、通信回線を利用する
ことでインターネットを介したデータ転送が可能にな
る。また、高速シリアルバスを利用することで、他のゲ
ームシステムとの間でのデータ転送が可能になる。
The communication interface 990 is an interface for transferring data to and from the outside via a network. In this case, a network connected to the communication interface 990 may be a communication line (analog telephone line, ISDN), a high-speed serial bus, or the like. Then, data can be transferred via the Internet by using a communication line. Further, by using the high-speed serial bus, data transfer with another game system becomes possible.

【0181】なお、本発明の各手段は、その全てを、ハ
ードウェアのみにより実行してもよいし、情報記憶媒体
に格納されるプログラムや通信インターフェースを介し
て配信されるプログラムのみにより実行してもよい。或
いは、ハードウェアとプログラムの両方により実行して
もよい。
It is to be noted that each means of the present invention may be entirely executed only by hardware, or executed only by a program stored in an information storage medium or a program distributed through a communication interface. Is also good. Alternatively, it may be executed by both hardware and a program.

【0182】そして、本発明の各手段をハードウェアと
プログラムの両方により実行する場合には、情報記憶媒
体には、本発明の各手段をハードウェアを利用して実行
するためのプログラムが格納されることになる。より具
体的には、上記プログラムが、ハードウェアである各プ
ロセッサ902、904、906、910、930等に
処理を指示すると共に、必要であればデータを渡す。そ
して、各プロセッサ902、904、906、910、
930等は、その指示と渡されたデータとに基づいて、
本発明の各手段を実行することになる。
When each means of the present invention is executed by both hardware and a program, a program for executing each means of the present invention using hardware is stored in the information storage medium. Will be. More specifically, the program instructs the processors 902, 904, 906, 910, 930, etc., which are hardware, to perform processing, and passes data if necessary. Then, each processor 902, 904, 906, 910,
930 etc., based on the instruction and the passed data,
Each means of the present invention will be executed.

【0183】図24(A)に、本実施形態を業務用ゲー
ムシステムに適用した場合の例を示す。プレーヤは、デ
ィスプレイ1100上に映し出されたゲーム画像を見な
がら、レバー1102、ボタン1104等を操作してゲ
ームを楽しむ。内蔵されるシステムボード(サーキット
ボード)1106には、各種プロセッサ、各種メモリな
どが実装される。そして、本発明の各手段を実行するた
めの情報(プログラム又はデータ)は、システムボード
1106上の情報記憶媒体であるメモリ1108に格納
される。以下、この情報を格納情報と呼ぶ。
FIG. 24A shows an example in which the present embodiment is applied to an arcade game system. The player enjoys the game by operating the lever 1102, the button 1104, and the like while watching the game image projected on the display 1100. Various processors, various memories, and the like are mounted on a built-in system board (circuit board) 1106. Information (program or data) for executing each unit of the present invention is stored in a memory 1108 which is an information storage medium on the system board 1106. Hereinafter, this information is referred to as storage information.

【0184】図24(B)に、本実施形態を家庭用のゲ
ームシステムに適用した場合の例を示す。プレーヤはデ
ィスプレイ1200に映し出されたゲーム画像を見なが
ら、ゲームコントローラ1202、1204を操作して
ゲームを楽しむ。この場合、上記格納情報は、本体シス
テムに着脱自在な情報記憶媒体であるCD1206、或
いはメモリカード1208、1209等に格納されてい
る。
FIG. 24B shows an example in which the present embodiment is applied to a home game system. The player enjoys the game by operating the game controllers 1202 and 1204 while watching the game image projected on the display 1200. In this case, the stored information is stored in a CD 1206 or a memory card 1208, 1209, which is an information storage medium detachable from the main system.

【0185】図24(C)に、ホスト装置1300と、
このホスト装置1300とネットワーク1302(LA
Nのような小規模ネットワークや、インターネットのよ
うな広域ネットワーク)を介して接続される端末130
4-1〜1304-nとを含むシステムに本実施形態を適用
した場合の例を示す。この場合、上記格納情報は、例え
ばホスト装置1300が制御可能な磁気ディスク装置、
磁気テープ装置、メモリ等の情報記憶媒体1306に格
納されている。端末1304-1〜1304-nが、スタン
ドアロンでゲーム画像、ゲーム音を生成できるものであ
る場合には、ホスト装置1300からは、ゲーム画像、
ゲーム音を生成するためのゲームプログラム等が端末1
304-1〜1304-nに配送される。一方、スタンドア
ロンで生成できない場合には、ホスト装置1300がゲ
ーム画像、ゲーム音を生成し、これを端末1304-1〜
1304-nに伝送し端末において出力することになる。
FIG. 24C shows a host device 1300,
The host device 1300 and the network 1302 (LA
N or a wide area network such as the Internet).
An example in which the present embodiment is applied to a system including 4-1 to 1304-n will be described. In this case, the storage information is, for example, a magnetic disk device that can be controlled by the host device 1300,
The information is stored in an information storage medium 1306 such as a magnetic tape device and a memory. When the terminals 1304-1 to 1304-n are capable of generating a game image and a game sound in a stand-alone manner, the game image,
A game program or the like for generating a game sound is transmitted to the terminal 1.
It is delivered to 304-1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, and transmits them to the terminal
1304-n and output at the terminal.

【0186】なお、図24(C)の構成の場合に、本発
明の各手段を、ホスト装置(サーバー)と端末とで分散
して実行するようにしてもよい。また、本発明の各手段
を実行するための上記格納情報を、ホスト装置(サーバ
ー)の情報記憶媒体と端末の情報記憶媒体に分散して格
納するようにしてもよい。
In the case of the configuration shown in FIG. 24C, each means of the present invention may be executed by distributing between a host device (server) and a terminal. Further, the storage information for executing each means of the present invention may be stored separately in an information storage medium of a host device (server) and an information storage medium of a terminal.

【0187】またネットワークに接続する端末は、家庭
用ゲームシステムであってもよいし業務用ゲームシステ
ムであってもよい。そして、業務用ゲームシステムをネ
ットワークに接続する場合には、業務用ゲームシステム
との間で情報のやり取りが可能であると共に家庭用ゲー
ムシステムとの間でも情報のやり取りが可能なセーブ用
情報記憶装置(メモリカード、携帯型ゲーム装置)を用
いることが望ましい。
The terminal connected to the network may be a home game system or an arcade game system. When the arcade game system is connected to a network, a save information storage device capable of exchanging information with the arcade game system and exchanging information with the home game system. (Memory card, portable game device) is desirable.

【0188】なお本発明は、上記実施形態で説明したも
のに限らず、種々の変形実施が可能である。
The present invention is not limited to those described in the above embodiments, and various modifications can be made.

【0189】例えば、本発明のうち従属請求項に係る発
明においては、従属先の請求項の構成要件の一部を省略
する構成とすることもできる。また、本発明の1の独立
請求項に係る発明の要部を、他の独立請求項に従属させ
ることもできる。
For example, in the invention according to the dependent claims of the present invention, a configuration in which some of the constituent elements of the dependent claims are omitted may be adopted. In addition, a main part of the invention according to one independent claim of the present invention can be made dependent on another independent claim.

【0190】また、インデックスカラー・テクスチャマ
ッピング用のルックアップテーブルのインデックス番号
として設定される画像情報としては、本実施形態で説明
した情報が特に望ましいが、これに限定されるものでは
ない。
The image information set as the index number of the look-up table for the index color / texture mapping is particularly preferably the information described in the present embodiment, but is not limited to this.

【0191】また、本発明により実現される画像変換
も、図7(A)〜図11で説明したものに限定されな
い。
Also, the image conversion realized by the present invention is not limited to those described with reference to FIGS.

【0192】また、調整情報をセーブ用情報記憶装置に
セーブする発明においては、画像情報を変換する手法は
図4で説明した手法が特に望ましいが、これに限定され
ない。例えば図1(A)、(B)で説明した手法等によ
り画像情報を変換してもよい。
In the invention in which the adjustment information is saved in the saving information storage device, the technique for converting the image information is particularly preferably the technique described with reference to FIG. 4, but is not limited to this. For example, the image information may be converted by the method described with reference to FIGS.

【0193】また、本発明は種々のゲーム(格闘ゲー
ム、シューティングゲーム、ロボット対戦ゲーム、スポ
ーツゲーム、競争ゲーム、ロールプレイングゲーム、音
楽演奏ゲーム、ダンスゲーム等)に適用できる。
The present invention can be applied to various games (fighting games, shooting games, robot battle games, sports games, competition games, role playing games, music playing games, dance games, etc.).

【0194】また本発明は、業務用ゲームシステム、家
庭用ゲームシステム、多数のプレーヤが参加する大型ア
トラクションシステム、シミュレータ、マルチメディア
端末、ゲーム画像を生成するシステムボード等の種々の
ゲームシステム(画像生成システム)に適用できる。
The present invention also relates to various game systems (image generation systems) such as a business game system, a home game system, a large attraction system in which many players participate, a simulator, a multimedia terminal, and a system board for generating game images. System).

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1(A)、(B)は、ガンマ補正を実現する
第1、第2の手法について説明するための図である。
FIGS. 1A and 1B are diagrams for explaining first and second methods for realizing gamma correction; FIGS.

【図2】本実施形態のゲームシステムのブロック図の例
である。
FIG. 2 is an example of a block diagram of a game system according to the embodiment.

【図3】インデックスカラー・テクスチャマッピングに
ついて説明するための図である。
FIG. 3 is a diagram for describing index color / texture mapping.

【図4】インデックスカラー・テクスチャマッピング用
のLUTを有効利用して、元画像を変換する手法につい
て示す図である。
FIG. 4 is a diagram showing a method of converting an original image by effectively using an LUT for index color / texture mapping.

【図5】図5(A)、(B)は、本実施形態により生成
されるゲーム画像の例である。
FIGS. 5A and 5B are examples of game images generated according to the present embodiment.

【図6】元画像を複数のブロックに分割し、各ブロック
の画像を、LUTを用いて分割ブロックサイズのポリゴ
ンにテクスチャマッピングする手法について説明するた
めの図である。
FIG. 6 is a diagram for describing a method of dividing an original image into a plurality of blocks and texture-mapping an image of each block to a polygon having a divided block size using an LUT.

【図7】図7(A)、(B)は、ガンマ補正の変換特性
とガンマ補正用LUTの例について示す図である。
FIGS. 7A and 7B are diagrams showing examples of gamma correction conversion characteristics and gamma correction LUTs.

【図8】図8(A)、(B)は、ネガポジ反転の変換特
性とネガポジ反転用LUTの例について示す図である。
FIGS. 8A and 8B are diagrams showing conversion characteristics of negative-positive inversion and an example of a negative-positive inversion LUT.

【図9】図9(A)、(B)、(C)は、ポスタリゼー
ション、ソラリゼーション、2値化の変換特性の例につ
いて示す図である。
FIGS. 9A, 9B, and 9C are diagrams illustrating examples of conversion characteristics of posterization, solarization, and binarization.

【図10】図10(A)、(B)は、モノトーン(セピ
ア)フィルタ用LUTR、LUTGの例について示す図
である。
FIGS. 10A and 10B are diagrams showing examples of a monotone (sepia) filter LUTR and LUTG. FIG.

【図11】モノトーン(セピア)フィルタ用LUTBの
例について示す図である。
FIG. 11 is a diagram illustrating an example of an LUTB for a monotone (sepia) filter.

【図12】ある色成分をインデックス番号に設定した場
合に、他の色成分をマスクして、元画像の変換画像を得
る手法について説明するための図である。
FIG. 12 is a diagram for explaining a method of obtaining a converted image of an original image by masking another color component when a certain color component is set as an index number.

【図13】LUTR、LUTG、LUTBにより得られ
た各色情報を合成して、元画像の変換画像を得る手法に
ついて説明するための図である。
FIG. 13 is a diagram for describing a method of synthesizing each color information obtained by LUTR, LUTG, and LUTB to obtain a converted image of an original image.

【図14】LUTを利用したテクスチャマッピングを行
い、αプレーンを作成する手法について説明するための
図である。
FIG. 14 is a diagram for describing a method of creating an α plane by performing texture mapping using an LUT.

【図15】Z値をLUTのインデックス番号に設定する
手法について説明するための図である。
FIG. 15 is a diagram for describing a method of setting a Z value to an index number of an LUT.

【図16】Z値に応じたα値を設定し、設定されたα値
を用いて元画像とぼかし画像を合成する手法について説
明するための図である。
FIG. 16 is a diagram for describing a method of setting an α value according to a Z value and combining an original image and a blurred image using the set α value.

【図17】Z値に応じたα値の設定手法について説明す
るための図である。
FIG. 17 is a diagram for explaining a setting method of an α value according to a Z value.

【図18】モニタの明るさ調整に関する従来の問題点に
ついて説明するための図である。
FIG. 18 is a diagram for describing a conventional problem relating to brightness adjustment of a monitor.

【図19】モニタの明るさ調整データをセーブ用情報記
憶装置にセーブする手法について説明するための図であ
る。
FIG. 19 is a diagram for describing a method of saving monitor brightness adjustment data in a save information storage device.

【図20】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 20 is a flowchart illustrating a detailed example of a process according to the present embodiment.

【図21】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 21 is a flowchart illustrating a detailed example of a process according to the present embodiment.

【図22】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 22 is a flowchart illustrating a detailed example of a process according to the present embodiment.

【図23】本実施形態を実現できるハードウェアの構成
の一例を示す図である。
FIG. 23 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.

【図24】図24(A)、(B)、(C)は、本実施形
態が適用される種々の形態のシステムの例を示す図であ
る。
FIGS. 24A, 24B, and 24C are diagrams showing examples of various types of systems to which the present embodiment is applied; FIGS.

【符号の説明】[Explanation of symbols]

10 仮想カメラ 20 モニタ 22 明るさ調整ボタン 30 ゲームコントローラ 32 十字キー 40 セーブ用情報記憶装置 100 処理部 110 ゲーム処理部 112 移動・動作演算部 114 調整情報設定部 116 セーブ部 130 画像生成部 132 ジオメトリ処理部 134 インデックス番号設定部 140 描画部 142 テクスチャマッピング部 144 マスク処理部 146 合成部 150 音生成部 160 操作部 170 記憶部 172 メインメモリ 174 フレームバッファ 176 テクスチャ記憶部 178 LUT記憶部 180 情報記憶媒体 190 表示部 192 音出力部 194 セーブ用情報記憶装置 196 通信部 DESCRIPTION OF SYMBOLS 10 Virtual camera 20 Monitor 22 Brightness adjustment button 30 Game controller 32 Cross key 40 Saving information storage device 100 Processing unit 110 Game processing unit 112 Movement / operation calculation unit 114 Adjustment information setting unit 116 Saving unit 130 Image generation unit 132 Geometry processing Unit 134 index number setting unit 140 drawing unit 142 texture mapping unit 144 mask processing unit 146 synthesis unit 150 sound generation unit 160 operation unit 170 storage unit 172 main memory 174 frame buffer 176 texture storage unit 178 LUT storage unit 180 information storage medium 190 display Unit 192 Sound output unit 194 Save information storage device 196 Communication unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C001 AA03 AA06 AA17 BA02 BC01 BC05 BC06 BC08 BD05 CB01 CB06 CC01 CC02 CC03 CC08 5B057 CA01 CA08 CA13 CA17 CB01 CB08 CB13 CB16 CC04 CE04 CE06 CE08 CE17 CH07 5B080 AA05 FA02 FA03 GA02 GA18 GA22  ──────────────────────────────────────────────────続 き Continued on front page F term (reference) 2C001 AA03 AA06 AA17 BA02 BC01 BC05 BC06 BC08 BD05 CB01 CB06 CC01 CC02 CC03 CC08 5B057 CA01 CA08 CA13 CA17 CB01 CB08 CB13 CB16 CC04 CE04 CE06 CE08 CE17 CH07 5B080 AA05 GA02 FA03

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 画像生成を行うゲームシステムであっ
て、 元画像の画像情報を、インデックスカラー・テクスチャ
マッピング用のルックアップテーブルのインデックス番
号として設定する手段と、 元画像の画像情報がインデックス番号として設定された
前記ルックアップテーブルを用いて、仮想オブジェクト
に対してインデックスカラー・テクスチャマッピングを
行い、元画像の画像情報を変換する手段と、 を含むことを特徴とするゲームシステム。
1. A game system for generating an image, comprising: means for setting image information of an original image as an index number of a look-up table for index color / texture mapping; Means for performing index color / texture mapping on the virtual object using the set look-up table and converting image information of the original image.
【請求項2】 請求項1において、 前記仮想オブジェクトが、表示画面サイズのポリゴンで
あることを特徴とするゲームシステム。
2. The game system according to claim 1, wherein the virtual object is a polygon having a size of a display screen.
【請求項3】 請求項1において、 前記仮想オブジェクトが、表示画面を分割したブロック
のサイズのポリゴンであることを特徴とするゲームシス
テム。
3. The game system according to claim 1, wherein the virtual object is a polygon having a size of a block obtained by dividing a display screen.
【請求項4】 請求項1乃至3のいずれかにおいて、 ガンマ補正、ネガポジ反転、ポスタリゼーション、ソラ
リゼーション、2値化、モノトーンフィルタ又はセピア
フィルタの変換のための前記ルックアップテーブルを用
意し、該ルックアップテーブルを用いて、元画像の画像
情報に対してガンマ補正、ネガポジ反転、ポスタリゼー
ション、ソラリゼーション、2値化、モノトーンフィル
タ又はセピアフィルタの変換を施すことを特徴とするゲ
ームシステム。
4. The look-up table according to claim 1, wherein the look-up table is prepared for gamma correction, negative-positive inversion, posterization, solarization, binarization, conversion of a monotone filter or a sepia filter. A game system characterized by performing gamma correction, negative / positive inversion, posterization, solarization, binarization, conversion of a monotone filter or a sepia filter on image information of an original image using a table.
【請求項5】 請求項1乃至4のいずれかにおいて、 元画像の画像情報が含む色情報の色成分を前記ルックア
ップテーブルのインデックス番号として設定して色情報
を変換する場合において、変換後の色情報の他の色成分
が描画領域に描画されないようにするためのマスク処理
を行う手段を含むことを特徴とするゲームシステム。
5. The method according to claim 1, wherein a color component of color information included in the image information of the original image is set as an index number of the look-up table to convert the color information. A game system comprising: means for performing a mask process for preventing another color component of color information from being drawn in a drawing area.
【請求項6】 請求項1乃至4のいずれかにおいて、 元画像の画像情報が含む色情報の第Kの色成分を前記ル
ックアップテーブルのインデックス番号として設定する
ことで得られる変換後の色情報と、色情報の第Lの色成
分を前記ルックアップテーブルのインデックス番号とし
て設定することで得られる変換後の色情報と、色情報の
第Mの色成分を前記ルックアップテーブルのインデック
ス番号として設定することで得られる変換後の色情報と
を合成する手段を含むことを特徴とするゲームシステ
ム。
6. The converted color information obtained by setting a K-th color component of color information included in image information of an original image as an index number of the look-up table according to any one of claims 1 to 4. And the converted color information obtained by setting the Lth color component of the color information as the index number of the lookup table, and setting the Mth color component of the color information as the index number of the lookup table A game system comprising means for synthesizing the converted color information obtained by performing the conversion.
【請求項7】 請求項1乃至6のいずれかにおいて、 元画像の画像情報の変換により、元画像の画像情報に応
じた値のα値が生成されることを特徴とするゲームシス
テム。
7. The game system according to claim 1, wherein an α value corresponding to the image information of the original image is generated by converting the image information of the original image.
【請求項8】 請求項1乃至7のいずれかにおいて、 元画像の画像情報が含む奥行き値が、前記ルックアップ
テーブルのインデックス番号として設定されることを特
徴とするゲームシステム。
8. The game system according to claim 1, wherein a depth value included in the image information of the original image is set as an index number of the look-up table.
【請求項9】 家庭用ゲームのゲーム画像を生成するた
めのゲームシステムであって、 プレーヤがゲームコントローラを用いて入力した操作デ
ータに基づいて、モニタの表示特性を調整するための調
整データを設定する手段と、 設定された調整データを、プレーヤの個人データを記憶
するためのセーブ用情報記憶装置にセーブするセーブ手
段と、 表示特性の調整により得られた調整データ又はセーブ用
情報記憶装置からロードされた調整データに基づいて、
元画像の画像情報に対して変換処理を施す手段と、 を含むことを特徴とするゲームシステム。
9. A game system for generating a game image of a home game, wherein adjustment data for adjusting display characteristics of a monitor is set based on operation data input by a player using a game controller. Means for saving the set adjustment data in a save information storage device for storing personal data of the player; and loading from the adjustment data obtained by adjusting the display characteristics or the save information storage device. Based on the adjusted data,
Means for performing a conversion process on the image information of the original image.
【請求項10】 請求項9において、 前記セーブ手段が、 画像情報の変換特性を表す自由曲線の制御点のデータ
を、前記調整データとしてセーブ用情報記憶装置にセー
ブすることを特徴とするゲームシステム。
10. The game system according to claim 9, wherein the saving means saves data of a control point of a free curve representing a conversion characteristic of image information in the save information storage device as the adjustment data. .
【請求項11】 コンピュータが使用可能なプログラム
であって、 元画像の画像情報を、インデックスカラー・テクスチャ
マッピング用のルックアップテーブルのインデックス番
号として設定する手段と、 元画像の画像情報がインデックス番号として設定された
前記ルックアップテーブルを用いて、仮想オブジェクト
に対してインデックスカラー・テクスチャマッピングを
行い、元画像の画像情報を変換する手段と、 をコンピュータに実現させることを特徴とするプログラ
ム。
11. A program usable by a computer, comprising: means for setting image information of an original image as an index number of a look-up table for index color / texture mapping; Means for performing index color / texture mapping on a virtual object by using the set look-up table and converting image information of an original image into a computer.
【請求項12】 請求項11において、 前記仮想オブジェクトが、表示画面サイズのポリゴンで
あることを特徴とするプログラム。
12. The program according to claim 11, wherein the virtual object is a polygon having a size of a display screen.
【請求項13】 請求項11において、 前記仮想オブジェクトが、表示画面を分割したブロック
のサイズのポリゴンであることを特徴とするプログラ
ム。
13. The program according to claim 11, wherein the virtual object is a polygon having a size of a block obtained by dividing a display screen.
【請求項14】 請求項11乃至13のいずれかにおい
て、 ガンマ補正、ネガポジ反転、ポスタリゼーション、ソラ
リゼーション、2値化、モノトーンフィルタ又はセピア
フィルタの変換のための前記ルックアップテーブルを用
意し、該ルックアップテーブルを用いて、元画像の画像
情報に対してガンマ補正、ネガポジ反転、ポスタリゼー
ション、ソラリゼーション、2値化、モノトーンフィル
タ又はセピアフィルタの変換を施すことを特徴とするプ
ログラム。
14. The look-up table according to claim 11, wherein the look-up table is prepared for gamma correction, negative-positive inversion, posterization, solarization, binarization, conversion of a monotone filter or a sepia filter. A program for performing gamma correction, negative / positive inversion, posterization, solarization, binarization, conversion of a monotone filter or a sepia filter on image information of an original image using a table.
【請求項15】 請求項11乃至14のいずれかにおい
て、 元画像の画像情報が含む色情報の色成分を前記ルックア
ップテーブルのインデックス番号として設定して色情報
を変換する場合において、変換後の色情報の他の色成分
が描画領域に描画されないようにするためのマスク処理
を行う手段をコンピュータに実現させることを特徴とす
るプログラム。
15. The method according to claim 11, wherein a color component of the color information included in the image information of the original image is set as an index number of the look-up table to convert the color information. A program for causing a computer to execute means for performing a mask process for preventing other color components of color information from being drawn in a drawing area.
【請求項16】 請求項11乃至14のいずれかにおい
て、 元画像の画像情報が含む色情報の第Kの色成分を前記ル
ックアップテーブルのインデックス番号として設定する
ことで得られる変換後の色情報と、色情報の第Lの色成
分を前記ルックアップテーブルのインデックス番号とし
て設定することで得られる変換後の色情報と、色情報の
第Mの色成分を前記ルックアップテーブルのインデック
ス番号として設定することで得られる変換後の色情報と
を合成する手段をコンピュータに実現させることを特徴
とするプログラム。
16. The converted color information obtained by setting a K-th color component of color information included in image information of an original image as an index number of the look-up table according to any one of claims 11 to 14. And the converted color information obtained by setting the Lth color component of the color information as the index number of the lookup table, and setting the Mth color component of the color information as the index number of the lookup table A program for causing a computer to realize means for synthesizing the converted color information obtained by the computer.
【請求項17】 請求項11乃至16のいずれかにおい
て、 元画像の画像情報の変換により、元画像の画像情報に応
じた値のα値が生成されることを特徴とするプログラ
ム。
17. The program according to claim 11, wherein the conversion of the image information of the original image generates an α value corresponding to the image information of the original image.
【請求項18】 請求項11乃至17のいずれかにおい
て、 元画像の画像情報が含む奥行き値が、前記ルックアップ
テーブルのインデックス番号として設定されることを特
徴とするプログラム。
18. The program according to claim 11, wherein a depth value included in the image information of the original image is set as an index number of the look-up table.
【請求項19】 コンピュータが使用可能であり、家庭
用ゲームのゲーム画像を生成するためのプログラムであ
って、 プレーヤがゲームコントローラを用いて入力した操作デ
ータに基づいて、モニタの表示特性を調整するための調
整データを設定する手段と、 設定された調整データを、プレーヤの個人データを記憶
するためのセーブ用情報記憶装置にセーブするセーブ手
段と、 表示特性の調整により得られた調整データ又はセーブ用
情報記憶装置からロードされた調整データに基づいて、
元画像の画像情報に対して変換処理を施す手段と、 をコンピュータに実現させることを特徴とするプログラ
ム。
19. A computer-usable program for generating a game image of a home game, wherein a display characteristic of a monitor is adjusted based on operation data input by a player using a game controller. Means for setting adjustment data for saving, setting means for saving the set adjustment data in a save information storage device for storing personal data of the player, and adjustment data or saving obtained by adjusting display characteristics. Based on the adjustment data loaded from the information storage device for
Means for performing conversion processing on image information of an original image, and a program for causing a computer to realize the following.
【請求項20】 請求項19において、 前記セーブ手段が、 画像情報の変換特性を表す自由曲線の制御点のデータ
を、前記調整データとしてセーブ用情報記憶装置にセー
ブすることを特徴とするプログラム。
20. A program according to claim 19, wherein said saving means saves data of a control point of a free curve representing a conversion characteristic of image information in the save information storage device as the adjustment data.
【請求項21】 コンピュータにより使用可能な情報記
憶媒体であって、請求項11乃至20のいずれかのプロ
グラムを含むことを特徴とする情報記憶媒体。
21. An information storage medium usable by a computer, wherein the information storage medium includes the program according to any one of claims 11 to 20.
JP2001020521A 2000-01-28 2001-01-29 GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM Expired - Fee Related JP4656617B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001020521A JP4656617B2 (en) 2000-01-28 2001-01-29 GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2000020464 2000-01-28
JP2000-20464 2000-01-28
JP2000213725 2000-07-14
JP2000-213725 2000-07-14
JP2001020521A JP4656617B2 (en) 2000-01-28 2001-01-29 GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010265764A Division JP4913898B2 (en) 2000-01-28 2010-11-29 GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM

Publications (2)

Publication Number Publication Date
JP2002092631A true JP2002092631A (en) 2002-03-29
JP4656617B2 JP4656617B2 (en) 2011-03-23

Family

ID=27342171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001020521A Expired - Fee Related JP4656617B2 (en) 2000-01-28 2001-01-29 GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM

Country Status (1)

Country Link
JP (1) JP4656617B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086604A (en) * 2002-08-27 2004-03-18 Toppan Printing Co Ltd Image display unit
JP2006004364A (en) * 2004-06-21 2006-01-05 Namco Ltd Program, information storage medium and image generation system
JP2006011539A (en) * 2004-06-22 2006-01-12 Namco Ltd Program, information storage medium, and image generating system
JP2007272356A (en) * 2006-03-30 2007-10-18 Namco Bandai Games Inc Program, information storage medium and image generation system
JP2010507841A (en) * 2006-10-19 2010-03-11 クゥアルコム・インコーポレイテッド Programmable blending in graphics processing unit
CN111598813A (en) * 2020-05-25 2020-08-28 北京字节跳动网络技术有限公司 Face image processing method and device, electronic equipment and computer readable medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6163181A (en) * 1984-09-05 1986-04-01 Canon Inc Gamma converting circuit
JPH04289982A (en) * 1991-03-19 1992-10-14 Toshiba Corp Color discriminating system
JPH06161876A (en) * 1992-11-24 1994-06-10 Sony Corp Image processing method
JPH07204350A (en) * 1994-01-12 1995-08-08 Funai Electric Co Ltd Tv-game system
JPH07312721A (en) * 1994-05-18 1995-11-28 Sega Enterp Ltd Screen switching method and game machine using it
JPH10187124A (en) * 1996-12-24 1998-07-14 Sony Corp Plotting device and plotting method
JPH11146400A (en) * 1997-11-07 1999-05-28 Matsushita Electric Ind Co Ltd Image processing unit

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6163181A (en) * 1984-09-05 1986-04-01 Canon Inc Gamma converting circuit
JPH04289982A (en) * 1991-03-19 1992-10-14 Toshiba Corp Color discriminating system
JPH06161876A (en) * 1992-11-24 1994-06-10 Sony Corp Image processing method
JPH07204350A (en) * 1994-01-12 1995-08-08 Funai Electric Co Ltd Tv-game system
JPH07312721A (en) * 1994-05-18 1995-11-28 Sega Enterp Ltd Screen switching method and game machine using it
JPH10187124A (en) * 1996-12-24 1998-07-14 Sony Corp Plotting device and plotting method
JPH11146400A (en) * 1997-11-07 1999-05-28 Matsushita Electric Ind Co Ltd Image processing unit

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086604A (en) * 2002-08-27 2004-03-18 Toppan Printing Co Ltd Image display unit
JP2006004364A (en) * 2004-06-21 2006-01-05 Namco Ltd Program, information storage medium and image generation system
JP4521811B2 (en) * 2004-06-21 2010-08-11 株式会社バンダイナムコゲームス Program, information storage medium, and image generation system
JP2006011539A (en) * 2004-06-22 2006-01-12 Namco Ltd Program, information storage medium, and image generating system
JP2007272356A (en) * 2006-03-30 2007-10-18 Namco Bandai Games Inc Program, information storage medium and image generation system
JP2010507841A (en) * 2006-10-19 2010-03-11 クゥアルコム・インコーポレイテッド Programmable blending in graphics processing unit
CN111598813A (en) * 2020-05-25 2020-08-28 北京字节跳动网络技术有限公司 Face image processing method and device, electronic equipment and computer readable medium

Also Published As

Publication number Publication date
JP4656617B2 (en) 2011-03-23

Similar Documents

Publication Publication Date Title
WO2001055969A1 (en) Game system and image creating method
JP2006318389A (en) Program, information storage medium, and image generation system
JP3249955B2 (en) Image generation system and information storage medium
JP3777288B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4187188B2 (en) Image generation system, program, and information storage medium
WO2001055970A1 (en) Game system and image creating method
JP3449993B2 (en) Image generation system, program, and information storage medium
JP3280355B2 (en) Image generation system and information storage medium
JP2004334661A (en) Image generating system, program, and information storage medium
JP4167358B2 (en) Image generation system and information storage medium
JP4656617B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP3467259B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP2006252426A (en) Program, information storage medium, and image generation system
JP2006011539A (en) Program, information storage medium, and image generating system
JP4656616B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP3297410B2 (en) Image generation system and information storage medium
JP2001224845A (en) Game system and information storage medium
JP4913898B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4056035B2 (en) Image generation system, program, and information storage medium
JP4704615B2 (en) Image generation system, program, and information storage medium
JP2004070669A (en) Image generation system, program and information storage medium
JP4394211B2 (en) Image generation system and information storage medium
JP2002183753A (en) Image generation system and information storage medium
JP2008077406A (en) Image generation system, program, and information storage medium
JP2001224847A (en) Game system and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100929

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4656617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees