JP2002279447A - Image generating system, program, and information storage medium - Google Patents

Image generating system, program, and information storage medium

Info

Publication number
JP2002279447A
JP2002279447A JP2001081252A JP2001081252A JP2002279447A JP 2002279447 A JP2002279447 A JP 2002279447A JP 2001081252 A JP2001081252 A JP 2001081252A JP 2001081252 A JP2001081252 A JP 2001081252A JP 2002279447 A JP2002279447 A JP 2002279447A
Authority
JP
Japan
Prior art keywords
color data
value
texture
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001081252A
Other languages
Japanese (ja)
Other versions
JP3449993B2 (en
Inventor
Akiko Wakabayashi
明子 若林
Shigeru Kikko
繁 橘高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2001081252A priority Critical patent/JP3449993B2/en
Publication of JP2002279447A publication Critical patent/JP2002279447A/en
Application granted granted Critical
Publication of JP3449993B2 publication Critical patent/JP3449993B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Generation (AREA)
  • Studio Circuits (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image generating system capable of forming a real and high quality image with small data amount, a program, and an information storage medium. SOLUTION: Extended color data obtained, by extending the compressed color data (movie texture) of an original image, is converted into α value by a conversion rule, to allow the color data to correspond to the α value, and an α synthesizing processing is performed, based on the α value. According to this conversion rule, the color data (red) near the profile of a displayed object (flame) is made to correspond to the α value for turning the displayed object semi-transparent (when the original image includes a blue back image, blue color data is made to correspond to the α value for turning the displayed object transparent). Based on a look-up table LUT1 corresponding the color data to index numbers, the extended color data is converted into the index numbers, and the index numbers are converted into the αvalues by an index color texture mapping using the LUT2 for making the index numbers correspond to the α values. The color data obtained by LUT2 may be mapped, undisturbed to the object OB.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像生成システ
ム、プログラム及び情報記憶媒体に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image generation system, a program, and an information storage medium.

【0002】[0002]

【背景技術及び発明が解決しようとする課題】従来よ
り、仮想的な3次元空間であるオブジェクト空間内にお
いて仮想カメラ(所与の視点)から見える画像を生成す
る画像生成システム(ゲームシステム)が知られてお
り、いわゆる仮想現実を体験できるものとして人気が高
い。ロールプレイングゲーム(RPG)を楽しむことが
できる画像生成システムを例にとれば、プレーヤは、自
身の分身であるキャラクタ(オブジェクト)を操作して
オブジェクト空間内のマップ上で移動させ、敵キャラク
タと対戦したり、他のキャラクタと対話したり、様々な
町を訪れたりすることでゲームを楽しむ。
2. Description of the Related Art An image generation system (game system) for generating an image viewed from a virtual camera (given viewpoint) in an object space which is a virtual three-dimensional space has been known. It is very popular as a virtual reality experience. Taking an image generation system that can enjoy a role playing game (RPG) as an example, a player operates a character (object), which is his or her own, to move on a map in an object space, and plays against an enemy character. Enjoy the game by playing, interacting with other characters, and visiting various towns.

【0003】さて、このような画像生成システムでは、
プレーヤの仮想現実感の向上のために、よりリアルで高
品質な画像を生成することが重要な技術的課題になって
いる。
[0003] In such an image generation system,
To improve the virtual reality of a player, generating a more realistic and higher quality image has become an important technical problem.

【0004】一方、画像のリアル度や品質を向上させる
ことの反射的効果として、画像生成に必要なデータ量が
増加してしまうという課題が生じる。そして、このよう
な課題を解決するために、この種の画像生成システムで
は、MPEG(MPEG2)などの圧縮手法により色デ
ータを圧縮してDVDやCDなどの情報記憶媒体に記憶
しておき、画像表示の際にこの圧縮された色データを伸
長部(デコーダ)で伸張(展開)し、得られた色データ
に基づいて画像を生成する。
On the other hand, as a reflexive effect of improving the realism and quality of an image, there arises a problem that the amount of data required for image generation increases. In order to solve such a problem, in this type of image generation system, color data is compressed by a compression method such as MPEG (MPEG2) and stored in an information storage medium such as a DVD or a CD. At the time of display, the compressed color data is expanded (expanded) by an expansion unit (decoder), and an image is generated based on the obtained color data.

【0005】しかしながら、MPEGにおいては圧縮色
データ(圧縮された色データ)がYCbCr形式で保持
される。従って、圧縮対象となる元画像データがRGB
α形式であっても、α値を圧縮データとして保持できな
い。
However, in MPEG, compressed color data (compressed color data) is held in YCbCr format. Therefore, the original image data to be compressed is RGB
Even in the α format, the α value cannot be held as compressed data.

【0006】このため、例えば圧縮テクスチャを使用し
てテクスチャマッピングを行った場合に、「矩形でない
ステッカのようにテクスチャをマッピングする」、「オ
ブジェクトを部分的に半透明にする」などの画像表現を
実現することが難しいという課題がある。
For this reason, for example, when texture mapping is performed using a compressed texture, image expressions such as "map the texture like a non-rectangular sticker" and "make the object partially translucent" are used. There is a problem that it is difficult to realize.

【0007】本発明は、以上のような課題に鑑みてなさ
れたものであり、その目的とするところは、少ないデー
タ量でリアルで高品質な画像を生成できる画像生成シス
テム、プログラム及び情報記憶媒体を提供することにあ
る。
The present invention has been made in view of the above problems, and has as its object to provide an image generation system, a program, and an information storage medium capable of generating a real and high-quality image with a small amount of data. Is to provide.

【0008】[0008]

【課題を解決するための手段】上記課題を解決するため
に、本発明は、画像生成を行う画像生成システムであっ
て、元画像の圧縮色データを伸長し、伸長色データを出
力する伸長手段と、得られた伸長色データを、色データ
とα値とを対応づける所与の変換規則にしたがって、α
値に変換する手段と、変換により得られたα値に基づい
て画像を生成する手段とを含むことを特徴とする。また
本発明に係るプログラムは、コンピュータにより使用可
能なプログラム(情報記憶媒体又は搬送波に具現化され
るプログラム)であって、上記手段をコンピュータに実
現させる(上記手段としてコンピュータを機能させる)
ことを特徴とする。また本発明に係る情報記憶媒体は、
コンピュータにより読み取り可能(使用可能)な情報記
憶媒体であって、上記手段をコンピュータに実現させる
(上記手段としてコンピュータを機能させる)ためのプ
ログラムを含むことを特徴とする。
In order to solve the above-mentioned problems, the present invention relates to an image generation system for generating an image, which expands compressed color data of an original image and outputs expanded color data. And the obtained expanded color data is converted into α according to a given conversion rule that associates the color data with the α value.
And a means for generating an image based on the α value obtained by the conversion. Further, the program according to the present invention is a program usable by a computer (a program embodied in an information storage medium or a carrier wave), and causes the computer to realize the above means (makes the computer function as the above means).
It is characterized by the following. Further, the information storage medium according to the present invention,
An information storage medium readable (usable) by a computer, characterized by including a program for causing a computer to realize the above means (to make the computer function as the above means).

【0009】本発明によれば、伸長手段により得られた
伸長色データ(伸長された色データ)が、色データとα
値(色データとは種類が異なる第1の種類のデータ)と
を対応づける変換規則にしたがってα値(第1の種類の
データ)に変換され、得られたα値(第1の種類のデー
タ)に基づき画像が生成される。このようにすること
で、圧縮色データ(圧縮された色データ)や伸長色デー
タがその性質上α値を有しない場合にも、α値を用いた
画像生成処理が可能になり、多様な画像表現を実現でき
る。
According to the present invention, the decompressed color data (extended color data) obtained by the decompression means is composed of color data and α
The value (first type data) is converted into an α value (first type data) according to a conversion rule for associating the value (first type data different in type from the color data). ), An image is generated. By doing so, even when the compressed color data (compressed color data) or the decompressed color data does not have an α value due to its nature, image generation processing using the α value becomes possible, and various image Expression can be realized.

【0010】なお、所与の変換規則は、ルックアップテ
ーブルで実現してもよいし、関数や数値計算により実現
してもよい。
The given conversion rule may be realized by a look-up table or by a function or a numerical calculation.

【0011】また、得られたα値に基づく画像生成処理
としては、α合成処理等の種々の画像生成処理を考える
ことができる。
As an image generation process based on the obtained α value, various image generation processes such as an α synthesis process can be considered.

【0012】また本発明に係る画像生成システム、プロ
グラム及び情報記憶媒体は、前記所与の変換規則によ
り、表示物の輪郭付近での色データが、表示物を半透明
にするα値に対応づけられることを特徴とする。
Further, according to the image generation system, the program and the information storage medium of the present invention, according to the given conversion rule, the color data near the outline of the display object is associated with the α value that makes the display object translucent. It is characterized by being able to.

【0013】このようにすれば、得られたα値に基づい
て、表示物の輪郭付近を半透明に設定することが可能と
なり、表示物の輪郭付近でのジャギーの発生等を防止で
きる。
This makes it possible to set the vicinity of the outline of the display object to be semi-transparent based on the obtained α value, thereby preventing the occurrence of jaggy near the outline of the display object.

【0014】なお、表示物の中心付近から輪郭に向かう
につれて、表示物を徐々に透明にするように、α値を徐
々に変化させてもよい(α値のグラディエーション)。
Note that the α value may be gradually changed (gradation of the α value) so that the display object gradually becomes transparent from the vicinity of the center of the display object toward the outline.

【0015】また本発明に係る画像生成システム、プロ
グラム及び情報記憶媒体は、前記表示物が炎を表す表示
物であり、前記所与の変換規則により、赤の色データ
が、表示物を半透明にするα値に対応づけられることを
特徴とする。
In the image generation system, the program, and the information storage medium according to the present invention, the display object is a display object representing a flame, and the red color data makes the display object translucent according to the given conversion rule. It is characterized by being associated with the α value

【0016】このようにすれば、炎の輪郭付近での赤色
のデータが、表示物を半透明にするα値に変換されるよ
うになり、炎の輪郭付近でのジャギーの発生等を防止で
きる。
In this way, the red data near the outline of the flame is converted into an α value that makes the display object translucent, and the occurrence of jaggy near the outline of the flame can be prevented. .

【0017】また本発明に係る画像生成システム、プロ
グラム及び情報記憶媒体は、前記元画像が、ブルーバッ
ク又はグリーンバックの画像を含み、前記所与の変換規
則により、青又は緑の色データが、表示物を透明にする
α値に対応づけられることを特徴とする。
Further, in the image generation system, the program and the information storage medium according to the present invention, the original image includes a blue-back or green-back image, and the blue or green color data is represented by the given conversion rule. It is characterized in that it can be associated with an α value that makes a display object transparent.

【0018】このようにすれば、ブルーバックの部分の
青(又はグリーンバックの場合の緑)の色データが、表
示物を透明にするα値に変換されるようになり、ブルー
バック(又はグリーンバック)を利用した背景画像との
合成処理を実現できる。
In this way, the blue (or green in the case of green background) color data of the blue background portion is converted into an α value which makes the display object transparent, and the blue background (or green color) is converted. A composition process with a background image using back) can be realized.

【0019】なお、この場合の元画像としては実写画像
などを用いることができる。
In this case, a real image or the like can be used as the original image.

【0020】また、α値を用いたα合成処理の対象とな
る背景画像としては、プリミティブ面により構成される
画像等を用いることができる。
Further, as the background image to be subjected to the .alpha. Combining process using the .alpha. Value, an image composed of primitive surfaces or the like can be used.

【0021】また本発明に係る画像生成システム、プロ
グラム及び情報記憶媒体は、伸長色データと変換により
得られたα値とに基づいて、α合成処理が行われること
を特徴とする。
Further, the image generation system, the program and the information storage medium according to the present invention are characterized in that the α synthesis processing is performed based on the expanded color data and the α value obtained by the conversion.

【0022】このようにすれば、色データとして、伸長
色データをそのまま使用できるようになるため、例えば
色数などが多い高品質な画像を生成できるようになる。
With this configuration, the expanded color data can be used as it is as the color data, so that a high-quality image having a large number of colors can be generated.

【0023】また本発明に係る画像生成システム、プロ
グラム及び情報記憶媒体は、色データとα値とを対応づ
けるルックアップテーブルに基づいて、伸長色データが
α値に変換されることを特徴とする。
Further, the image generation system, the program and the information storage medium according to the present invention are characterized in that the expanded color data is converted into an α value based on a look-up table which associates the color data with the α value. .

【0024】このようにすれば、処理負荷の少ない簡素
な処理で伸長色データをα値に変換できるようになる。
In this way, the expanded color data can be converted to an α value by simple processing with a small processing load.

【0025】なお、この場合のルックアップテーブル
は、1つでもよいし、複数でもよい。そして、複数のル
ックアップテーブルを用いる場合には、複数段階の変換
処理で、伸長色データをα値に変換すればよい。
In this case, the number of lookup tables may be one or more. When a plurality of look-up tables are used, the expanded color data may be converted to α values by a plurality of stages of conversion processing.

【0026】また本発明に係る画像生成システム、プロ
グラム及び情報記憶媒体は、色データとインデックス番
号とを対応づける第1のルックアップテーブルに基づい
て、伸長色データがインデックス番号に変換され、イン
デックス番号とα値とを対応づける第2のルックアップ
テーブルを用いたインデックスカラーテクスチャマッピ
ングにより、インデックス番号がα値に変換されること
を特徴とする。
In the image generation system, the program and the information storage medium according to the present invention, the expanded color data is converted into an index number based on a first look-up table for associating the color data with the index number. The index number is converted into the α value by the index color texture mapping using the second look-up table that associates the α value with the α value.

【0027】このようにすれば、インデックスカラー・
テクスチャマッピングを有効利用して、伸長色データを
α値に変換できるようになり、高速な変換処理を実現で
きる。
By doing so, the index color
Efficient use of texture mapping makes it possible to convert the expanded color data into an α value, thereby realizing high-speed conversion processing.

【0028】また本発明に係る画像生成システム、プロ
グラム及び情報記憶媒体は、前記第2のルックアップテ
ーブルが、インデックス番号と色データ及びα値とを対
応づけるルックアップテーブルであり、前記第2のルッ
クアップテーブルを用いたインデックスカラーテクスチ
ャマッピングにより、インデックス番号が色データ及び
α値に変換され、変換により得られた色データ及びα値
に基づいて、α合成処理が行われることを特徴とする。
In the image generation system, the program and the information storage medium according to the present invention, the second lookup table is a lookup table that associates an index number with color data and an α value. The index number is converted into color data and α value by index color texture mapping using a look-up table, and α synthesis processing is performed based on the color data and α value obtained by the conversion.

【0029】このようにすれば、インデックスカラー・
テクスチャマッピングを有効利用して、伸長色データを
α値に変換できるようになり、高速な変換処理を実現で
きる。
In this manner, the index color
Efficient use of texture mapping makes it possible to convert the expanded color data into an α value, thereby realizing high-speed conversion processing.

【0030】また、インデックス番号と色データ及びα
値との対応付けが異なる複数種類の第2のルックアップ
テーブルを用意し、これらの第2のルックアップテーブ
ルを切り替えて使用すれば、より多様な画像表現を実現
できるようになる。
Further, the index number, color data, and α
By preparing a plurality of types of second look-up tables having different associations with values and switching between the second look-up tables, more diverse image expressions can be realized.

【0031】また本発明に係る画像生成システム、プロ
グラム及び情報記憶媒体は、前記圧縮色データが、圧縮
ムービーテクスチャが含む圧縮テクスチャであり、前記
伸長色データが、前記圧縮テクスチャを伸長することで
得られる伸長テクスチャであることを特徴とする。
In the image generation system, the program and the information storage medium according to the present invention, the compressed color data is a compressed texture included in a compressed movie texture, and the expanded color data is obtained by expanding the compressed texture. Characterized in that the texture is an extended texture.

【0032】この場合に、第1のオブジェクトに対して
は、第Kの圧縮テクスチャを伸張することにより得られ
る第Kの伸張テクスチャから順にテクスチャがマッピン
グされ、第2のオブジェクトに対しては、第Lの圧縮テ
クスチャを伸張することにより得られる第Lの伸張テク
スチャから順にテクスチャがマッピングされるランダム
再生のムービーテクスチャマッピングを行ってもよい。
In this case, for the first object, the textures are mapped in order from the K-th expanded texture obtained by expanding the K-th compressed texture, and for the second object, the texture is mapped to the first object. Random playback movie texture mapping in which textures are mapped in order from the L-th decompressed texture obtained by decompressing the L compressed texture may be performed.

【0033】或いは、第Iの伸張テクスチャの次に第I
+J(J≧2)の伸張テクスチャがマッピングされるよ
うに、第1〜第Nの伸張テクスチャが、間引きされなが
らオブジェクトに順次マッピングされる間引き再生のム
ービーテクスチャマッピングを行ってもよい。
Alternatively, the I-th stretched texture is followed by the I-th stretch texture
The thinning-out movie texture mapping in which the first to Nth expanded textures are sequentially mapped to the objects while being thinned out may be performed such that the expanded texture of + J (J ≧ 2) is mapped.

【0034】そして、ランダム再生のテクスチャマッピ
ングを行う場合には、第1、第2のオブジェクトを互い
にオーバラップして配置してもよい。より具体的には、
第1のオブジェクトにマッピングされるテクスチャの非
透明部分と第2のオブジェクトにマッピングされるテク
スチャの非透明部分とが全ての再生フレームにおいてオ
ーバラップするように、第1、第2のオブジェクトを配
置してもよい。
When performing texture mapping for random reproduction, the first and second objects may be arranged so as to overlap each other. More specifically,
The first and second objects are arranged such that the opaque portion of the texture mapped to the first object and the opaque portion of the texture mapped to the second object overlap in all playback frames. You may.

【0035】[0035]

【発明の実施の形態】以下、本実施形態について図面を
用いて説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0036】なお、以下に説明する本実施形態は、特許
請求の範囲に記載された本発明の内容を何ら限定するも
のではない。また本実施形態で説明される構成の全てが
本発明の解決手段として必須であるとは限らない。
The present embodiment described below does not limit the content of the present invention described in the claims. Also, not all of the configurations described in the present embodiment are necessarily indispensable as means for solving the present invention.

【0037】1.構成 図1に、本実施形態の画像生成システム(ゲームシステ
ム)の機能ブロック図の一例を示す。なお同図において
本実施形態は、少なくとも処理部100を含めばよく
(或いは処理部100と記憶部170を含めばよく)、
それ以外のブロックについては任意の構成要素とするこ
とができる。
1. Configuration FIG. 1 shows an example of a functional block diagram of an image generation system (game system) of the present embodiment. In this figure, in the present embodiment, at least the processing unit 100 may be included (or the processing unit 100 and the storage unit 170 may be included).
The other blocks can be optional components.

【0038】操作部160は、プレーヤが操作データを
入力するためのものであり、その機能は、レバー、ボタ
ン、マイク、或いは筺体などのハードウェアにより実現
できる。
The operation section 160 is for the player to input operation data, and its function can be realized by hardware such as a lever, a button, a microphone, or a housing.

【0039】記憶部170は、処理部100や通信部1
96などのワーク領域となるもので、その機能はRAM
などのハードウェアにより実現できる。
The storage unit 170 stores the processing unit 100 and the communication unit 1
A work area such as 96
It can be realized by hardware such as.

【0040】情報記憶媒体180(コンピュータにより
読み取り可能な媒体)は、プログラムやデータなどを格
納するものであり、その機能は、光ディスク(CD、D
VD)、光磁気ディスク(MO)、磁気ディスク、ハー
ドディスク、磁気テープ、或いはメモリ(ROM)など
のハードウェアにより実現できる。処理部100は、こ
の情報記憶媒体180に格納されるプログラム(デー
タ)に基づいて本発明(本実施形態)の種々の処理を行
う。即ち情報記憶媒体180には、本発明(本実施形
態)の手段(特に処理部100に含まれるブロック)を
コンピュータに実現(実行、機能)させるためのプログ
ラムが格納され、このプログラムは、例えば1又は複数
のモジュール(オブジェクト指向におけるオブジェクト
も含む)を含む。
The information storage medium 180 (computer-readable medium) stores programs and data, and functions as an optical disk (CD, D
VD), a magneto-optical disk (MO), a magnetic disk, a hard disk, a magnetic tape, or a hardware such as a memory (ROM). The processing unit 100 performs various processes of the present invention (the present embodiment) based on the program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores a program for causing a computer to realize (execute and function) the means (particularly, the blocks included in the processing unit 100) of the present invention (the present embodiment). Or a plurality of modules (including objects in the object orientation).

【0041】なお、情報記憶媒体180に格納される情
報の一部又は全部は、システムへの電源投入時等に記憶
部170に転送されることになる。また情報記憶媒体1
80には、本発明の処理を行うためのプログラム、画像
データ、音データ、表示物の形状データ、本発明の処理
を指示するための情報、或いはその指示に従って処理を
行うための情報などを含ませることができる。
A part or all of the information stored in the information storage medium 180 is transferred to the storage unit 170 when the power to the system is turned on. Information storage medium 1
80 includes a program for performing the processing of the present invention, image data, sound data, shape data of a display object, information for instructing the processing of the present invention, information for performing the processing according to the instruction, and the like. Can be made.

【0042】表示部190は、本実施形態により生成さ
れた画像を出力するものであり、その機能は、CRT、
LCD、或いはHMD(ヘッドマウントディスプレイ)
などのハードウェアにより実現できる。
The display unit 190 outputs an image generated according to the present embodiment.
LCD or HMD (Head Mount Display)
It can be realized by hardware such as.

【0043】音出力部192は、本実施形態により生成
された音を出力するものであり、その機能は、スピーカ
などのハードウェアにより実現できる。
The sound output section 192 outputs the sound generated according to the present embodiment, and its function can be realized by hardware such as a speaker.

【0044】携帯型情報記憶装置194は、プレーヤの
個人データやゲームのセーブデータなどが記憶されるも
のであり、この携帯型情報記憶装置194としては、メ
モリカードや携帯型ゲーム装置などを考えることができ
る。
The portable information storage device 194 stores personal data of a player, save data of a game, and the like. The portable information storage device 194 may be a memory card, a portable game device, or the like. Can be.

【0045】通信部196は、外部(例えばホスト装置
や他の画像生成システム)との間で通信を行うための各
種の制御を行うものであり、その機能は、各種プロセッ
サ、或いは通信用ASICなどのハードウェアや、プロ
グラムなどにより実現できる。
The communication unit 196 performs various controls for communicating with an external device (for example, a host device or another image generation system), and has a function of various processors or a communication ASIC. Hardware and programs.

【0046】なお本発明(本実施形態)の各手段を実現
(実行、機能)するためのプログラム(データ)は、ホ
スト装置(サーバー)が有する情報記憶媒体からネット
ワーク及び通信部196を介して情報記憶媒体180に
配信するようにしてもよい。このようなホスト装置(サ
ーバー)の情報記憶媒体の使用も本発明の範囲内に含ま
れる。
A program (data) for realizing (executing, functioning) each unit of the present invention (this embodiment) is transmitted from an information storage medium of a host device (server) via a network and a communication unit 196 via an information storage medium. You may make it distribute to the storage medium 180. Use of the information storage medium of such a host device (server) is also included in the scope of the present invention.

【0047】処理部100(プロセッサ)は、操作部1
60からの操作データやプログラムなどに基づいて、ゲ
ーム処理、画像生成処理、或いは音生成処理などの各種
の処理を行う。この場合、処理部100は、記憶部17
0内の主記憶部172をワーク領域として使用して、各
種の処理を行う。
The processing unit 100 (processor) includes the operation unit 1
Various processes such as a game process, an image generation process, and a sound generation process are performed based on the operation data from 60 or a program. In this case, the processing unit 100
Various processes are performed using the main storage unit 172 in 0 as a work area.

【0048】ここで、処理部100が行う処理として
は、コイン(代価)の受け付け処理、各種モードの設定
処理、ゲームの進行処理、選択画面の設定処理、オブジ
ェクト(1又は複数のプリミティブ)の位置や回転角度
(X、Y又はZ軸回り回転角度)を求める処理、オブジ
ェクトを動作させる処理(モーション処理)、視点の位
置(仮想カメラの位置)や視線角度(仮想カメラの回転
角度)を求める処理、マップオブジェクトなどのオブジ
ェクトをオブジェクト空間へ配置する処理、ヒットチェ
ック処理、ゲーム結果(成果、成績)を演算する処理、
複数のプレーヤが共通のゲーム空間でプレイするための
処理、或いはゲームオーバー処理などを考えることがで
きる。
Here, the processing performed by the processing unit 100 includes coin (price) reception processing, various mode setting processing, game progress processing, selection screen setting processing, and the position of an object (one or more primitives). For determining the angle and rotation angle (rotation angle around the X, Y or Z axis), processing for moving the object (motion processing), and processing for obtaining the viewpoint position (virtual camera position) and line-of-sight angle (virtual camera rotation angle) , Processing for arranging objects such as map objects in the object space, hit check processing, processing for calculating game results (results, results),
Processing for a plurality of players to play in a common game space, game over processing, or the like can be considered.

【0049】処理部100は、移動・動作演算部11
0、仮想カメラ制御部112、オブジェクト空間設定部
114、伸長部116、変換部118、画像生成部12
0、音生成部130を含む。なお、処理部100は、こ
れらの全ての機能ブロックを含む必要はない。
The processing section 100 includes a movement / motion calculation section 11
0, virtual camera control unit 112, object space setting unit 114, decompression unit 116, conversion unit 118, image generation unit 12
0, including the sound generation unit 130. Note that the processing unit 100 does not need to include all of these functional blocks.

【0050】ここで移動・動作演算部110は、キャラ
クタ、車などのオブジェクト(移動オブジェクト)の移
動情報(位置、回転角度)や動作情報(オブジェクトの
各パーツの位置、回転角度)を演算するものであり、例
えば、操作部160によりプレーヤが入力した操作デー
タやゲームプログラムなどに基づいて、オブジェクトを
移動させたり動作(モーション、アニメーション)させ
たりする処理を行う。
Here, the movement / motion calculation section 110 calculates movement information (position and rotation angle) and movement information (position and rotation angle of each part of the object) of an object (moving object) such as a character or a car. For example, based on operation data or a game program input by the player through the operation unit 160, a process of moving an object or performing an operation (motion or animation) is performed.

【0051】より具体的には、移動・動作演算部110
は、オブジェクトの位置や回転角度を例えば1フレーム
(1/60秒、1/30秒等)毎に変化させる。例えば
(k−1)フレームでのオブジェクトの位置、回転角度
をPk-1、θk-1とし、オブジェクトの1フレームでの位
置変化量(速度)、回転変化量(回転速度)を△P、△
θとする。するとkフレームでのオブジェクトの位置P
k、回転角度θkは例えば下式(1)、(2)のように求
められる。
More specifically, the movement / motion calculation unit 110
Changes the position and rotation angle of the object every frame (for example, 1/60 second, 1/30 second, etc.). For example, the position and rotation angle of the object in the (k-1) frame are Pk-1 and θk-1, and the position change amount (speed) and the rotation change amount (rotation speed) of the object in one frame are {P,}.
θ. Then, the position P of the object in the k frame
k and the rotation angle θk are obtained, for example, as in the following equations (1) and (2).

【0052】 Pk=Pk-1+△P (1) θk=θk-1+△θ (2)Pk = Pk−1 + ΔP (1) θk = θk−1 + Δθ (2)

【0053】仮想カメラ制御部112は、オブジェクト
空間内の所与(任意)の視点での画像を生成するための
仮想カメラを制御する処理を行う。即ち、仮想カメラの
位置(X、Y、Z)又は回転(X、Y、Z軸回りでの回
転)を制御する処理(視点位置や視線方向を制御する処
理)等を行う。
The virtual camera control unit 112 performs processing for controlling a virtual camera for generating an image at a given (arbitrary) viewpoint in the object space. That is, a process for controlling the position (X, Y, Z) or rotation (rotation about the X, Y, Z axes) of the virtual camera (a process for controlling the viewpoint position and the line of sight) is performed.

【0054】例えば、仮想カメラにより移動オブジェク
トを後方から撮影する場合には、移動オブジェクトの位
置又は回転の変化に仮想カメラが追従するように、仮想
カメラの位置又は回転(仮想カメラの方向)を制御する
ことが望ましい。この場合には、移動・動作演算部11
0で得られた移動オブジェクトの位置、方向又は速度な
どの情報に基づいて、仮想カメラを制御することにな
る。或いは、仮想カメラを、予め決められた移動経路で
移動させながら予め決められた角度で回転させるように
してもよい。この場合には、仮想カメラの位置(移動経
路)や回転角度を特定するための仮想カメラデータに基
づいて仮想カメラを制御することになる。
For example, when photographing a moving object from behind using a virtual camera, the position or rotation (direction of the virtual camera) of the virtual camera is controlled so that the virtual camera follows changes in the position or rotation of the moving object. It is desirable to do. In this case, the movement / motion calculation unit 11
The virtual camera is controlled based on the information such as the position, the direction, or the speed of the moving object obtained at 0. Alternatively, the virtual camera may be rotated at a predetermined angle while moving along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (moving route) and the rotation angle of the virtual camera.

【0055】オブジェクト空間設定部114は、マップ
などの各種オブジェクト(ポリゴン、自由曲面又はサブ
ディビジョンサーフェスなどのプリミティブで構成され
るオブジェクト)をオブジェクト空間内に設定するため
の処理を行う。より具体的には、ワールド座標系でのオ
ブジェクトの位置や回転角度(方向)を決定し、その位
置(X、Y、Z)にその回転角度(X、Y、Z軸回りで
の回転)でオブジェクトを配置する。
The object space setting section 114 performs processing for setting various objects such as maps (objects composed of primitives such as polygons, free-form surfaces, and subdivision surfaces) in the object space. More specifically, the position and rotation angle (direction) of the object in the world coordinate system are determined, and the position (X, Y, Z) is determined by the rotation angle (rotation about the X, Y, and Z axes). Arrange objects.

【0056】伸張部116(展開部、デコード部)は、
MPEG、JPEG等の圧縮方法で圧縮されたデータを
伸張(展開、デコード)する処理を行う。より具体的に
は、MPEGで圧縮された一連のIピクチャを伸張す
る。
The expansion unit 116 (expansion unit, decoding unit)
Processing for expanding (decompressing and decoding) data compressed by a compression method such as MPEG or JPEG is performed. More specifically, a series of I pictures compressed by MPEG are expanded.

【0057】例えば、データ圧縮は以下のようにして実
現できる。
For example, data compression can be realized as follows.

【0058】即ち、まずデータが複数のマクロブロック
に分割される。そして、分割された各ブロックに対し
て、DCT(離散コサイン変換。広義には、アダマール
変換、固有値変換等を含む直交変換)が施される。これ
により、データが周波数(空間周波数)分解される。次
に、DCTにより得られた各DCT係数(広義には直交
変換係数)が量子化される。そして、ハフマン符号化
(エントロピー符号化、可変長符号化)が行われ、これ
により圧縮データ(圧縮色データ)が得られる。
That is, first, data is divided into a plurality of macro blocks. Then, DCT (discrete cosine transform; in a broad sense, orthogonal transform including Hadamard transform, eigenvalue transform and the like) is performed on each of the divided blocks. Thus, the data is frequency-decomposed (spatial frequency). Next, each DCT coefficient (orthogonal transform coefficient in a broad sense) obtained by DCT is quantized. Then, Huffman coding (entropy coding, variable length coding) is performed, thereby obtaining compressed data (compressed color data).

【0059】一方、データ伸張は以下のようにして実現
できる。
On the other hand, data expansion can be realized as follows.

【0060】即ち、まず圧縮データが情報記憶媒体18
0から読み込まれる。或いは、圧縮データがネットワー
ク(伝送ライン、通信回線)、通信部196を介して外
部から読み込まれる。伸張部116は、この読み込まれ
た圧縮データに対してハフマン復号化(エントロピー復
号化、可変長復号化)を行う。次に、伸張部116は、
ハフマン復号化後のデータに対して逆量子化を行う。そ
して、逆DCTを行い、これにより伸張データ(伸長色
データ)が得られる。
That is, first, the compressed data is stored in the information storage medium 18.
Read from 0. Alternatively, the compressed data is read from the outside via a network (transmission line, communication line) and the communication unit 196. The expansion unit 116 performs Huffman decoding (entropy decoding, variable length decoding) on the read compressed data. Next, the extension unit 116
Inverse quantization is performed on the data after Huffman decoding. Then, an inverse DCT is performed, whereby expanded data (extended color data) is obtained.

【0061】なおMPEG(MPEG2、MPEG4
等)の場合に、例えば時間的相関関係を利用した予測符
号化、予測復号化(動き補償フレーム間予測)を行って
もよい。
Note that MPEG (MPEG2, MPEG4
In such a case, for example, predictive encoding and predictive decoding (motion-compensated inter-frame prediction) using temporal correlation may be performed.

【0062】変換部118は、伸長部116で得られた
伸長色データ(伸長された色データ)を、色データ(例
えばRGB)とα値とを対応づける変換規則にしたがっ
て、α値に変換するための処理を行う。
The conversion section 118 converts the decompressed color data (decompressed color data) obtained by the decompression section 116 into an α value according to a conversion rule that associates the color data (eg, RGB) with the α value. Process for

【0063】この場合の変換処理は、ルックアップテー
ブル(LUT)を用いて行ってもよいし、所与の関数
(演算式)を用いて行ってもよい。例えばルックアップ
テーブルを用いる場合には、色データとα値とを対応づ
けるルックアップテーブルを用いて変換したり、色デー
タとインデックス番号とを対応づける第1のルックアッ
プテーブルと、インデックス番号とα値(或いはα値及
び色データ)とを対応づける第2のルックアップテーブ
ルを用いて変換することができる。
The conversion process in this case may be performed using a look-up table (LUT), or may be performed using a given function (arithmetic expression). For example, when a look-up table is used, conversion is performed using a look-up table that associates color data with an α value, a first look-up table that associates color data with an index number, an index number and an α value. The conversion can be performed using a second look-up table that associates values (or α values and color data).

【0064】なお、変換により得られたα値は、テクス
チャ(ムービーテクスチャ)のテクセルに設定されるα
値として用いることができる。
The α value obtained by the conversion is the α value set in the texel of the texture (movie texture).
Can be used as a value.

【0065】また、α値(A値)は、各ピクセル(テク
セル、ドット)に関連づけて記憶できる情報であり、例
えば色情報以外のプラスアルファの情報である。α値
は、マスク情報、半透明度(透明度、不透明度と等
価)、バンプ情報などとして使用できる。
The α value (A value) is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

【0066】画像生成部120は、処理部100で行わ
れる種々の処理の結果に基づいて画像処理を行い、ゲー
ム画像を生成し、表示部190に出力する。例えば、い
わゆる3次元のゲーム画像を生成する場合には、まず、
座標変換、クリッピング処理、透視変換、或いは光源計
算等のジオメトリ処理が行われ、その処理結果に基づい
て、描画データ(プリミティブ面の構成点(頂点)に付
与される位置座標、テクスチャ座標、色(輝度)デー
タ、法線ベクトル或いはα値等)が作成される。そし
て、この描画データ(プリミティブ面データ)に基づい
て、ジオメトリ処理後のオブジェクト(1又は複数プリ
ミティブ面)の画像が、描画バッファ174(フレーム
バッファ、ワークバッファ等のピクセル単位で画像情報
を記憶できるバッファ)に描画される。これにより、オ
ブジェクト空間内において仮想カメラ(所与の視点)か
ら見える画像が生成されるようになる。
The image generation unit 120 performs image processing based on the results of various processes performed by the processing unit 100, generates a game image, and outputs the game image to the display unit 190. For example, when generating a so-called three-dimensional game image, first,
Geometry processing such as coordinate conversion, clipping processing, perspective conversion, or light source calculation is performed. Based on the processing results, drawing data (position coordinates, texture coordinates, colors ( Luminance) data, a normal vector or an α value) is created. Then, based on the drawing data (primitive surface data), an image of the object (one or more primitive surfaces) after the geometry processing is stored in a drawing buffer 174 (a buffer capable of storing image information in pixel units such as a frame buffer and a work buffer). ) Is drawn. As a result, an image that can be viewed from the virtual camera (given viewpoint) in the object space is generated.

【0067】音生成部130は、処理部100で行われ
る種々の処理の結果に基づいて音処理を行い、BGM、
効果音、又は音声などのゲーム音を生成し、音出力部1
92に出力する。
The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, and performs BGM,
A game sound such as a sound effect or a sound is generated, and a sound output unit 1
92.

【0068】画像生成部120は、テクスチャマッピン
グ部122、α合成部124を含む。
The image generating section 120 includes a texture mapping section 122 and an α synthesizing section 124.

【0069】ここでテクスチャマッピング部122は、
テクスチャ記憶部176に記憶されるテクスチャをオブ
ジェクトにマッピングするための処理を行う。
Here, the texture mapping unit 122
A process for mapping the texture stored in the texture storage unit 176 to the object is performed.

【0070】そして本実施形態では、テクスチャ記憶部
176が、一連の第1〜第Nの圧縮テクスチャ(広義に
は第1〜第Nの圧縮フレーム画像。以下の説明でも同
様)を含む圧縮ムービーテクスチャ(広義には圧縮ムー
ビー。以下の説明でも同様)のデータを記憶する。
In the present embodiment, the texture storage unit 176 stores a compressed movie texture including a series of first to Nth compressed textures (in a broad sense, first to Nth compressed frame images. The same applies to the following description). (Compressed movie in a broad sense; the same applies to the following description).

【0071】そして、前述の伸張部116が、この圧縮
ムービーテクスチャのデータに基づいて伸張処理を行
い、テクスチャマッピング部122が、一連の第1〜第
Nの圧縮テクスチャを伸張することで得られる一連の第
1〜第Nの伸張テクスチャ(広義には第1〜第Nの伸張
フレーム画像。以下の説明でも同様)をオブジェクトに
順次マッピングするための処理を行う。
The decompression unit 116 performs decompression processing based on the compressed movie texture data, and the texture mapping unit 122 decompresses a series of first to Nth compressed textures. For the first to N-th expanded textures (first to N-th expanded frame images in a broad sense; the same applies to the following description).

【0072】この時、本実施形態では、テクスチャ記憶
部176に格納される圧縮ムービーテクスチャのデータ
に、第1〜第Nの圧縮テクスチャの格納場所(アドレス
等)を指定するための指定データを含ませる。そして、
この指定データを用いて、圧縮テクスチャの再生開始フ
レームをランダムに設定するランダム再生や、圧縮テク
スチャの間引き再生等を実現する。
At this time, in the present embodiment, the data of the compressed movie texture stored in the texture storage unit 176 includes designation data for designating storage locations (addresses and the like) of the first to Nth compressed textures. Let And
By using the designated data, random reproduction for randomly setting the reproduction start frame of the compressed texture, thinning reproduction of the compressed texture, and the like are realized.

【0073】また本実施形態では、テクスチャマッピン
グ部122が、LUT記憶部178に記憶されるインデ
ックスカラー・テクスチャマッピング用のLUT(ルッ
クアップテーブル)を用いたテクスチャマッピングを行
うことができるようになっている。
In the present embodiment, the texture mapping unit 122 can perform texture mapping using an index color / texture mapping LUT (lookup table) stored in the LUT storage unit 178. I have.

【0074】α合成部124は、α値(A値)に基づく
α合成処理(αブレンディング、α加算又はα減算等)
を行う。例えばα合成がαブレンディングである場合に
は下式のような合成処理が行われる。
The α synthesizing section 124 performs an α synthesizing process (α blending, α addition or α subtraction, etc.) based on the α value (A value).
I do. For example, when α synthesis is α blending, a synthesis process as shown in the following equation is performed.

【0075】 RQ=(1−α)×R1+α×R2 (3) GQ=(1−α)×G1+α×G2 (4) BQ=(1−α)×B1+α×B2 (5)R Q = (1−α) × R 1 + α × R 2 (3) G Q = (1−α) × G 1 + α × G 2 (4) B Q = (1−α) × B 1 + Α × B 2 (5)

【0076】ここで、R1、G1、B1は、描画バッファ
174に既に描画されている画像(背景画像)の色(輝
度)のR、G、B成分であり、R2、G2、B2は、描画
バッファに描画するオブジェクト(プリミティブ)の色
のR、G、B成分である。また、RQ、GQ、BQは、α
ブレンディングにより得られる画像の色のR、G、B成
分である。
Here, R 1 , G 1 , and B 1 are the R, G, and B components of the color (luminance) of the image (background image) already drawn in the drawing buffer 174, and R 2 , G 2 , B 2 are the R, G, B components of the color of the object (primitive) to be drawn in the drawing buffer. R Q , G Q , and B Q are α
These are the R, G, and B components of the color of the image obtained by blending.

【0077】そして本実施形態では、変換部118によ
り得られたα値(αプレーン)に基づいて、α合成部1
24がα合成処理を行う。より具体的には、例えば、伸
長色データ(或いは伸長色データに基づき得られた色デ
ータ)と背景の色データとを、その伸長色データを変換
することで得られたα値に基づいてピクセル単位でα合
成する。
In this embodiment, based on the α value (α plane) obtained by the conversion unit 118, the α synthesis unit 1
24 performs an α synthesis process. More specifically, for example, the expanded color data (or the color data obtained based on the expanded color data) and the background color data are converted into pixels based on the α value obtained by converting the expanded color data. Α is synthesized in units.

【0078】なお、本実施形態の画像生成システムは、
1人のプレーヤのみがプレイできるシングルプレーヤモ
ード専用のシステムにしてもよいし、このようなシング
ルプレーヤモードのみならず、複数のプレーヤがプレイ
できるマルチプレーヤモードも備えるシステムにしても
よい。
Note that the image generation system of the present embodiment
A system dedicated to the single player mode in which only one player can play, or a system including not only such a single player mode but also a multiplayer mode in which a plurality of players can play, may be used.

【0079】また複数のプレーヤがプレイする場合に、
これらの複数のプレーヤに提供するゲーム画像やゲーム
音を、1つの端末を用いて生成してもよいし、ネットワ
ーク(伝送ライン、通信回線)などで接続された複数の
端末(ゲーム機、携帯電話)を用いて生成してもよい。
When a plurality of players play,
The game image and the game sound to be provided to the plurality of players may be generated using one terminal, or may be generated using a plurality of terminals (game machine, mobile phone, etc.) connected via a network (transmission line, communication line) or the like. ) May be generated.

【0080】2.本実施形態の特徴 次に本実施形態の特徴について図面を用いて説明する。
なお、以下では、炎の表現に本実施形態を適用した場合
を主に例にとり説明するが、本実施形態は、炎以外の他
の画像表現(水面、草原、樹木、煙又は雲等)にも広く
適用できる。
2. Features of the present embodiment Next, features of the present embodiment will be described with reference to the drawings.
In the following, a case where the present embodiment is applied to the expression of a flame will be mainly described as an example. However, the present embodiment is applicable to image expressions other than the flame (water surface, grassland, trees, smoke, clouds, etc.). Is also widely applicable.

【0081】2.1 ムービーテクスチャマッピング 本実施形態では波や水面のリアルな表現のために、ムー
ビーテクスチャマッピングの手法を採用している。
2.1 Movie Texture Mapping In this embodiment, a movie texture mapping method is adopted for realistic representation of waves and water surface.

【0082】このムービーテクスチャマッピングでは図
2に示すように、炎や水面の絵柄を表す一連の圧縮テク
スチャCTEX1〜N(圧縮フレーム画像)を用意す
る。そして、これらのCTEX1〜Nを一連の伸張テク
スチャETEX1〜N(伸張フレーム画像)に伸張し、
炎や水面のオブジェクトOBに順次マッピングする(巡
回的にマッピングする)。
In this movie texture mapping, a series of compressed textures CTEX1 to CTEXN (compressed frame images) representing a picture of a flame or a water surface are prepared as shown in FIG. Then, these CTEX1 to CTEX are expanded into a series of expanded textures ETEX1 to ETEX1 (expanded frame images),
The objects are sequentially mapped to the object OB on the flame or the water surface (circular mapping).

【0083】このムービーテクスチャマッピングによれ
ば、オブジェクトにマッピングされるテクスチャが時間
経過(フレーム更新)に伴い順次変化するようになるた
め、静的なテクスチャをマッピングする場合に比べて、
より変化に富んだ画像を生成できる。
According to this movie texture mapping, the texture mapped to the object changes sequentially with the passage of time (frame update), so that compared to the case of mapping a static texture,
A more varied image can be generated.

【0084】また、このムービーテクスチャマッピング
によれば、CGツールにより長時間をかけて制作された
高品質なCG映像や、現実世界においてカメラにより撮
った実写映像を、テクスチャとして使用できるため、よ
りリアルで写実的な表現が可能になる。
According to this movie texture mapping, a high-quality CG image produced over a long period of time by a CG tool and a real image taken by a camera in the real world can be used as a texture, so that a more realistic image can be obtained. Enables a realistic expression.

【0085】更に、圧縮テクスチャCTEX1〜Nは圧
縮された状態で情報記憶媒体に記憶されたりネットワー
クを介して転送されることになるため、情報記憶媒体の
使用記憶容量やネットワークの通信容量の節約を図るこ
とができる。
Further, since the compressed textures CTEX1 to CTEXN are stored in a compressed state on the information storage medium or transferred via the network, the used storage capacity of the information storage medium and the communication capacity of the network can be saved. Can be planned.

【0086】なお本実施形態では、再生開始フレームを
ランダム(任意)に設定できるムービーテクスチャマッ
ピング手法を採用している。
In the present embodiment, a movie texture mapping method capable of setting a reproduction start frame at random (arbitrary) is adopted.

【0087】より具体的には図3に示すように、オブジ
ェクトOB1に対してはフレームKを再生開始フレーム
に設定してムービーテクスチャマッピングを行う一方
で、オブジェクトOB2に対してはフレームKとは異な
るフレームLを再生開始フレームに設定してムービーテ
クスチャマッピングを行う。
More specifically, as shown in FIG. 3, for the object OB1, the frame K is set as the reproduction start frame and the movie texture mapping is performed, while for the object OB2, the frame K is different from the frame K. Movie texture mapping is performed with the frame L set as the playback start frame.

【0088】このようにすることで、同じ圧縮テクスチ
ャCTEX1〜Nを用いながらも、オブジェクトOB
1、OB2の画像の見え方が異なって見えるようにな
り、少ないデータ量で画像表現のバラエティ度を増すこ
とができる。
In this way, the object OB can be used while using the same compressed textures CTEX1 to CTEXN.
1, OB2 images can be seen differently, and the variety of image representation can be increased with a small amount of data.

【0089】図4(A)、(B)、(C)に、本実施形
態で使用される各フレームのムービーテクスチャの画像
例を示す。これらのムービーテクスチャは炎を表現する
テクスチャであり、これらのムービーテクスチャを連続
して再生することで、炎がゆらゆらと揺れながら燃えて
いる様子をリアルに表現できる。
FIGS. 4A, 4B, and 4C show examples of movie texture images of each frame used in the present embodiment. These movie textures are textures expressing a flame, and by continuously reproducing these movie textures, it is possible to realistically express a state in which the flame is swaying and swaying and burning.

【0090】また本実施形態では図5(A)に示すよう
に、図4(A)、(B)、(C)のムービーテクスチャ
がマッピングされるオブジェクトOB1、OB2、OB
3(少なくとも2個以上のオブジェクト)を互いにオー
バラップさせて配置している。そして、これらのオブジ
ェクトOB1、OB2、OB3にマッピングされるムー
ビーテクスチャの再生開始フレームをオブジェクト毎に
異ならせている。
In this embodiment, as shown in FIG. 5A, objects OB1, OB2, and OB to which the movie textures of FIGS. 4A, 4B, and 4C are mapped.
3 (at least two or more objects) are arranged so as to overlap each other. Then, the reproduction start frame of the movie texture mapped to these objects OB1, OB2, and OB3 is different for each object.

【0091】即ち、オブジェクトOB1に対してはフレ
ームKを再生開始フレームとしてムービーテクスチャマ
ッピングを行い、OB1の隣のオブジェクトOB2に対
してはフレームLを再生開始フレームとしてムービーテ
クスチャマッピングを行う。また、OB2の隣のオブジ
ェクトOB3に対してはフレームMを再生開始フレーム
としてムービーテクスチャマッピングを行う。
That is, movie texture mapping is performed on the object OB1 using the frame K as a reproduction start frame, and movie texture mapping is performed on the object OB2 adjacent to OB1 with the frame L as a reproduction start frame. For the object OB3 adjacent to OB2, movie texture mapping is performed using the frame M as a reproduction start frame.

【0092】このようにすることで、広い範囲を占める
炎(図4(A)、(B)、(C)の約3倍の範囲の炎)
を表現でき、生成される画像のバラエティ度を増すこと
ができる。しかも、オブジェクトOB1、OB2、OB
3間では共通の圧縮ムービーテクスチャが用いられるた
め、テクスチャの使用記憶容量を節約しながらリアルで
多様な画像を生成できるようになる。
By doing so, the flame occupying a wide range (the flame having a range approximately three times that of FIGS. 4A, 4B, and 4C).
Can be expressed, and the variety of generated images can be increased. Moreover, the objects OB1, OB2, OB
Since a common compressed movie texture is used among the three, real and diverse images can be generated while saving the storage capacity of the texture.

【0093】また、本実施形態では、図5(B)に示す
ように、オブジェクトOB1にマッピングされるテクス
チャの非透明部分(半透明部分又は不透明部分)とオブ
ジェクトOB2にマッピングされるテクスチャの非透明
部分とが、全ての再生フレーム(第1〜第Nのフレー
ム)においてオーバラップするようにオブジェクトOB
1、OB2を配置している。同様に、オブジェクトOB
2にマッピングされるテクスチャの非透明部分とオブジ
ェクトOB3にマッピングされるテクスチャの非透明部
分とが、全ての再生フレームにおいてオーバラップする
ようにオブジェクトOB2、OB3を配置している。
In this embodiment, as shown in FIG. 5B, the non-transparent part (semi-transparent part or opaque part) of the texture mapped to the object OB1 and the non-transparent part of the texture mapped to the object OB2 Object OB so that the portion overlaps in all the reproduced frames (first to Nth frames).
1, OB2 is arranged. Similarly, object OB
The objects OB2 and OB3 are arranged so that the non-transparent part of the texture mapped to No. 2 and the non-transparent part of the texture mapped to the object OB3 overlap in all the reproduction frames.

【0094】このようにすれば、ムービーテクスチャマ
ッピングによりムービーテクスチャを順次再生していっ
た場合にも、オブジェクトOB1に描かれた炎(不透明
部分)とOB2に描かれた炎の間や、オブジェクトOB
2に描かれた炎とOB3に描かれた炎の間に隙間が生じ
ないことが保証されるようになる。従って、これらの小
さな炎の集合が1つの大きな炎であるかのような錯覚を
プレーヤに与えることができ、広い範囲を占める大きな
炎を少ないデータ量で表現できるようになる。
In this way, even when the movie textures are sequentially reproduced by the movie texture mapping, the space between the flame (opaque portion) drawn on the object OB1 and the flame drawn on the OB2, the object OB2
This ensures that there is no gap between the flame depicted in FIG. 2 and the flame depicted in OB3. Therefore, it is possible to give the player an illusion that a set of these small flames is one large flame, and it is possible to represent a large flame occupying a wide range with a small amount of data.

【0095】更に本実施形態では、図5(C)に示すよ
うに、オブジェクトOB1、OB2、OB3の再生開始
フレームK、L、Mをランダムに設定するようにしてい
る。
Further, in this embodiment, as shown in FIG. 5C, the reproduction start frames K, L, M of the objects OB1, OB2, OB3 are set at random.

【0096】このようにすれば、K、L、Mの設定のさ
れ方によって、異なった見え方をする炎を表現できるよ
うになり、画像表現のバラエティ度を更に増すことがで
きる。即ち、例えばK=10、L=18、M=30と設
定された場合の炎の見え方と、K=5、L=20、M=
35と設定された場合の炎の見え方は、全く異なったも
のとなる。従って、K、L、Mの設定の仕方で、ほとん
ど無限大に近い種類の炎を表現できるようになる。
In this way, it is possible to express a flame having a different appearance depending on how K, L, and M are set, and it is possible to further increase the variety of image expression. That is, for example, the appearance of the flame when K = 10, L = 18, and M = 30 are set, and K = 5, L = 20, M =
The appearance of the flame when it is set to 35 is completely different. Therefore, by setting K, L, and M, it is possible to express almost infinite types of flames.

【0097】この場合、K、L、Mを、イベントの発生
及び時間経過の少なくとも一方に応じて設定するように
すれば、更に多様な炎の表現を実現できる。
In this case, if K, L, and M are set in accordance with at least one of the occurrence of an event and the passage of time, more various expressions of flame can be realized.

【0098】なお、本実施形態では、ランダム再生のム
ービーテクスチャマッピングや間引き再生のムービーテ
クスチャマッピングを実現するために、図6に示すよう
なデータ構造の圧縮ムービーテクスチャ・データを利用
している。
In this embodiment, compressed movie texture data having a data structure as shown in FIG. 6 is used in order to realize movie texture mapping for random playback and movie texture mapping for thinned-out playback.

【0099】この圧縮ムービーテクスチャ・データは、
ヘッダ・ブロック(圧縮ムービーテクスチャ・データの
制御データ)、フレームデータアドレス・ブロック(圧
縮テクスチャの格納場所を指定するためのデータ)、フ
レームデータ・ブロック(圧縮テクスチャのデータ。M
PEGのIピクチャのデータ)を有する。
This compressed movie texture data is
Header block (control data of compressed movie texture data), frame data address block (data for specifying the storage location of compressed texture), frame data block (data of compressed texture M.
PEG I picture data).

【0100】ここで、ヘッダ・ブロックは、圧縮ムービ
ーテクスチャ・データのデータサイズや、フレーム幅
(テクスチャの幅方向のテクセル数)や、フレーム高さ
(テクスチャの高さ方向のテクセル数)や、ムービーテ
クスチャのフレーム数などのデータを含む。
Here, the header block includes the data size of the compressed movie texture data, the frame width (the number of texels in the width direction of the texture), the frame height (the number of texels in the height direction of the texture), and the movie. Includes data such as the number of texture frames.

【0101】また、フレームデータアドレス・ブロック
は、フレームデータ・ブロックでの各圧縮テクスチャC
TEX1〜N(フレーム1〜N)のアドレス(格納場所
を指定するためのデータ。先頭アドレス)や、各CTE
X1〜Nのデータサイズや、フレームデータ・ブロック
でのエンドコードのアドレスを含む。
The frame data address block is composed of each compressed texture C in the frame data block.
TEX1 to TEX (frames 1 to N) addresses (data for specifying storage locations; leading addresses) and each CTE
It includes the data size of X1 to N and the address of the end code in the frame data block.

【0102】また、フレームデータ・ブロックは、CT
EX1〜N(フレーム1〜N)のデータ(画像データ)
や、各フレームの区切りコードや、フレームデータ・ブ
ロックのエンドコードを含む。
Further, the frame data block is CT
EX1 to N (frames 1 to N) data (image data)
And a delimiter code of each frame and an end code of a frame data block.

【0103】本実施形態では、圧縮テクスチャCTEX
1〜N(フレーム1〜N)のデータから、図6に示すよ
うなデータ構造の圧縮ムービーテクスチャ・データを作
成し、この圧縮ムービーテクスチャ・データを利用する
ことで、前述したランダム再生のムービーテクスチャマ
ッピングや間引き再生のムービーテクスチャマッピング
を実現している。
In the present embodiment, the compressed texture CTEX
The compressed movie texture data having a data structure as shown in FIG. 6 is created from the data of frames 1 to N (frames 1 to N), and by using the compressed movie texture data, the movie texture of the random reproduction described above is used. Movie texture mapping for mapping and thinning playback is realized.

【0104】例えば、ランダム再生のムービーテクスチ
ャマッピングを行う場合には、再生すべき圧縮テクスチ
ャのアドレス(格納場所)をフレームデータアドレス・
ブロックから取得し、そのアドレスにある圧縮テクスチ
ャを伸張部で伸張して、オブジェクトにマッピングすれ
ばよい。この時、例えば、隣り合うオブジェクト間で
は、異なる再生フレームを指定して伸張テクスチャをマ
ッピングするようにする。
For example, when performing random playback movie texture mapping, the address (storage location) of the compressed texture to be played back is determined by the frame data address
What is necessary is just to acquire from the block, decompress the compressed texture at the address by the decompression unit, and map it to the object. At this time, for example, different reproduction frames are designated between adjacent objects to map the expanded texture.

【0105】また、間引き再生のムービーテクスチャマ
ッピングを行う場合には、フレーム番号IをJ(≧2)
ずつインクリメントしながら、再生すべき圧縮テクスチ
ャのアドレスをフレームデータアドレス・ブロックから
取得し、そのアドレスにある圧縮テクスチャを伸張部で
伸張して、オブジェクトにマッピングすればよい。
When performing movie texture mapping for thinning-out reproduction, the frame number I is set to J (≧ 2).
The address of the compressed texture to be reproduced may be acquired from the frame data address block while incrementing by one, and the compressed texture at the address may be expanded by the expansion unit and mapped to the object.

【0106】以上のように図6のデータ構造の圧縮ムー
ビーテクスチャ・データを用いれば、これまではひと繋
がりのデータとしてしか取り扱うことができなかった圧
縮ムービーテクスチャ・データを、フレーム単位で管理
できるようになる。従って、任意のフレームの圧縮テク
スチャ(フレーム画像)を伸張して利用できるようにな
り、圧縮テクスチャのランダム再生や間引き再生を簡素
な処理で実現できるようになる。
As described above, if the compressed movie texture data having the data structure shown in FIG. 6 is used, the compressed movie texture data which could only be handled as a single piece of data can be managed in frame units. become. Therefore, a compressed texture (frame image) of an arbitrary frame can be expanded and used, and random reproduction or thinning reproduction of the compressed texture can be realized by simple processing.

【0107】なお、図6のデータ構造の圧縮ムービーテ
クスチャ・データは、ゲームプログラムの開発時に予め
作成しておき情報記憶媒体に記録しておいてもよいし、
ゲーム開始時やゲームステージ開始時にリアルタイムに
作成してもよい。
The compressed movie texture data having the data structure shown in FIG. 6 may be created in advance when a game program is developed and recorded on an information storage medium.
It may be created in real time at the time of starting a game or a game stage.

【0108】2.2 α値の生成 さて、以上のように説明したムービーテクスチャマッピ
ングによれば、テクスチャを圧縮して記憶しておけるた
め、少ないデータ量で高品質な画像を生成できる。
2.2 Generation of α Value According to the movie texture mapping described above, a texture can be compressed and stored, so that a high-quality image can be generated with a small amount of data.

【0109】しかしながら、このムービーテクスチャマ
ッピングではテクスチャがMPEG(MPEG2)など
の圧縮手法で圧縮され、このMPEGにおいては、圧縮
テクスチャがYCbCr形式で保持される。従って、圧
縮対象となる元画像データがRGBα形式であっても、
α値を圧縮データとして保持できず、α値を用いたα合
成処理を利用できないという課題がある。
However, in this movie texture mapping, the texture is compressed by a compression method such as MPEG (MPEG2), and in this MPEG, the compressed texture is held in the YCbCr format. Therefore, even if the original image data to be compressed is in RGBα format,
There is a problem in that the α value cannot be held as compressed data, and the α combining process using the α value cannot be used.

【0110】そこで本実施形態では、以下に説明するよ
うな手法を採用している。
Therefore, in the present embodiment, the following method is employed.

【0111】即ち本実施形態では図7(A)に示すよう
に、圧縮色データ(圧縮テクスチャ)を伸長して、伸長
色データ(伸長テクスチャ)を得る。この場合に、この
伸長処理は、画像生成システムが有しているハードウェ
アの伸長部(デコーダ)などを利用して実現できる。
That is, in this embodiment, as shown in FIG. 7A, the compressed color data (compressed texture) is expanded to obtain expanded color data (extended texture). In this case, the decompression process can be realized by using a decompression unit (decoder) of hardware included in the image generation system.

【0112】そして本実施形態では図7(A)に示すよ
うに、得られた伸長色データ(伸長された色データ)
を、色データとα値とを対応づけた所与の変換規則で変
換し、伸長色データに対応するα値を得る。そして、得
られたα値と伸長色データ(或いは伸長色データに基づ
き得られた色データ)とによりα合成処理を行い、画像
を生成する。
In this embodiment, as shown in FIG. 7A, the obtained expanded color data (expanded color data)
Is converted by a given conversion rule that associates color data with an α value to obtain an α value corresponding to the expanded color data. Then, α synthesis processing is performed using the obtained α value and the expanded color data (or color data obtained based on the expanded color data) to generate an image.

【0113】より具体的には図7(B)に示すように、
伸長色データ(或いは伸長色データに基づき得られた色
データ)がRGBプレーンに設定されたテクスチャ(伸
長テクスチャ)のαプレーンに対して、変換により得ら
れたα値を設定する。そして、このαプレーンが設定さ
れたテクスチャ(RGBα)がマッピングされるオブジ
ェクトを、α値を用いたα合成を行いながら描画バッフ
ァ(フレームバッファ、ワークバッファ等)に描画する
ことで、画像を生成する。
More specifically, as shown in FIG.
The α value obtained by the conversion is set for the α plane of the texture (extended texture) in which the expanded color data (or the color data obtained based on the expanded color data) is set in the RGB plane. Then, an object to which the texture (RGBα) in which the α plane is set is mapped is drawn in a drawing buffer (frame buffer, work buffer, or the like) while performing α synthesis using the α value, thereby generating an image. .

【0114】このようにすれば、α値を有していない圧
縮色データ(圧縮テクスチャ)を用いた場合にも、各色
に対応したα値を生成できるようになる。従って、MP
EG等で圧縮されたテクスチャを用いたテクスチャマッ
ピングにおいてもα合成処理を実現できるようになり、
「矩形でないステッカのようにテクスチャをマッピング
する」、「オブジェクトを部分的に半透明にする」など
の画像表現を実現できる。この結果、少ないデータ量で
バラエティ度が高いリアルな画像を生成できるようにな
る。
Thus, even when the compressed color data (compressed texture) having no α value is used, the α value corresponding to each color can be generated. Therefore, MP
Α synthesis processing can be realized even in texture mapping using a texture compressed by EG, etc.
Image expressions such as "map the texture like a non-rectangular sticker" and "make the object partially translucent" can be realized. As a result, a realistic image with a high degree of variety can be generated with a small amount of data.

【0115】この場合、色データ−α値の変換規則とし
ては種々のものを考えることができる。
In this case, various conversion rules for the color data-α value can be considered.

【0116】例えば図8では、変換規則により、炎(広
義には表示物。以下の説明でも同様)の輪郭付近(輪郭
の内側に沿った内周領域)での色(例えば赤)が、表示
物を半透明にするα値に対応づけられている。
For example, in FIG. 8, the color (for example, red) near the outline (inner area along the inner side of the outline) of the flame (display object in a broad sense; the same applies to the following description) is displayed by the conversion rule. It is associated with the α value that makes an object translucent.

【0117】より具体的には、炎の中心付近での色(例
えば黄色、白)は、表示物を不透明にするα値に対応づ
けられる。そして、炎の中心付近から輪郭に向かうにつ
れて、徐々にα値を変化させ、輪郭付近での色は、表示
物を半透明にするα値に対応づけられる。そして、炎の
外側の色(例えば黒)は、表示物を透明にするα値に対
応づけられる。
More specifically, the color near the center of the flame (for example, yellow or white) is associated with the α value that makes the display opaque. The α value is gradually changed from the vicinity of the center of the flame toward the contour, and the color near the contour is associated with the α value that makes the display object translucent. The color outside the flame (for example, black) is associated with the α value that makes the display object transparent.

【0118】このようにすれば、炎の輪郭付近において
背景の色との半透明合成が行われるようになる。これに
より、炎の輪郭にぼかし処理を施すことが可能になり、
炎の輪郭にジャギー等が生じる不具合を防止できる。
In this way, translucent synthesis with the background color is performed near the outline of the flame. This makes it possible to blur the outline of the flame,
The problem that jaggies and the like occur in the outline of the flame can be prevented.

【0119】また、炎の外側を透明に設定できるように
なり、「矩形でないステッカのようにテクスチャをマッ
ピングする」ことも可能になる。
Further, it becomes possible to set the outside of the flame to be transparent, and it is also possible to "map a texture like a non-rectangular sticker".

【0120】例えば図9に、本実施形態により生成され
た炎のα値の例を示す。図9では、α値をグレースケー
ル表現で表している。
For example, FIG. 9 shows an example of the α value of the flame generated according to the present embodiment. In FIG. 9, the α value is represented in a gray scale expression.

【0121】また図10に、この図9のα値を用いて生
成された炎の画像の例を示す。そして、図11に、炎の
輪郭付近での拡大図を示す。
FIG. 10 shows an example of a flame image generated by using the α value shown in FIG. FIG. 11 shows an enlarged view near the outline of the flame.

【0122】図10に示すように本実施形態によれば、
炎の外側を透明に設定することができる。また図11に
示すように本実施形態によれば、炎の輪郭付近を半透明
に設定することができ、輪郭付近にジャギーが生じるの
を防止できる。
According to the present embodiment as shown in FIG.
The outside of the flame can be set to be transparent. In addition, as shown in FIG. 11, according to the present embodiment, the vicinity of the outline of the flame can be set to be translucent, and the occurrence of jaggy near the outline can be prevented.

【0123】また、例えば、前述の図5(A)、
(B)、(C)の手法を採用して、複数の炎を並べて広
い面積を占める大きな炎を表現しようとした場合には、
炎と炎の間(OB1とOB2の間、OB2とOB3の
間)に、オーバラップ部分が生じる。そしてこの場合
に、炎の輪郭付近を半透明に設定できないと、このオー
バラップ部分での炎の境界(色の濃さの違い)が目立っ
てしまい、不自然な画像が生成されてしまう。
Also, for example, as shown in FIG.
In the case of adopting the methods of (B) and (C) to represent a large flame occupying a large area by arranging a plurality of flames,
Between the flames (between OB1 and OB2, between OB2 and OB3) an overlap occurs. And, in this case, if the vicinity of the outline of the flame cannot be set to be translucent, the boundary of the flame (difference in color density) in the overlapped portion becomes conspicuous, and an unnatural image is generated.

【0124】本実施形態によれば、炎の輪郭付近を半透
明に設定できるため、上記のような不自然な画像が生成
されてしまう事態を防止できる。従って、複数の炎を並
べて大きな炎を表現する場合にも、図12に示すように
リアルで自然な画像を生成できる。即ち、複数の炎の組
み合わせではなく、あたかも1つの大きな炎があるかの
ようにプレーヤを錯覚させることができる。従って、図
4(A)、(B)、(C)に示すような狭い範囲の炎を
表すムービーテクスチャを用いながらも、広い範囲の炎
を表現でき、少ないデータ量で、よりリアルな画像を生
成できるようになる。
According to the present embodiment, since the vicinity of the outline of the flame can be set to be translucent, it is possible to prevent a situation in which an unnatural image as described above is generated. Therefore, even when a large flame is expressed by arranging a plurality of flames, a real and natural image can be generated as shown in FIG. That is, the player can be illusioned as if there is one large flame, not a combination of a plurality of flames. Therefore, a wide range of flames can be expressed using a movie texture representing a narrow range of flames as shown in FIGS. 4A, 4B, and 4C, and a more realistic image with a small amount of data can be obtained. Can be generated.

【0125】図13では、ブルーバックに本実施形態の
手法を応用している。
In FIG. 13, the method of this embodiment is applied to a blue background.

【0126】例えば図13のA1に示すように、まず、
ブルーバック(グリーンバック)の背景で人等の動きを
実写する。そして、得られた実写画像データ(元画像の
色データ)を圧縮し、圧縮色データを情報記憶媒体に格
納する。そして、ゲーム画像の生成の際には、この圧縮
色データを伸長し、得られた伸長色データを所与の変換
規則にしたがってα値に変換して、図13のA2に示す
ようなαプレーンを得る。
For example, as shown at A1 in FIG.
The actual motion of people and others is photographed on a blue background (green background). Then, the obtained actual image data (color data of the original image) is compressed, and the compressed color data is stored in the information storage medium. At the time of generating a game image, the compressed color data is expanded, and the obtained expanded color data is converted into an α value in accordance with a given conversion rule. Get.

【0127】この場合に、青(又は緑)の色データが、
表示物を透明にするα値に対応づけられるような規則の
変換を行う。このようにすることで、実写画像において
ブルーバック(グリーンバック)であった領域に、透明
のα値が設定されるようになる。
In this case, the blue (or green) color data is
The rule conversion is performed so as to be associated with the α value that makes the display object transparent. By doing so, a transparent α value is set in an area that has been blue-back (green-back) in the actual photographed image.

【0128】そして、このA2に示すαプレーンを用い
て、A3に示す元の伸長色データ(RGBプレーン)と
A4に示す背景画像(ポリゴン等で生成した画像)とを
α合成することで、A5に示すような画像を生成でき
る。即ち、実写画像でブルーバックであった部分に、ポ
リゴン等で構成された背景画像がはめ込まれた画像を生
成できる。これにより、実写画像とポリゴン画像との合
成を容易に実現できるようになり、より多様な画像表現
が可能になる。
Using the α plane shown in A2, the original expanded color data (RGB plane) shown in A3 and the background image (image generated by a polygon or the like) shown in A4 are α-combined to obtain A5. An image as shown in FIG. In other words, it is possible to generate an image in which a background image made up of polygons and the like is fitted in a portion of the real image, which is a blue background. As a result, it is possible to easily realize the synthesis of the real image and the polygon image, and more various image expressions are possible.

【0129】2.3 ルックアップテーブルを用いた変
換 さて、伸長色データをα値に変換する処理は、所与の変
換規則の関数に基づく処理(ソフトウェアによる変換処
理)により実現することもできるが、より好適にはルッ
クアップテーブル(カラー・ルックアップテーブル)を
用いることが望ましい。
2.3 Conversion Using Look-Up Table The process of converting the expanded color data into an α value can be realized by a process based on a function of a given conversion rule (a conversion process by software). It is more desirable to use a look-up table (color look-up table).

【0130】例えば図14では、色データ(例えばRG
B)とα値とを対応づけるルックアップテーブルLUT
を用意する(LUTは、1個でもよいし、複数でもよ
い)。そして、このLUTを用いて、伸長色データをα
値に変換する。このようにすることで、複雑な変換処理
であっても、負荷の少ない処理で実現できる。また、後
述するように、画像生成システムが元々有しているハー
ドウェア(LUTを用いるハードウェア)を有効利用し
て、処理の高速化を図ることも可能となる。
For example, in FIG. 14, color data (for example, RG
Lookup table LUT for associating B) with α value
(The number of LUTs may be one or more). Then, using this LUT, the expanded color data is converted to α
Convert to a value. By doing so, even a complicated conversion process can be realized by a process with a small load. Further, as will be described later, it is also possible to speed up the processing by effectively utilizing hardware (hardware using an LUT) originally included in the image generation system.

【0131】ルックアップテーブルを利用した変換手法
としては、種々の手法を考えることができる。例えば、
本実施形態では、インデックスカラー・テクスチャマッ
ピングを有効利用して、色データのα値への変換処理を
実現している。
As a conversion method using a look-up table, various methods can be considered. For example,
In the present embodiment, the conversion process of the color data to the α value is realized by effectively utilizing the index color / texture mapping.

【0132】このインデックスカラー・テクスチャーマ
ッピングでは、テクスチャ記憶部の使用記憶容量を節約
するために、図15のB1に示すように、実際の色デー
タ(RGB)ではなくインデックス番号が、テクスチャ
の各テクセルに関連づけて記憶される。また、図15の
B2に示すように、インデックスカラー・テクスチャマ
ッピング用のルックアップテーブルLUT(CLUT。
カラーパレット)には、インデックス番号により指定さ
れる色データやα値が記憶される。そして、オブジェク
トに対してテクスチャマッピングを行う際には、テクス
チャの各テクセルのインデックス番号に基づいてLUT
を参照し、対応する色データやα値をLUTから読み出
し、読み出された色データとα値に基づいて、フレーム
バッファに画像を描画する。
In this index color / texture mapping, as shown in B1 of FIG. 15, the index number is used instead of the actual color data (RGB) to save the used storage capacity of the texture storage unit. Is stored in association with. As shown in B2 of FIG. 15, a lookup table LUT (CLUT) for index color / texture mapping.
Color palette) stores color data and α values designated by index numbers. When texture mapping is performed on an object, an LUT based on the index number of each texel of the texture is used.
, The corresponding color data and α value are read from the LUT, and an image is drawn in the frame buffer based on the read color data and α value.

【0133】このようなインデックスカラーモードのテ
クスチャマッピングでは、LUTを用いない通常モード
のテクスチャマッピングに比べて、使用できる色数は少
なくなる(例えば16色)。しかしながら、テクスチャ
記憶部に実際の色データ(例えば16ビット)を記憶す
る必要が無くなるため、テクスチャ記憶部の使用記憶容
量を大幅に節約できる。
In the texture mapping in such an index color mode, the number of colors that can be used is reduced (for example, 16 colors) as compared with the texture mapping in the normal mode using no LUT. However, since it is not necessary to store the actual color data (for example, 16 bits) in the texture storage unit, the used storage capacity of the texture storage unit can be greatly reduced.

【0134】本実施形態は、このようなインデックスカ
ラー・テクスチャマッピングを通常とは異なる形態で有
効利用している。
In the present embodiment, such an index color / texture mapping is effectively used in a form different from the usual.

【0135】例えば図16では、C1に示すような伸長
色データ(RGBプレーン)を、色データとインデック
ス番号INDEXを対応づけるルックアップテーブルL
UT1を用いて、C2に示すようなINDEXフォーマ
ットのテクスチャに変換する。このINDEXフォーマ
ットのテクスチャでは、例えば、元画像の黒の領域に
は、LUT1により黒に対応づけられたINDEXが設
定され、赤の領域には、LUT1により赤に対応づけら
れたINDEXが設定され、黄色の領域には、LUT1
により黄色に対応づけられたINDEXが設定される。
For example, in FIG. 16, a look-up table L for associating expanded color data (RGB plane) as indicated by C1 with color data and an index number INDEX.
Using the UT1, the texture is converted into an INDEX format texture as shown in C2. In the texture of the INDEX format, for example, an INDEX associated with black by the LUT1 is set in a black region of the original image, and an INDEX associated with red by the LUT1 is set in a red region. In the yellow area, LUT1
Sets the INDEX associated with yellow.

【0136】このようなルックアップテーブルLUT1
を利用した色データからINDEXへの変換処理は、例
えば画像生成システムがハードウェアとして元々有して
いるLUT変換プロセッサ等により実現できる。従っ
て、ソフトウェア処理による変換処理に比べて、変換処
理を格段に高速化できる。
[0136] Such a look-up table LUT1
The conversion process from the color data to the INDEX using the image data can be realized by, for example, an LUT conversion processor or the like which the image generation system originally has as hardware. Therefore, the conversion processing can be performed at a significantly higher speed than the conversion processing by software processing.

【0137】次に、このINDEXフォーマットのテク
スチャと、INDEXとα値とを対応づけるルックアッ
プテーブルLUT2とに基づいて、インデックスカラー
・テクスチャマッピングを行う。これにより、図16の
C3に示すように、元画像の黒の領域には黒に対応する
α値(透明)が設定され、赤の領域には赤に対応するα
値(半透明)が設定され、黄色の領域には黄色に対応す
るα値(不透明)が設定されたαプレーンを生成でき
る。
Next, index color / texture mapping is performed based on the INDEX format texture and the look-up table LUT2 which associates the INDEX with the α value. Thereby, as shown by C3 in FIG. 16, the α value (transparency) corresponding to black is set in the black area of the original image, and the α value corresponding to red is set in the red area.
A value (semi-transparent) is set, and an α plane in which an α value (opaque) corresponding to yellow is set in a yellow area can be generated.

【0138】このようなルックアップテーブルLUT2
を利用したINDEXからα値への変換処理は、例えば
画像生成システムが有しているハードウェアのインデッ
クスカラー・テクスチャマッピング機能により実現でき
る。従って、ソフトウェア処理による変換処理に比べ
て、変換処理を格段に高速化できる。なお図16のLU
T2では、色データ(RGB)の部分は未使用となり、
インデックスカラー・テクスチャマッピングの際にマス
クされるため、どのような色データが設定されていても
かまわない。
[0138] Such a look-up table LUT2
The conversion processing from INDEX to α value using the function can be realized by, for example, an index color / texture mapping function of hardware of the image generation system. Therefore, the conversion processing can be performed at a significantly higher speed than the conversion processing by software processing. The LU shown in FIG.
At T2, the color data (RGB) part is unused,
Since the mask is performed at the time of index color / texture mapping, any color data may be set.

【0139】そして図16のC4に示すように、インデ
ックスカラー・テクスチャマッピングを利用して生成さ
れたαプレーンと伸長色データのRGBプレーンとから
なるテクスチャをオブジェクトOB(ポリゴン)にマッ
ピングすることで、図10で示したようなリアルな炎の
画像を生成できる。
Then, as shown by C4 in FIG. 16, by mapping the texture composed of the α plane generated by using the index color texture mapping and the RGB plane of the expanded color data to the object OB (polygon), A real flame image as shown in FIG. 10 can be generated.

【0140】この図16の手法では、色データをIND
EXに変換する処理や、INDEXをα値に変換する処
理を、画像生成システムが元々有しているハードウェア
を利用して実現できるため、変換処理を高速化できると
いう利点がある。また、色データとして元の伸長色デー
タを利用できるため、多くの色数で画像を表現できると
いう利点もある。
According to the method shown in FIG.
Since the process of converting to EX and the process of converting INDEX to α value can be realized by using the hardware originally included in the image generation system, there is an advantage that the conversion process can be sped up. Further, since the original expanded color data can be used as the color data, there is an advantage that an image can be represented by a large number of colors.

【0141】一方、図17では、D1に示すような伸長
色データ(RGBプレーン)を、色データとインデック
ス番号INDEXを対応づけるルックアップテーブルL
UT1を用いて、D2に示すようなINDEXフォーマ
ットのテクスチャに変換する。このINDEXフォーマ
ットのテクスチャでは、例えば、元画像の黒、赤、黄色
の領域には、各々、LUT1により黒、赤、黄色に対応
づけられたINDEXが設定されることになる。
On the other hand, in FIG. 17, a look-up table L for associating expanded color data (RGB plane) such as D1 with color data and an index number INDEX is used.
Using UT1, the texture is converted into an INDEX format texture such as D2. In the texture of the INDEX format, for example, INDEX associated with black, red, and yellow by the LUT 1 is set in the black, red, and yellow regions of the original image, respectively.

【0142】次に図17のD3に示すように、このIN
DEXフォーマットのテクスチャと、INDEXと色デ
ータ(RGB)及びα値とを対応づけるルックアップテ
ーブルLUT2(α値付きのCLUT)とに基づいて、
オブジェクトOBに対してインデックスカラー・テクス
チャマッピングを行う。このようにすれば、元画像の黒
の領域には、黒の色データ及び黒に対応するα値(透
明)が対応づけられ、赤の領域には、赤の色データ及び
赤に対応するα値(半透明)が対応づけられ、黄色の領
域には、黄色の色データ及び黄色に対応するα値(不透
明)が対応づけられたテクスチャマッピングを実現でき
る。
Next, as shown at D3 in FIG.
Based on a DEX format texture and a look-up table LUT2 (CLUT with α value) that associates INDEX with color data (RGB) and α value,
The index color / texture mapping is performed on the object OB. In this way, the black area of the original image is associated with the black color data and the α value (transparency) corresponding to black, and the red area is associated with the red color data and α corresponding to red. A value (translucent) is associated with the yellow area, and texture mapping in which yellow color data and an α value (opaque) corresponding to yellow are associated can be realized.

【0143】この図17の手法では、色データをIND
EXに変換する処理や、INDEXをα値に変換する処
理を、画像生成システムが元々有しているハードウェア
を利用して実現できるため、変換処理を高速化できると
いう利点がある。
In the method shown in FIG. 17, the color data is
Since the process of converting to EX and the process of converting INDEX to α value can be realized by using the hardware originally included in the image generation system, there is an advantage that the conversion process can be sped up.

【0144】一方、図17の手法では、図16の手法と
は異なり、テクスチャのRGBプレーンとして元の伸長
色データを使用できないため、色数が少なくなってしま
うという不利点がある。
On the other hand, in the method of FIG. 17, unlike the method of FIG. 16, the original decompressed color data cannot be used as the RGB plane of the texture, so that there is a disadvantage that the number of colors is reduced.

【0145】しかしながら図17の手法では、同じ伸長
色データのテクスチャを用いながらも、使用するルック
アップテーブルLUT2の種類を異ならせることで、生
成される画像の色や半透明部分を異ならせることが可能
となり、少ないデータ量で多様な画像表現を実現でき
る。
However, in the method shown in FIG. 17, it is possible to make the colors and translucent parts of the generated image different by using different types of look-up tables LUT2 while using the texture of the same expanded color data. It is possible to realize various image expressions with a small amount of data.

【0146】例えば、川の流れを表現するために青系統
のルックアップテーブルLUT2-1を用いていた場合を
考える。この場合に、青系統のルックアップテーブルL
UT2-1を、黄色と赤の系統のルックアップテーブルL
UT2-2に差し替えることで、溶岩流を表現することが
可能になる。特に時間経過やイベントの発生に応じて、
ルックアップテーブルLUT-2を差し替えるようにすれ
ば、同じムービーテクスチャのデータを用いながらも、
異なった画像表現を実現でき、少ないデータ量でリアル
で多様な画像を生成できるようになる。
For example, let us consider a case where a blue lookup table LUT2-1 is used to represent the flow of a river. In this case, the blue lookup table L
UT2-1 is converted to a yellow and red lookup table L
By replacing with UT2-2, it is possible to express lava flow. Especially as time passes and events occur,
If the look-up table LUT-2 is replaced, while using the same movie texture data,
Different image representations can be realized, and real and diverse images can be generated with a small amount of data.

【0147】3.本実施形態の処理 次に、本実施形態の処理の詳細例について、図18〜図
21のフローチャート及び図22、図23を用いて説明
する。
[0147] 3. Next, a detailed example of the process according to the present embodiment will be described with reference to the flowcharts of FIGS. 18 to 21 and FIGS.

【0148】図18、図19は、図16で説明した変換
処理手法についてのフローチャートである。
FIGS. 18 and 19 are flowcharts of the conversion processing method described with reference to FIG.

【0149】まず、圧縮ムービーテクスチャ・データ
(図4(A)〜(C)参照)を格納する領域を、図22
のRAM220上に確保する(ステップS1)。また、
テクスチャ・データをRGBフォーマットからINDE
Xフォーマットに変換するために使用するLUTデータ
(図16のLUT1)を格納する領域を、RAM220
上に確保する(ステップS2)。
First, an area for storing compressed movie texture data (see FIGS. 4A to 4C) is shown in FIG.
(Step S1). Also,
Convert texture data from RGB format to INDE
An area for storing LUT data (LUT1 in FIG. 16) used for conversion into the X format is stored in the RAM 220.
It is secured above (step S2).

【0150】次に、図22のE1に示すように、情報記
憶媒体230(CD、DVD又はハードディクス等)か
ら圧縮ムービーテクスチャ・データを読み込み、ステッ
プS1で確保したRAM220上の領域にロードする
(ステップS3)。同様に、E2に示すように、情報記
憶媒体230からLUTデータを読み込み、ステップS
2で確保したRAM220上の領域にロードする(ステ
ップS4)。
Next, as shown by E1 in FIG. 22, the compressed movie texture data is read from the information storage medium 230 (CD, DVD, hard disk, etc.) and loaded into the area on the RAM 220 secured in step S1 ( Step S3). Similarly, as shown in E2, LUT data is read from the information storage medium 230, and step S
The data is loaded into the area on the RAM 220 secured in step 2 (step S4).

【0151】次に、圧縮テクスチャCTEXi(フレー
ムi)のアドレスADi、データサイズSZiを、圧縮
ムービーテクスチャ・データの中のフレームデータアド
レス・ブロック(図6参照)から取得する(ステップS
5)。
Next, the address ADi and data size SZi of the compressed texture CTEXi (frame i) are obtained from the frame data address block (see FIG. 6) in the compressed movie texture data (step S).
5).

【0152】次に、メインプロセッサ200が、圧縮テ
クスチャCTEXiのアドレスADi、CTEXiのデ
ータサイズSZiを指定すると共に、伸長テクスチャE
TEXiを格納するアドレスADi’、ETEXiのデ
ータサイズSZi’を指定して、DMA転送を起動する
(ステップS6)。これにより、図22のE3に示すよ
うに、アドレスADiに格納されている圧縮テクスチャ
CTEXiがデータ伸長プロセッサ202に転送され
る。
Next, the main processor 200 specifies the address ADi of the compressed texture CTEXi, the data size SZi of the CTEXi, and
DMA transfer is started by designating an address ADi 'for storing TEXi and a data size SZi' of ETEXi (step S6). As a result, the compressed texture CTEXi stored at the address ADi is transferred to the data decompression processor 202 as indicated by E3 in FIG.

【0153】次に、メインプロセッサ200が、データ
伸長プロセッサ202に対して伸長(デコード)命令を
発行する(ステップS7)。これにより、図22のE4
に示すように、圧縮テクスチャCTEXiが伸長され、
得られた伸長テクスチャETEXiがステップS6で指
定されたアドレスADi’に格納される。
Next, the main processor 200 issues a decompression (decode) instruction to the data decompression processor 202 (step S7). As a result, E4 in FIG.
As shown in, the compressed texture CTEXi is expanded,
The obtained decompressed texture ETEXi is stored in the address ADi 'specified in step S6.

【0154】次に、メインプロセッサ200が、LUT
データCLのアドレスADC、CLのデータサイズSZ
Cを指定して、DMA転送を起動する(ステップS
8)。これにより、図22のE5に示すように、LUT
データCLがLUT変換プロセッサ204に転送され
る。
Next, the main processor 200 executes the LUT
Address ADC of data CL, data size SZ of CL
C to start DMA transfer (step S
8). As a result, as shown in E5 of FIG.
The data CL is transferred to the LUT conversion processor 204.

【0155】次に、メインプロセッサ200が、伸長テ
クスチャETEXiのアドレスADi’、ETEXiの
データサイズSZi’を指定すると共に、INDEXフ
ォーマットのテクスチャITEXiのアドレスAD
i”、ITEXiのデータサイズSZi”を指定して、
DMA転送を起動する(ステップS9)。これにより、
図22のE6に示すように、伸長テクスチャETEXi
がLUT変換プロセッサ204に転送される。
Next, the main processor 200 designates the address ADi ′ of the decompressed texture ETEXi and the data size SZi ′ of the ETEXi, and specifies the address AD of the texture INDEXi in the INDEX format.
i ", the data size SZi" of ITEXi,
The DMA transfer is started (step S9). This allows
As shown at E6 in FIG. 22, the extended texture ETEXi
Is transferred to the LUT conversion processor 204.

【0156】次に、メインプロセッサ200が、LUT
変換プロセッサ204に対してLUT変換命令を発行す
る(ステップS10)。これにより、図22のE7に示
すように、伸長テクスチャETEXiが、CLに対応す
るINDEXフォーマットに変換され、得られたIND
EXフォーマットのテクスチャITEXiが、ステップ
S9で指定されたアドレスADi”に格納される。
Next, the main processor 200 executes the LUT
An LUT conversion instruction is issued to the conversion processor 204 (step S10). As a result, the expanded texture ETEXi is converted into the INDEX format corresponding to the CL as shown at E7 in FIG.
The EX format texture ITEXi is stored in the address ADi ″ specified in step S9.

【0157】次に、図22のE8に示すように、アドレ
スADi”のINDEXフォーマットのテクスチャIT
EXiをVRAM212上のアドレスVADに転送する
(ステップS11)。また、E9に示すように、インデ
ックスカラー・テクスチャマッピングのためのαLUT
データαL(図16のLUT2)をVRAM212に転
送する(ステップS12)。更に、E10に示すよう
に、アドレスADi’の伸長テクスチャETEXi(R
GBプレーン)をVRAM212上のアドレスVADに
転送する(ステップS12)。
Next, as shown by E8 in FIG. 22, the texture ITD of the INDEX format at the address ADi ″ is obtained.
EXi is transferred to the address VAD on the VRAM 212 (step S11). Further, as shown in E9, an αLUT for index color / texture mapping is used.
The data αL (LUT2 in FIG. 16) is transferred to the VRAM 212 (step S12). Further, as shown at E10, the expanded texture ETEXi (R
(GB plane) to the address VAD on the VRAM 212 (step S12).

【0158】次に、アドレスVADのαプレーンに、α
LをLUTとして使用したITEXiをマッピングして
スプライト(ポリゴン)を描画する(ステップS1
4)。これにより、アドレスVADのRGBプレーンは
ETEXiのRGBとなり、VADのαプレーンはαL
で指定したα値となる。そして、VADをテクスチャデ
ータ領域として指定し、オブジェクトにインデックスカ
ラー・テクスチャマッピングを行う(ステップS1
5)。
Next, in the α plane of the address VAD, α
The sprite (polygon) is drawn by mapping ITEXi using L as the LUT (step S1)
4). As a result, the RGB plane of the address VAD becomes the RGB of ETEXi, and the α plane of the VAD is αL.
Is the α value specified by. Then, the VAD is designated as a texture data area, and an index color / texture mapping is performed on the object (step S1).
5).

【0159】次に、i(ムービーのフレーム数)を1だ
けインクリメントして、ステップS5に戻る。
Next, i (the number of frames of the movie) is incremented by 1 and the process returns to step S5.

【0160】以上のようにすることで、図16で説明し
た変換処理手法を実現できる。
By performing the above, the conversion processing method described with reference to FIG. 16 can be realized.

【0161】図20、図21は、図17で説明した変換
処理手法についてのフローチャートである。
FIGS. 20 and 21 are flowcharts of the conversion processing method described with reference to FIG.

【0162】なお、図20、図21のステップS21〜
S31は、図18、図19のステップS1〜S11と同
様の処理であるため、その説明を省略する。
Note that steps S21 to S21 in FIGS.
Step S31 is the same process as steps S1 to S11 in FIGS. 18 and 19, and a description thereof will be omitted.

【0163】図21のステップS31でテクスチャIT
EXiをVRAM212に転送した後、図23のE11
に示すように、α値付きのLUTのデータCLj(図1
7のLUT2)をVRAM212に転送する(ステップ
S32)。そして、CLjをLUTとして使用したIT
EXiをテクスチャとして、オブジェクトOBjに対し
てインデックスカラー・テクスチャマッピングを行う
(ステップS33)。これにより、同一のムービーテク
スチャでも、色と半透明部分の異なるムービーテクスチ
ャとして使用できるようになる。
At step S31 in FIG. 21, the texture IT
After transferring EXi to the VRAM 212, E11 in FIG.
As shown in FIG. 1, data CLj of an LUT with an α value (FIG. 1)
7 is transferred to the VRAM 212 (step S32). And IT using CLj as LUT
Using EXi as a texture, an index color / texture mapping is performed on the object OBj (step S33). As a result, the same movie texture can be used as a movie texture having different colors and translucent portions.

【0164】次に、j(α値付きLUTの数)を1だけ
インクリメントする(ステップS34)。そして、j>
jmaxか否かを判断し、j≦jmaxの場合にはステ
ップS32に戻り、次のα値付きLUTについての処理
を行う。
Next, j (the number of LUTs with α values) is incremented by 1 (step S34). And j>
It is determined whether or not jmax is satisfied. If j ≦ jmax, the process returns to step S32 to perform the process for the next LUT with an α value.

【0165】一方、j>jmaxの場合には、i(ムー
ビーのフレーム数)を1だけインクリメントし、ステッ
プS25に戻る。
On the other hand, if j> jmax, i (the number of frames of the movie) is incremented by 1 and the process returns to step S25.

【0166】以上のようにすることで、図17で説明し
た変換処理手法を実現できる。
By performing the above, the conversion processing method described with reference to FIG. 17 can be realized.

【0167】4.ハードウェア構成 次に、本実施形態を実現できるハードウェアの構成の一
例について図24を用いて説明する。
4. Hardware Configuration Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG.

【0168】メインプロセッサ900は、CD982
(情報記憶媒体)に格納されたプログラム、通信インタ
ーフェース990を介して転送されたプログラム、或い
はROM950(情報記憶媒体の1つ)に格納されたプ
ログラムなどに基づき動作し、ゲーム処理、画像処理、
音処理などの種々の処理を実行する。
The main processor 900 has a CD982
(Information storage medium), a program transferred via the communication interface 990, or a program stored in the ROM 950 (one of the information storage media).
Various processes such as sound processing are executed.

【0169】コプロセッサ902は、メインプロセッサ
900の処理を補助するものであり、高速並列演算が可
能な積和算器や除算器を有し、マトリクス演算(ベクト
ル演算)を高速に実行する。例えば、オブジェクトを移
動させたり動作(モーション)させるための物理シミュ
レーションに、マトリクス演算などの処理が必要な場合
には、メインプロセッサ900上で動作するプログラム
が、その処理をコプロセッサ902に指示(依頼)す
る。
The coprocessor 902 assists the processing of the main processor 900, has a multiply-accumulate unit and a divider capable of high-speed parallel operation, and executes a matrix operation (vector operation) at high speed. For example, when a process such as a matrix operation is required for a physical simulation for moving or moving an object (motion), a program operating on the main processor 900 instructs the coprocessor 902 to perform the process (request ).

【0170】ジオメトリプロセッサ904は、座標変
換、透視変換、光源計算、曲面生成などのジオメトリ処
理を行うものであり、高速並列演算が可能な積和算器や
除算器を有し、マトリクス演算(ベクトル演算)を高速
に実行する。例えば、座標変換、透視変換、光源計算な
どの処理を行う場合には、メインプロセッサ900で動
作するプログラムが、その処理をジオメトリプロセッサ
904に指示する。
The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation, and curved surface generation. The geometry processor 904 includes a multiply-accumulate unit and a divider capable of high-speed parallel computation, and performs a matrix computation (vector computation). Calculation) at high speed. For example, when performing processing such as coordinate transformation, perspective transformation, and light source calculation, a program operating on the main processor 900 instructs the geometry processor 904 to perform the processing.

【0171】データ伸張プロセッサ906は、圧縮され
た画像データや音データを伸張するデコード処理を行っ
たり、メインプロセッサ900のデコード処理をアクセ
レートする処理を行う。これにより、オープニング画
面、インターミッション画面、エンディング画面、或い
はゲーム画面などにおいて、MPEG方式等で圧縮され
た動画像を表示できるようになる。なお、デコード処理
の対象となる画像データや音データは、ROM950、
CD982に格納されたり、或いは通信インターフェー
ス990を介して外部から転送される。
The data decompression processor 906 performs a decoding process for decompressing compressed image data and sound data, and performs a process for accelerating the decoding process of the main processor 900. As a result, a moving image compressed by the MPEG method or the like can be displayed on an opening screen, an intermission screen, an ending screen, a game screen, or the like. The image data and sound data to be decoded are stored in the ROM 950,
It is stored on a CD 982 or transferred from outside via a communication interface 990.

【0172】描画プロセッサ910は、ポリゴンや曲面
などのプリミティブ(プリミティブ面)で構成されるオ
ブジェクトの描画(レンダリング)処理を高速に実行す
るものである。オブジェクトの描画の際には、メインプ
ロセッサ900は、DMAコントローラ970の機能を
利用して、オブジェクトデータを描画プロセッサ910
に渡すと共に、必要であればテクスチャ記憶部924に
テクスチャを転送する。すると、描画プロセッサ910
は、これらのオブジェクトデータやテクスチャに基づい
て、Zバッファなどを利用した陰面消去を行いながら、
オブジェクトをフレームバッファ922に高速に描画す
る。また、描画プロセッサ910は、αブレンディング
(半透明処理)、デプスキューイング、ミップマッピン
グ、フォグ処理、バイリニア・フィルタリング、トライ
リニア・フィルタリング、アンチエリアシング、シェー
ディング処理なども行うことができる。そして、1フレ
ーム分の画像がフレームバッファ922に書き込まれる
と、その画像はディスプレイ912に表示される。
The drawing processor 910 executes a high-speed drawing (rendering) process of an object composed of primitives (primitive surfaces) such as polygons and curved surfaces. When drawing an object, the main processor 900 uses the function of the DMA controller 970 to transfer the object data to the drawing processor 910.
And the texture is transferred to the texture storage unit 924 if necessary. Then, the drawing processor 910
Performs hidden surface removal using a Z-buffer, etc., based on these object data and textures.
The object is drawn in the frame buffer 922 at high speed. The drawing processor 910 can also perform α blending (translucent processing), depth queuing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. Then, when an image for one frame is written to the frame buffer 922, the image is displayed on the display 912.

【0173】サウンドプロセッサ930は、多チャンネ
ルのADPCM音源などを内蔵し、BGM、効果音、音
声などの高品位のゲーム音を生成する。生成されたゲー
ム音は、スピーカ932から出力される。
The sound processor 930 includes a multi-channel ADPCM sound source and the like, and generates high-quality game sounds such as BGM, sound effects, and voices. The generated game sound is output from the speaker 932.

【0174】ゲームコントローラ942(レバー、ボタ
ン、筺体、パッド型コントローラ又はガン型コントロー
ラ等)からの操作データや、メモリカード944からの
セーブデータ、個人データは、シリアルインターフェー
ス940を介してデータ転送される。
Operation data from the game controller 942 (lever, button, housing, pad-type controller, gun-type controller, etc.), save data from the memory card 944, and personal data are transferred via the serial interface 940. .

【0175】ROM950にはシステムプログラムなど
が格納される。なお、業務用ゲームシステムの場合に
は、ROM950が情報記憶媒体として機能し、ROM
950に各種プログラムが格納されることになる。な
お、ROM950の代わりにハードディスクを利用する
ようにしてもよい。
The ROM 950 stores a system program and the like. In the case of the arcade game system, the ROM 950 functions as an information storage medium,
Various programs are stored in 950. Note that a hard disk may be used instead of the ROM 950.

【0176】RAM960は、各種プロセッサの作業領
域として用いられる。
The RAM 960 is used as a work area for various processors.

【0177】DMAコントローラ970は、プロセッ
サ、メモリ(RAM、VRAM、ROM等)間でのDM
A転送を制御するものである。
[0177] The DMA controller 970 is provided between the processor and the memory (RAM, VRAM, ROM, etc.).
A transfer is controlled.

【0178】CDドライブ980は、プログラム、画像
データ、或いは音データなどが格納されるCD982
(情報記憶媒体)を駆動し、これらのプログラム、デー
タへのアクセスを可能にする。
The CD drive 980 stores a CD 982 in which programs, image data, sound data, and the like are stored.
(Information storage medium) to enable access to these programs and data.

【0179】通信インターフェース990は、ネットワ
ークを介して外部との間でデータ転送を行うためのイン
ターフェースである。この場合に、通信インターフェー
ス990に接続されるネットワークとしては、通信回線
(アナログ電話回線、ISDN)、高速シリアルバスな
どを考えることができる。そして、通信回線を利用する
ことでインターネットを介したデータ転送が可能にな
る。また、高速シリアルバスを利用することで、他の画
像生成システムとの間でのデータ転送が可能になる。
The communication interface 990 is an interface for transferring data to and from the outside via a network. In this case, a network connected to the communication interface 990 may be a communication line (analog telephone line, ISDN), a high-speed serial bus, or the like. Then, data can be transferred via the Internet by using a communication line. Further, by using a high-speed serial bus, data transfer with another image generation system becomes possible.

【0180】なお、本発明の各手段は、その全てを、ハ
ードウェアのみにより実現(実行)してもよいし、情報
記憶媒体に格納されるプログラムや通信インターフェー
スを介して配信されるプログラムのみにより実現しても
よい。或いは、ハードウェアとプログラムの両方により
実現してもよい。
Each means of the present invention may be realized (executed) only by hardware, or may be realized only by a program stored in an information storage medium or a program distributed via a communication interface. It may be realized. Alternatively, it may be realized by both hardware and a program.

【0181】そして、本発明の各手段をハードウェアと
プログラムの両方により実現する場合には、情報記憶媒
体には、本発明の各手段をハードウェアを利用して実現
するためのプログラムが格納されることになる。より具
体的には、上記プログラムが、ハードウェアである各プ
ロセッサ902、904、906、910、930等に
処理を指示すると共に、必要であればデータを渡す。そ
して、各プロセッサ902、904、906、910、
930等は、その指示と渡されたデータとに基づいて、
本発明の各手段を実現することになる。
When each means of the present invention is realized by both hardware and a program, a program for realizing each means of the present invention using hardware is stored in the information storage medium. Will be. More specifically, the program instructs the processors 902, 904, 906, 910, 930, etc., which are hardware, to perform processing, and passes data if necessary. Then, each processor 902, 904, 906, 910,
930 etc., based on the instruction and the passed data,
Each means of the present invention will be realized.

【0182】図25(A)に、本実施形態を業務用ゲー
ムシステム(画像生成システム)に適用した場合の例を
示す。プレーヤは、ディスプレイ1100、1101上
に映し出されたゲーム画像を見ながら、ガン型コントロ
ーラ1102、1103などを操作してゲームを楽し
む。内蔵されるシステムボード(サーキットボード)1
106には、各種プロセッサ、各種メモリなどが実装さ
れる。そして、本発明の各手段を実現するためのプログ
ラム(データ)は、システムボード1106上の情報記
憶媒体であるメモリ1108に格納される。以下、この
プログラムを格納プログラム(格納情報)と呼ぶ。
FIG. 25A shows an example in which the present embodiment is applied to an arcade game system (image generation system). The player enjoys the game by operating the gun-type controllers 1102 and 1103 while watching the game images projected on the displays 1100 and 1101. Built-in system board (circuit board) 1
Various processors, various memories, and the like are mounted on 106. A program (data) for realizing each unit of the present invention is stored in a memory 1108 which is an information storage medium on the system board 1106. Hereinafter, this program is called a storage program (storage information).

【0183】図25(B)に、本実施形態を家庭用のゲ
ームシステム(画像生成システム)に適用した場合の例
を示す。プレーヤはディスプレイ1200に映し出され
たゲーム画像を見ながら、ガン型コントローラ120
2、1204などを操作してゲームを楽しむ。この場
合、上記格納プログラム(格納情報)は、本体システム
に着脱自在な情報記憶媒体であるCD1206、或いは
メモリカード1208、1209などに格納されてい
る。
FIG. 25B shows an example in which the present embodiment is applied to a home game system (image generation system). The player looks at the game image displayed on the display 1200 while watching the gun-type controller 120.
Enjoy the game by operating 2, 1204 and the like. In this case, the storage program (storage information) is stored in a CD 1206 or a memory card 1208 or 1209, which is an information storage medium detachable from the main system.

【0184】図25(C)に、ホスト装置1300と、
このホスト装置1300とネットワーク1302(LA
Nのような小規模ネットワークや、インターネットのよ
うな広域ネットワーク)を介して接続される端末130
4-1〜1304-n(ゲーム機、携帯電話)とを含むシ
ステムに本実施形態を適用した場合の例を示す。この場
合、上記格納プログラム(格納情報)は、例えばホスト
装置1300が制御可能な磁気ディスク装置、磁気テー
プ装置、メモリなどの情報記憶媒体1306に格納され
ている。端末1304-1〜1304-nが、スタンドア
ロンでゲーム画像、ゲーム音を生成できるものである場
合には、ホスト装置1300からは、ゲーム画像、ゲー
ム音を生成するためのゲームプログラム等が端末130
4-1〜1304-nに配送される。一方、スタンドアロ
ンで生成できない場合には、ホスト装置1300がゲー
ム画像、ゲーム音を生成し、これを端末1304-1〜
1304-nに伝送し端末において出力することになる。
FIG. 25C shows a host device 1300,
The host device 1300 and the network 1302 (LA
N or a wide area network such as the Internet).
An example in which the present embodiment is applied to a system including 4-1 to 1304-n (game machine, mobile phone) will be described. In this case, the storage program (storage information) is stored in an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a memory that can be controlled by the host device 1300. When the terminals 1304-1 to 1304-n are capable of generating a game image and a game sound in a stand-alone manner, a game program for generating a game image and a game sound is transmitted from the host device 1300 to the terminal 130.
It is delivered to 4-1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, and these are generated by the terminals 1304-1 to 1304-1.
1304-n and output at the terminal.

【0185】なお、図25(C)の構成の場合に、本発
明の各手段を、ホスト装置(サーバー)と端末とで分散
して実現するようにしてもよい。また、本発明の各手段
を実現するための上記格納プログラム(格納情報)を、
ホスト装置(サーバー)の情報記憶媒体と端末の情報記
憶媒体に分散して格納するようにしてもよい。
In the case of the configuration shown in FIG. 25 (C), each means of the present invention may be realized in a distributed manner between a host device (server) and a terminal. In addition, the storage program (storage information) for realizing each unit of the present invention includes:
The information may be stored separately in the information storage medium of the host device (server) and the information storage medium of the terminal.

【0186】またネットワークに接続する端末は、家庭
用ゲームシステムであってもよいし業務用ゲームシステ
ムであってもよい。そして、業務用ゲームシステムをネ
ットワークに接続する場合には、業務用ゲームシステム
との間で情報のやり取りが可能であると共に家庭用ゲー
ムシステムとの間でも情報のやり取りが可能なセーブ用
情報記憶装置(メモリカード、携帯型ゲーム装置)を用
いることが望ましい。
The terminal connected to the network may be a home game system or an arcade game system. When the arcade game system is connected to a network, a save information storage device capable of exchanging information with the arcade game system and exchanging information with the home game system. (Memory card, portable game device) is desirable.

【0187】なお本発明は、上記実施形態で説明したも
のに限らず、種々の変形実施が可能である。
The present invention is not limited to the embodiments described above, and various modifications can be made.

【0188】例えば本実施形態では、ムービーテクスチ
ャに本発明を適用した場合について説明したが、本発明
の手法はムービーテクスチャではない通常のテクスチャ
や、テクスチャ以外の画像データ(例えばマップの画像
データ等)にも適用できる。
For example, in the present embodiment, the case where the present invention is applied to a movie texture has been described. However, the method of the present invention uses a normal texture that is not a movie texture, or image data other than a texture (for example, image data of a map). Also applicable to

【0189】また、色データとα値を対応づける変換規
則は、図8〜図13で説明したものに限定されない。
The conversion rules for associating color data with α values are not limited to those described with reference to FIGS.

【0190】また、伸長色データをα値に変換する手法
も、図14〜図17で説明した手法に限定されず、例え
ば関数や数値計算に基づいて変換するなどの種々の変形
実施が可能である。
The method of converting the expanded color data to the α value is not limited to the method described with reference to FIGS. 14 to 17, and various modifications such as conversion based on a function or numerical calculation are possible. is there.

【0191】また、本発明は、伸長色データを、α値と
均等なデータ又は同等の効果を有するデータ(色データ
とは種類が異なる第1の種類のデータ。奥行き値データ
等)に変換する場合にも適用できる。
Further, according to the present invention, the expanded color data is converted into data equivalent to the α value or data having the same effect (first type data different in type from the color data, such as depth value data). Also applicable to cases.

【0192】また、本発明のうち従属請求項に係る発明
においては、従属先の請求項の構成要件の一部を省略す
る構成とすることもできる。また、本発明の1の独立請
求項に係る発明の要部を、他の独立請求項に従属させる
こともできる。
Further, in the invention according to the dependent claims of the present invention, a configuration may be adopted in which some of the constituent elements of the dependent claims are omitted. In addition, a main part of the invention according to one independent claim of the present invention may be made dependent on another independent claim.

【0193】また、本発明は種々のゲーム(格闘ゲー
ム、シューティングゲーム、ロボット対戦ゲーム、スポ
ーツゲーム、競争ゲーム、ロールプレイングゲーム、音
楽演奏ゲーム、ダンスゲーム等)に適用できる。
The present invention can be applied to various games (fighting games, shooting games, robot battle games, sports games, competition games, role playing games, music playing games, dance games, etc.).

【0194】また本発明は、業務用ゲームシステム、家
庭用ゲームシステム、多数のプレーヤが参加する大型ア
トラクションシステム、シミュレータ、マルチメディア
端末、ゲーム画像を生成するシステムボード等の種々の
画像生成システム(ゲームシステム)に適用できる。
The present invention also relates to various image generation systems (games, such as a business game system, a home game system, a large attraction system in which many players participate, a simulator, a multimedia terminal, and a system board for generating game images. System).

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態の画像生成システムの機能ブロック
図の例である。
FIG. 1 is an example of a functional block diagram of an image generation system according to an embodiment.

【図2】ムービーテクスチャマッピングについて説明す
るための図である。
FIG. 2 is a diagram for describing movie texture mapping.

【図3】ランダム再生のムービーテクスチャマッピング
について説明するための図である。
FIG. 3 is a diagram for describing movie texture mapping for random playback.

【図4】図4(A)、(B)、(C)は、炎を表現する
ムービーテクスチャの例を示す図である。
FIGS. 4A, 4B, and 4C are diagrams showing examples of movie textures representing flames.

【図5】図5(A)、(B)、(C)は、ランダム再生
でムービーテクスチャがマッピングされるオブジェクト
の配置例等について説明するための図である。
FIGS. 5A, 5B, and 5C are diagrams for explaining an example of an arrangement of objects to which a movie texture is mapped by random reproduction; FIG.

【図6】圧縮ムービーテクスチャ・データのデータ構造
の例を示す図である。
FIG. 6 is a diagram illustrating an example of a data structure of compressed movie texture data.

【図7】図7(A)、(B)は、伸長色データを所与の
変換規則でα値に変換して画像を生成する手法について
説明するための図である。
FIGS. 7A and 7B are diagrams for describing a method of generating an image by converting decompressed color data into an α value according to a given conversion rule.

【図8】炎の表現における変換規則の例について説明す
るための図である。
FIG. 8 is a diagram for describing an example of a conversion rule in the expression of flame.

【図9】本実施形態により生成されたα値(αプレー
ン)の例である。
FIG. 9 is an example of an α value (α plane) generated by the embodiment.

【図10】本実施形態により生成された炎の画像の例で
ある。
FIG. 10 is an example of a flame image generated according to the embodiment.

【図11】炎の画像の輪郭付近での拡大図である。FIG. 11 is an enlarged view near the outline of a flame image.

【図12】複数の炎を並べて大きな炎を表現した場合の
画像の例である。
FIG. 12 is an example of an image when a large flame is expressed by arranging a plurality of flames.

【図13】ブルーバックに本実施形態を適用した場合に
ついて説明するための図である。
FIG. 13 is a diagram for describing a case where the present embodiment is applied to a blue screen.

【図14】ルックアップテーブルを用いた変換処理手法
について説明するための図である。
FIG. 14 is a diagram illustrating a conversion processing method using a lookup table.

【図15】インデックスカラー・テクスチャマッピング
について説明するための図である。
FIG. 15 is a diagram for describing index color / texture mapping.

【図16】インデックスカラー・テクスチャマッピング
を利用した変換処理手法の例について説明するための図
である。
FIG. 16 is a diagram for describing an example of a conversion processing method using index color / texture mapping.

【図17】インデックスカラー・テクスチャマッピング
を利用した変換処理手法の他の例について説明するため
の図である。
FIG. 17 is a diagram for describing another example of a conversion processing method using index color / texture mapping.

【図18】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 18 is a flowchart illustrating a detailed example of a process according to the present embodiment.

【図19】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 19 is a flowchart illustrating a detailed example of a process according to the present embodiment.

【図20】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 20 is a flowchart illustrating a detailed example of a process according to the present embodiment.

【図21】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 21 is a flowchart illustrating a detailed example of a process according to the present embodiment.

【図22】本実施形態の処理の詳細例について説明する
ための図である。
FIG. 22 is a diagram for describing a detailed example of a process according to the present embodiment.

【図23】本実施形態の処理の詳細例について説明する
ための図である。
FIG. 23 is a diagram illustrating a detailed example of a process according to the embodiment;

【図24】本実施形態を実現できるハードウェアの構成
の一例を示す図である。
FIG. 24 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.

【図25】図25(A)、(B)、(C)は、本実施形
態が適用される種々の形態のシステムの例を示す図であ
る。
FIGS. 25A, 25B, and 25C are diagrams showing examples of various types of systems to which the present embodiment is applied;

【符号の説明】[Explanation of symbols]

CTEX1〜N 圧縮テクスチャ ETEX1〜N 伸張テクスチャ OB、OB1、OB2、OB3 オブジェクト LUT、LUT1、LUT2 ルックアップテーブル 100 処理部 110 移動・動作演算部 112 仮想カメラ制御部 114 オブジェクト空間設定部 116 伸張部 118 変換部 120 画像生成部 122 テクスチャマッピング部 124 α合成部 130 音生成部 160 操作部 170 記憶部 172 主記憶部 174 描画バッファ 176 テクスチャ記憶部 178 LUT記憶部 180 情報記憶媒体 190 表示部 192 音出力部 194 携帯型情報記憶装置 196 通信部 CTEX1-N Compressed texture ETEX1-N Expanded texture OB, OB1, OB2, OB3 Object LUT, LUT1, LUT2 Look-up table 100 Processing unit 110 Movement / motion operation unit 112 Virtual camera control unit 114 Object space setting unit 116 Expansion unit 118 Conversion Unit 120 image generation unit 122 texture mapping unit 124 α synthesis unit 130 sound generation unit 160 operation unit 170 storage unit 172 main storage unit 174 drawing buffer 176 texture storage unit 178 LUT storage unit 180 information storage medium 190 display unit 192 sound output unit 194 Portable information storage device 196 Communication unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) // A63F 13/00 A63F 13/08 13/08 H04N 7/13 Z Fターム(参考) 2C001 AA03 AA06 AA09 BA01 BA03 BA06 BC01 BC03 BC06 BC08 CB01 CB02 CB03 CC02 CC03 DA04 5B080 FA02 FA03 FA08 FA17 GA22 5C023 AA06 AA17 AA37 BA01 BA11 CA01 CA08 5C059 MA00 MA23 MC11 MC38 ME02 PP05 PP15 PP19 PP22 RC19 UA02 5C066 AA09 AA12 AA13 CA21 ED02 ED04 EE01 GA01 HA01 KE02 KE03 KF05 KM11 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) // A63F 13/00 A63F 13/08 13/08 H04N 7/13 Z F term (Reference) 2C001 AA03 AA06 AA09 BA01 BA03 BA06 BC01 BC03 BC06 BC08 CB01 CB02 CB03 CC02 CC03 DA04 5B080 FA02 FA03 FA08 FA17 GA22 5C023 AA06 AA17 AA37 BA01 BA11 CA01 CA08 5C059 MA00 MA23 MC11 MC38 ME02 PP05 PP15 PP19 PP22 RC19 UA02 EA02 EA02 A01A01 EA02 KE03 KF05 KM11

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 画像生成を行う画像生成システムであっ
て、 元画像の圧縮色データを伸長し、伸長色データを出力す
る伸長手段と、 得られた伸長色データを、色データとα値とを対応づけ
る所与の変換規則にしたがって、α値に変換する手段
と、 変換により得られたα値に基づいて画像を生成する手段
と、 を含むことを特徴とする画像生成システム。
1. An image generation system for generating an image, comprising: a decompression means for decompressing compressed color data of an original image and outputting decompressed color data; An image generation system, comprising: means for converting to an α value in accordance with a given conversion rule for associating, and means for generating an image based on the α value obtained by the conversion.
【請求項2】 請求項1において、 前記所与の変換規則により、 表示物の輪郭付近での色データが、表示物を半透明にす
るα値に対応づけられることを特徴とする画像生成シス
テム。
2. The image generation system according to claim 1, wherein the color data near the outline of the display object is associated with an α value that makes the display object translucent by the given conversion rule. .
【請求項3】 請求項2において、 前記表示物が炎を表す表示物であり、 前記所与の変換規則により、 赤の色データが、表示物を半透明にするα値に対応づけ
られることを特徴とする画像生成システム。
3. The display object according to claim 2, wherein the display object is a display object representing a flame, and the given conversion rule associates red color data with an α value that makes the display object translucent. An image generation system characterized by the following.
【請求項4】 請求項1において、 前記元画像が、ブルーバック又はグリーンバックの画像
を含み、 前記所与の変換規則により、 青又は緑の色データが、表示物を透明にするα値に対応
づけられることを特徴とする画像生成システム。
4. The method according to claim 1, wherein the original image includes a blue-back image or a green-back image, and according to the given conversion rule, blue or green color data is converted to an α value that makes a display object transparent. An image generation system characterized by being associated.
【請求項5】 請求項1乃至4のいずれかにおいて、 伸長色データと変換により得られたα値とに基づいて、
α合成処理が行われることを特徴とする画像生成システ
ム。
5. The method according to claim 1, wherein: based on the extended color data and the α value obtained by the conversion,
An image generation system characterized by performing an α synthesis process.
【請求項6】 請求項1乃至5のいずれかにおいて、 色データとα値とを対応づけるルックアップテーブルに
基づいて、伸長色データがα値に変換されることを特徴
とする画像生成システム。
6. The image generation system according to claim 1, wherein the expanded color data is converted to an α value based on a look-up table that associates the color data with an α value.
【請求項7】 請求項1乃至6のいずれかにおいて、 色データとインデックス番号とを対応づける第1のルッ
クアップテーブルに基づいて、伸長色データがインデッ
クス番号に変換され、 インデックス番号とα値とを対応づける第2のルックア
ップテーブルを用いたインデックスカラーテクスチャマ
ッピングにより、インデックス番号がα値に変換される
ことを特徴とする画像生成システム。
7. The expanded color data according to claim 1, wherein the expanded color data is converted into an index number based on a first look-up table that associates the color data with an index number. An index number is converted to an α value by an index color texture mapping using a second look-up table that maps
【請求項8】 請求項7において、 前記第2のルックアップテーブルが、インデックス番号
と色データ及びα値とを対応づけるルックアップテーブ
ルであり、 前記第2のルックアップテーブルを用いたインデックス
カラーテクスチャマッピングにより、インデックス番号
が色データ及びα値に変換され、変換により得られた色
データ及びα値に基づいて、α合成処理が行われること
を特徴とする画像生成システム。
8. The index color texture according to claim 7, wherein the second look-up table is a look-up table that associates an index number with color data and an α value. An image generation system, wherein an index number is converted into color data and an α value by mapping, and α synthesis processing is performed based on the color data and the α value obtained by the conversion.
【請求項9】 請求項1乃至8のいずれかにおいて、 前記圧縮色データが、圧縮ムービーテクスチャが含む圧
縮テクスチャであり、 前記伸長色データが、前記圧縮テクスチャを伸長するこ
とで得られる伸長テクスチャであることを特徴とする画
像生成システム。
9. The compressed color data according to claim 1, wherein the compressed color data is a compressed texture included in a compressed movie texture, and the decompressed color data is a decompressed texture obtained by decompressing the compressed texture. An image generation system, comprising:
【請求項10】 コンピュータ使用可能なプログラムで
あって、 元画像の圧縮色データを伸長し、伸長色データを出力す
る伸長手段と、 得られた伸長色データを、色データとα値とを対応づけ
る所与の変換規則にしたがって、α値に変換する手段
と、 変換により得られたα値に基づいて画像を生成する手段
と、 をコンピュータに実現させることを特徴とするプログラ
ム。
10. A computer-usable program, comprising: decompression means for decompressing compressed color data of an original image and outputting decompressed color data; and obtaining the decompressed color data by associating color data with an α value. A program for causing a computer to realize: a means for converting to an α value according to a given conversion rule; and a means for generating an image based on the α value obtained by the conversion.
【請求項11】 請求項10において、 前記所与の変換規則により、 表示物の輪郭付近での色データが、表示物を半透明にす
るα値に対応づけられることを特徴とするプログラム。
11. The non-transitory computer-readable storage medium according to claim 10, wherein the given conversion rule associates color data near the outline of the display object with an α value that makes the display object translucent.
【請求項12】 請求項11において、 前記表示物が炎を表す表示物であり、 前記所与の変換規則により、 赤の色データが、表示物を半透明にするα値に対応づけ
られることを特徴とするプログラム。
12. The display object according to claim 11, wherein the display object is a display object representing a flame, and the given conversion rule associates the red color data with an α value that makes the display object translucent. A program characterized by:
【請求項13】 請求項10において、 前記元画像が、ブルーバック又はグリーンバックの画像
を含み、 前記所与の変換規則により、 青又は緑の色データが、表示物を透明にするα値に対応
づけられることを特徴とするプログラム。
13. The image processing apparatus according to claim 10, wherein the original image includes a blue-back image or a green-back image, and according to the given conversion rule, blue or green color data is converted to an α value that makes a display object transparent. A program characterized by being associated.
【請求項14】 請求項10乃至13のいずれかにおい
て、 伸長色データと変換により得られたα値とに基づいて、
α合成処理が行われることを特徴とするプログラム。
14. The image processing apparatus according to claim 10, wherein: based on the expanded color data and the α value obtained by the conversion,
A program characterized by performing an α synthesis process.
【請求項15】 請求項10乃至14のいずれかにおい
て、 色データとα値とを対応づけるルックアップテーブルに
基づいて、伸長色データがα値に変換されることを特徴
とするプログラム。
15. The program according to claim 10, wherein the expanded color data is converted to an α value based on a look-up table that associates the color data with an α value.
【請求項16】 請求項10乃至15のいずれかにおい
て、 色データとインデックス番号とを対応づける第1のルッ
クアップテーブルに基づいて、伸長色データがインデッ
クス番号に変換され、 インデックス番号とα値とを対応づける第2のルックア
ップテーブルを用いたインデックスカラーテクスチャマ
ッピングにより、インデックス番号がα値に変換される
ことを特徴とするプログラム。
16. The expanded color data according to claim 10, wherein the expanded color data is converted into an index number based on a first look-up table that associates the color data with the index number. The index number is converted to an α value by index color texture mapping using a second look-up table that associates
【請求項17】 請求項16において、 前記第2のルックアップテーブルが、インデックス番号
と色データ及びα値とを対応づけるルックアップテーブ
ルであり、 前記第2のルックアップテーブルを用いたインデックス
カラーテクスチャマッピングにより、インデックス番号
が色データ及びα値に変換され、変換により得られた色
データ及びα値に基づいて、α合成処理が行われること
を特徴とするプログラム。
17. The index color texture according to claim 16, wherein the second look-up table is a look-up table that associates an index number with color data and an α value. A program wherein an index number is converted into color data and an α value by mapping, and α synthesis processing is performed based on the color data and the α value obtained by the conversion.
【請求項18】 請求項10乃至17のいずれかにおい
て、 前記圧縮色データが、圧縮ムービーテクスチャが含む圧
縮テクスチャであり、 前記伸長色データが、前記圧縮テクスチャを伸長するこ
とで得られる伸長テクスチャであることを特徴とするプ
ログラム。
18. The compressed color data according to claim 10, wherein the compressed color data is a compressed texture included in a compressed movie texture, and the decompressed color data is a decompressed texture obtained by decompressing the compressed texture. A program characterized by the following.
【請求項19】 コンピュータにより読み取り可能な情
報記憶媒体であって、請求項10乃至18のいずれかの
プログラムを含むことを特徴とする情報記憶媒体。
19. An information storage medium readable by a computer, wherein the information storage medium includes the program according to claim 10. Description:
JP2001081252A 2001-03-21 2001-03-21 Image generation system, program, and information storage medium Expired - Fee Related JP3449993B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001081252A JP3449993B2 (en) 2001-03-21 2001-03-21 Image generation system, program, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001081252A JP3449993B2 (en) 2001-03-21 2001-03-21 Image generation system, program, and information storage medium

Publications (2)

Publication Number Publication Date
JP2002279447A true JP2002279447A (en) 2002-09-27
JP3449993B2 JP3449993B2 (en) 2003-09-22

Family

ID=18937391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001081252A Expired - Fee Related JP3449993B2 (en) 2001-03-21 2001-03-21 Image generation system, program, and information storage medium

Country Status (1)

Country Link
JP (1) JP3449993B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005251193A (en) * 2004-02-18 2005-09-15 Harman Becker Automotive Systems Gmbh Image processor
JP2006004364A (en) * 2004-06-21 2006-01-05 Namco Ltd Program, information storage medium and image generation system
JP2007241868A (en) * 2006-03-10 2007-09-20 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2008022911A (en) * 2006-07-18 2008-02-07 Takeya Co Ltd Game machine
JP2008022909A (en) * 2006-07-18 2008-02-07 Takeya Co Ltd Game machine
JP2008022910A (en) * 2006-07-18 2008-02-07 Takeya Co Ltd Game machine
JP2010098743A (en) * 2008-10-20 2010-04-30 Toshiba Corp Image processing device, image reading device, and image processing method
JP2011024709A (en) * 2009-07-23 2011-02-10 Daito Giken:Kk Game machine
JP2016097070A (en) * 2014-11-21 2016-05-30 株式会社ユニバーサルエンターテインメント Game machine
JP2018089485A (en) * 2018-03-16 2018-06-14 株式会社ユニバーサルエンターテインメント Game machine

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4591576B2 (en) 2008-08-18 2010-12-01 ソニー株式会社 Image processing apparatus, image processing method, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005251193A (en) * 2004-02-18 2005-09-15 Harman Becker Automotive Systems Gmbh Image processor
JP2006004364A (en) * 2004-06-21 2006-01-05 Namco Ltd Program, information storage medium and image generation system
JP4521811B2 (en) * 2004-06-21 2010-08-11 株式会社バンダイナムコゲームス Program, information storage medium, and image generation system
JP2007241868A (en) * 2006-03-10 2007-09-20 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2008022911A (en) * 2006-07-18 2008-02-07 Takeya Co Ltd Game machine
JP2008022909A (en) * 2006-07-18 2008-02-07 Takeya Co Ltd Game machine
JP2008022910A (en) * 2006-07-18 2008-02-07 Takeya Co Ltd Game machine
JP2010098743A (en) * 2008-10-20 2010-04-30 Toshiba Corp Image processing device, image reading device, and image processing method
JP2011024709A (en) * 2009-07-23 2011-02-10 Daito Giken:Kk Game machine
JP2016097070A (en) * 2014-11-21 2016-05-30 株式会社ユニバーサルエンターテインメント Game machine
JP2018089485A (en) * 2018-03-16 2018-06-14 株式会社ユニバーサルエンターテインメント Game machine

Also Published As

Publication number Publication date
JP3449993B2 (en) 2003-09-22

Similar Documents

Publication Publication Date Title
JP4610747B2 (en) Image generation system, program, and information storage medium
JP2006318389A (en) Program, information storage medium, and image generation system
JP4804120B2 (en) Program, information storage medium, and image generation system
JP3449993B2 (en) Image generation system, program, and information storage medium
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP4187188B2 (en) Image generation system, program, and information storage medium
JP4610748B2 (en) Image generation system, program, and information storage medium
JP2001319244A (en) Game system and information storage medium
JP4530314B2 (en) GAME SYSTEM, INFORMATION STORAGE MEDIUM, AND COMPRESSED DATA GENERATION METHOD
JP3280355B2 (en) Image generation system and information storage medium
JP4502678B2 (en) Program, information storage medium, and image generation system
JP2006252426A (en) Program, information storage medium, and image generation system
JP4073031B2 (en) Program, information storage medium, and image generation system
JP3467259B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP3297410B2 (en) Image generation system and information storage medium
JP4651204B2 (en) Image generation system, program, and information storage medium
JP2002063591A (en) Game system, program and information storage medium
JP4913399B2 (en) Program, information storage medium, and image generation system
JP4656617B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4056035B2 (en) Image generation system, program, and information storage medium
JP4913898B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP2004038639A (en) System for generating picture, program and medium for recording information
JP2006277488A (en) Program, information storage medium and image generation system
JP4521811B2 (en) Program, information storage medium, and image generation system
JP2006252427A (en) Program, information storage medium and image generation system

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030610

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080711

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080711

Year of fee payment: 5

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090711

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090711

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090711

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100711

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100711

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110711

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110711

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110711

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110711

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees