JP2002163671A - Game system, program and information storage medium - Google Patents

Game system, program and information storage medium

Info

Publication number
JP2002163671A
JP2002163671A JP2000359195A JP2000359195A JP2002163671A JP 2002163671 A JP2002163671 A JP 2002163671A JP 2000359195 A JP2000359195 A JP 2000359195A JP 2000359195 A JP2000359195 A JP 2000359195A JP 2002163671 A JP2002163671 A JP 2002163671A
Authority
JP
Japan
Prior art keywords
image
edge
information
original image
blurred
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000359195A
Other languages
Japanese (ja)
Inventor
Naohiro Saito
直宏 斎藤
Akiko Wakabayashi
明子 若林
Shigeru Kikko
繁 橘高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2000359195A priority Critical patent/JP2002163671A/en
Publication of JP2002163671A publication Critical patent/JP2002163671A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a game system capable of realizing antialiasing processing with a small processing load, and to provide a program and an information storage medium. SOLUTION: The edge information of an original image OR is extracted and an edge-blurred image of the OR is generated on the basis of the edge information of the OR and a blurred image BM. The edge-blurred image is generated by performing-composition processing of the original image OR and the blurred image BM on the basis of an αvalue included in the edge information and performing comparison processing of a depth value between the OR and the BM on the basis of a depth value included in the edge information. The α value is calculated by applying index color texture mapping to an image size polygon by using a lookup table in which the color of an edge image is set as an index number. The blurred image is generated by mapping the original image to a polygon of an image size by a bilinear filter method with the original image set as texture while shifting texture coordinates. Edge blurring processing is omitted in an overlay object for displaying a score and life.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ゲームシステム、
プログラム及び情報記憶媒体に関する。
[0001] The present invention relates to a game system,
The present invention relates to a program and an information storage medium.

【0002】[0002]

【背景技術及び発明が解決しようとする課題】従来よ
り、仮想的な3次元空間であるオブジェクト空間内にお
いて仮想カメラ(所与の視点)から見える画像を生成す
るゲームシステムが知られており、いわゆる仮想現実を
体験できるものとして人気が高い。格闘ゲームを楽しむ
ことができるゲームシステムを例にとれば、プレーヤ
(操作者)は、キャラクタ(オブジェクト)を操作し、
他のプレーヤ又はコンピュータが操作するキャラクタと
対戦させてゲームを楽しむ。
2. Description of the Related Art Conventionally, there has been known a game system for generating an image viewed from a virtual camera (given viewpoint) in an object space which is a virtual three-dimensional space. It is popular for experiencing virtual reality. Taking a game system that can enjoy a fighting game as an example, a player (operator) operates a character (object),
Enjoy the game by playing against another player or a character operated by a computer.

【0003】さて、このようなゲームシステムでは、画
面に発生するジャギーを低減するために、アンチエリア
シング処理を行うことが望ましい。そして、このアンチ
エリアシング処理の手法としては、例えば、投影面や仮
想カメラを微少移動させて複数回のレンダリングを行う
手法や、各ポリゴンが画面上のピクセルを覆う面積を求
め、その面積に応じたレンダリングを行う手法などを考
えることができる。
[0003] In such a game system, it is desirable to perform anti-aliasing processing in order to reduce jaggies occurring on the screen. Examples of the anti-aliasing method include a method of performing rendering a plurality of times by slightly moving a projection plane or a virtual camera, and calculating an area where each polygon covers a pixel on a screen, and according to the area. For example, a method of performing rendering can be considered.

【0004】しかしながら、これらの手法では、3次元
処理の負担が増加してしまい、画像のレンダリングを1
フレーム(1/60秒、1/30秒)以内に完了させる
というリアルタイム処理の要請に応えることが難しい。
[0004] However, these methods increase the burden of three-dimensional processing, and render image rendering in one way.
It is difficult to meet the demand for real-time processing to complete within a frame (1/60 second, 1/30 second).

【0005】一方、2次元処理によりジャギーを低減す
る手法として、画面全体をぼかす手法も考えることがで
きるが、この手法には、画面全体がぼけた絵になってし
まうという欠点がある。
On the other hand, as a technique for reducing jaggies by two-dimensional processing, a technique for blurring the entire screen can be considered, but this technique has a drawback that the entire screen is blurred.

【0006】本発明は、以上のような課題に鑑みてなさ
れたものであり、その目的とするところは、少ない処理
負荷でアンチエリアシング処理を実現できるゲームシス
テム、プログラム及び情報記憶媒体を提供することにあ
る。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has as its object to provide a game system, a program, and an information storage medium capable of implementing an anti-aliasing process with a small processing load. It is in.

【0007】[0007]

【課題を解決するための手段】上記課題を解決するため
に、本発明は、画像生成を行うゲームシステムであっ
て、元画像のエッジを特定するための情報であるエッジ
情報を抽出する手段と、抽出されたエッジ情報と元画像
のぼかし画像とに基づいて、元画像のエッジがぼけた画
像を生成する手段とを含むことを特徴とする。また本発
明に係るプログラムは、コンピュータにより使用可能な
プログラム(情報記憶媒体又は搬送波に具現化されるプ
ログラム)であって、上記手段をコンピュータに実現さ
せることを特徴とする。また本発明に係る情報記憶媒体
は、コンピュータにより使用可能な情報記憶媒体であっ
て、上記手段をコンピュータに実現させるためのプログ
ラムを含むことを特徴とする。
According to one aspect of the present invention, there is provided a game system for generating an image, comprising: means for extracting edge information which is information for specifying an edge of an original image; Means for generating an image having blurred edges of the original image based on the extracted edge information and the blurred image of the original image. Further, a program according to the present invention is a program usable by a computer (a program embodied in an information storage medium or a carrier wave), and is characterized by causing the computer to realize the above means. An information storage medium according to the present invention is an information storage medium that can be used by a computer, and includes a program for causing a computer to realize the above means.

【0008】本発明によれば、元画像のエッジ情報が抽
出され、この抽出されたエッジ情報と、元画像のぼかし
画像とに基づいて、元画像のエッジがぼけた画像が生成
される。従って、元画像のエッジ領域ではぼかし画像が
表示される一方で、それ以外の領域ではぼけてない元画
像が表示されるような画像を生成できるようになり、ア
ンチエリアシング処理を実現しながら、高品質な画像を
提供できる。
According to the present invention, edge information of an original image is extracted, and an image in which edges of the original image are blurred is generated based on the extracted edge information and a blurred image of the original image. Therefore, it is possible to generate an image in which a blurred image is displayed in the edge region of the original image, but an unblurred original image is displayed in other regions, and while realizing the anti-aliasing process, High quality images can be provided.

【0009】なお、エッジ情報は例えば元画像に基づい
て抽出することができる。また、ぼかし画像は、元画像
に基づいてリアルタイムに生成することが望ましいが、
予め用意しておいてもよい。また、抽出されるエッジ情
報としては、α値、奥行き値等の種々の情報を考えるこ
とができ、すくなくとも元画像のエッジを特定できるよ
うな情報であればよい。また、元画像は、例えば、ジオ
メトリ処理後のオブジェクトを描画バッファに描画する
ことで生成される。
The edge information can be extracted based on, for example, an original image. Also, it is desirable to generate the blurred image in real time based on the original image,
It may be prepared in advance. Further, as the edge information to be extracted, various information such as an α value and a depth value can be considered, and any information that can specify at least the edge of the original image may be used. The original image is generated, for example, by drawing the object after the geometry processing in the drawing buffer.

【0010】また本発明に係るゲームシステム、プログ
ラム及び情報記憶媒体は、前記エッジ情報が、元画像の
エッジ領域とそれ以外の領域とで異なった値が設定され
るα値の情報であり、前記エッジ情報が含むα値に基づ
いて元画像と元画像のぼかし画像とのα合成処理を行う
ことで、元画像のエッジがぼけた画像が生成されること
を特徴とする。
Further, in the game system, the program and the information storage medium according to the present invention, the edge information is information of α value in which a different value is set between an edge area of the original image and other areas. An image in which the edge of the original image is blurred is generated by performing the α synthesis processing of the original image and the blurred image of the original image based on the α value included in the edge information.

【0011】このようにすれば、元画像のエッジ領域で
はα合成処理(αマスク処理)によりぼかし画像が表示
され、それ以外の領域ではα合成処理により元画像が表
示されるようになり、少ない処理負荷でアンチエリアシ
ング処理を実現できる。
With this arrangement, a blurred image is displayed by the α synthesis processing (α mask processing) in the edge area of the original image, and the original image is displayed by the α synthesis processing in other areas. An anti-aliasing process can be realized with a processing load.

【0012】また本発明に係るゲームシステム、プログ
ラム及び情報記憶媒体は、元画像に基づき生成されたエ
ッジ画像の情報がインデックス番号として設定されたル
ックアップテーブルを用いて、仮想オブジェクトに対し
てインデックスカラー・テクスチャマッピングを行うこ
とで、前記α値の情報が求められることを特徴とする。
Further, the game system, the program and the information storage medium according to the present invention use the look-up table in which the information of the edge image generated based on the original image is set as the index number, to index color the virtual object. -The information of the α value is obtained by performing texture mapping.

【0013】このようにすれば、1又は複数回のインデ
ックスカラー・テクスチャマッピングを行うだけで、α
合成処理のためのα値(エッジ画像の情報に応じたα
値)を得ることが可能となり、処理負荷の軽減化を図れ
る。
By doing so, the index color texture mapping is performed only once or a plurality of times, and α
Α value for synthesis processing (α value corresponding to edge image information
Value) can be obtained, and the processing load can be reduced.

【0014】なお、仮想オブジェクトは、ポリゴンなど
のプリミティブ面であることが望ましいが、立体的なオ
ブジェクトであってもよい。また、仮想オブジェクトは
画面上に表示しないことが望ましいが、表示するように
してもよい。
The virtual object is preferably a primitive surface such as a polygon, but may be a three-dimensional object. Although it is desirable that the virtual object is not displayed on the screen, it may be displayed.

【0015】また本発明に係るゲームシステム、プログ
ラム及び情報記憶媒体は、前記エッジ情報が、元画像の
エッジ領域とそれ以外の領域とで異なった値が設定され
る奥行き値の情報であり、前記エッジ情報が含む奥行き
値に基づいて元画像と元画像のぼかし画像との奥行き値
比較処理を行うことで、元画像のエッジがぼけた画像が
生成されることを特徴とする。
In the game system, the program, and the information storage medium according to the present invention, the edge information is information of a depth value in which a different value is set between an edge area of the original image and another area. By performing a depth value comparison process between the original image and a blurred image of the original image based on the depth value included in the edge information, an image in which the edge of the original image is blurred is generated.

【0016】このようにすれば、元画像のエッジ領域で
は奥行き値比較処理(陰面消去処理、Zテスト処理)に
よりぼかし画像が表示され、それ以外の領域では奥行き
値比較処理により元画像が表示されるようになり、少な
い処理負荷でアンチエリアシング処理を実現できる。
In this way, a blurred image is displayed in the edge area of the original image by the depth value comparison processing (hidden surface elimination processing, Z test processing), and the original image is displayed in the other areas by the depth value comparison processing. As a result, anti-aliasing processing can be realized with a small processing load.

【0017】また本発明に係るゲームシステム、プログ
ラム及び情報記憶媒体は、元画像に基づき生成されたエ
ッジ画像の情報が奥行き値として奥行き値バッファに設
定され、該奥行き値バッファを用いて、元画像のエッジ
領域では元画像の描画が不許可となりぼかし画像の描画
が許可される奥行き比較処理が行われることを特徴とす
る。
In the game system, the program and the information storage medium according to the present invention, the information of the edge image generated based on the original image is set in the depth value buffer as the depth value, and the original image is used by using the depth value buffer. In the edge region, the drawing of the original image is not permitted, and the depth comparison process of permitting the drawing of the blurred image is performed.

【0018】このようにすれば、例えば、奥行きバッフ
ァを用いた奥行き比較処理をハードウェアにより実現で
きる場合に、このハードウェアを有効利用して元画像の
エッジがぼけた画像を生成できるようになり、ソフトウ
ェアの処理負荷を軽減化できる。
According to this configuration, for example, when the depth comparison process using the depth buffer can be realized by hardware, an image in which the edge of the original image is blurred can be generated by effectively using the hardware. In addition, the processing load of software can be reduced.

【0019】また本発明に係るゲームシステム、プログ
ラム及び情報記憶媒体は、元画像を複数の異なる方向に
微少値だけずらして描画バッファに重ねて描画し、得ら
れた画像と元画像とに基づく画像演算処理を行うことで
元画像のエッジ画像が生成され、生成されたエッジ画像
に基づいて前記エッジ情報が抽出されることを特徴とす
る。
Further, the game system, the program and the information storage medium according to the present invention provide an image based on the obtained image and the original image by shifting the original image by a small value in a plurality of different directions so as to overlap the drawing buffer. An edge image of the original image is generated by performing the arithmetic processing, and the edge information is extracted based on the generated edge image.

【0020】このようにすれば、元画像を複数の異なる
方向に微少値だけずらして描画バッファに描画し、得ら
れた画像と元画像とに基づく画像演算処理(例えば画像
の減算処理、加算処理又はそれを組み合わせた処理等)
を行うだけという負荷の少ない処理で、エッジ画像を生
成し、エッジ情報を抽出できるようになる。なお、複数
の異なる方向としては、例えば、左上、左下、右上、右
下や、上、下、左、右などを考えることができる。
In this way, the original image is drawn in the drawing buffer by shifting it by a small value in a plurality of different directions, and image calculation processing (eg, image subtraction processing, addition processing, etc.) based on the obtained image and the original image is performed. Or a combination of these)
, An edge image can be generated and edge information can be extracted by a process with a small load of merely performing. The plurality of different directions may be, for example, upper left, lower left, upper right, lower right, upper, lower, left, right, and the like.

【0021】また本発明に係るゲームシステム、プログ
ラム及び情報記憶媒体は、元画像をテクスチャとして設
定し、設定されたテクスチャを、テクスチャ座標をシフ
トさせながらテクセル補間方式で仮想オブジェクトにマ
ッピングし、得られた画像と元画像とに基づく画像演算
処理を行うことで元画像のエッジ画像が生成され、生成
されたエッジ画像に基づいて前記エッジ情報が抽出され
ることを特徴とする。
The game system, the program and the information storage medium according to the present invention are obtained by setting an original image as a texture and mapping the set texture to a virtual object by a texel interpolation method while shifting texture coordinates. An edge image of the original image is generated by performing image calculation processing based on the generated image and the original image, and the edge information is extracted based on the generated edge image.

【0022】このようにすれば、1又は複数回のテクセ
ル補間方式でのテクスチャマッピングを行い、得られた
画像と元画像とに基づく画像演算処理(例えば画像の減
算処理、加算処理又はそれを組み合わせた処理等)を行
うだけで、エッジ画像を生成し、エッジ情報を抽出でき
るようになり、処理負荷の軽減化を図れる。
In this way, texture mapping is performed one or more times by the texel interpolation method, and image calculation processing (for example, image subtraction processing, addition processing, or a combination thereof) is performed based on the obtained image and the original image. , The edge image can be generated and the edge information can be extracted, and the processing load can be reduced.

【0023】また本発明に係るゲームシステム、プログ
ラム及び及び情報記憶媒体は、元画像をテクスチャとし
て設定し、設定されたテクスチャを、テクスチャ座標を
シフトさせながらテクセル補間方式で仮想オブジェクト
にマッピングすることで元画像のぼかし画像が生成され
ることを特徴とする。
Further, the game system, the program and the information storage medium according to the present invention set the original image as a texture, and map the set texture to the virtual object by the texel interpolation method while shifting the texture coordinates. A blurred image of the original image is generated.

【0024】このようにすれば、1又は複数回のテクセ
ル補間方式でのテクスチャマッピングを行うだけで、ぼ
かし画像を生成できるようになる。
In this way, a blurred image can be generated only by performing texture mapping by one or more texel interpolation methods.

【0025】なお、テクセル補間方式とは、特には限定
はされないが、テクセルの画像情報を補間してピクセル
の画像情報を得る方式などであり、例えば、バイリニア
フィルタ方式やトライリニアフィルタ方式などを考える
ことができる。
The texel interpolation method is not particularly limited, but is a method of interpolating texel image information to obtain pixel image information. For example, a bilinear filter method or a trilinear filter method is considered. be able to.

【0026】また、テクセル補間方式のテクスチャマッ
ピングでエッジ画像やぼかし画像を生成する場合には、
テクスチャ座標を1テクセル(1ピクセル)よりも小さ
い値だけシフトさせることが望ましい。また、テクスチ
ャ座標を第1のシフト方向へシフトさせてテクセル補間
方式でテクスチャマッピングを行った後に、テクスチャ
座標を第2のシフト方向にシフトさせてテクセル補間方
式でテクスチャマッピングを行ってもよい。或いは、第
1のシフト方向へのシフトと第2のシフト方向へのシフ
トのセットを、複数回繰り返してもよい。
When an edge image or a blurred image is generated by texel interpolation type texture mapping,
It is desirable to shift the texture coordinates by less than one texel (one pixel). After texture mapping is performed in the first shift direction and texture mapping is performed by the texel interpolation method, texture mapping may be performed in the second shift direction and texture mapping is performed by the texel interpolation method. Alternatively, the setting of the shift in the first shift direction and the shift in the second shift direction may be repeated a plurality of times.

【0027】また本発明は、画像生成を行うゲームシス
テムであって、所与の画像情報が含む色情報の第1の色
成分を、インデックスカラー・テクスチャマッピング用
のルックアップテーブルのインデックス番号に設定し、
該ルックアップテーブルを用いて仮想オブジェクトに対
してインデックスカラー・テクスチャマッピングを行う
ことで生成される第1の画像情報と、前記所与の画像情
報が含む色情報の第2の色成分を、インデックスカラー
・テクスチャマッピング用のルックアップテーブルのイ
ンデックス番号に設定し、該ルックアップテーブルを用
いて仮想オブジェクトに対してインデックスカラー・テ
クスチャマッピングを行うことで生成される第2の画像
情報と、前記所与の画像情報が含む色情報の第3の色成
分を、インデックスカラー・テクスチャマッピング用の
ルックアップテーブルのインデックス番号に設定し、該
ルックアップテーブルを用いて仮想オブジェクトに対し
てインデックスカラー・テクスチャマッピングを行うこ
とで生成される第3の画像情報とを合成し、第4の画像
情報を生成する手段と、前記第4の画像情報が含む色情
報の所与の色成分を、インデックスカラー・テクスチャ
マッピング用のルックアップテーブルのインデックス番
号に設定し、該ルックアップテーブルを用いて仮想オブ
ジェクトに対してインデックスカラー・テクスチャマッ
ピングを行うことで、前記所与の画像情報に応じたα値
を生成する手段とを含むことを特徴とする。また本発明
に係るプログラムは、コンピュータにより使用可能なプ
ログラム(情報記憶媒体又は搬送波に具現化されるプロ
グラム)であって、上記手段をコンピュータに実現させ
ることを特徴とする。また本発明に係る情報記憶媒体
は、コンピュータにより使用可能な情報記憶媒体であっ
て、上記手段をコンピュータに実現させるためのプログ
ラムを含むことを特徴とする。
According to the present invention, there is provided a game system for generating an image, wherein a first color component of color information included in given image information is set to an index number of a lookup table for index color / texture mapping. And
The first image information generated by performing the index color / texture mapping on the virtual object using the look-up table, and the second color component of the color information included in the given image information are indexed. A second image information generated by setting an index number of a lookup table for color / texture mapping and performing an index color / texture mapping on the virtual object using the lookup table; Is set to the index number of the lookup table for the index color / texture mapping, and the index color / texture mapping is performed on the virtual object using the lookup table. The first generated by doing Means for generating fourth image information by synthesizing the image information of the first color image information with a predetermined color component of the color information included in the fourth image information by using an index number of a lookup table for index color / texture mapping And performing an index color / texture mapping on the virtual object using the lookup table to generate an α value corresponding to the given image information. Further, a program according to the present invention is a program usable by a computer (a program embodied in an information storage medium or a carrier wave), and is characterized by causing the computer to realize the above means. An information storage medium according to the present invention is an information storage medium that can be used by a computer, and includes a program for causing a computer to realize the above means.

【0028】本発明によれば、ルックアップテーブルを
用いたインデックスカラー・テクスチャマッピングを利
用して、所与の画像情報から第1、第2、第3の画像情
報が生成される。そして、これらの第1、第2、第3の
画像情報を合成(例えば加算合成)することで第4の画
像情報が生成される。そして、ルックアップテーブルを
用いたインデックスカラー・テクスチャマッピングを利
用して、この第4の画像情報がα値に変換され、所与の
画像情報に応じたα値が生成されるようになる。このよ
うにすることで、α値を合成(加算合成)できないよう
なハードウェアを用いた場合にも、所与の画像情報が含
む色情報の第1、第2、第3の色成分に応じたα値を生
成できるようになる。
According to the present invention, first, second, and third image information are generated from given image information by using index color texture mapping using a look-up table. Then, fourth image information is generated by combining (eg, adding and combining) these first, second, and third image information. Then, using the index color / texture mapping using the look-up table, the fourth image information is converted into an α value, and an α value corresponding to given image information is generated. In this way, even when hardware that cannot combine α values (additional combination) is used, it is possible to respond to the first, second, and third color components of the color information included in given image information. Can be generated.

【0029】また本発明は、画像生成を行うゲームシス
テムであって、オブジェクトにジオメトリ処理を施す手
段と、ジオメトリ処理後のオブジェクトにより構成され
る元画像を生成し、描画バッファに描画する描画手段と
を含み、前記描画手段が、元画像に基づいて元画像のエ
ッジがぼけた画像を生成し、描画バッファに描画すると
共に、元画像に重ね書きされるべきオーバレイオブジェ
クトについては、エッジをぼかす処理を省略して描画バ
ッファに描画することを特徴とする。また本発明に係る
プログラムは、コンピュータにより使用可能なプログラ
ム(情報記憶媒体又は搬送波に具現化されるプログラ
ム)であって、上記手段をコンピュータに実現させるこ
とを特徴とする。また本発明に係る情報記憶媒体は、コ
ンピュータにより使用可能な情報記憶媒体であって、上
記手段をコンピュータに実現させるためのプログラムを
含むことを特徴とする。
According to the present invention, there is provided a game system for generating an image, comprising: means for performing a geometry process on an object; and drawing means for generating an original image composed of the object after the geometry processing and drawing the original image in a drawing buffer. Wherein the drawing means generates an image in which the edge of the original image is blurred based on the original image, draws the image in the drawing buffer, and performs a process of blurring the edge for the overlay object to be overwritten on the original image. It is characterized in that drawing is omitted and drawn in the drawing buffer. Further, a program according to the present invention is a program usable by a computer (a program embodied in an information storage medium or a carrier wave), and is characterized by causing the computer to realize the above means. An information storage medium according to the present invention is an information storage medium that can be used by a computer, and includes a program for causing a computer to realize the above means.

【0030】本発明によれば、ジオメトリ処理後のオブ
ジェクトにより構成される元画像についてはエッジぼか
し処理が施される一方で、オーバレイオブジェクトにつ
いてはエッジぼかし処理が施されないようになる。従っ
て、オーバレイオブジェクトが不自然な画像で表示され
てしまう事態を防止でき、生成される画像の高品質化を
図れる。
According to the present invention, the edge blur processing is performed on the original image formed by the objects after the geometry processing, while the edge blur processing is not performed on the overlay object. Therefore, it is possible to prevent a situation in which the overlay object is displayed as an unnatural image, and to improve the quality of the generated image.

【0031】また本発明に係るゲームシステム、プログ
ラム及び情報記憶媒体は、元画像のエッジを特定するた
めの情報であるエッジ情報が抽出され、抽出されたエッ
ジ情報と元画像のぼかし画像とに基づいて、元画像のエ
ッジがぼけた画像が生成されることを特徴とする。
In the game system, the program and the information storage medium according to the present invention, edge information which is information for specifying an edge of an original image is extracted, and based on the extracted edge information and a blurred image of the original image. Thus, an image in which the edge of the original image is blurred is generated.

【0032】このようにすれば、少ない処理負荷で元画
像のエッジをぼかす処理を実現できるようになる。
This makes it possible to realize a process of blurring the edge of the original image with a small processing load.

【0033】[0033]

【発明の実施の形態】以下、本発明の好適な実施形態に
ついて図面を用いて説明する。
Preferred embodiments of the present invention will be described below with reference to the drawings.

【0034】1.構成 図1に、本実施形態のゲームシステム(画像生成システ
ム)の機能ブロック図の一例を示す。なお同図において
本実施形態は、少なくとも処理部100を含めばよく
(或いは処理部100と記憶部170を含めばよく)、
それ以外のブロックについては任意の構成要素とするこ
とができる。
1. Configuration FIG. 1 shows an example of a functional block diagram of a game system (image generation system) of the present embodiment. In this figure, in the present embodiment, at least the processing unit 100 may be included (or the processing unit 100 and the storage unit 170 may be included).
The other blocks can be optional components.

【0035】操作部160は、プレーヤが操作データを
入力するためのものであり、その機能は、レバー、ボタ
ン、マイク、或いは筺体などのハードウェアにより実現
できる。
The operation section 160 is for the player to input operation data, and its function can be realized by hardware such as a lever, a button, a microphone, or a housing.

【0036】記憶部170は、処理部100や通信部1
96などのワーク領域となるもので、その機能はRAM
などのハードウェアにより実現できる。
The storage unit 170 stores the processing unit 100 and the communication unit 1
A work area such as 96
It can be realized by hardware such as.

【0037】情報記憶媒体180(コンピュータにより
使用可能な記憶媒体)は、プログラムやデータなどの情
報を格納するものであり、その機能は、光ディスク(C
D、DVD)、光磁気ディスク(MO)、磁気ディス
ク、ハードディスク、磁気テープ、或いはメモリ(RO
M)などのハードウェアにより実現できる。処理部10
0は、この情報記憶媒体180に格納される情報に基づ
いて本発明(本実施形態)の種々の処理を行う。即ち情
報記憶媒体180には、本発明(本実施形態)の手段
(特に処理部100に含まれるブロック)をコンピュー
タに実現(実行、機能)させるためのプログラム等が格
納され、このプログラムは、1又は複数のモジュール
(オブジェクト指向におけるオブジェクトも含む)を含
む。
An information storage medium 180 (a storage medium usable by a computer) stores information such as programs and data, and has a function of an optical disk (C).
D, DVD), magneto-optical disk (MO), magnetic disk, hard disk, magnetic tape, or memory (RO
M) and the like. Processing unit 10
0 performs various processes of the present invention (the present embodiment) based on the information stored in the information storage medium 180. That is, the information storage medium 180 stores a program for causing a computer to realize (execute, function) the means (particularly, the blocks included in the processing unit 100) of the present invention (the present embodiment). Or a plurality of modules (including objects in the object orientation).

【0038】なお、情報記憶媒体180に格納される情
報の一部又は全部は、システムへの電源投入時等に記憶
部170に転送されることになる。また情報記憶媒体1
80には、本発明の処理を行うためのプログラム、画像
データ、音データ、表示物の形状データ、本発明の処理
を指示するための情報、或いはその指示に従って処理を
行うための情報などを含ませることができる。
Some or all of the information stored in the information storage medium 180 is transferred to the storage unit 170 when the power to the system is turned on. Information storage medium 1
80 includes a program for performing the processing of the present invention, image data, sound data, shape data of a display object, information for instructing the processing of the present invention, information for performing the processing according to the instruction, and the like. Can be made.

【0039】表示部190は、本実施形態により生成さ
れた画像を出力するものであり、その機能は、CRT、
LCD、或いはHMD(ヘッドマウントディスプレイ)
などのハードウェアにより実現できる。
The display unit 190 outputs an image generated according to the present embodiment.
LCD or HMD (Head Mount Display)
It can be realized by hardware such as.

【0040】音出力部192は、本実施形態により生成
された音を出力するものであり、その機能は、スピーカ
などのハードウェアにより実現できる。
The sound output section 192 outputs the sound generated according to the present embodiment, and its function can be realized by hardware such as a speaker.

【0041】携帯型情報記憶装置194は、プレーヤの
個人データやゲームのセーブデータなどが記憶されるも
のであり、この携帯型情報記憶装置194としては、メ
モリカードや携帯型ゲーム装置などを考えることができ
る。
The portable information storage device 194 stores personal data of a player, save data of a game, and the like. The portable information storage device 194 may be a memory card, a portable game device, or the like. Can be.

【0042】通信部196は、外部(例えばホスト装置
や他のゲームシステム)との間で通信を行うための各種
の制御を行うものであり、その機能は、各種プロセッ
サ、或いは通信用ASICなどのハードウェアや、プロ
グラムなどにより実現できる。
The communication unit 196 performs various controls for performing communication with the outside (for example, a host device or another game system), and has a function of various processors or a communication ASIC. This can be realized by hardware, a program, or the like.

【0043】なお本発明(本実施形態)の各手段を実現
するためのプログラム(データ)は、ホスト装置(サー
バー)が有する情報記憶媒体からネットワーク及び通信
部196を介して情報記憶媒体180に配信するように
してもよい。このようなホスト装置(サーバー)の情報
記憶媒体の使用も本発明の範囲内に含まれる。
A program (data) for realizing each unit of the present invention (this embodiment) is distributed from an information storage medium of a host device (server) to an information storage medium 180 via a network and a communication unit 196. You may make it. Use of the information storage medium of such a host device (server) is also included in the scope of the present invention.

【0044】処理部100(プロセッサ)は、操作部1
60からの操作データやプログラムなどに基づいて、ゲ
ーム処理、画像生成処理、或いは音生成処理などの各種
の処理を行う。この場合、処理部100は、記憶部17
0内の主記憶部172をワーク領域として使用して、各
種の処理を行う。
The processing section 100 (processor) includes the operation section 1
Various processes such as a game process, an image generation process, and a sound generation process are performed based on the operation data from 60 or a program. In this case, the processing unit 100
Various processes are performed using the main storage unit 172 in 0 as a work area.

【0045】ここで、処理部100が行うゲーム処理と
しては、コイン(代価)の受け付け処理、各種モードの
設定処理、ゲームの進行処理、選択画面の設定処理、オ
ブジェクト(1又は複数のプリミティブ面)の位置や回
転角度(X、Y又はZ軸回り回転角度)を求める処理、
オブジェクトを動作させる処理(モーション処理)、視
点の位置(仮想カメラの位置)や視線角度(仮想カメラ
の回転角度)を求める処理、マップオブジェクトなどの
オブジェクトをオブジェクト空間へ配置する処理、ヒッ
トチェック処理、ゲーム結果(成果、成績)を演算する
処理、複数のプレーヤが共通のゲーム空間でプレイする
ための処理、或いはゲームオーバー処理などを考えるこ
とができる。
Here, the game processing performed by the processing unit 100 includes coin (price) reception processing, various mode setting processing, game progress processing, selection screen setting processing, and objects (one or more primitive planes). Processing for determining the position and rotation angle (rotation angle about the X, Y or Z axis)
Processing to move objects (motion processing); processing to determine the viewpoint position (virtual camera position) and viewing angle (virtual camera rotation angle); processing to place objects such as map objects in object space; hit check processing; A process for calculating a game result (result, performance), a process for a plurality of players to play in a common game space, a game over process, and the like can be considered.

【0046】また、処理部100は、上記のゲーム処理
結果に基づいて例えばオブジェクト空間内において所与
の視点(仮想カメラ)から見える画像を生成し、表示部
190に出力する。
Further, the processing section 100 generates an image that can be viewed from a given viewpoint (virtual camera) in the object space, for example, based on the result of the game processing, and outputs the generated image to the display section 190.

【0047】更に処理部100は、上記のゲーム処理結
果に基づいて各種の音処理を行い、BGM、効果音、又
は音声などのゲーム音を生成し、音出力部192に出力
する。
Further, the processing section 100 performs various kinds of sound processing based on the results of the game processing, generates game sounds such as BGM, sound effects, and voices, and outputs the generated game sounds to the sound output section 192.

【0048】なお、処理部100の機能は、より好適に
は、ハードウェア(CPU、DSP等のプロセッサ又は
ゲートアレイ等のASIC)とプログラム(ゲームプロ
グラム又はファームウェア等)との組み合わせにより実
現される。但し、処理部100の機能の全てを、ハード
ウェアにより実現してもよいし、その全てをプログラム
により実現してもよい。
The function of the processing section 100 is more preferably realized by a combination of hardware (a processor such as a CPU or a DSP or an ASIC such as a gate array) and a program (a game program or firmware). However, all of the functions of the processing unit 100 may be realized by hardware, or all of the functions may be realized by a program.

【0049】処理部100は、ジオメトリ処理部11
0、描画部120を含む。
The processing unit 100 includes a geometry processing unit 11
0, including the drawing unit 120.

【0050】ここでジオメトリ処理部110は、座標変
換、クリッピング処理、透視変換、或いは光源計算など
の種々のジオメトリ処理(3次元演算)を、1又は複数
のプリミティブ面で構成されるオブジェクトに対して行
う。そしてジオメトリ処理により得られた描画データ
(プリミティブ面の構成点(頂点)に付与される位置座
標、テクスチャ座標、色(輝度)データ、法線ベクトル
或いはα値等)は、例えば記憶部170の主記憶部17
2に保存される。
Here, the geometry processing unit 110 performs various types of geometry processing (three-dimensional operation) such as coordinate transformation, clipping processing, perspective transformation, or light source calculation on an object composed of one or more primitive surfaces. Do. The drawing data (position coordinates, texture coordinates, color (brightness) data, normal vector, α value, etc., assigned to the constituent points (vertexes) of the primitive surface) obtained by the geometry processing are stored in, for example, the main storage 170. Storage unit 17
2 is stored.

【0051】描画部120(エッジ抽出部・エッジぼか
し部)は、上記の描画データ(プリミティブ面データ)
に基づいてジオメトリ処理後のオブジェクト(モデル)
を、描画バッファ174(フレームバッファ、ワークバ
ッファ等のピクセル単位で画像情報を記憶できる領域)
に描画するための処理を行うものである。
The drawing unit 120 (edge extraction unit / edge blurring unit) stores the drawing data (primitive surface data)
Object (model) after geometry processing based on
To the drawing buffer 174 (an area where image information can be stored in pixel units such as a frame buffer and a work buffer).
This is to perform processing for drawing on the.

【0052】より具体的には、本実施形態の描画部12
0は、元画像(例えばジオメトリ処理後のオブジェクト
を描画バッファに描画することで生成される画像)のエ
ッジ情報(元画像のエッジを特定するための情報)を抽
出し、抽出されたエッジ情報と元画像のぼかし画像とに
基づいて、元画像のエッジがぼけた画像を生成する処理
を行う。
More specifically, the drawing unit 12 of the present embodiment
0 extracts edge information (information for specifying an edge of the original image) of the original image (for example, an image generated by drawing an object after the geometry processing in the drawing buffer), and extracts the extracted edge information and Based on the blurred image of the original image, a process of generating an image with blurred edges of the original image is performed.

【0053】描画部120は、テクスチャマッピング部
130、α合成部132、陰面消去部134(奥行き値
比較部)を含む。
The drawing section 120 includes a texture mapping section 130, an α synthesizing section 132, and a hidden surface removing section 134 (depth value comparing section).

【0054】ここでテクスチャマッピング部130は、
テクスチャ記憶部176に記憶されるテクスチャをオブ
ジェクトにマッピングするための処理を行う。この場
合、テクスチャマッピング部130は、LUT記憶部1
78に記憶されるインデックスカラー・テクスチャマッ
ピング用のLUT(ルックアップテーブル)を用いたテ
クスチャマッピングを行うことができる。
Here, the texture mapping unit 130
A process for mapping the texture stored in the texture storage unit 176 to the object is performed. In this case, the texture mapping unit 130 determines that the LUT storage unit 1
Texture mapping using an index color / texture mapping LUT (look-up table) stored at 78 can be performed.

【0055】そして本実施形態では、テクスチャマッピ
ング部130が、元画像又はエッジ画像等の画像情報
(例えば描画バッファに描画される情報であり、色情
報、α値又は奥行き値等)がインデックス番号として設
定されたLUTを用いて、仮想オブジェクト(表示画面
サイズのポリゴン、分割ブロックサイズのポリゴン等)
に対してテクスチャマッピングを行う。これにより、色
情報をα値に変換する処理や種々の画像変換処理(ガン
マ補正、ネガポジ反転、ポスタリゼーション、ソラリゼ
ーション、2値化、モノトーンフィルタ、セピアフィル
タ)を少ない処理負担で実現できるようになる。
In this embodiment, the texture mapping unit 130 uses image information such as an original image or an edge image (for example, information to be drawn in a drawing buffer, such as color information, α value or depth value) as an index number. Using the set LUT, virtual objects (polygons of display screen size, polygons of divided block size, etc.)
Performs texture mapping on. This makes it possible to realize processing for converting color information into α values and various image conversion processing (gamma correction, negative / positive inversion, posterization, solarization, binarization, monotone filter, sepia filter) with a small processing load.

【0056】また本実施形態では、元画像のぼかし画像
又はエッジ画像等の生成処理を、テクセル補間方式(バ
イリニアフィルタ方式、トライリニアフィルタ方式)の
テクスチャマッピングを有効利用して実現している。
In the present embodiment, the processing of generating a blurred image or an edge image of the original image is realized by effectively utilizing the texture mapping of the texel interpolation method (bilinear filter method, trilinear filter method).

【0057】即ち、テクスチャマッピング部130は、
テクスチャとして設定された元画像等を、テクスチャ座
標を例えば1ピクセル(テクセル)よりも小さい値だけ
シフトさせながら(例えば元画像の描画位置に基づき得
られるテクスチャ座標からシフトさせながら)、テクセ
ル補間方式で仮想オブジェクト(ぼかし領域と同一形状
のオブジェクト)にマッピングする。このようにすれ
ば、テクスチャ座標をシフトさせるだけという簡素な処
理で、元画像のぼかし画像やエッジ画像を生成できるよ
うになる。
That is, the texture mapping unit 130
The original image or the like set as a texture is shifted by a value smaller than one pixel (texel), for example, by one pixel (texel) (for example, while shifting from the texture coordinate obtained based on the drawing position of the original image) by the texel interpolation method. Mapping to a virtual object (object having the same shape as the blur area). This makes it possible to generate a blurred image or an edge image of the original image by a simple process of merely shifting the texture coordinates.

【0058】α合成部132(αマスク処理部)は、元
画像とそのぼかし画像等とを、α値(A値)に基づいて
α合成する処理(αブレンディング、α加算又はα減算
等)を行う。例えばα合成がαブレンディングである場
合には、下式のように元画像とぼかし画像とが合成され
る。
The α synthesizing unit 132 (α mask processing unit) performs a process (α blending, α addition or α subtraction) of the original image and its blurred image based on the α value (A value). Do. For example, when the α synthesis is α blending, the original image and the blurred image are synthesized as in the following equation.

【0059】 RQ={1−(α/255)}×R1+(α/255)×R2 (1) GQ={1−(α/255)}×G1+(α/255)×G2 (2) BQ={1−(α/255)}×B1+(α/255)×B2 (3) ここで、R1、G1、B1は、描画バッファ174に既に
描画されている元画像の色(輝度)のR、G、B成分で
あり、R2、G2、B2は、ぼかし画像の色のR、G、B
成分である。またRQ、GQ、BQは、αブレンディング
により生成される画像の色のR、G、B成分である。
R Q = {1- (α / 255)} × R 1 + (α / 255) × R 2 (1) G Q = {1- (α / 255)} × G 1 + (α / 255) ) × G 2 (2) B Q = {1− (α / 255)} × B 1 + (α / 255) × B 2 (3) where R 1 , G 1 and B 1 are the drawing buffer 174 Are the R, G, and B components of the color (luminance) of the original image that has already been drawn, and R 2 , G 2 , and B 2 are the R, G, and B colors of the blurred image.
Component. R Q , G Q , and B Q are the R, G, and B components of the color of the image generated by α blending.

【0060】なお、α値(A値)は、各ピクセルに関連
づけられて記憶される情報であり、例えば色情報以外の
プラスアルファの情報である。α値は、マスク情報、半
透明度(透明度、不透明度と等価)、バンプ情報などと
して使用できる。
The α value (A value) is information stored in association with each pixel, for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

【0061】陰面消去部134は、奥行き値(例えばZ
値)が格納される奥行き値バッファ179(例えばZバ
ッファ)を用いて、奥行き値比較法(例えばZバッファ
法)により陰面消去を行う。なお、視点からの距離に応
じてプリミティブ面をソーティングし、視点から遠い順
にプリミティブ面を描画する奥行きソート法(Zソート
法)により陰面消去を行うようにしてもよい。
The hidden surface removing unit 134 outputs a depth value (for example, Z
Using a depth value buffer 179 (for example, a Z-buffer) in which values are stored, hidden surface elimination is performed by a depth value comparison method (for example, a Z-buffer method). It is also possible to sort the primitive surfaces according to the distance from the viewpoint and perform hidden surface elimination by a depth sort method (Z sort method) that draws the primitive surfaces in order from the farthest from the viewpoint.

【0062】なお、本実施形態のゲームシステムは、1
人のプレーヤのみがプレイできるシングルプレーヤモー
ド専用のシステムにしてもよいし、このようなシングル
プレーヤモードのみならず、複数のプレーヤがプレイで
きるマルチプレーヤモードも備えるシステムにしてもよ
い。
It should be noted that the game system according to the present embodiment
The system may be a system dedicated to the single player mode in which only one player can play, or a system having not only such a single player mode but also a multi-player mode in which a plurality of players can play.

【0063】また複数のプレーヤがプレイする場合に、
これらの複数のプレーヤに提供するゲーム画像やゲーム
音を、1つの端末を用いて生成してもよいし、ネットワ
ーク(伝送ライン、通信回線)などで接続された複数の
端末(ゲーム機、携帯電話)を用いて生成してもよい。
When a plurality of players play,
The game image and the game sound to be provided to the plurality of players may be generated using one terminal, or may be generated using a plurality of terminals (game machine, mobile phone, etc.) connected via a network (transmission line, communication line) or the like. ) May be generated.

【0064】2.本実施形態の特徴 2.1 エッジ・アンチエリアシング さて、前述のように、ジャギー低減のためのアンチエリ
アシングを実現する手法として、投影面や仮想カメラを
微少移動させて複数回のレンダリングを行う手法等を考
えることができる。しかしながら、この手法は、3次元
処理によりアンチエリアシングを実現しているため、処
理負荷がポリゴン数等に依存してしまい、リアルタイム
処理の要請に応えることが難しいという問題点がある。
2. 2. Features of this Embodiment 2.1 Edge Anti-Aliasing As described above, as a method of realizing anti-aliasing for reducing jaggy, rendering is performed a plurality of times by slightly moving the projection plane or the virtual camera. A method can be considered. However, in this method, since anti-aliasing is realized by three-dimensional processing, the processing load depends on the number of polygons and the like, and there is a problem that it is difficult to meet the demand for real-time processing.

【0065】一方、画面全体をぼかすことでジャギーの
低減を実現する手法も考えられるが、この手法には、画
面全体がぼけた絵になってしまい、生成される画像の品
質が悪化してしまうという問題点がある。
On the other hand, a method of reducing jaggies by blurring the entire screen is also conceivable. However, in this method, the entire screen becomes a blurred picture and the quality of the generated image deteriorates. There is a problem.

【0066】そこで本実施形態では、元画像のエッジ
(オブジェクトのエッジ)のみをぼかす手法により上記
問題点を解決している。
Therefore, in the present embodiment, the above problem is solved by a method of blurring only the edge of the original image (the edge of the object).

【0067】より具体的には、図2に示すように元画像
ORからエッジ(輪郭)情報を抽出する。即ち、図2の
F1に示すように元画像ORからエッジ画像EMを抽出
し、F2に示すようにそのエッジ画像EM(色情報)を
例えばα値に変換して、αプレーン(広義にはエッジ情
報、マスク情報)を生成する。このαプレーンは、元画
像ORのエッジ領域(例えばエッジに沿った所与の太さ
の領域)とそれ以外の領域とで異なったα値が設定され
るプレーンである。なお、α値は、例えばエッジ領域で
はα1でそれ以外の領域ではα2というように2値であ
ってもよいし、エッジ領域からそれ以外の領域に向かう
につれて徐々に変化するというように3値以上の多値で
あってもよい。
More specifically, edge (contour) information is extracted from the original image OR as shown in FIG. That is, as shown in F1 of FIG. 2, an edge image EM is extracted from the original image OR, and as shown in F2, the edge image EM (color information) is converted into, for example, an α value. Information, mask information). This α plane is a plane in which different α values are set in an edge region (for example, a region of a given thickness along the edge) of the original image OR and other regions. The α value may be a binary value such as α1 in the edge region and α2 in the other region, or a ternary value such as gradually changing from the edge region to the other region. May be multi-valued.

【0068】次に、F3に示すように、例えば元画像O
Rに基づいてぼかし画像BMを生成する。なお、ぼかし
画像BMをリアルタイムに生成せずに、予め用意してお
いてもよい。
Next, as shown in F3, for example, the original image O
A blurred image BM is generated based on R. Note that the blurred image BM may be prepared in advance without being generated in real time.

【0069】そして、F4に示すように、生成されたα
プレーンに基づいて、元画像ORとぼかし画像BMとの
α合成処理(αマスク処理)を行う。これにより、F5
に示すように、元画像ORのエッジのみがぼけた画像を
生成できる。
Then, as shown in F4, the generated α
Based on the plane, α synthesis processing (α mask processing) of the original image OR and the blurred image BM is performed. Thereby, F5
As shown in (1), an image in which only the edges of the original image OR are blurred can be generated.

【0070】なお、図2では、α合成処理(αマスク処
理)の手法を利用して元画像ORとぼかし画像BMを合
成し、元画像ORのエッジがぼけた画像を生成している
が、図3に示すように、奥行き値比較処理の手法(Zバ
ッファ法等)を利用して、元画像ORのエッジがぼけた
画像を生成するようにしてもよい。
In FIG. 2, the original image OR and the blurred image BM are synthesized using the method of α synthesis processing (α mask processing) to generate an image in which the edges of the original image OR are blurred. As shown in FIG. 3, an image in which the edge of the original image OR is blurred may be generated by using a depth value comparison processing method (such as the Z buffer method).

【0071】より具体的には、図3のG1に示すように
元画像ORから抽出したエッジ画像EM(色情報)を、
G2に示すようにZ値(広義には奥行き値)に変換し
て、Zプレーン(広義にはエッジ情報、マスク情報)を
生成する。このZプレーンは、例えば元画像ORのエッ
ジ領域とそれ以外の領域とで異なったZ値が設定される
プレーンである。
More specifically, the edge image EM (color information) extracted from the original image OR as shown by G1 in FIG.
As shown in G2, it is converted to a Z value (depth value in a broad sense) to generate a Z plane (edge information and mask information in a broad sense). This Z plane is a plane in which different Z values are set in the edge region of the original image OR and other regions, for example.

【0072】そして、G4に示すように、生成されたZ
プレーンに基づいて、元画像ORとぼかし画像BM(例
えばG3に示すように元画像ORから生成された画像)
との奥行き値比較処理(Zテスト、陰面消去)を行う。
これにより、G5に示すように、元画像ORのエッジの
みがぼけた画像を生成できる。
Then, as shown in G4, the generated Z
Based on the plane, the original image OR and the blurred image BM (for example, an image generated from the original image OR as shown in G3)
(Z test, hidden surface elimination).
Thereby, as shown in G5, an image in which only the edges of the original image OR are blurred can be generated.

【0073】このように本実施形態によれば、ジオメト
リ処理により得られた2次元の元画像を用いた2次元処
理でアンチエリアシングを実現できる。従って、3次元
処理によりアンチエリアシングを実現する手法に比べ
て、処理負荷が軽く、ポリゴン数等に依存せずにアンチ
エリアシングを実現できるという利点がある。
As described above, according to the present embodiment, anti-aliasing can be realized by two-dimensional processing using a two-dimensional original image obtained by geometry processing. Therefore, there is an advantage that the processing load is light and anti-aliasing can be realized without depending on the number of polygons and the like, as compared with a method of realizing anti-aliasing by three-dimensional processing.

【0074】また、画面全体がぼけた画像にならずに、
元画像のエッジ部分のみがぼけた画像になるため、より
自然で高品質な画像を生成できるという利点もある。
Also, the whole screen is not blurred,
Since only the edge portion of the original image becomes a blurred image, there is an advantage that a more natural and high-quality image can be generated.

【0075】図4に本実施形態の処理対象となる元画像
の例を示し、図5に、この元画像のエッジ部分での拡大
図を示す。図5に示すように、元画像のエッジは、ピク
セルを用いて理想的な線に近似しているためギザギザに
なっており、ジャギーが顕著になっている。
FIG. 4 shows an example of an original image to be processed in this embodiment, and FIG. 5 shows an enlarged view of an edge portion of the original image. As shown in FIG. 5, the edges of the original image are jagged because pixels are used to approximate an ideal line, and jaggies are noticeable.

【0076】図6に、本実施形態により抽出されたエッ
ジ画像の拡大図を示す。本実施形態ではこのエッジ画像
をα値やZ値として用いる。
FIG. 6 is an enlarged view of an edge image extracted according to the present embodiment. In the present embodiment, this edge image is used as an α value or a Z value.

【0077】図7に、元画像のぼかし画像の拡大図を示
す。このぼかし画像では、画像をぼかす処理により、エ
ッジ部分でのギザギザは目立たなくなっているが、エッ
ジの内側領域等もぼけた画像になってしまっている。
FIG. 7 is an enlarged view of a blurred image of the original image. In the blurred image, the jaggedness at the edge portion is not noticeable due to the process of blurring the image, but the image inside the edge and the like is also blurred.

【0078】図8に、本実施形態により生成された、元
画像のエッジのみがぼけた画像の拡大図を示す。このよ
うに本実施形態によれば、元画像のエッジがぼけること
で、エッジ部分でのギザギザが目立たなくなり、ジャギ
ーを低減できる。一方、エッジの内部領域等では、ぼけ
ていない元画像が表示されるため、より自然で高品質な
画像を提供できる。
FIG. 8 is an enlarged view of an image generated by the present embodiment in which only the edges of the original image are blurred. As described above, according to the present embodiment, the edges of the original image are blurred, so that the jaggies at the edge portions are not conspicuous, and jaggies can be reduced. On the other hand, an original image that is not blurred is displayed in the inner region of the edge and the like, so that a more natural and high-quality image can be provided.

【0079】2.2 オーバレイオブジェクトの表示 さて図9に示すように、ゲーム画面においては、キャラ
クタ、壁、建物などのオブジェクトで構成される元画像
の上に、プレーヤのスコアやライフなどを表示するため
のオーバレイオブジェクト(スクリーン位置に描画され
る2次元オブジェクト)が重ね書きされる。
2.2 Display of Overlay Object As shown in FIG. 9, on the game screen, the score, life, and the like of the player are displayed on an original image composed of objects such as characters, walls, and buildings. Object (two-dimensional object drawn at the screen position) is overwritten.

【0080】そして、キャラクタ、壁、建物などのジオ
メトリ処理が施されるオブジェクトについては、図2、
図3に説明したエッジぼかし処理を施し、そのエッジ部
分でのジャギーを低減することが、画質の向上のために
望まれる。
For objects to be subjected to geometry processing, such as characters, walls, and buildings, see FIG.
It is desired to improve the image quality by performing the edge blurring process described in FIG. 3 and reducing jaggies at the edge portions.

【0081】しかしながら、スコアやライフなどを表す
オーバレイオブジェクトに対して、図2、図3で説明し
たエッジぼかし処理(エッジ・アンチエリアシング)を
施すと、次のような問題が起こることが判明した。
However, when the edge blur processing (edge anti-aliasing) described with reference to FIGS. 2 and 3 is performed on the overlay object representing the score, life, and the like, the following problem has been found to occur. .

【0082】例えば、図10に、”TEST”という文
字を表すオーバレイオブジェクトに本実施形態のエッジ
ぼかし処理を施した場合の画像の例を示す。
For example, FIG. 10 shows an example of an image when the edge blur processing of the present embodiment is performed on an overlay object representing a character "TEST".

【0083】図10に示すように、文字を表すオーバレ
イオブジェクトは、キャラクタなどを表すオブジェクト
と異なり、その幅が数ピクセル程度しかなく、幅が細い
のが通常である。従って、本実施形態のエッジぼかし処
理をこのようなオーバレイオブジェクトに施すと、文字
の線がつぶれて見えにくくなったり、消えてしまうなど
の不具合が生じる。
As shown in FIG. 10, an overlay object representing a character differs from an object representing a character or the like in that it has a width of only a few pixels and is generally narrow. Therefore, if the edge blurring processing of the present embodiment is performed on such an overlay object, a problem occurs such that the character line is squashed and becomes difficult to see or disappear.

【0084】そこで本実施形態では、ジオメトリ処理後
のオブジェクトにより構成される元画像に対しては図
2、図3で説明したエッジぼかし処理を施す一方で、元
画像の上に重ね書きされるオーバレイオブジェクト(特
にその太さが数ピクセルとなるオブジェクト)について
は、このエッジぼかし処理を施さないようにする。
Therefore, in the present embodiment, the edge blur processing described with reference to FIGS. 2 and 3 is applied to the original image composed of the objects after the geometry processing, while the overlay image is overwritten on the original image. The object (especially, the object whose thickness is several pixels) is not subjected to the edge blurring process.

【0085】これにより、オーバレイオブジェクトにつ
いては、図11に示すように、そのエッジがぼけないク
ッキリした画像が表示されるようになり、プレーヤが不
自然さを感じる事態を効果的に防止できるようになる。
As a result, as shown in FIG. 11, for the overlay object, a clear image with no blurred edge is displayed, so that the situation where the player feels unnatural can be effectively prevented. Become.

【0086】なお、エッジぼかし処理を省略するオーバ
レイオブジェクトは、スコアやライフを表示するための
オブジェクトには限定されない。例えば、3次元オブジ
ェクト空間には存在しないオブジェクトであり、ゲーム
の進行状態等をプレーヤに伝える情報を表す種々のオブ
ジェクト(レースゲームにおけるメータ、サッカーゲー
ムにおける人名又はスクリーン上に表示されるヒットマ
ーク等)を含めることができる。
The overlay object for which the edge blurring processing is omitted is not limited to an object for displaying a score or life. For example, various objects that do not exist in the three-dimensional object space and that represent information that informs the player of the progress of the game and the like (a meter in a racing game, a personal name in a soccer game, a hit mark displayed on a screen, and the like) Can be included.

【0087】さて、本実施形態では、図2、図3で説明
したエッジぼかし処理を実現するために、インデックス
カラー・テクスチャマッピングの手法や、バイリニアフ
ィルタ方式(テクセル補間方式)のテクスチャマッピン
グなどの手法を利用している。以下、これらの手法につ
いて説明する。
In this embodiment, in order to realize the edge blurring process described with reference to FIGS. 2 and 3, a method such as an index color / texture mapping method or a bilinear filter type (texel interpolation type) texture mapping method is used. I use. Hereinafter, these methods will be described.

【0088】2.3 インデックスカラー・テクスチャ
マッピングの利用 インデックスカラーテクスチャーマッピングでは、テク
スチャ記憶部の使用記憶容量を節約するために、図12
のA1に示すように、実際の色情報(RGB)ではなく
インデックス番号が、テクスチャの各テクセルに関連づ
けて記憶される。また、図12のA2に示すように、イ
ンデックスカラー・テクスチャマッピング用のルックア
ップテーブルLUT(カラーパレット)には、インデッ
クス番号により指定される色情報やα値が記憶される。
そして、オブジェクトに対してテクスチャマッピングを
行う際には、テクスチャの各テクセルのインデックス番
号に基づいてLUTを参照し、対応する色情報やα値を
LUTから読み出し、読み出された色情報とα値に基づ
いて、フレームバッファに画像を描画する。
2.3 Use of Index Color / Texture Mapping In the index color texture mapping, in order to save the used storage capacity of the texture storage unit, FIG.
As shown in A1, the index number, not the actual color information (RGB), is stored in association with each texel of the texture. As shown in A2 of FIG. 12, a lookup table LUT (color palette) for index color / texture mapping stores color information and α values designated by index numbers.
When texture mapping is performed on the object, the LUT is referred to based on the index number of each texel of the texture, the corresponding color information and α value are read from the LUT, and the read color information and α value are read. Draws an image in the frame buffer based on

【0089】このようなインデックスカラーモードのテ
クスチャマッピングでは、LUTを用いない通常モード
のテクスチャマッピングに比べて、使用できる色数は少
なくなる(例えば16色)。しかしながら、テクスチャ
記憶部に実際の色情報(例えば16ビット)を記憶する
必要が無くなるため、テクスチャ記憶部の使用記憶容量
を大幅に節約できる。
In such a texture mapping in the index color mode, the number of colors that can be used is reduced (for example, 16 colors) as compared with the texture mapping in the normal mode without using the LUT. However, since it is not necessary to store the actual color information (for example, 16 bits) in the texture storage unit, the used storage capacity of the texture storage unit can be greatly reduced.

【0090】本実施形態は、このようなインデックスカ
ラー・テクスチャマッピングを通常とは異なる形態で利
用している。
The present embodiment uses such an index color / texture mapping in an unusual form.

【0091】即ち、まず図13のB1に示すように、フ
レームバッファ(広義には描画バッファ)に描画されて
いる元画像の各ピクセル(画素)の画像情報(例えば色
情報)を、インデックスカラー・テクスチャマッピング
用のルックアップテーブルLUTのインデックス番号と
して設定する(インデックス番号とみなす)。そしてB
2に示すように、元画像の画像情報がインデックス番号
として設定されたLUTを用いて、仮想オブジェクト
(例えば表示画面サイズのポリゴン)に対してインデッ
クスカラー・テクスチャマッピングを行い、元画像の画
像情報を変換する。
That is, as shown in B1 of FIG. 13, image information (for example, color information) of each pixel (pixel) of an original image drawn in a frame buffer (drawing buffer in a broad sense) is converted into an index color image. It is set as an index number of a look-up table LUT for texture mapping (assumed as an index number). And B
As shown in FIG. 2, index color / texture mapping is performed on a virtual object (for example, a polygon having a display screen size) using an LUT in which image information of the original image is set as an index number, and image information of the original image is obtained. Convert.

【0092】このようにすれば、元画像の画像情報を、
例えば1回のテクスチャマッピングで一括して変換でき
るようになり、処理の効率化を図れる。
In this way, the image information of the original image is
For example, it becomes possible to convert all at once by one texture mapping, and the processing efficiency can be improved.

【0093】しかも、インデックスカラー・テクスチャ
マッピングは、この種のゲームシステムが有する専用の
ハードウェアである描画プロセッサ(描画部)により高
速に実行される。従って、画像情報の変換処理を高速化
できるようになる。
Further, the index color / texture mapping is executed at high speed by a drawing processor (drawing unit) which is dedicated hardware included in this type of game system. Therefore, the conversion process of the image information can be speeded up.

【0094】なお、図13では表示画面サイズのポリゴ
ン(仮想オブジェクト)にテクスチャマッピングするこ
とで、画像情報の変換処理を実現しているが、表示画面
を分割したブロックのサイズのポリゴンにテクスチャマ
ッピングするようにしてもよい。
In FIG. 13, the image information conversion process is realized by texture mapping to a display screen size polygon (virtual object). However, texture mapping is performed to the display screen divided block size polygon. You may do so.

【0095】即ち、図14のC1に示すように、フレー
ムバッファ(表示画面)を複数のブロックに分割し、C
2に示すように、各ブロックの画像情報を、LUTを用
いて分割ブロックサイズのポリゴンにテクスチャマッピ
ングする。
That is, as shown by C1 in FIG. 14, the frame buffer (display screen) is divided into a plurality of blocks,
As shown in FIG. 2, the image information of each block is texture-mapped to a polygon of a divided block size using an LUT.

【0096】このようにすれば、例えばテクスチャマッ
ピングされたポリゴンをワークバッファ(別バッファ)
に一時的に描画するような場合に、VRAM上でのワー
クバッファの占有領域を小さくできる。
In this way, for example, texture-mapped polygons are stored in a work buffer (another buffer).
In such a case, the work buffer occupation area on the VRAM can be reduced.

【0097】即ち、図13のように表示画面サイズのポ
リゴンにテクスチャマッピングすると、この表示画面サ
イズのポリゴンを一時的に描画するために、表示画面サ
イズのワークバッファをVRAM上に確保しなければな
らず、他の処理に支障を来すおそれがある。
That is, when texture mapping is performed on a polygon having a display screen size as shown in FIG. 13, a work buffer having a display screen size must be secured in the VRAM in order to temporarily draw the polygon having the display screen size. And may hinder other processing.

【0098】図14のように、分割ブロックサイズのポ
リゴンにテクスチャマッピングするようにすれば、VR
AM上には分割ブロックサイズのワークバッファを用意
すれば済むため、ワークバッファの占有領域を小さくで
きる。従って、限られたハードウェア資源を有効利用す
ることが可能になる。
As shown in FIG. 14, if texture mapping is performed on a polygon having a divided block size, VR
Since a work buffer having a divided block size only needs to be prepared on the AM, the area occupied by the work buffer can be reduced. Therefore, it becomes possible to use limited hardware resources effectively.

【0099】なお、透視変換後(スクリーン座標系への
変換後)のオブジェクトの画像の全部又は一部を内包
し、透視変換後のオブジェクトの大きさに応じてその大
きさが変化するようなポリゴン(仮想オブジェクト)を
生成し、そのポリゴンにテクスチャマッピングするよう
にしてもよい。
A polygon that includes all or a part of the image of the object after the perspective transformation (after conversion to the screen coordinate system) and whose size changes according to the size of the object after the perspective transformation (Virtual object) may be generated and texture mapped to the polygon.

【0100】さて、図13では、インデックスカラー・
テクスチャマッピング用のLUTに基づき出力される色
情報R、G、Bを利用しているが、インデックスカラー
・テクスチャマッピング用のLUTに基づき出力される
α値を利用するようにしてもよい。
Now, in FIG. 13, the index color
Although the color information R, G, B output based on the LUT for texture mapping is used, the α value output based on the LUT for index color / texture mapping may be used.

【0101】例えば図15に示すように、Rプレーン
(又はG、B)の値をインデックス番号として設定し
て、LUTを用いたテクスチャマッピングを行い、αプ
レーンを生成する。そして、生成されたαプレーンを用
いて、α合成処理(αマスク処理)を行う。
For example, as shown in FIG. 15, the value of the R plane (or G, B) is set as an index number, texture mapping is performed using an LUT, and an α plane is generated. Then, using the generated α plane, α synthesis processing (α mask processing) is performed.

【0102】即ち図15では、インデックス番号IND
EXが0≦INDEX<3の時はα値(αOUT)が0
になり、3≦INDEX≦255の時はα値が255に
なるようなLUTが用いられている。
That is, in FIG. 15, the index number IND
When EX is 0 ≦ INDEX <3, α value (αOUT) is 0
LUT is used such that when 3 ≦ INDEX ≦ 255, the α value becomes 255.

【0103】このようなLUTのインデックス番号に、
変換元になる画像情報のR、G又はBを設定し、LUT
を用いたテクスチャマッピングを行えば、画像情報の
R、G又はBが0〜2のピクセルについてはα値(αO
UT)が0に設定され、3〜255のピクセルについて
はα値が255に設定されるαプレーンを生成できる。
The index numbers of such an LUT are:
Set R, G or B of the image information to be converted and set LUT
Is performed, a pixel having R, G, or B of image information of 0 to 2 has an α value (αO
UT) is set to 0, and an α plane in which the α value is set to 255 can be generated for pixels 3 to 255.

【0104】これにより、図2のF4に示すα合成処理
(αマスク処理)に最適なαプレーンを生成できる。
As a result, an optimal α plane can be generated for the α synthesis processing (α mask processing) shown in F4 of FIG.

【0105】即ち、図2においてエッジ画像EMの画像
情報が存在する領域であるエッジ領域では、図15のL
UTのインデックス番号として設定されるR、G又はB
の値が0にはならずに、雑音を考慮すると3以上にな
る。従って、エッジ領域でのピクセルのα値は255に
設定されるようになる。この結果、上述したαブレンデ
ィングの式(1)、(2)、(3)から明らかなよう
に、エッジ領域では、元画像ORは表示されずに、ぼか
し画像BMだけが表示されるようになる。
That is, in the edge region where the image information of the edge image EM exists in FIG.
R, G or B set as UT index number
Does not become 0, but becomes 3 or more in consideration of noise. Therefore, the α value of the pixel in the edge area is set to 255. As a result, as is apparent from the above-described α-blending equations (1), (2), and (3), in the edge region, the original image OR is not displayed, and only the blurred image BM is displayed. .

【0106】一方、エッジ領域以外の領域では、エッジ
画像EMの画像情報が存在せず、図15のLUTのイン
デックス番号として設定されるR、G、Bの値が0にな
り、雑音を考慮しても2以下になる。従って、エッジ領
域でのピクセルのα値は0に設定されるようになる。こ
の結果、上述したαブレンディングの式(1)、
(2)、(3)から明らかなように、エッジ領域以外の
領域では、ぼかし画像BMは表示されずに、元画像OR
だけが表示されるようになる。
On the other hand, in areas other than the edge area, there is no image information of the edge image EM, and the values of R, G, and B set as the index numbers of the LUT in FIG. 15 become 0, and noise is considered. Even less than 2. Therefore, the α value of the pixel in the edge area is set to 0. As a result, the above-described equation (1) for α blending,
As is clear from (2) and (3), in the region other than the edge region, the blurred image BM is not displayed and the original image OR
Will only be displayed.

【0107】2.4 バイリニアフィルタ方式のテクス
チャマッピングの利用 さて、本実施形態では、バイリニアフィルタ方式(テク
セル補間方式)のテクスチャマッピングを有効利用し
て、図2、図3の元画像ORの合成対象となるぼかし画
像BMを生成している。
2.4 Utilization of Bilinear Filter Texture Mapping In the present embodiment, the bilinear filter (texel interpolation) texture mapping is effectively used to synthesize the original image OR shown in FIGS. Is generated.

【0108】即ち、テクスチャマッピングにおいてはピ
クセルの位置とテクセルの位置がずれる場合がある。
That is, in texture mapping, the position of a pixel may be displaced from the position of a texel.

【0109】この場合に、図16に示すように、ポイン
トサンプリング方式では、ピクセル(サンプリング点)
Pの色CP(広義には画像情報)は、Pに最も距離が近
いテクセルTAの色CAになる。
In this case, as shown in FIG. 16, in the point sampling method, pixels (sampling points)
The color CP of P (image information in a broad sense) is the color CA of the texel TA closest to P.

【0110】一方、バイリニアフィルタ方式では、Pの
色CPは、Pの周りのテクセルTA、TB、TC、TD
の色CA、CB、CC、CDを補間した色になる。
On the other hand, in the bilinear filter system, the color CP of P is expressed by texels TA, TB, TC, TD around P.
Of the colors CA, CB, CC, and CD.

【0111】より具体的には、TA〜TDの座標とPの
座標とに基づき、X軸方向の座標比β:1−β(0≦β
≦1)と、Y軸方向の座標比γ:1−γ(0≦γ≦1)
を求める。
More specifically, based on the coordinates of TA to TD and the coordinates of P, the coordinate ratio β: 1−β (0 ≦ β
≦ 1) and the coordinate ratio γ: 1−γ in the Y-axis direction (0 ≦ γ ≦ 1)
Ask for.

【0112】この場合に、Pの色CP(バイリニアフィ
ルタ方式での出力色)は、下式のようになる。
In this case, the color CP of P (the output color in the bilinear filter system) is as follows.

【0113】 CP=(1−β)×(1−γ)×CA+β×(1−γ)×CB +(1−β)×γ×CC+β×γ×CD (4) 本実施形態では、このようにバイリニアフィルタ方式で
は色が自動的に補間されることに着目して、ぼかし画像
を生成している。
CP = (1-β) × (1-γ) × CA + β × (1-γ) × CB + (1-β) × γ × CC + β × γ × CD (4) In the present embodiment, In the bilinear filter method, a blurred image is generated by paying attention to the fact that colors are automatically interpolated.

【0114】より具体的には図17のR1に示すよう
に、例えばフレームバッファに描画されている元画像を
テクスチャとして設定する。そして、このテクスチャ
(元画像)を仮想オブジェクトにバイリニアフィルタ方
式でマッピングする際に、仮想オブジェクトの頂点に与
えるテクスチャ座標を、例えば(0.5、0.5)だけ
右下方向にシフト(ずらす、移動)する。このようにす
ることで、バイリニアフィルタ方式の補間機能により自
動的に、元画像のピクセルの色が周囲ににじんだような
ぼかし画像を生成できるようになる。
More specifically, as shown by R1 in FIG. 17, for example, an original image drawn in a frame buffer is set as a texture. Then, when mapping this texture (original image) to the virtual object by the bilinear filter method, the texture coordinates given to the vertex of the virtual object are shifted (shifted) by, for example, (0.5, 0.5) to the lower right. Moving. By doing so, it becomes possible to automatically generate a blurred image in which the colors of the pixels of the original image are blurred around by the interpolation function of the bilinear filter method.

【0115】なお、画面全体をぼかす場合には、テクス
チャ(元画像)をマッピングする仮想オブジェクトの形
状は、画面(ぼかし領域)と同一形状に設定される。即
ち、画面の頂点座標が(X、Y)=(0、0)、(64
0、0)、(640、480)、(0、480)であった
場合には、仮想オブジェクトの頂点座標も(X、Y)=
(0、0)、(640、0)、(640、480)、
(0、480)になる。
When the entire screen is blurred, the shape of the virtual object for mapping the texture (original image) is set to the same shape as the screen (blurred area). That is, the vertex coordinates of the screen are (X, Y) = (0, 0), (64
(0, 0), (640, 480), (0, 480), the vertex coordinates of the virtual object are also (X, Y) =
(0,0), (640,0), (640,480),
(0, 480).

【0116】そして、この場合に、仮想オブジェクトの
頂点VX1、VX2、VX3、VX4に与えるテクスチ
ャ座標(U、V)を、各々、(0、0)、(640、
0)、(640、480)、(0、480)に設定すれ
ば、画面のピクセルの位置とテクスチャのテクセルの位
置とがずれずに一致する。従って、画像はぼけない。
In this case, the texture coordinates (U, V) given to the vertices VX1, VX2, VX3, VX4 of the virtual object are (0, 0), (640,
If (0), (640, 480), and (0, 480) are set, the position of the pixel on the screen and the position of the texel of the texture match without deviation. Therefore, the image is not blurred.

【0117】これに対して、仮想オブジェクトの頂点V
X1、VX2、VX3、VX4に与えるテクスチャ座標
(U、V)を、各々、(0.5、0.5)、(640.
5、0.5)、(640.5、480.5)、(0.5、
480.5)に設定すれば、画面のピクセルの位置とテ
クスチャのテクセルの位置とがずれるようになる。従っ
て、バイリニアフィルタ方式の補間機能により、色の補
間が行われ、画像がぼけて見えるようになる。
On the other hand, the vertex V of the virtual object
Texture coordinates (U, V) given to X1, VX2, VX3, and VX4 are (0.5, 0.5), (640.
5, 0.5), (640.5, 480.5), (0.5,
480.5), the position of the pixel on the screen is shifted from the position of the texel of the texture. Therefore, color interpolation is performed by the bilinear filter type interpolation function, and the image becomes blurred.

【0118】なお、画面の一部の領域をぼかす場合に
は、仮想オブジェクトの形状を、そのぼかし領域と同一
形状にすればよい。
When blurring a partial area of the screen, the shape of the virtual object may be made the same as the blurred area.

【0119】また本実施形態では、図18のR3に示す
ように、元画像をテクスチャに設定し、例えば右下方向
(第1のシフト方向)に0.5テクセルだけシフトして
バイリニアフィルタ方式でテクスチャマッピングを行
い、第1のぼかし画像を生成する。次に、図18のR4
に示すように、この第1のぼかし画像をテクスチャに設
定し、例えば左上方向(第2のシフト方向)に0.5テ
クセルだけシフトしてバイリニアフィルタ方式でテクス
チャマッピングを行い、第2のぼかし画像を生成する。
或いは、以上の処理(右下方向のシフトと左上方向のシ
フト)を複数回繰り返す。このようにすることで、更に
自然でぼかし効果の強いぼかし画像を生成できるように
なる。
In the present embodiment, as shown by R3 in FIG. 18, the original image is set as a texture, and shifted by 0.5 texels in the lower right direction (first shift direction), for example, and the bilinear filter method is used. Perform texture mapping to generate a first blurred image. Next, R4 in FIG.
As shown in the figure, the first blurred image is set as a texture, and texture mapping is performed by, for example, 0.5 texels in the upper left direction (second shift direction) by the bilinear filter method, and the second blurred image is obtained. Generate
Alternatively, the above processing (lower right shift and upper left shift) is repeated a plurality of times. By doing so, it is possible to generate a more natural blurred image with a strong blurring effect.

【0120】次に、バイリニアフィルタ方式の補間機能
によりぼかし画像が生成される原理について説明する。
Next, the principle of generating a blurred image by the bilinear filter type interpolation function will be described.

【0121】例えば図19(A)に示すように、テクス
チャ座標を0.5テクセルだけ右下方向にシフトさせ
て、バイリニアフィルタ方式のテクスチャマッピングを
行ったとする。この場合には、上式(4)においてβ=
γ=1/2になるため、テクセルT44、T45、T5
4、T55の色をC44、C45、C54、C55とす
ると、ピクセルP44の色CP44は下式のようにな
る。
For example, as shown in FIG. 19A, it is assumed that the texture coordinates are shifted in the lower right direction by 0.5 texels to perform texture mapping by the bilinear filter method. In this case, in the above equation (4), β =
Since γ = 1/2, texels T44, T45, T5
4, assuming that the colors of T55 are C44, C45, C54, and C55, the color CP44 of the pixel P44 is as follows.

【0122】 CP44=(C44+C45+C54+C55)/4 (5) 以上から明らかなように、図19(A)に示す変換によ
り、テクセルT44の色C44(変換前の元画像のピク
セルP44の元の色に相当)は、周りのピクセルP3
3、P34、P43、P44に対して1/4ずつしみ出
すことになる。
CP44 = (C44 + C45 + C54 + C55) / 4 (5) As is apparent from the above, the color C44 of the texel T44 (corresponding to the original color of the pixel P44 of the original image before the conversion) by the conversion shown in FIG. ) Indicates the surrounding pixels P3
3, P34, P43, and P44 ooze out by 1/4.

【0123】そして、その後に図19(B)に示すよう
に、図19(A)で得られた画像をテクスチャとして、
テクスチャ座標を0.5テクセルだけ左上方向にシフト
させてバイリニアフィルタ方式でテクスチャマッピング
を行ったとする。この場合には、図19(A)のピクセ
ルP33、P34、P43、P44が、図19(B)の
テクセルT33、T34、T43、T44に対応するよ
うになる。そして、図19(A)でP33、P34、P
43、P44(T33、T34、T43、T44)に対
して1/4ずつしみ出した色C44が、更に1/4倍さ
れて周りの4つのピクセルに対してしみ出すことにな
る。即ち、結局、元のT44の色C44が1/4×1/
4=1/16ずつ周りにしみ出すことになる。
Then, as shown in FIG. 19B, the image obtained in FIG. 19A is used as a texture.
Assume that texture mapping is performed by a bilinear filter method by shifting the texture coordinates by 0.5 texels in the upper left direction. In this case, the pixels P33, P34, P43, and P44 in FIG. 19A correspond to the texels T33, T34, T43, and T44 in FIG. 19B. And P33, P34, P in FIG.
The color C44, which has extruded 1/4 from 43, P44 (T33, T34, T43, T44), is further multiplied by 1/4 and exudes to the surrounding four pixels. That is, after all, the color C44 of the original T44 becomes 1/4 × 1 /
4 = 1 1/16 of the perimeter.

【0124】従って、図19(A)、(B)の変換によ
り、ピクセルP33、P34、P35には、各々、色C
44(フレームバッファに描かれた元画像のピクセルP
44の元の色に相当)が1/16、2/16、1/16
ずつしみ出すことになる。また、ピクセルP43、P4
4、P45には、各々、色C44が2/16、4/1
6、2/16ずつしみ出し、ピクセルP53、P54、
P55には、各々、色C44が1/16、2/16、1
/16ずつしみ出すことになる。
Therefore, by the conversion shown in FIGS. 19A and 19B, the pixels P33, P34 and P35 have the color C respectively.
44 (pixel P of the original image drawn in the frame buffer
1/16, 2/16, 1/16)
It will exude. Pixels P43 and P4
4, P45 has color C44 of 2/16, 4/1, respectively.
6, 2/16 are exuded, and pixels P53, P54,
P55 has a color C44 of 1/16, 2/16, and 1 respectively.
/ 16 each.

【0125】従って、図19(A)、(B)の変換によ
り、結局、図20(A)に示すような平面フィルタが元
画像に対して施されるようになる。この平面フィルタに
よれば、元画像の各ピクセルの色がその周りに均一に広
がるようになり、元画像の理想的なぼかし画像を生成で
きる。
Therefore, the conversion shown in FIGS. 19A and 19B results in a plane filter as shown in FIG. 20A being applied to the original image. According to this plane filter, the color of each pixel of the original image spreads uniformly around it, and an ideal blurred image of the original image can be generated.

【0126】また、図19(A)、(B)の変換のセッ
トを2回行えば、図20(B)に示すような平面フィル
タが元画像に対して施されるようになる。この平面フィ
ルタによれば、図20(A)よりも更に理想的なぼかし
画像を生成できる。
If the conversion set in FIGS. 19A and 19B is performed twice, a plane filter as shown in FIG. 20B is applied to the original image. According to this plane filter, a more ideal blurred image can be generated than in FIG.

【0127】3.本実施形態の処理 次に、本実施形態の処理の詳細例についてフローチャー
トを用いて説明する。
[0127] 3. Next, a detailed example of a process according to the present embodiment will be described with reference to a flowchart.

【0128】図21、図22は、元画像とぼかし画像の
α合成処理(αマスク処理)によりエッジぼかしを実現
する手法(図2参照)の処理を説明するためのフローチ
ャートである。
FIG. 21 and FIG. 22 are flowcharts for explaining the processing of the technique (see FIG. 2) for realizing edge blurring by α synthesis processing (α mask processing) of the original image and the blurred image.

【0129】まず、ワークバッファ(広義には描画バッ
ファ)を初期化する(ステップS1)。そして、図23
(A)、(B)に示すように、元画像ORを画面上にお
いて左上に1ピクセルずらし、色情報RGBを1/4倍
してワークバッファに描画し、画像TMP1を生成する
(ステップS2)。
First, a work buffer (a drawing buffer in a broad sense) is initialized (step S1). And FIG.
As shown in (A) and (B), the original image OR is shifted one pixel to the upper left on the screen, the color information RGB is multiplied by 1/4 and drawn in the work buffer to generate the image TMP1 (step S2). .

【0130】次に、図24(A)に示すように、元画像
ORを今度は左下に1ピクセルずらし、色情報RGBを
1/4倍してワークバッファに加算描画し、画像TMP
2を生成する(ステップS3)。
Next, as shown in FIG. 24A, the original image OR is shifted one pixel to the lower left this time, the color information RGB is multiplied by 4, and added and drawn in the work buffer, and the image TMP
2 is generated (step S3).

【0131】同様に、元画像ORを右上、右下に1ピク
セルずらし、色情報RGBを1/4倍してワークバッフ
ァに加算描画し、画像TMP3、TMP4を生成する
(ステップS4、S5)。
Similarly, the original image OR is shifted one pixel to the upper right and lower right, the color information RGB is multiplied by 1 / and added and drawn in the work buffer to generate images TMP3 and TMP4 (steps S4 and S5).

【0132】次に、図23(A)の元画像ORと、図2
4(B)の画像TMP4とを用いて、(OR−TMP
4)+(TMP4−OR)の画像演算処理を行い、エッ
ジ画像EMを生成する(ステップS6)。
Next, the original image OR shown in FIG.
(OR-TMP) using the image TMP4 of FIG.
4) Perform image calculation processing of + (TMP4-OR) to generate an edge image EM (step S6).

【0133】即ち、(OR−TMP4)の画像演算処理
を行うことで、図25(A)に示すようにオブジェクト
(4の値が描かれた4×4ピクセルのブロック)のエッ
ジ(輪郭)の内側にエッジ画像(エッジの強調画像)を
生成できる。一方、(TMP4−OR)の画像演算処理
を行うことで、図25(B)に示すようにエッジの外側
にエッジ画像を生成できる。
That is, by performing the image operation processing of (OR-TMP4), as shown in FIG. 25A, the edge (contour) of the object (4 × 4 pixel block in which the value of 4 is drawn) is obtained. An edge image (edge emphasized image) can be generated inside. On the other hand, by performing the image calculation processing of (TMP4-OR), an edge image can be generated outside the edge as shown in FIG.

【0134】従って、(OR−TMP4)+(TMP4
−OR)の画像演算処理を行えば、図26(A)、
(B)に示すように、エッジの内側及び外側の両方にエ
ッジ画像を生成できるようになる。なお、(OR−TM
P4)や(TMP4−OR)の画像演算処理で、演算結
果が負になった場合には0にクランプされるようになっ
ている。
Therefore, (OR-TMP4) + (TMP4
-OR), the image calculation process shown in FIG.
As shown in (B), an edge image can be generated both inside and outside the edge. In addition, (OR-TM
In the image calculation processing of (P4) or (TMP4-OR), when the calculation result becomes negative, it is clamped to 0.

【0135】このように本実施形態では、元画像を複数
の異なる方向に微少値だけずらして描画バッファに重ね
て描画し、得られた画像と元画像との画像演算処理を行
うことで、元画像のエッジ画像を生成している。このよ
うにすれば、2次元の元画像を複数回描画するという負
荷の軽い処理で、エッジ画像を生成できるようになる。
As described above, in the present embodiment, the original image is shifted in the plurality of different directions by a small value to be superimposed on the drawing buffer and drawn, and the image calculation processing of the obtained image and the original image is performed. An edge image of the image is generated. In this way, an edge image can be generated by a light-load process of drawing a two-dimensional original image a plurality of times.

【0136】なお、図21のステップS2〜S5では元
画像を左上、左下、右上、右下にずらして描画すること
でエッジ画像を得ているが、上、下、左、右にずらして
描画することでエッジ画像を得るようにしてもよい。ま
た、(OR−TMP4)又は(TMP4−OR)のいず
れか一方の画像演算処理のみを行って、エッジ画像を得
るようにしてもよい。但し、エッジ画像が切れてしまっ
たり、細くなってしまうという事態を防止するために
は、(OR−TMP4)+(TMP4−OR)の画像演
算処理を行い、エッジの内側及び外側の両方にエッジ画
像を生成することが望ましい。
In steps S2 to S5 in FIG. 21, the edge image is obtained by shifting the original image to the upper left, lower left, upper right, and lower right. However, the original image is shifted to the upper, lower, left, and right. By doing so, an edge image may be obtained. Alternatively, an edge image may be obtained by performing only one of the image calculation processes (OR-TMP4) and (TMP4-OR). However, in order to prevent a situation in which the edge image is cut or thinned, an image calculation process of (OR-TMP4) + (TMP4-OR) is performed, and the edge is calculated on both the inside and outside of the edge. It is desirable to generate an image.

【0137】エッジ画像EMが生成されると、そのエッ
ジ画像EMを他のメモリ領域に退避する(ステップS
7)。
When the edge image EM is generated, the edge image EM is saved in another memory area (step S).
7).

【0138】そして、図2のF3、図3のG3に示すよ
うに、元画像ORに基づきそのぼかし画像BMを生成す
る(ステップS8)。このぼかし画像BMの生成は、図
17、図18で説明したように、バイリニアフィルタ方
式のテクスチャマッピングを利用して実現する。即ち、
元画像ORをテクスチャとして設定し、設定されたテク
スチャを、テクスチャ座標をシフトさせながらバイリニ
アフィルタ方式(テクセル補間方式)で画面サイズのポ
リゴン(仮想オブジェクト)にマッピングすることで、
元画像ORのぼかし画像BMを生成する。このようにす
ることで、バイリニアフィルタ方式の補間機能により自
動的に、元画像のぼかし画像を生成できるようになる。
Then, as shown by F3 in FIG. 2 and G3 in FIG. 3, a blurred image BM is generated based on the original image OR (step S8). The generation of the blurred image BM is realized using the bilinear filter type texture mapping as described with reference to FIGS. That is,
By setting the original image OR as a texture and mapping the set texture to a screen-sized polygon (virtual object) by a bilinear filter method (texel interpolation method) while shifting the texture coordinates,
A blurred image BM of the original image OR is generated. By doing so, a blurred image of the original image can be automatically generated by the interpolation function of the bilinear filter method.

【0139】次に、生成されたぼかし画像BMを他のメ
モリ領域に退避する(ステップS9)。そしてワークバ
ッファを初期化する(図22のステップS10)。
Next, the generated blurred image BM is saved in another memory area (step S9). Then, the work buffer is initialized (step S10 in FIG. 22).

【0140】次に、0≦INDEX(インデックス番
号)<3の時にR=G=B=0となり、3≦INDEX
≦255の時にR=G=B=255となるインデックス
カラー・テクスチャマッピング用のルックアップテーブ
ルLUT(図15参照)を設定する(ステップS1
1)。
Next, when 0 ≦ INDEX (index number) <3, R = G = B = 0, and 3 ≦ INDEX.
A lookup table LUT (see FIG. 15) for index color / texture mapping that satisfies R = G = B = 255 when ≤255 is set (step S1).
1).

【0141】そして、図21のステップS7で退避され
たエッジ画像EMのRプレーンを、図27のE1に示す
ようにLUTのINDEXに設定し、このLUTを用い
て仮想オブジェクト(画面サイズのポリゴン)にテクス
チャマッピングを行い、ワークバッファに描画する(ス
テップS12)。
Then, the R plane of the edge image EM saved in step S7 of FIG. 21 is set to the INDEX of the LUT as shown by E1 in FIG. , And renders it in the work buffer (step S12).

【0142】次に、図27のE2に示すようにエッジ画
像EMのGプレーンをLUTのINDEXに設定し、こ
のLUTを用いて仮想オブジェクトにテクスチャマッピ
ングを行い、ワークバッファに加算描画する(ステップ
S13)。
Next, as shown at E2 in FIG. 27, the G plane of the edge image EM is set to the INDEX of the LUT, texture mapping is performed on the virtual object using this LUT, and additional drawing is performed on the work buffer (step S13). ).

【0143】次に、図27のE3に示すようにエッジ画
像EMのBプレーンをLUTのINDEXに設定し、こ
のLUTを用いて仮想オブジェクトにテクスチャマッピ
ングを行い、ワークバッファに加算描画する(ステップ
S14、画像EM’)。
Next, as shown at E3 in FIG. 27, the B plane of the edge image EM is set to the INDEX of the LUT, texture mapping is performed on the virtual object using this LUT, and additional drawing is performed on the work buffer (step S14). , Image EM ').

【0144】このようにすることで、図27のE4、E
5、E6に示す画像(第1、第2、第3の画像情報)が
加算合成されたE7に示す画像EM’(第4の画像情
報)が生成されるようになる。
By doing so, E4 and E4 in FIG.
An image EM ′ (fourth image information) indicated by E7 is generated by adding and combining the images (first, second, and third image information) indicated by E5 and E6.

【0145】そして、図27のE8に示すように、この
画像EM’のR、G、BプレーンのいずれかをLUTの
INDEXに設定し、このLUTを用いて仮想オブジェ
クトにテクスチャマッピングを行い、ワークバッファの
別領域に描画する(ステップS15、画像EM'')。こ
のようにすることで、E9に示すように、エッジ画像E
M(所与の画像情報)に応じたα値(αプレーン)を生
成できるようになる。
Then, as shown at E8 in FIG. 27, any one of the R, G, and B planes of the image EM 'is set to the INDEX of the LUT, and texture mapping is performed on the virtual object using the LUT, thereby performing work mapping. Drawing is performed in another area of the buffer (step S15, image EM ″). By doing so, as shown in E9, the edge image E
An α value (α plane) corresponding to M (given image information) can be generated.

【0146】図27に示す手法でエッジ画像EMをα値
に変換した理由は以下の通りである。
The reason why the edge image EM is converted into an α value by the method shown in FIG. 27 is as follows.

【0147】即ち、エッジ画像EMのR、G、B成分が
どのような値になっているかは不明である。従って、例
えば、エッジ画像EMにR成分しか存在しない場合や、
G成分しか存在しない場合や、B成分しか存在しない場
合が有り得る。
That is, it is unknown what values the R, G, and B components of the edge image EM have. Therefore, for example, when only the R component exists in the edge image EM,
There may be a case where only the G component exists or a case where only the B component exists.

【0148】従って、エッジ画像EMをα値に確実に変
換するためには、エッジ画像EMのR、G、Bプレーン
を加算合成したものをα値に変換する必要がある。
Therefore, in order to reliably convert the edge image EM to the α value, it is necessary to convert the R, G, and B planes of the edge image EM into an α value.

【0149】ところが、LUTのエントリーは1つだけ
であり、INDEXのみである。そこで、まず、図27
のE1、E2、E3に示すように、エッジ画像EMの
R、G、Bの各プレーンを別々にLUTのINDEXに
設定してテクスチャマッピングを行う。そして、得られ
た画像を加算合成することでE7に示すように画像E
M’を生成する。
However, there is only one entry in the LUT, and only INDEX. Therefore, first, FIG.
As shown in E1, E2, and E3, the R, G, and B planes of the edge image EM are separately set in the INDEX of the LUT to perform texture mapping. Then, by adding and combining the obtained images, an image E is obtained as shown in E7.
M ′ is generated.

【0150】この時、α値についても加算合成されれ
ば、画像EM’のα値(αプレーン)を、α合成処理用
のα値としてそのまま使用できる。しかしながら、通常
の描画プロセッサではα値については加算合成されな
い。
At this time, if the α value is also added and synthesized, the α value (α plane) of the image EM ′ can be used as it is as the α value for the α synthesis processing. However, a normal drawing processor does not add and combine α values.

【0151】そこで本実施形態では、E8に示すよう
に、この画像EM’のR、G、Bプレーンのいずれかを
LUTのINDEXに設定し、このLUTを用いてテク
スチャマッピングを行い、得られたα値(αプレーン)
をα合成処理用のα値として使用するようにしている。
このようにすれば、α値が加算合成されない描画プロセ
ッサを用いた場合にも、エッジ画像EMに応じた適正な
α値を得ることができる。
Therefore, in the present embodiment, as shown at E8, any one of the R, G, and B planes of this image EM ′ is set to the INDEX of the LUT, and texture mapping is performed using this LUT. α value (α plane)
Is used as the α value for the α synthesis processing.
In this way, an appropriate α value according to the edge image EM can be obtained even when a drawing processor in which α values are not additively synthesized is used.

【0152】次に、RGBプレーンに図21のステップ
S9で退避されたぼかし画像BMのRGBプレーンが設
定され、αプレーンに図22のステップS15で生成さ
れた画像EM''のαプレーンが設定された画像αMを生
成する(ステップS16)。そして、この画像αMを他
のメモリ領域に退避する(ステップS17)。
Next, the RGB plane of the blurred image BM saved in step S9 of FIG. 21 is set in the RGB plane, and the α plane of the image EM ″ generated in step S15 of FIG. 22 is set in the α plane. The generated image αM is generated (step S16). Then, the image αM is saved in another memory area (step S17).

【0153】次に、元画像ORをフレームバッファに描
画する(ステップS18)。そして、図2のF4で説明
したように、元画像ORの上に画像αMをαブレンディ
ング(α合成)で描画する(ステップS19)。これに
より、元画像ORのエッジのみがぼけた画像を生成でき
るようになる。
Next, the original image OR is drawn in the frame buffer (step S18). Then, as described in F4 of FIG. 2, the image αM is drawn on the original image OR by α blending (α synthesis) (step S19). This makes it possible to generate an image in which only the edges of the original image OR are blurred.

【0154】図28は、元画像とぼかし画像の奥行き値
比較処理(Zテスト)によりエッジぼかしを実現する手
法(図3参照)の処理を説明するためのフローチャート
である。
FIG. 28 is a flow chart for explaining the processing of the technique (see FIG. 3) for realizing edge blurring by the depth value comparison processing (Z test) between the original image and the blurred image.

【0155】まず、ワークバッファを初期化する(ステ
ップS30)。そして、Zテストをオフにする(ステッ
プS31)。
First, the work buffer is initialized (step S30). Then, the Z test is turned off (step S31).

【0156】次に、図18のR3で説明したように、元
画像ORを、テクスチャ座標を(0.5、0.5)だけ
シフトしてバイリニアフィルタ方式(テクセル補間方
式)で仮想オブジェクト(画面サイズポリゴン)にマッ
ピングし、ワークバッファに描画する(ステップS3
2)。このようにすることで、図29(A)に示すよう
な元画像ORから図29(B)に示すようなぼかし画像
BM1を得ることができる。
Next, as described with reference to R3 in FIG. 18, the original image OR is shifted by the texture coordinates by (0.5, 0.5) and the virtual object (screen image) is shifted by the bilinear filter method (texel interpolation method). (Size polygon) and draw it in the work buffer (step S3)
2). In this way, a blurred image BM1 as shown in FIG. 29B can be obtained from the original image OR as shown in FIG.

【0157】次に、図18のR4で説明したように、ぼ
かし画像BM1を、テクスチャ座標を(−0.5、−
0.5)だけシフトしてバイリニアフィルタ方式で仮想
オブジェクトにマッピングし、ワークバッファの別領域
に描画する(ステップS33)。このようにすること
で、図30(A)に示すようなぼかし画像BM2を得る
ことができる。
Next, as described with reference to R4 in FIG. 18, the blurred image BM1 is represented by the texture coordinates (-0.5,-
The data is shifted by 0.5), mapped to the virtual object by the bilinear filter method, and drawn in another area of the work buffer (step S33). In this way, a blurred image BM2 as shown in FIG. 30A can be obtained.

【0158】そして、元画像ORとぼかし画像BM2に
基づいて、(OR−BM2)+(BM2−OR)の画像
演算処理を行い、図30(B)に示すようなエッジ画像
EMを生成する(ステップS34)。
Then, based on the original image OR and the blurred image BM2, an image operation process of (OR-BM2) + (BM2-OR) is performed to generate an edge image EM as shown in FIG. 30B ( Step S34).

【0159】即ち、(OR−BM2)の画像演算処理を
行うことで、元画像ORのエッジEDの内側にエッジ画
像を生成でき、(BM2−OR)の画像演算処理を行う
ことで、エッジEDの外側にエッジ画像を生成できる。
従って、(OR−BM2)+(BM2−OR)の画像演
算処理を行えば、図30(B)に示すようにエッジED
の内側及び外側の両方にエッジ画像を生成できることに
なる。
That is, by performing the image operation processing of (OR-BM2), an edge image can be generated inside the edge ED of the original image OR. By performing the image operation processing of (BM2-OR), the edge ED can be obtained. An edge image can be generated outside of.
Therefore, if the image operation processing of (OR−BM2) + (BM2−OR) is performed, the edge ED is obtained as shown in FIG.
Edge images can be generated both inside and outside.

【0160】なお、エッジ画像を図21のステップS2
〜S6の手法で生成してもよい。逆に、図21におい
て、ステップS2〜S6の手法に代えて図28のステッ
プS32〜S34の手法でエッジ画像を生成するように
してもよい。
It is to be noted that the edge image is stored in step S2 in FIG.
To S6. Conversely, in FIG. 21, an edge image may be generated by the method of steps S32 to S34 of FIG. 28 instead of the method of steps S2 to S6.

【0161】次に、生成されたエッジ画像EMのRGB
プレーンをZバッファに描画する(ステップS35)。
例えば、R、G、Bが各々8ビットであり、Z値が24
ビットである場合には、Rの8ビット、Gの8ビット、
Bの8ビットからなる24ビットのデータを、そのまま
24ビットのZ値に書き込む。このようにすれば、R、
G、Bの各8ビットの中のいずれかのビットに1が立て
ば、Z値のビットにも1が立つようになる。なお、Z値
が16ビットや8ビットである場合には、エッジ画像E
MのRGBデータをモノクロデータに変換して、このモ
ノクロデータをZバッファのZ値に書き込めばよい。
Next, the RGB of the generated edge image EM
The plane is drawn in the Z buffer (step S35).
For example, R, G, and B are each 8 bits, and the Z value is 24 bits.
Bits, R 8 bits, G 8 bits,
The 24-bit data consisting of 8 bits of B is written as it is to the 24-bit Z value. In this way, R,
If 1 is set in any one of the 8 bits of G and B, 1 is also set in the bit of the Z value. When the Z value is 16 bits or 8 bits, the edge image E
The M RGB data may be converted to monochrome data, and the monochrome data may be written to the Z value of the Z buffer.

【0162】次に、ステップS33で生成されたぼかし
画像BM2をフレームバッファに描画する(ステップS
36)。そして、Zテストをオンにする(ステップS3
7)。この時、Z≧ZBUF(ZBUFはZバッファの
Z値)となるピクセルが合格になるようにZテストのパ
ラメータを設定しておく。
Next, the blurred image BM2 generated in step S33 is drawn in the frame buffer (step S33).
36). Then, the Z test is turned on (step S3)
7). At this time, the parameters of the Z test are set so that pixels satisfying Z ≧ ZBUF (ZBUF is the Z value of the Z buffer) pass.

【0163】次に、Zテストを行いながら、元画像OR
をフレームバッファに描画する(ステップS38)。こ
の時、元画像ORの各ポリゴンのZ値を例えば0.0に
設定してフレームバッファに描画すれば、ZBUF=
0.0となっている領域(エッジ画像EMによるマスク
が存在しない領域)にのみ元画像ORが描画され、それ
以外の領域(エッジ画像EMによるマスクが存在する領
域)では、元画像ORが描画されないようになる。従っ
て、図3のG4、G5で説明したように、元画像ORの
エッジのみがぼけた画像を生成できるようになる。
Next, the original image OR
Is drawn in the frame buffer (step S38). At this time, if the Z value of each polygon of the original image OR is set to, for example, 0.0 and rendered in the frame buffer, ZBUF =
The original image OR is drawn only in the area of 0.0 (the area where the mask by the edge image EM does not exist), and in the other area (the area where the mask by the edge image EM exists), the original image OR is drawn. Will not be. Accordingly, as described with reference to G4 and G5 in FIG. 3, an image in which only the edges of the original image OR are blurred can be generated.

【0164】図31は、オーバレイオブジェクトに対す
るエッジぼかし処理を省略する手法(図9〜図11参
照)の処理を説明するためのフローチャートである。
FIG. 31 is a flow chart for explaining the processing of the technique (see FIGS. 9 to 11) for omitting the edge blur processing for the overlay object.

【0165】まず、オブジェクト(例えば、エッジぼか
し処理の対象となる3次元オブジェクト)に対するジオ
メトリ処理を行う(ステップS50)。そして、ジオメ
トリ処理後のオブジェクトにより構成される元画像を生
成し、描画バッファに描画する(ステップS51)。
First, geometry processing is performed on an object (for example, a three-dimensional object to be subjected to edge blurring processing) (step S50). Then, an original image composed of the objects after the geometry processing is generated and drawn in the drawing buffer (step S51).

【0166】次に、図2、図3で説明したエッジぼかし
処理の手法により、元画像のエッジがぼけた画像を生成
し、描画バッファに描画する(ステップS52)。
Next, an image in which the edges of the original image are blurred is generated by the edge blurring method described with reference to FIGS. 2 and 3, and is drawn in the drawing buffer (step S52).

【0167】次に、エッジぼかし処理を行わずに、オー
バレイオブジェクト(例えば、エッジぼかし処理の対象
外となる2次元オブジェクト)を描画バッファに描画す
る(ステップS53)。
Next, an overlay object (for example, a two-dimensional object not subjected to the edge blur processing) is drawn in the drawing buffer without performing the edge blur processing (step S53).

【0168】以上のようにすれば、プレーヤのスコアや
ライフなどを表示するためのオーバレイオブジェクトに
ついては、図10に示すようなエッジぼかし処理が施さ
れず、図11に示すように鮮明な画像で表示されるよう
になる。
As described above, the overlay object for displaying the score, life, and the like of the player is not subjected to the edge blur processing as shown in FIG. 10, and is a clear image as shown in FIG. Will be displayed.

【0169】4.ハードウェア構成 次に、本実施形態を実現できるハードウェアの構成の一
例について図32を用いて説明する。
4. Hardware Configuration Next, an example of a hardware configuration that can realize the present embodiment will be described with reference to FIG.

【0170】メインプロセッサ900は、CD982
(情報記憶媒体)に格納されたプログラム、通信インタ
ーフェース990を介して転送されたプログラム、或い
はROM950(情報記憶媒体の1つ)に格納されたプ
ログラムなどに基づき動作し、ゲーム処理、画像処理、
音処理などの種々の処理を実行する。
The main processor 900 is a CD982
(Information storage medium), a program transferred via the communication interface 990, or a program stored in the ROM 950 (one of the information storage media).
Various processes such as sound processing are executed.

【0171】コプロセッサ902は、メインプロセッサ
900の処理を補助するものであり、高速並列演算が可
能な積和算器や除算器を有し、マトリクス演算(ベクト
ル演算)を高速に実行する。例えば、オブジェクトを移
動させたり動作(モーション)させるための物理シミュ
レーションに、マトリクス演算などの処理が必要な場合
には、メインプロセッサ900上で動作するプログラム
が、その処理をコプロセッサ902に指示(依頼)す
る。
The coprocessor 902 assists the processing of the main processor 900, has a multiply-accumulate unit and a divider capable of high-speed parallel operation, and executes a matrix operation (vector operation) at high speed. For example, when a physical simulation for moving or moving an object requires processing such as matrix operation, a program operating on the main processor 900 instructs the coprocessor 902 to perform the processing (request ).

【0172】ジオメトリプロセッサ904は、座標変
換、透視変換、光源計算、曲面生成などのジオメトリ処
理を行うものであり、高速並列演算が可能な積和算器や
除算器を有し、マトリクス演算(ベクトル演算)を高速
に実行する。例えば、座標変換、透視変換、光源計算な
どの処理を行う場合には、メインプロセッサ900で動
作するプログラムが、その処理をジオメトリプロセッサ
904に指示する。
The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation, and curved surface generation. The geometry processor 904 includes a multiply-accumulate unit and a divider capable of high-speed parallel computation, and performs matrix computation (vector computation). Calculation) at high speed. For example, when performing processing such as coordinate transformation, perspective transformation, and light source calculation, a program operating on the main processor 900 instructs the geometry processor 904 to perform the processing.

【0173】データ伸張プロセッサ906は、圧縮され
た画像データや音データを伸張するデコード処理を行っ
たり、メインプロセッサ900のデコード処理をアクセ
レートする処理を行う。これにより、オープニング画
面、インターミッション画面、エンディング画面、或い
はゲーム画面などにおいて、MPEG方式等で圧縮され
た動画像を表示できるようになる。なお、デコード処理
の対象となる画像データや音データは、ROM950、
CD982に格納されたり、或いは通信インターフェー
ス990を介して外部から転送される。
The data decompression processor 906 performs a decoding process for decompressing the compressed image data and sound data, and performs a process for accelerating the decoding process of the main processor 900. As a result, a moving image compressed by the MPEG method or the like can be displayed on an opening screen, an intermission screen, an ending screen, a game screen, or the like. The image data and sound data to be decoded are stored in the ROM 950,
It is stored on a CD 982 or transferred from outside via a communication interface 990.

【0174】描画プロセッサ910は、ポリゴンや曲面
などのプリミティブ面で構成されるオブジェクトの描画
(レンダリング)処理を高速に実行するものである。オ
ブジェクトの描画の際には、メインプロセッサ900
は、DMAコントローラ970の機能を利用して、オブ
ジェクトデータを描画プロセッサ910に渡すと共に、
必要であればテクスチャ記憶部924にテクスチャを転
送する。すると、描画プロセッサ910は、これらのオ
ブジェクトデータやテクスチャに基づいて、Zバッファ
などを利用した陰面消去を行いながら、オブジェクトを
フレームバッファ922に高速に描画する。また、描画
プロセッサ910は、αブレンディング(半透明処
理)、デプスキューイング、ミップマッピング、フォグ
処理、バイリニア・フィルタリング、トライリニア・フ
ィルタリング、アンチエリアシング、シェーディング処
理なども行うことができる。そして、1フレーム分の画
像がフレームバッファ922に書き込まれると、その画
像はディスプレイ912に表示される。
The drawing processor 910 executes a high-speed drawing (rendering) process of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900
Uses the function of the DMA controller 970 to pass object data to the drawing processor 910,
If necessary, the texture is transferred to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 at high speed while performing hidden surface removal using a Z buffer or the like based on the object data and the texture. The drawing processor 910 can also perform α blending (translucent processing), depth queuing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. Then, when an image for one frame is written to the frame buffer 922, the image is displayed on the display 912.

【0175】サウンドプロセッサ930は、多チャンネ
ルのADPCM音源などを内蔵し、BGM、効果音、音
声などの高品位のゲーム音を生成する。生成されたゲー
ム音は、スピーカ932から出力される。
The sound processor 930 incorporates a multi-channel ADPCM sound source and the like, and generates high-quality game sounds such as BGM, sound effects, and sounds. The generated game sound is output from the speaker 932.

【0176】ゲームコントローラ942(レバー、ボタ
ン、筺体、パッド型コントローラ又はガン型コントロー
ラ等)からの操作データや、メモリカード944からの
セーブデータ、個人データは、シリアルインターフェー
ス940を介してデータ転送される。
Operation data from the game controller 942 (lever, button, housing, pad-type controller or gun-type controller, etc.), save data from the memory card 944, and personal data are transferred via the serial interface 940. .

【0177】ROM950にはシステムプログラムなど
が格納される。なお、業務用ゲームシステムの場合に
は、ROM950が情報記憶媒体として機能し、ROM
950に各種プログラムが格納されることになる。な
お、ROM950の代わりにハードディスクを利用する
ようにしてもよい。
The ROM 950 stores a system program and the like. In the case of the arcade game system, the ROM 950 functions as an information storage medium,
Various programs are stored in 950. Note that a hard disk may be used instead of the ROM 950.

【0178】RAM960は、各種プロセッサの作業領
域として用いられる。
The RAM 960 is used as a work area for various processors.

【0179】DMAコントローラ970は、プロセッ
サ、メモリ(RAM、VRAM、ROM等)間でのDM
A転送を制御するものである。
[0179] The DMA controller 970 is provided between the processor and the memory (RAM, VRAM, ROM, etc.).
A transfer is controlled.

【0180】CDドライブ980は、プログラム、画像
データ、或いは音データなどが格納されるCD982
(情報記憶媒体)を駆動し、これらのプログラム、デー
タへのアクセスを可能にする。
[0180] The CD drive 980 stores a CD982 in which programs, image data, sound data, and the like are stored.
(Information storage medium) to enable access to these programs and data.

【0181】通信インターフェース990は、ネットワ
ークを介して外部との間でデータ転送を行うためのイン
ターフェースである。この場合に、通信インターフェー
ス990に接続されるネットワークとしては、通信回線
(アナログ電話回線、ISDN)、高速シリアルバスな
どを考えることができる。そして、通信回線を利用する
ことでインターネットを介したデータ転送が可能にな
る。また、高速シリアルバスを利用することで、他のゲ
ームシステムとの間でのデータ転送が可能になる。
The communication interface 990 is an interface for transferring data to and from the outside via a network. In this case, a network connected to the communication interface 990 may be a communication line (analog telephone line, ISDN), a high-speed serial bus, or the like. Then, data can be transferred via the Internet by using a communication line. Further, by using the high-speed serial bus, data transfer with another game system becomes possible.

【0182】なお、本発明の各手段は、その全てを、ハ
ードウェアのみにより実現(実行)してもよいし、情報
記憶媒体に格納されるプログラムや通信インターフェー
スを介して配信されるプログラムのみにより実現しても
よい。或いは、ハードウェアとプログラムの両方により
実現してもよい。
[0182] Each means of the present invention may be realized (executed) only by hardware, or only by a program stored in an information storage medium or a program distributed via a communication interface. It may be realized. Alternatively, it may be realized by both hardware and a program.

【0183】そして、本発明の各手段をハードウェアと
プログラムの両方により実現する場合には、情報記憶媒
体には、本発明の各手段をハードウェアを利用して実現
するためのプログラムが格納されることになる。より具
体的には、上記プログラムが、ハードウェアである各プ
ロセッサ902、904、906、910、930等に
処理を指示すると共に、必要であればデータを渡す。そ
して、各プロセッサ902、904、906、910、
930等は、その指示と渡されたデータとに基づいて、
本発明の各手段を実現することになる。
When each means of the present invention is realized by both hardware and a program, a program for realizing each means of the present invention using hardware is stored in the information storage medium. Will be. More specifically, the program instructs the processors 902, 904, 906, 910, 930, etc., which are hardware, to perform processing, and passes data if necessary. Then, each processor 902, 904, 906, 910,
930, etc., based on the instruction and the passed data,
Each means of the present invention will be realized.

【0184】図33(A)に、本実施形態を業務用ゲー
ムシステムに適用した場合の例を示す。プレーヤは、デ
ィスプレイ1100上に映し出されたゲーム画像を見な
がら、ガン型コントローラ1102などを操作してゲー
ムを楽しむ。内蔵されるシステムボード(サーキットボ
ード)1106には、各種プロセッサ、各種メモリなど
が実装される。そして、本発明の各手段を実現するため
のプログラム(データ)は、システムボード1106上
の情報記憶媒体であるメモリ1108に格納される。以
下、このプログラムを格納プログラム(格納情報)と呼
ぶ。
FIG. 33A shows an example in which the present embodiment is applied to an arcade game system. The player enjoys the game by operating the gun-type controller 1102 while watching the game image projected on the display 1100. Various processors, various memories, and the like are mounted on a built-in system board (circuit board) 1106. A program (data) for realizing each unit of the present invention is stored in a memory 1108 which is an information storage medium on the system board 1106. Hereinafter, this program is called a storage program (storage information).

【0185】図33(B)に、本実施形態を家庭用のゲ
ームシステムに適用した場合の例を示す。プレーヤはデ
ィスプレイ1200に映し出されたゲーム画像を見なが
ら、ガン型コントローラ1202、1204などを操作
してゲームを楽しむ。この場合、上記格納プログラム
(格納情報)は、本体システムに着脱自在な情報記憶媒
体であるCD1206、或いはメモリカード1208、
1209などに格納されている。
FIG. 33B shows an example in which the present embodiment is applied to a home game system. The player enjoys the game by operating the gun-type controllers 1202 and 1204 while watching the game image displayed on the display 1200. In this case, the storage program (storage information) is stored in a CD 1206 or a memory card 1208 which is a removable information storage medium in the main system.
1209 or the like.

【0186】図33(C)に、ホスト装置1300と、
このホスト装置1300とネットワーク1302(LA
Nのような小規模ネットワークや、インターネットのよ
うな広域ネットワーク)を介して接続される端末130
4-1〜1304-n(ゲーム機、携帯電話)とを含むシ
ステムに本実施形態を適用した場合の例を示す。この場
合、上記格納プログラム(格納情報)は、例えばホスト
装置1300が制御可能な磁気ディスク装置、磁気テー
プ装置、メモリなどの情報記憶媒体1306に格納され
ている。端末1304-1〜1304-nが、スタンドア
ロンでゲーム画像、ゲーム音を生成できるものである場
合には、ホスト装置1300からは、ゲーム画像、ゲー
ム音を生成するためのゲームプログラム等が端末130
4-1〜1304-nに配送される。一方、スタンドアロ
ンで生成できない場合には、ホスト装置1300がゲー
ム画像、ゲーム音を生成し、これを端末1304-1〜
1304-nに伝送し端末において出力することになる。
FIG. 33C shows a host device 1300,
The host device 1300 and the network 1302 (LA
N or a wide area network such as the Internet).
An example in which the present embodiment is applied to a system including 4-1 to 1304-n (game machine, mobile phone) will be described. In this case, the storage program (storage information) is stored in an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a memory that can be controlled by the host device 1300. When the terminals 1304-1 to 1304-n are capable of generating a game image and a game sound in a stand-alone manner, a game program for generating a game image and a game sound is transmitted from the host device 1300 to the terminal 130.
It is delivered to 4-1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, and these are generated by the terminals 1304-1 to 1304-1.
1304-n and output at the terminal.

【0187】なお、図33(C)の構成の場合に、本発
明の各手段を、ホスト装置(サーバー)と端末とで分散
して実現するようにしてもよい。また、本発明の各手段
を実現するための上記格納プログラム(格納情報)を、
ホスト装置(サーバー)の情報記憶媒体と端末の情報記
憶媒体に分散して格納するようにしてもよい。
In the case of the configuration shown in FIG. 33 (C), each means of the present invention may be realized in a distributed manner between a host device (server) and a terminal. In addition, the storage program (storage information) for realizing each unit of the present invention includes:
The information may be stored separately in the information storage medium of the host device (server) and the information storage medium of the terminal.

【0188】またネットワークに接続する端末は、家庭
用ゲームシステムであってもよいし業務用ゲームシステ
ムであってもよい。そして、業務用ゲームシステムをネ
ットワークに接続する場合には、業務用ゲームシステム
との間で情報のやり取りが可能であると共に家庭用ゲー
ムシステムとの間でも情報のやり取りが可能なセーブ用
情報記憶装置(メモリカード、携帯型ゲーム装置)を用
いることが望ましい。
The terminal connected to the network may be a home game system or an arcade game system. When the arcade game system is connected to a network, a save information storage device capable of exchanging information with the arcade game system and exchanging information with the home game system. (Memory card, portable game device) is desirable.

【0189】なお本発明は、上記実施形態で説明したも
のに限らず、種々の変形実施が可能である。
The present invention is not limited to the embodiments described above, and various modifications can be made.

【0190】例えば、エッジ情報を抽出し、抽出された
エッジ情報と元画像のぼかし画像とに基づいて元画像の
エッジがぼけた画像を生成する手法としては、図2、図
3で説明した手法が特に望ましいが、これに限定され
ず、種々の変形実施が可能である。
For example, as a method of extracting edge information and generating an image in which the edge of the original image is blurred based on the extracted edge information and the blurred image of the original image, the method described with reference to FIGS. Is particularly desirable, but is not limited thereto, and various modifications can be made.

【0191】また、ルックアップテーブルの変換特性
も、図15等に示した変換特性に限定されず、種々の変
形実施が可能である。例えば図15のルックアップテー
ブルでは、出力されるαOUT(α値)が2値になって
いるが、INDEXとαOUTの変換特性がカーブにな
るようなルックアップテーブル(α値が3値以上の多値
になるルックアップテーブル)を用いてもよい。このよ
うなルックアップテーブルを用いれば、カーブの特性を
変えることで、アンチエリアシングのエフェクト範囲の
制御(エッジ領域でのぼかし具合の制御)が可能にな
る。
The conversion characteristics of the look-up table are not limited to the conversion characteristics shown in FIG. 15 and the like, and various modifications can be made. For example, in the lookup table of FIG. 15, the output αOUT (α value) is binary, but a lookup table (α value having three or more values) in which the conversion characteristic between INDEX and αOUT becomes a curve. Look-up table that becomes a value) may be used. By using such a look-up table, it is possible to control the effect range of anti-aliasing (control of the degree of blurring in the edge area) by changing the characteristics of the curve.

【0192】また、エッジ画像をα値に変換する手法
も、図15、図27で説明した手法が特に望ましいが、
これに限定されず、種々の変形実施が可能である。
The method for converting an edge image into an α value is also preferably the method described with reference to FIGS. 15 and 27.
The present invention is not limited to this, and various modifications can be made.

【0193】また、ぼかし画像を生成する手法も、図1
6〜図20(B)で説明した手法が特に望ましいが、こ
れに限定されるものではない。例えば元画像と元画像を
ずらした画像を合成したり、当該フレームの元画像と前
のフレームの元画像とを合成したりしてぼかし画像を生
成してもよい。
The method of generating a blurred image is also shown in FIG.
The method described with reference to FIGS. 6 to 20B is particularly desirable, but is not limited thereto. For example, a blurred image may be generated by combining an original image and an image obtained by shifting the original image, or combining the original image of the frame and the original image of the previous frame.

【0194】また、本発明のうち従属請求項に係る発明
においては、従属先の請求項の構成要件の一部を省略す
る構成とすることもできる。また、本発明の1の独立請
求項に係る発明の要部を、他の独立請求項に従属させる
こともできる。
Further, in the invention according to the dependent claims of the present invention, a configuration in which some of the constituent elements of the dependent claims are omitted may be adopted. In addition, a main part of the invention according to one independent claim of the present invention may be made dependent on another independent claim.

【0195】また、本発明は種々のゲーム(格闘ゲー
ム、シューティングゲーム、ロボット対戦ゲーム、スポ
ーツゲーム、競争ゲーム、ロールプレイングゲーム、音
楽演奏ゲーム、ダンスゲーム等)に適用できる。
The present invention can be applied to various games (fighting games, shooting games, robot battle games, sports games, competition games, role playing games, music playing games, dance games, etc.).

【0196】また本発明は、業務用ゲームシステム、家
庭用ゲームシステム、多数のプレーヤが参加する大型ア
トラクションシステム、シミュレータ、マルチメディア
端末、ゲーム画像を生成するシステムボード等の種々の
ゲームシステム(画像生成システム)に適用できる。
The present invention also provides various game systems (image generation systems) such as a business game system, a home game system, a large attraction system in which many players participate, a simulator, a multimedia terminal, and a system board for generating game images. System).

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態のゲームシステムの機能ブロック図
の例である。
FIG. 1 is an example of a functional block diagram of a game system according to an embodiment.

【図2】α合成処理を利用して元画像のエッジをぼかす
処理を実現する手法について説明するための図である。
FIG. 2 is a diagram for describing a method of realizing a process of blurring an edge of an original image using an α synthesis process.

【図3】奥行き値比較処理を利用して元画像のエッジを
ぼかす処理を実現する手法について説明するための図で
ある。
FIG. 3 is a diagram for describing a method of realizing a process of blurring an edge of an original image using a depth value comparison process.

【図4】元画像の例を示す図である。FIG. 4 is a diagram illustrating an example of an original image.

【図5】元画像のエッジ部分の拡大図である。FIG. 5 is an enlarged view of an edge portion of an original image.

【図6】エッジ画像の拡大図である。FIG. 6 is an enlarged view of an edge image.

【図7】ぼかし画像の拡大図である。FIG. 7 is an enlarged view of a blurred image.

【図8】元画像のエッジのみがぼけた画像の拡大図であ
る。
FIG. 8 is an enlarged view of an image in which only edges of an original image are blurred.

【図9】オーバレイオブジェクトが表示されたゲーム画
面の例である。
FIG. 9 is an example of a game screen on which an overlay object is displayed.

【図10】オーバレイオブジェクトにエッジぼかし処理
を施した場合の画像の例である。
FIG. 10 is an example of an image when an edge blurring process is performed on an overlay object.

【図11】オーバレイオブジェクトにエッジぼかし処理
を施さなかった場合の画像の例である。
FIG. 11 is an example of an image when an edge blurring process is not performed on an overlay object.

【図12】インデックスカラー・テクスチャマッピング
について説明するための図である。
FIG. 12 is a diagram for describing index color / texture mapping.

【図13】インデックスカラー・テクスチャマッピング
用のLUTを有効利用して、元画像を変換する手法につ
いて説明するための図である。
FIG. 13 is a diagram for describing a method of converting an original image by effectively using an LUT for index color / texture mapping.

【図14】元画像を複数のブロックに分割し、各ブロッ
クの画像を、LUTを用いて分割ブロックサイズのポリ
ゴンにテクスチャマッピングする手法について説明する
ための図である。
FIG. 14 is a diagram for describing a method of dividing an original image into a plurality of blocks and texture-mapping an image of each block to a polygon of a divided block size using an LUT.

【図15】LUTを利用したテクスチャマッピングを行
い、αプレーンを作成する手法について説明するための
図である。
FIG. 15 is a diagram for describing a method of creating an α plane by performing texture mapping using an LUT.

【図16】バイリニアフィルタ方式のテクスチャマッピ
ングについて説明するための図である。
FIG. 16 is a diagram illustrating texture mapping using a bilinear filter method.

【図17】バイリニアフィルタ方式を有効利用してぼか
し画像を生成する手法について説明するための図であ
る。
FIG. 17 is a diagram for describing a method of generating a blurred image by effectively utilizing a bilinear filter method.

【図18】バイリニアフィルタ方式を有効利用してぼか
し画像を生成する手法について説明するための図であ
る。
FIG. 18 is a diagram for describing a method of generating a blurred image by effectively utilizing a bilinear filter method.

【図19】図19(A)、(B)は、バイリニアフィル
タ方式の補間機能によりぼかし画像が生成される原理に
ついて説明するための図である。
FIGS. 19A and 19B are diagrams for explaining the principle of generating a blurred image by an interpolation function of a bilinear filter method.

【図20】図20(A)、(B)も、バイリニアフィル
タ方式の補間機能によりぼかし画像が生成される原理に
ついて説明するための図である。
FIGS. 20A and 20B are diagrams for explaining the principle of generating a blurred image by an interpolation function of a bilinear filter method.

【図21】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 21 is a flowchart illustrating a detailed example of a process according to the present embodiment.

【図22】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 22 is a flowchart illustrating a detailed example of a process according to the present embodiment.

【図23】図23(A)、(B)は、本実施形態の処理
の詳細例について説明するための図である。
FIGS. 23A and 23B are diagrams for describing a detailed example of a process according to the present embodiment;

【図24】図24(A)、(B)も、本実施形態の処理
の詳細例について説明するための図である。
FIGS. 24A and 24B are diagrams for describing a detailed example of a process according to the present embodiment;

【図25】図25(A)、(B)も、本実施形態の処理
の詳細例について説明するための図である。
FIGS. 25A and 25B are diagrams for describing a detailed example of a process according to the present embodiment;

【図26】図26(A)、(B)も、本実施形態の処理
の詳細例について説明するための図である。
FIGS. 26A and 26B are diagrams for describing a detailed example of a process according to the present embodiment;

【図27】本実施形態の処理の詳細例について説明する
ための図である。
FIG. 27 is a diagram illustrating a detailed example of a process according to the embodiment;

【図28】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 28 is a flowchart illustrating a detailed example of a process according to the present embodiment.

【図29】図29(A)、(B)は、本実施形態の処理
の詳細例について説明するための図である。
FIGS. 29A and 29B are diagrams for describing a detailed example of a process according to the present embodiment;

【図30】図30(A)、(B)も、本実施形態の処理
の詳細例について説明するための図である。
FIGS. 30A and 30B are diagrams for describing a detailed example of a process according to the present embodiment;

【図31】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 31 is a flowchart illustrating a detailed example of a process according to the present embodiment.

【図32】本実施形態を実現できるハードウェアの構成
の一例を示す図である。
FIG. 32 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.

【図33】図33(A)、(B)、(C)は、本実施形
態が適用される種々の形態のシステムの例を示す図であ
る。
FIGS. 33A, 33B, and 33C are diagrams showing examples of various types of systems to which the present embodiment is applied.

【符号の説明】[Explanation of symbols]

OR 元画像 EM エッジ画像 BM ぼかし画像 100 処理部 110 ジオメトリ処理部 120 描画部(エッジ抽出部、エッジぼかし部) 130 テクスチャマッピング部 132 α合成部 134 陰面消去部(奥行き値比較部) 160 操作部 170 記憶部 172 主記憶部 174 描画バッファ 176 テクスチャ記憶部 178 LUT記憶部 179 奥行き値バッファ 180 情報記憶媒体 190 表示部 192 音出力部 194 携帯型情報記憶装置 196 通信部 OR original image EM edge image BM blurred image 100 processing unit 110 geometry processing unit 120 drawing unit (edge extraction unit, edge blurring unit) 130 texture mapping unit 132 α synthesis unit 134 hidden surface elimination unit (depth value comparison unit) 160 operation unit 170 Storage unit 172 Main storage unit 174 Drawing buffer 176 Texture storage unit 178 LUT storage unit 179 Depth value buffer 180 Information storage medium 190 Display unit 192 Sound output unit 194 Portable information storage device 196 Communication unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 橘高 繁 東京都大田区多摩川2丁目8番5号 株式 会社ナムコ内 Fターム(参考) 2C001 BC00 BC05 BC06 BC10 CB01 CC02 5B057 CA01 CA08 CA16 CB01 CB08 CB16 CD02 CE05 CE08 CH07 CH09 CH11 DC16 5B080 CA01 FA02 FA03 FA14 FA15 GA22  ──────────────────────────────────────────────────の Continuing on the front page (72) Inventor Shigeru Tachibana 2-8-5 Tamagawa, Ota-ku, Tokyo F-term (reference) in Namco 2C001 BC00 BC05 BC06 BC10 CB01 CC02 5B057 CA01 CA08 CA16 CB01 CB08 CB16 CD02 CE05 CE08 CH07 CH09 CH11 DC16 5B080 CA01 FA02 FA03 FA14 FA15 GA22

Claims (23)

【特許請求の範囲】[Claims] 【請求項1】 画像生成を行うゲームシステムであっ
て、 元画像のエッジを特定するための情報であるエッジ情報
を抽出する手段と、 抽出されたエッジ情報と元画像のぼかし画像とに基づい
て、元画像のエッジがぼけた画像を生成する手段と、 を含むことを特徴とするゲームシステム。
1. A game system for generating an image, comprising: means for extracting edge information that is information for specifying an edge of an original image; and a game system based on the extracted edge information and a blurred image of the original image. A means for generating an image in which the edge of the original image is blurred.
【請求項2】 請求項1において、 前記エッジ情報が、 元画像のエッジ領域とそれ以外の領域とで異なった値が
設定されるα値の情報であり、 前記エッジ情報が含むα値に基づいて元画像と元画像の
ぼかし画像とのα合成処理を行うことで、元画像のエッ
ジがぼけた画像が生成されることを特徴とするゲームシ
ステム。
2. The edge information according to claim 1, wherein the edge information is information of an α value in which a different value is set between an edge area of the original image and other areas, and based on the α value included in the edge information. The original image and a blurred image of the original image to generate an image with blurred edges of the original image.
【請求項3】 請求項2において、 元画像に基づき生成されたエッジ画像の情報がインデッ
クス番号として設定されたルックアップテーブルを用い
て、仮想オブジェクトに対してインデックスカラー・テ
クスチャマッピングを行うことで、前記α値の情報が求
められることを特徴とするゲームシステム。
3. The method according to claim 2, wherein the index color / texture mapping is performed on the virtual object using a lookup table in which information of the edge image generated based on the original image is set as an index number. A game system wherein the information of the α value is obtained.
【請求項4】 請求項1において、 前記エッジ情報が、 元画像のエッジ領域とそれ以外の領域とで異なった値が
設定される奥行き値の情報であり、 前記エッジ情報が含む奥行き値に基づいて元画像と元画
像のぼかし画像との奥行き値比較処理を行うことで、元
画像のエッジがぼけた画像が生成されることを特徴とす
るゲームシステム。
4. The edge information according to claim 1, wherein the edge information is information of a depth value in which a different value is set between an edge area of the original image and another area, and based on a depth value included in the edge information. A depth value comparison process between an original image and a blurred image of the original image to generate an image with blurred edges of the original image.
【請求項5】 請求項4において、 元画像に基づき生成されたエッジ画像の情報が奥行き値
として奥行き値バッファに設定され、該奥行き値バッフ
ァを用いて、元画像のエッジ領域では元画像の描画が不
許可となりぼかし画像の描画が許可される奥行き比較処
理が行われることを特徴とするゲームシステム。
5. The original image according to claim 4, wherein information of the edge image generated based on the original image is set as a depth value in a depth value buffer, and the original image is drawn in an edge region of the original image using the depth value buffer. Is not permitted, and a depth comparison process is performed in which the drawing of the blurred image is permitted.
【請求項6】 請求項1乃至5のいずれかにおいて、 元画像を複数の異なる方向に微少値だけずらして描画バ
ッファに重ねて描画し、得られた画像と元画像とに基づ
く画像演算処理を行うことで元画像のエッジ画像が生成
され、生成されたエッジ画像に基づいて前記エッジ情報
が抽出されることを特徴とするゲームシステム。
6. The image processing device according to claim 1, wherein the original image is shifted in the plurality of different directions by a small value and superimposed on the rendering buffer, and the image calculation process is performed based on the obtained image and the original image. A game system wherein an edge image of an original image is generated by performing the processing, and the edge information is extracted based on the generated edge image.
【請求項7】 請求項1乃至5のいずれかにおいて、 元画像をテクスチャとして設定し、設定されたテクスチ
ャを、テクスチャ座標をシフトさせながらテクセル補間
方式で仮想オブジェクトにマッピングし、得られた画像
と元画像とに基づく画像演算処理を行うことで元画像の
エッジ画像が生成され、生成されたエッジ画像に基づい
て前記エッジ情報が抽出されることを特徴とするゲーム
システム。
7. The image according to claim 1, wherein an original image is set as a texture, and the set texture is mapped to a virtual object by a texel interpolation method while shifting texture coordinates. A game system, wherein an edge image of an original image is generated by performing an image calculation process based on the original image, and the edge information is extracted based on the generated edge image.
【請求項8】 請求項1乃至7のいずれかにおいて、 元画像をテクスチャとして設定し、設定されたテクスチ
ャを、テクスチャ座標をシフトさせながらテクセル補間
方式で仮想オブジェクトにマッピングすることで元画像
のぼかし画像が生成されることを特徴とするゲームシス
テム。
8. The blur of the original image according to claim 1, wherein the original image is set as a texture, and the set texture is mapped to a virtual object by a texel interpolation method while shifting texture coordinates. A game system wherein an image is generated.
【請求項9】 画像生成を行うゲームシステムであっ
て、 所与の画像情報が含む色情報の第1の色成分を、インデ
ックスカラー・テクスチャマッピング用のルックアップ
テーブルのインデックス番号に設定し、該ルックアップ
テーブルを用いて仮想オブジェクトに対してインデック
スカラー・テクスチャマッピングを行うことで生成され
る第1の画像情報と、前記所与の画像情報が含む色情報
の第2の色成分を、インデックスカラー・テクスチャマ
ッピング用のルックアップテーブルのインデックス番号
に設定し、該ルックアップテーブルを用いて仮想オブジ
ェクトに対してインデックスカラー・テクスチャマッピ
ングを行うことで生成される第2の画像情報と、前記所
与の画像情報が含む色情報の第3の色成分を、インデッ
クスカラー・テクスチャマッピング用のルックアップテ
ーブルのインデックス番号に設定し、該ルックアップテ
ーブルを用いて仮想オブジェクトに対してインデックス
カラー・テクスチャマッピングを行うことで生成される
第3の画像情報とを合成し、第4の画像情報を生成する
手段と、 前記第4の画像情報が含む色情報の所与の色成分を、イ
ンデックスカラー・テクスチャマッピング用のルックア
ップテーブルのインデックス番号に設定し、該ルックア
ップテーブルを用いて仮想オブジェクトに対してインデ
ックスカラー・テクスチャマッピングを行うことで、前
記所与の画像情報に応じたα値を生成する手段と、 を含むことを特徴とするゲームシステム。
9. A game system for generating an image, comprising: setting a first color component of color information included in given image information to an index number of a lookup table for index color / texture mapping; A first image information generated by performing an index color / texture mapping on a virtual object using a look-up table, and a second color component of the color information included in the given image information are represented by an index color Second image information generated by setting an index number of a lookup table for texture mapping and performing index color / texture mapping on a virtual object using the lookup table; The third color component of the color information included in the image information is used as an index color The index number is set to the index number of the look-up table for the texture mapping, and the third image information generated by performing the index color / texture mapping on the virtual object using the look-up table is synthesized. Means for generating image information of the following; a given color component of the color information included in the fourth image information is set as an index number of a lookup table for index color / texture mapping, and the lookup table is used. Means for performing an index color / texture mapping on a virtual object to generate an α value corresponding to the given image information.
【請求項10】 画像生成を行うゲームシステムであっ
て、 オブジェクトにジオメトリ処理を施す手段と、 ジオメトリ処理後のオブジェクトにより構成される元画
像を生成し、描画バッファに描画する描画手段とを含
み、 前記描画手段が、 元画像に基づいて元画像のエッジがぼけた画像を生成
し、描画バッファに描画すると共に、元画像に重ね書き
されるべきオーバレイオブジェクトについては、エッジ
をぼかす処理を省略して描画バッファに描画することを
特徴とするゲームシステム。
10. A game system for generating an image, comprising: means for performing geometry processing on an object; and drawing means for generating an original image composed of the object after the geometry processing and drawing the original image in a drawing buffer. The drawing means generates an image in which the edge of the original image is blurred based on the original image, draws the image in the drawing buffer, and omit a process of blurring the edge for the overlay object to be overwritten on the original image. A game system for drawing in a drawing buffer.
【請求項11】 請求項10において、 元画像のエッジを特定するための情報であるエッジ情報
が抽出され、抽出されたエッジ情報と元画像のぼかし画
像とに基づいて、元画像のエッジがぼけた画像が生成さ
れることを特徴とするゲームシステム。
11. The image processing apparatus according to claim 10, wherein edge information as information for specifying an edge of the original image is extracted, and the edge of the original image is blurred based on the extracted edge information and the blurred image of the original image. A game system, wherein an image is generated.
【請求項12】 コンピュータにより使用可能なプログ
ラムであって、 元画像のエッジを特定するための情報であるエッジ情報
を抽出する手段と、 抽出されたエッジ情報と元画像のぼかし画像とに基づい
て、元画像のエッジがぼけた画像を生成する手段と、 をコンピュータに実現させることを特徴とするプログラ
ム。
12. A program usable by a computer, comprising: means for extracting edge information which is information for specifying an edge of an original image; and a program for extracting edge information based on the extracted edge information and a blurred image of the original image. A means for generating an image in which the edge of the original image is blurred, and a computer.
【請求項13】 請求項12において、 前記エッジ情報が、 元画像のエッジ領域とそれ以外の領域とで異なった値が
設定されるα値の情報であり、 前記エッジ情報が含むα値に基づいて元画像と元画像の
ぼかし画像とのα合成処理を行うことで、元画像のエッ
ジがぼけた画像が生成されることを特徴とするプログラ
ム。
13. The edge information according to claim 12, wherein the edge information is information of an α value in which a different value is set between an edge region of the original image and another region, and based on the α value included in the edge information. The alpha image of the original image and the blurred image of the original image to generate an image with blurred edges of the original image.
【請求項14】 請求項13において、 元画像に基づき生成されたエッジ画像の情報がインデッ
クス番号として設定されたルックアップテーブルを用い
て、仮想オブジェクトに対してインデックスカラー・テ
クスチャマッピングを行うことで、前記α値の情報が求
められることを特徴とするプログラム。
14. The method according to claim 13, wherein the index color / texture mapping is performed on the virtual object using a look-up table in which information of the edge image generated based on the original image is set as an index number. A program wherein information on the α value is obtained.
【請求項15】 請求項12において、 前記エッジ情報が、 元画像のエッジ領域とそれ以外の領域とで異なった値が
設定される奥行き値の情報であり、 前記エッジ情報が含む奥行き値に基づいて元画像と元画
像のぼかし画像との奥行き値比較処理を行うことで、元
画像のエッジがぼけた画像が生成されることを特徴とす
るプログラム。
15. The edge information according to claim 12, wherein the edge information is information of a depth value in which a different value is set between an edge area of the original image and another area, and based on a depth value included in the edge information. A depth value comparison process between an original image and a blurred image of the original image to generate an image with blurred edges of the original image.
【請求項16】 請求項15において、 元画像に基づき生成されたエッジ画像の情報が奥行き値
として奥行き値バッファに設定され、該奥行き値バッフ
ァを用いて、元画像のエッジ領域では元画像の描画が不
許可となりぼかし画像の描画が許可される奥行き比較処
理が行われることを特徴とするプログラム。
16. The method according to claim 15, wherein information of the edge image generated based on the original image is set as a depth value in a depth value buffer, and the original image is drawn in an edge region of the original image using the depth value buffer. Is performed, and a depth comparison process is performed in which the drawing of a blurred image is permitted.
【請求項17】 請求項12乃至16のいずれかにおい
て、 元画像を複数の異なる方向に微少値だけずらして描画バ
ッファに重ねて描画し、得られた画像と元画像とに基づ
く画像演算処理を行うことで元画像のエッジ画像が生成
され、生成されたエッジ画像に基づいて前記エッジ情報
が抽出されることを特徴とするプログラム。
17. An image calculation process according to claim 12, wherein the original image is shifted in the plurality of different directions by a small value and superimposed on the rendering buffer, and the image calculation processing based on the obtained image and the original image is performed. A program generating an edge image of the original image, and extracting the edge information based on the generated edge image.
【請求項18】 請求項12乃至16のいずれかにおい
て、 元画像をテクスチャとして設定し、設定されたテクスチ
ャを、テクスチャ座標をシフトさせながらテクセル補間
方式で仮想オブジェクトにマッピングし、得られた画像
と元画像とに基づく画像演算処理を行うことで元画像の
エッジ画像が生成され、生成されたエッジ画像に基づい
て前記エッジ情報が抽出されることを特徴とするプログ
ラム。
18. An image according to claim 12, wherein the original image is set as a texture, and the set texture is mapped to a virtual object by a texel interpolation method while shifting texture coordinates. A program for generating an edge image of an original image by performing an image calculation process based on the original image and extracting the edge information based on the generated edge image.
【請求項19】 請求項12乃至18のいずれかにおい
て、 元画像をテクスチャとして設定し、設定されたテクスチ
ャを、テクスチャ座標をシフトさせながらテクセル補間
方式で仮想オブジェクトにマッピングすることで元画像
のぼかし画像が生成されることを特徴とするプログラ
ム。
19. The blur of the original image according to claim 12, wherein the original image is set as a texture, and the set texture is mapped to a virtual object by a texel interpolation method while shifting texture coordinates. A program for generating an image.
【請求項20】 コンピュータにより使用可能なプログ
ラムであって、 所与の画像情報が含む色情報の第1の色成分を、インデ
ックスカラー・テクスチャマッピング用のルックアップ
テーブルのインデックス番号に設定し、該ルックアップ
テーブルを用いて仮想オブジェクトに対してインデック
スカラー・テクスチャマッピングを行うことで生成され
る第1の画像情報と、前記所与の画像情報が含む色情報
の第2の色成分を、インデックスカラー・テクスチャマ
ッピング用のルックアップテーブルのインデックス番号
に設定し、該ルックアップテーブルを用いて仮想オブジ
ェクトに対してインデックスカラー・テクスチャマッピ
ングを行うことで生成される第2の画像情報と、前記所
与の画像情報が含む色情報の第3の色成分を、インデッ
クスカラー・テクスチャマッピング用のルックアップテ
ーブルのインデックス番号に設定し、該ルックアップテ
ーブルを用いて仮想オブジェクトに対してインデックス
カラー・テクスチャマッピングを行うことで生成される
第3の画像情報とを合成し、第4の画像情報を生成する
手段と、 前記第4の画像情報が含む色情報の所与の色成分を、イ
ンデックスカラー・テクスチャマッピング用のルックア
ップテーブルのインデックス番号に設定し、該ルックア
ップテーブルを用いて仮想オブジェクトに対してインデ
ックスカラー・テクスチャマッピングを行うことで、前
記所与の画像情報に応じたα値を生成する手段と、 をコンピュータに実現させることを特徴とするプログラ
ム。
20. A computer-usable program, comprising: setting a first color component of color information included in given image information to an index number of a look-up table for index color / texture mapping; A first image information generated by performing an index color / texture mapping on a virtual object using a look-up table, and a second color component of the color information included in the given image information are represented by an index color Second image information generated by setting an index number of a lookup table for texture mapping and performing index color / texture mapping on a virtual object using the lookup table; The third color component of the color information included in the image information is indexed. Set to the index number of the look-up table for color / texture mapping, and synthesize the third image information generated by performing index color / texture mapping on the virtual object using the look-up table; Means for generating fourth image information; and setting a given color component of color information included in the fourth image information to an index number of a look-up table for index color / texture mapping; Means for generating an α value corresponding to the given image information by performing index color / texture mapping on the virtual object using the following.
【請求項21】 オブジェクトにジオメトリ処理を施す
手段と、 ジオメトリ処理後のオブジェクトにより構成される元画
像を生成し、描画バッファに描画する描画手段と、 をコンピュータに実現させるためのコンピュータ使用可
能なプログラムであって、 前記描画手段が、 元画像に基づいて元画像のエッジがぼけた画像を生成
し、描画バッファに描画すると共に、元画像に重ね書き
されるべきオーバレイオブジェクトについては、エッジ
をぼかす処理を省略して描画バッファに描画することを
特徴とするプログラム。
21. A computer-usable program for causing a computer to implement: a means for performing geometry processing on an object; and a drawing means for generating an original image composed of the object after the geometry processing and drawing the image in a drawing buffer. Wherein the drawing means generates an image in which the edge of the original image is blurred based on the original image, draws the image in the drawing buffer, and blurs the edge of the overlay object to be overwritten on the original image. A program characterized by drawing in a drawing buffer by omitting the.
【請求項22】 請求項21において、 元画像のエッジを特定するための情報であるエッジ情報
が抽出され、抽出されたエッジ情報と元画像のぼかし画
像とに基づいて、元画像のエッジがぼけた画像が生成さ
れることを特徴とするプログラム。
22. The method according to claim 21, wherein edge information, which is information for specifying an edge of the original image, is extracted, and the edge of the original image is blurred based on the extracted edge information and the blurred image of the original image. A program that generates an image.
【請求項23】 コンピュータにより使用可能な情報記
憶媒体であって、請求項12乃至22のいずれかのプロ
グラムを含むことを特徴とする情報記憶媒体。
23. An information storage medium usable by a computer, comprising the program according to claim 12.
JP2000359195A 2000-11-27 2000-11-27 Game system, program and information storage medium Pending JP2002163671A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000359195A JP2002163671A (en) 2000-11-27 2000-11-27 Game system, program and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000359195A JP2002163671A (en) 2000-11-27 2000-11-27 Game system, program and information storage medium

Publications (1)

Publication Number Publication Date
JP2002163671A true JP2002163671A (en) 2002-06-07

Family

ID=18830991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000359195A Pending JP2002163671A (en) 2000-11-27 2000-11-27 Game system, program and information storage medium

Country Status (1)

Country Link
JP (1) JP2002163671A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006004364A (en) * 2004-06-21 2006-01-05 Namco Ltd Program, information storage medium and image generation system
JP2006120158A (en) * 2004-10-19 2006-05-11 Microsoft Corp Method for hardware accelerated anti-aliasing in three-dimension
JP2007026111A (en) * 2005-07-15 2007-02-01 Namco Bandai Games Inc Program, information storage medium, and image creation system
JP2007026112A (en) * 2005-07-15 2007-02-01 Namco Bandai Games Inc Program, information storage medium and image generation system
JP2007159725A (en) * 2005-12-12 2007-06-28 Nintendo Co Ltd Game program and game apparatus
JP2007183722A (en) * 2006-01-05 2007-07-19 Namco Bandai Games Inc Program, information storage medium, and data structure of texture
CN103218847A (en) * 2012-01-19 2013-07-24 联想(北京)有限公司 Method and device of image processing
JP2015050538A (en) * 2013-08-30 2015-03-16 Kddi株式会社 Camera video processing method, apparatus and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07134769A (en) * 1993-11-09 1995-05-23 Fujitsu General Ltd Anti-aliasing processing method for image synthesis
JPH11184454A (en) * 1997-12-22 1999-07-09 Hitachi Ltd Graphic processor and data processing system
JP2000099748A (en) * 1998-09-17 2000-04-07 Ricoh Co Ltd Three-dimensional grphics processor and its processing method
JP2000197765A (en) * 1998-12-29 2000-07-18 Namco Ltd Game device and information storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07134769A (en) * 1993-11-09 1995-05-23 Fujitsu General Ltd Anti-aliasing processing method for image synthesis
JPH11184454A (en) * 1997-12-22 1999-07-09 Hitachi Ltd Graphic processor and data processing system
JP2000099748A (en) * 1998-09-17 2000-04-07 Ricoh Co Ltd Three-dimensional grphics processor and its processing method
JP2000197765A (en) * 1998-12-29 2000-07-18 Namco Ltd Game device and information storage medium

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006004364A (en) * 2004-06-21 2006-01-05 Namco Ltd Program, information storage medium and image generation system
JP4521811B2 (en) * 2004-06-21 2010-08-11 株式会社バンダイナムコゲームス Program, information storage medium, and image generation system
JP2006120158A (en) * 2004-10-19 2006-05-11 Microsoft Corp Method for hardware accelerated anti-aliasing in three-dimension
JP2007026111A (en) * 2005-07-15 2007-02-01 Namco Bandai Games Inc Program, information storage medium, and image creation system
JP2007026112A (en) * 2005-07-15 2007-02-01 Namco Bandai Games Inc Program, information storage medium and image generation system
JP4728721B2 (en) * 2005-07-15 2011-07-20 株式会社バンダイナムコゲームス Program, information storage medium, and image generation system
JP2007159725A (en) * 2005-12-12 2007-06-28 Nintendo Co Ltd Game program and game apparatus
JP2007183722A (en) * 2006-01-05 2007-07-19 Namco Bandai Games Inc Program, information storage medium, and data structure of texture
CN103218847A (en) * 2012-01-19 2013-07-24 联想(北京)有限公司 Method and device of image processing
JP2015050538A (en) * 2013-08-30 2015-03-16 Kddi株式会社 Camera video processing method, apparatus and program

Similar Documents

Publication Publication Date Title
JP3262772B2 (en) Image generation system and information storage medium
WO2001055969A1 (en) Game system and image creating method
JP2000132706A (en) Recording medium, image processor and image processing method
JP2006318389A (en) Program, information storage medium, and image generation system
JP4804120B2 (en) Program, information storage medium, and image generation system
JP4187188B2 (en) Image generation system, program, and information storage medium
WO2001055970A1 (en) Game system and image creating method
JP2001319244A (en) Game system and information storage medium
JP3449993B2 (en) Image generation system, program, and information storage medium
JP2002163671A (en) Game system, program and information storage medium
JP2004334661A (en) Image generating system, program, and information storage medium
JP2002063596A (en) Game system, program and information storage medium
JP4223244B2 (en) Image generation system, program, and information storage medium
JP2002092628A (en) Game system, information storage medium, and compressed data forming method
JP4656616B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP3467259B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP2006011539A (en) Program, information storage medium, and image generating system
JP4159082B2 (en) Image generation system, program, and information storage medium
JP4656617B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4704615B2 (en) Image generation system, program, and information storage medium
JP3538394B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP2002183753A (en) Image generation system and information storage medium
US20030038816A1 (en) Image generating apparatus and image generating program
JP4913898B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4605914B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100712

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101006