JP2003085578A - Game information, information storage medium and game device - Google Patents

Game information, information storage medium and game device

Info

Publication number
JP2003085578A
JP2003085578A JP2001280198A JP2001280198A JP2003085578A JP 2003085578 A JP2003085578 A JP 2003085578A JP 2001280198 A JP2001280198 A JP 2001280198A JP 2001280198 A JP2001280198 A JP 2001280198A JP 2003085578 A JP2003085578 A JP 2003085578A
Authority
JP
Japan
Prior art keywords
image
game
information
unit
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001280198A
Other languages
Japanese (ja)
Inventor
Minoru Nagahori
稔 永堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2001280198A priority Critical patent/JP2003085578A/en
Publication of JP2003085578A publication Critical patent/JP2003085578A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable expressing the effect of light which reduces a processing load and expressing the effect of indirect light which can not be obtained in shading, to the periphery of the object in an image processor such as a game machine in which time about formation of an image is limited. SOLUTION: A glow object image extracted from a original image is generated and is reduced (generation of the reduction image). Next, a gradation processing is performed to the reduction image (generation of the gradation image), and afterwards the reduction image is magnified to the same size as the original image (generation of the magnification image). The image (the glow image) which expresses glow in a partial region (the glow object region) of the original image is generated by synthesizing the color information of the magnification image and the original image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、所与の視点に基づ
いて生成したゲーム空間の画像を表示させるためのゲー
ム情報、このゲーム情報を記憶する情報記憶媒体、及び
ゲーム装置に関する。
TECHNICAL FIELD The present invention relates to game information for displaying an image of a game space generated based on a given viewpoint, an information storage medium for storing this game information, and a game device.

【0002】[0002]

【従来の技術】従来、例えばゲーム装置などの3次元の
画像処理装置において、オブジェクトの表面の一部に生
じるハイライトや、特定の光源による光の効果を表現す
るために、シェーディングの手法が用いられる。このシ
ェーディングの手法の一つとして、オブジェクトをポリ
ゴンにて表現する場合に、各ポリゴンの頂点での輝度を
計算し、ポリゴン内では補間処理により輝度を決定す
る、いわゆるスムーズシェーディングと呼ばれる方法が
ある。このような手法により、光の効果を考慮した、よ
り写実的な画像の表示を行うことができる。
2. Description of the Related Art Conventionally, in a three-dimensional image processing device such as a game device, a shading method has been used to express a highlight generated on a part of the surface of an object or a light effect of a specific light source. To be As one of the shading methods, there is a so-called smooth shading method in which, when an object is represented by a polygon, the brightness at the vertices of each polygon is calculated and the brightness is determined by interpolation processing within the polygon. With such a method, it is possible to display a more realistic image in consideration of the effect of light.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上述し
た手法においては、精密な物理法則に従うほど、より写
実的な画像を作り出せるが、その分処理負荷が増大して
しまう。例えば1フレーム(1/60秒、或いは1/3
0秒)毎に画像を生成する必要があるゲーム装置におい
ては、このような処理時間の増大は重要な問題であっ
た。また、上述したシェーディングは、光の当り具合に
よってオブジェクトの色の濃淡が変化する様子を表現す
るための方法である。このため、オブジェクトに対する
光の効果を表現することはできるが、オブジェクトが反
射して光っていたり、自発的に発光している場合には、
その光っている部分の周囲に対する影響、例えば光源の
周囲がぼやけるといったことを表現することはできなか
った。
However, in the above-mentioned method, the more realistic the physical law is, the more realistic the image can be created, but the processing load increases accordingly. For example, 1 frame (1/60 seconds, or 1/3
Such an increase in processing time has been an important problem in a game device that needs to generate an image every 0 seconds. The shading described above is a method for expressing a state in which the shade of the color of the object changes depending on how the light hits. Therefore, it is possible to express the effect of light on the object, but when the object reflects and shines or spontaneously emits light,
It was not possible to express the effect of the shining part on the surroundings, for example, blurring around the light source.

【0004】本発明の課題は、画像の生成に係る時間が
制限されるゲーム装置等の画像処理装置において、処理
負荷を軽減した光の効果の表現を可能とすることであ
り、また、シェーディングでは得られない、オブジェク
トの周囲に対する間接的な光の効果の表現を可能とする
ことである。
An object of the present invention is to make it possible to express the effect of light with a reduced processing load in an image processing device such as a game device in which the time required to generate an image is limited, and in shading, It is possible to express an indirect light effect on the surroundings of an object that cannot be obtained.

【0005】[0005]

【課題を解決するための手段】上記課題を解決するため
に、請求項1記載の発明は、フレームバッファ(例え
ば、図9のフレームバッファ510)を有し、所与の視
点に基づいて生成したゲーム空間のゲーム画像を前記フ
レームバッファに一時記憶させて、ゲーム画像を所定の
表示部に表示させる装置(例えば、図9のゲーム装置1
0)に対して、前記フレームバッファに記憶された元画
像の中から、少なくとも所与の領域の色情報を抽出して
中間画像を生成するフィルタ手段(例えば、図9のαプ
レーン設定部321)と、前記中間画像の色情報を平滑
化して平滑化画像を生成する平滑化手段(例えば、図9
のぼかし処理部323)と、前記平滑化画像と、前記元
画像と、の色情報を合成する合成手段(例えば、図9の
画像合成部324)と、を機能させるためのゲーム情報
である。
In order to solve the above problems, the invention according to claim 1 has a frame buffer (for example, the frame buffer 510 in FIG. 9) and is generated based on a given viewpoint. A device for temporarily storing a game image in a game space in the frame buffer and displaying the game image on a predetermined display unit (for example, the game device 1 in FIG. 9).
0), the filter means for extracting the color information of at least a given region from the original image stored in the frame buffer to generate an intermediate image (for example, the α plane setting unit 321 in FIG. 9). And a smoothing means for smoothing the color information of the intermediate image to generate a smoothed image (for example, FIG. 9).
Game information for causing the blurring processing unit 323) and the synthesizing unit (for example, the image synthesizing unit 324 in FIG. 9) for synthesizing the color information of the smoothed image and the original image to function.

【0006】また、請求項9記載の発明は、フレームバ
ッファ(例えば、図9のフレームバッファ510)を有
し、所与の視点に基づいて生成したゲーム空間のゲーム
画像を前記フレームバッファに一時記憶させて、ゲーム
画像を所定の表示部に表示させるゲーム装置(例えば、
図9のゲーム装置10)であって、前記フレームバッフ
ァに記憶された元画像の中から、少なくとも所与の領域
の色情報を抽出して中間画像を生成するフィルタ手段
(例えば、図9のαプレーン設定部321)と、前記中
間画像の色情報を平滑化して平滑化画像を生成する平滑
化手段(例えば、図9のぼかし処理部323)と、前記
平滑化画像と、前記元画像と、の色情報を合成する合成
手段(例えば、図9の画像合成部324)と、を備える
ゲーム装置である。
The invention according to claim 9 has a frame buffer (for example, the frame buffer 510 in FIG. 9), and temporarily stores in the frame buffer the game image of the game space generated based on a given viewpoint. To display a game image on a predetermined display unit (for example,
In the game device 10) of FIG. 9, filter means for extracting color information of at least a given area from the original image stored in the frame buffer to generate an intermediate image (for example, α in FIG. 9). A plane setting unit 321), a smoothing unit that smoothes the color information of the intermediate image to generate a smoothed image (for example, the blurring processing unit 323 in FIG. 9), the smoothed image, the original image, And a synthesizing unit (for example, the image synthesizing unit 324 in FIG. 9) for synthesizing the color information of.

【0007】この請求項1又は9記載の発明によれば、
元画像の所与の領域の色情報を抽出した中間画像を平滑
化することで、元画像の一部の領域について、周囲にそ
の色がにじみ出したような画像を生成できる。また、画
像の色をRGB表色系にて表現する場合、元画像と平滑
化画像との色情報を、例えば加色混合(加法混合)によ
り合成することで、合成後の画像の色の成分値は増加
し、‘白’に近づく。また、平滑化により周囲ににじみ
出た色も‘白’に近づくことになる。これらのことによ
り、合成後の画像において、元画像の一部の領域が自発
光している、或いは反射して白っぽく光っているといっ
た様子とともに、自発光、或いは反射している領域の周
辺に対する光の効果を表現することが可能となる。更
に、元画像の一部の領域の色情報を抽出し、平滑化を行
うといった簡易な処理で、光の効果を表現した画像を容
易に生成することができる。
According to the invention of claim 1 or 9,
By smoothing the intermediate image in which the color information of the given region of the original image is extracted, it is possible to generate an image in which the color bleeds around the partial region of the original image. When the color of the image is represented by the RGB color system, the color information of the original image and the smoothed image are combined by, for example, additive color mixing (additive mixing), so that the color components of the image after composition are combined. The value increases and approaches'white '. Also, due to the smoothing, the color bleeding around becomes closer to'white '. As a result, in the combined image, a part of the original image is self-luminous, or is reflected and shining whitish. It is possible to express the effect of. Furthermore, an image expressing the effect of light can be easily generated by a simple process such as extracting color information of a partial area of the original image and performing smoothing.

【0008】請求項2記載の発明は、請求項1記載のゲ
ーム情報において、前記ゲーム画像の画素毎に平滑化対
象とするか否かを決定する決定手段、を前記装置に対し
て機能させるための情報と、前記フィルタ手段に対し
て、前記画素毎の決定に基づいて中間画像を生成する、
ように機能させるための情報と、を含むことを特徴とす
る。
According to a second aspect of the present invention, in the game information according to the first aspect, a determination unit that determines whether or not each pixel of the game image is to be smoothed is caused to function for the device. And the filter means to generate an intermediate image based on the determination for each pixel,
It is characterized by including information for making it function as described above.

【0009】また、請求項10記載の発明は、請求項9
記載のゲーム装置において、前記ゲーム画像の画素毎に
平滑化対象とするか否かを決定する決定手段、を備え、
前記フィルタ手段は、前記画素毎の決定に基づいて中間
画像を生成する、ことを特徴とする。
The invention according to claim 10 is the invention according to claim 9.
In the game device described above, a determination unit that determines whether or not each pixel of the game image is to be smoothed,
The filter means may generate an intermediate image based on the determination for each pixel.

【0010】この請求項2又は10記載の発明によれ
ば、平滑化の対象となる前記所与の領域を画素単位で決
定するとともに、画素毎に色情報の合成を行うことがで
きる。そして、この平滑化の手法として、例えば移動平
均フィルタリング等の画像平滑化手法や、最近隣内挿法
や共1次内挿法(いわゆるバイリニア・フィルタリン
グ)、3次畳み込み内挿法(いわゆるトライリニア・フ
ィルタリング)等の画像データ内挿法を利用することが
できる。更に、これらの機能が実装された装置である場
合には、画像平滑化の処理を、より容易に、且つ高速に
実行することが可能となる。
According to the invention of the second or tenth aspect, it is possible to determine the given area to be smoothed in pixel units and to combine color information for each pixel. As the smoothing method, for example, an image smoothing method such as moving average filtering, a nearest neighbor interpolation method, a colinear interpolation method (so-called bilinear filtering), a cubic convolution interpolation method (so-called trilinear interpolation method). -Image data interpolation methods such as filtering) can be used. Further, in the case of a device in which these functions are mounted, it becomes possible to execute the image smoothing process more easily and at higher speed.

【0011】請求項3記載の発明は、請求項1記載のゲ
ーム情報において、前記ゲーム画像に含まれるオブジェ
クト毎に平滑化対象とするか否かを決定する決定手段、
を前記装置に対して機能させるための情報と、前記フィ
ルタ手段に対して、前記平滑化すると決定されたオブジ
ェクトを含む領域の色情報を抽出して中間画像を生成す
る、ように機能させるための情報と、を含むことを特徴
とする。
According to a third aspect of the present invention, in the game information according to the first aspect, a determination means for determining whether or not to smooth each object included in the game image,
For causing the device to function, and for causing the filter means to extract color information of a region including the object determined to be smoothed to generate an intermediate image. It is characterized by including information and.

【0012】この請求項3記載の発明によれば、オブジ
ェクト毎に平滑化を行うか否かを決定し、そのオブジェ
クトに対する平滑化を実行することができる。このこと
により、例えば、自発光する戦闘機のヘッドライトや、
光を反射して光るガラス窓の周囲が霞んで見える、或い
は白っぽく見えるといった光の効果を表現することがで
きる。更に、この「オブジェクト」は「ポリゴン」と置
き換えても良く、一又は複数のポリゴン毎に、光の効果
を表現する/しないを決定することもできる。
According to the third aspect of the present invention, it is possible to determine whether or not to perform smoothing for each object, and perform the smoothing for the object. This allows, for example, self-luminous fighter headlights,
It is possible to express the effect of light such that the periphery of a glass window that reflects light and looks shiny or looks whitish. Furthermore, this “object” may be replaced with a “polygon”, and it is possible to determine whether or not to express the effect of light for each one or a plurality of polygons.

【0013】請求項4記載の発明は、請求項2又は3記
載のゲーム情報において、前記フレームバッファは、画
素毎の透明度を記憶する透明度バッファ(図9のフレー
ムバッファ510を構成するαプレーン)を有し、前記
決定手段による決定に基づき、平滑化対象の画素と非平
滑化対象の画素とを識別するために、前記透明度バッフ
ァの各画素の透明度を設定する透明度設定手段(例え
ば、図9のαプレーン設定部321)、を前記装置に対
して機能させるための情報と、前記フィルタ手段に対し
て、前記透明度バッファの各画素の透明度に基づいて中
間画像を生成する、ように機能させるための情報と、を
含むことを特徴とする。
According to a fourth aspect of the present invention, in the game information according to the second or third aspect, the frame buffer is a transparency buffer (α plane which constitutes the frame buffer 510 of FIG. 9) for storing transparency of each pixel. In order to distinguish the pixel to be smoothed from the pixel to be non-smoothed based on the determination by the determining unit, the transparency setting unit that sets the transparency of each pixel of the transparency buffer (for example, in FIG. 9). information for causing the α plane setting unit 321) to function with respect to the device, and causing the filter unit to generate an intermediate image based on the transparency of each pixel of the transparency buffer. It is characterized by including information and.

【0014】また、請求項11記載の発明は、請求項9
又は10記載のゲーム装置において、前記フレームバッ
ファは、画素毎の透明度を記憶する透明度バッファ(図
9のフレームバッファ510を構成するαプレーン)を
有し、前記決定手段による決定に基づき、平滑化対象の
画素と非平滑化対象の画素とを識別するために、前記透
明度バッファの各画素の透明度を設定する透明度設定手
段(例えば、図9のαプレーン設定部321)、を備
え、前記フィルタ手段は、前記透明度バッファの各画素
の透明度に基づいて中間画像を生成する、ことを特徴と
する。
The invention described in claim 11 is the same as claim 9.
Alternatively, in the game device according to the tenth aspect, the frame buffer includes a transparency buffer (α plane forming the frame buffer 510 in FIG. 9) that stores transparency for each pixel, and the smoothing target is based on the determination by the determining unit. In order to distinguish the pixel of (1) from the pixel to be non-smoothed, a transparency setting unit (for example, an α plane setting unit 321 of FIG. 9) that sets the transparency of each pixel of the transparency buffer is provided. The intermediate image is generated based on the transparency of each pixel of the transparency buffer.

【0015】この請求項4又は11記載の発明によれ
ば、透明度バッファにおいて、例えば平滑化対象とする
画素の透明度を“1”に、反対に平滑化対象としない画
素を“0”と設定し、元画像の色情報にこの透明度の値
を掛け合わせることで、平滑化の対象となる領域の色情
報のみを容易に抽出することができる。また、透明度バ
ッファに設定する透明度の値は、上記“1”或いは
“0”に限らず、何れの値でも良いし、“0.0”、
“0.5”、“1.0”といった具合に、小数値で段階
的に設定することとしても良い。例えば、上記透明度バ
ッファとしてαプレーン(8ビット)を使用する場合、
α値は0〜255の整数値で表現される。そして、α値
“255”を透明度“1.0”として、また、α値
“0”を“0.0”として、それぞれ扱うこととする。
同様に、7ビットの記憶容量が割り当てられている場合
には、α値“127”を透明度“1.0”として、ま
た、α値“0”を“0.0”として、それぞれ扱うこと
とする。更に、フレームバッファに画像が描画された
後、αプレーンが特に使用されない場合には、このαプ
レーンを利用することで、新たな記憶手段を用意するこ
となく、且つ容易に中間画像の生成を行うことができ
る。尚、この透明度バッファは、画素毎の不透明度を記
憶する不透明度バッファであることとしても、同様の効
果を得ることが可能である。
According to the fourth or eleventh aspect of the present invention, in the transparency buffer, for example, the transparency of the pixel to be smoothed is set to "1" and the pixel not to be smoothed is set to "0". By multiplying the color information of the original image by this transparency value, it is possible to easily extract only the color information of the area to be smoothed. The transparency value set in the transparency buffer is not limited to “1” or “0”, and may be any value of “0.0”,
It is also possible to set the decimal value in stages, such as "0.5" or "1.0". For example, when using the α plane (8 bits) as the transparency buffer,
The α value is represented by an integer value of 0 to 255. Then, the α value “255” is treated as transparency “1.0”, and the α value “0” is treated as “0.0”.
Similarly, when a storage capacity of 7 bits is allocated, the α value “127” is treated as transparency “1.0”, and the α value “0” is treated as “0.0”. To do. Further, when the α plane is not particularly used after the image is drawn in the frame buffer, the α plane is used to easily generate an intermediate image without preparing new storage means. be able to. The same effect can be obtained even if this transparency buffer is an opacity buffer that stores the opacity of each pixel.

【0016】請求項5記載の発明は、請求項1〜4の何
れか記載のゲーム情報において、前記合成手段に対し
て、前記平滑化画像と前記元画像との合成比率を可変と
する、ように機能させるための情報を含むことを特徴と
する。
According to a fifth aspect of the invention, in the game information according to any one of the first to fourth aspects, the composition ratio of the smoothed image and the original image is variable with respect to the composition means. It is characterized in that it includes information for operating the.

【0017】この請求項5記載の発明によれば、合成比
率を可変とすることで、強く発光させたい、或いは反射
している様子を表現したいといった、光の効果の表現度
合を任意に調整可能となる。更に、画素毎に合成比率を
変更することで、領域によって光の表現度合を任意に変
更することも可能となる。また、合成比率の可変方法と
しては、例えば所定のα値に基づくαブレンディング
や、色情報の加法混合、或いは減法混合といった合成方
法が挙げられる。
According to the fifth aspect of the invention, by varying the composition ratio, it is possible to arbitrarily adjust the degree of expression of the effect of light, such as strongly emitting light or expressing the state of reflection. Becomes Furthermore, by changing the composition ratio for each pixel, it is possible to arbitrarily change the degree of light expression depending on the region. Further, examples of the method of changing the composition ratio include a composition method such as α blending based on a predetermined α value, additive mixing of color information, or subtractive mixing.

【0018】請求項6記載の発明は、請求項1〜5の何
れか記載のゲーム情報において、前記フィルタ手段に対
して、前記元画像の解像度を縮減させて中間画像を生成
する、ように機能させるための情報と、前記平滑化手段
に対して、前記縮減された中間画像を平滑化する、よう
に機能させるための情報と、前記平滑化手段により平滑
化された中間画像を伸張して、縮減前の解像度の画像を
生成する画像伸張手段(例えば、図9の画像合成部32
4の一部)、を前記装置に機能させるための情報と、前
記合成手段に対して、前記画像伸張手段により伸張され
た画像と、前記元画像と、の色情報を合成する、ように
機能させるための情報と、を含むことを特徴とする。
According to a sixth aspect of the present invention, in the game information according to any one of the first to fifth aspects, the filter means reduces the resolution of the original image to generate an intermediate image. Information for causing the smoothing means to smooth the reduced intermediate image, information for causing the smoothing means to function, and expanding the intermediate image smoothed by the smoothing means, Image decompression means for generating an image of the resolution before reduction (for example, the image composition unit 32 in FIG. 9).
4)), and the color information of the image expanded by the image expansion unit and the original image to the combining unit. It is characterized by including information for making it.

【0019】この請求項6記載の発明によれば、元画像
の解像度を縮減させた縮小画像を生成することで、平滑
化に係る処理を軽減できる。更に、縮小/伸張処理によ
り、画像のぼかし効果を得ることができる。
According to the sixth aspect of the present invention, the processing relating to the smoothing can be reduced by generating the reduced image in which the resolution of the original image is reduced. Further, the reduction / expansion processing can obtain the effect of blurring the image.

【0020】請求項7記載の発明は、請求項6記載のゲ
ーム情報において、前記画像縮小手段による縮小、及び
前記画像伸張手段による伸張を、所与の回数繰り返し実
行する、ように機能させるための情報を含むことを特徴
とする。
According to a seventh aspect of the present invention, in the game information according to the sixth aspect, the function is such that the reduction by the image reducing means and the extension by the image expanding means are repeatedly executed a given number of times. It is characterized by including information.

【0021】この請求項7記載の発明によれば、画像の
縮小/伸張を所定回数繰り返すことで、平滑化に係る処
理負荷を、更に軽減することができる。
According to the seventh aspect of the invention, the processing load related to smoothing can be further reduced by repeating the reduction / expansion of the image a predetermined number of times.

【0022】更に、請求項8記載の情報記憶媒体のよう
に、請求項1〜7の何れか記載のゲーム情報を記憶する
こととしても良い。
Furthermore, the game information according to any one of claims 1 to 7 may be stored as in the information storage medium according to claim 8.

【0023】この請求項8記載の発明によれば、請求項
1〜7の何れか記載の発明の効果を有する情報記憶媒体
を実現できる。
According to the invention of claim 8, it is possible to realize an information storage medium having the effect of the invention of any one of claims 1 to 7.

【0024】[0024]

【発明の実施の形態】以下、本発明の好適な実施形態に
ついて、図面を参照して説明する。尚、本実施形態にお
いては、フレームバッファに描画された透視投影変換後
の画像(以下、元画像という。)において、その一部に
グローを表現する場合について説明するが、本発明の適
用はこれに限られるものではない。
BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the present invention will be described below with reference to the drawings. In the present embodiment, the case where the glow is expressed in a part of the image (hereinafter referred to as the original image) after the perspective projection conversion drawn in the frame buffer will be described. However, the application of the present invention is not limited to this. It is not limited to.

【0025】先ず、元画像の一部にグローを表現した画
像(以下、グロー画像という。)を生成する原理につい
て、説明する。
First, the principle of generating an image expressing a glow in a part of the original image (hereinafter referred to as a glow image) will be described.

【0026】尚、以下の説明において画像を“縮小”或
いは“拡大”するとは、「画像の解像度を変更すること
により画像サイズを変更する」という意味である。即
ち、例えば600ppiの画像を“縮小”するとは、画像
そのものを単に小さくするのではなく、600ppiの解
像度を300ppiにすることによって画像本来のサイズ
を小さくすることを意味し、また“拡大”するとは、3
00ppiの解像度を600ppiにすることによって画像本
来のサイズを大きくすることを意味している。また、元
画像は、透視投影変換等の処理が行われ、フレームバッ
ファに描画されている画像であるとする。
In the following description, "reducing" or "enlarging" an image means "changing the image size by changing the image resolution". That is, for example, "reducing" an image of 600 ppi means not reducing the size of the image itself, but reducing the original size of the image by setting the resolution of 600 ppi to 300 ppi. Three
This means increasing the original size of the image by setting the resolution of 00 ppi to 600 ppi. Further, it is assumed that the original image is an image that has been subjected to processing such as perspective projection conversion and has been drawn in the frame buffer.

【0027】図1は、本実施形態の概要を説明するため
の図である。同図に示すように、先ず元画像から、グロ
ーを表現する対象となる領域(以下、グロー対象領域と
いう。)の色情報のみを取り出した画像(以下、グロー
対象画像という)を生成する。このグロー対象画像は、
元画像と同サイズ(面積)の画像である。
FIG. 1 is a diagram for explaining the outline of the present embodiment. As shown in the figure, first, an image (hereinafter referred to as a glow target image) is generated by extracting only color information of a region (hereinafter referred to as a glow target region) that is a target for expressing a glow from the original image. This glow target image is
The image has the same size (area) as the original image.

【0028】次いで、グロー対象画像を縮小した画像
(以下、縮小画像という。)を生成する。この縮小画像
は、グロー対象画像を、縦・横それぞれ1/2倍となる
よう縮小した画像であり、そのサイズは、グロー対象画
像の1/4である。
Next, an image in which the glow target image is reduced (hereinafter referred to as a reduced image) is generated. This reduced image is an image obtained by reducing the size of the glow target image to 1/2 times both in the vertical and horizontal directions, and the size thereof is 1/4 of the glow target image.

【0029】続いて、縮小画像をぼかした画像(以下、
ぼかし画像という。)を生成する。このぼかし画像は、
縮小画像の同サイズの画像である。尚、画像をぼかす方
法については、その詳細を後述する。
Next, an image obtained by blurring the reduced image (hereinafter, referred to as
It is called a blurred image. ) Is generated. This blurred image is
It is an image of the same size as the reduced image. The details of the method for blurring an image will be described later.

【0030】そして、ぼかし画像を拡大した画像(以
下、拡大画像という。)を生成する。この拡大画像は、
ぼかし画像を、縦・横それぞれ2倍となるよう拡大した
画像であり、元画像(及びグロー対象画像)と同サイズ
の画像である。また、この拡大画像は、グロー対象画像
と比較し、グロー対象領域の境界がぼやけ、その色が周
囲ににじみ出したような画像となっている。
Then, an image obtained by enlarging the blurred image (hereinafter referred to as an enlarged image) is generated. This enlarged image is
It is an image obtained by enlarging the blurred image so that it is doubled vertically and horizontally, and has the same size as the original image (and the glow target image). In addition, the enlarged image is an image in which the boundary of the glow target area is blurred and the color thereof oozes into the surrounding area, as compared with the glow target image.

【0031】最後に、元画像と拡大画像とを合成し、元
画像にグローを表現した画像、即ちグロー画像を生成す
る。このグロー画像は、グロー対象領域において、色の
輝度が上がって白っぽく表現されており、また、グロー
対象領域の境界付近では、周囲に向かってその輝度が徐
々に落ちてゆく画像となっている。尚、図1において
は、グロー対象領域の輝度が上がり白っぽくなっている
様子を‘黒色’で、その周囲に向かって輝度が落ちてい
る様子を‘黒色’から‘灰色’に近づいていくことで、
示している。
Finally, the original image and the enlarged image are combined to generate an image expressing a glow in the original image, that is, a glow image. In this glow image, the luminance of the color is increased and is expressed as whitish in the glow target area, and the luminance gradually decreases toward the periphery in the vicinity of the boundary of the glow target area. In FIG. 1, the state that the brightness of the glow target area is increased and becomes whitish is'black ', and the state that the brightness is decreased toward the periphery is approached from'black'to'gray'. ,
Shows.

【0032】次に、元画像について説明する。図2は、
元画像を記憶するフレームバッファ510の構成を示す
図である。同図に示すように、フレームバッファ510
は、3枚のRGBプレーンと、1枚のαプレーンと、の
合計4枚のプレーンから構成される。
Next, the original image will be described. Figure 2
It is a figure which shows the structure of the frame buffer 510 which memorize | stores an original image. As shown in the figure, the frame buffer 510
Is composed of a total of four planes including three RGB planes and one α plane.

【0033】RGBプレーンは、画像の色情報、即ち画
素毎のRGB成分(R、G、B)を記憶する。また、そ
の値は、0〜255の何れかの値を取る。
The RGB plane stores color information of an image, that is, RGB components (R, G, B) for each pixel. Moreover, the value takes any value of 0-255.

【0034】αプレーンは、画像の透明度情報、即ち画
素毎のα値を記憶する。また、その値は、0〜1の何れ
かの値を取る。また、このαプレーンは、レンダリング
の際には、各画素の色を決定する要素の一つとして使用
される。そして、フレームバッファ510に画像を描画
した後には、グロー対象領域を示すものとして使用され
る。
The α plane stores image transparency information, that is, α value for each pixel. Moreover, the value takes any value of 0-1. In addition, the α plane is used as one of the elements that determine the color of each pixel during rendering. After the image is drawn in the frame buffer 510, it is used as a glow target area.

【0035】具体的には、フレームバッファ510への
元画像の描画後、αプレーンにおいて、グロー対象領域
の画素を“1”、それ以外の領域の画素を“0”に、そ
れぞれ設定する。即ち、図2に示すαプレーンにおいて
は、図中中央部分の領域Gが“1”に設定されており、
この領域Gが、グロー対象領域に該当することになる。
つまり、このようなαプレーンにおける“1”或いは
“0”の設定は、図1に示す、グロー対象画像の生成に
相当することになる。
Specifically, after the original image is drawn in the frame buffer 510, the pixels in the glow target area are set to "1" and the pixels in the other areas are set to "0" in the α plane. That is, in the α plane shown in FIG. 2, the region G in the central portion of the drawing is set to “1”,
This area G corresponds to the glow target area.
That is, such setting of "1" or "0" in the α plane corresponds to the generation of the glow target image shown in FIG.

【0036】尚、ここでαプレーンに設定するα値は、
“1”或いは“0”に限らず、他の値としてもよいし、
更に、段階的に設定することとしてもよい。このことに
より、グローを表現する度合を任意に設定可能となる。
The α value set in the α plane is
Not limited to “1” or “0”, other values may be used,
Further, it may be set stepwise. As a result, the degree of expressing the glow can be set arbitrarily.

【0037】次に、画像の縮小、拡大、及びぼかし画像
の生成について説明する。本実施形態においては、バイ
リニアフィルタ方式を利用して、画像の縮小、拡大、及
びぼかし画像の生成を行う。
Next, reduction / enlargement of an image and generation of a blurred image will be described. In the present embodiment, the image is reduced, enlarged, and a blurred image is generated using the bilinear filter method.

【0038】図3は、バイリニアフィルタ方式を利用
し、一の画像から異なる画像を生成する様子を示す図で
ある。同図によれば、先ず、バッファ1に描画されてい
る画像Aをテクスチャとして設定する。そして、このテ
クスチャ(画像A)を、バイリニアフィルタ方式でバッ
ファ2に描画する。この時、サンプリングするバッファ
2の座標を変更する、即ちサンプリング点を変更するこ
とで、画像Aを縮小、拡大、或いはぼかしを施した画像
A´を生成できる。
FIG. 3 is a diagram showing how different images are generated from one image by using the bilinear filter method. According to the figure, first, the image A drawn in the buffer 1 is set as a texture. Then, this texture (image A) is drawn in the buffer 2 by the bilinear filter method. At this time, by changing the coordinates of the buffer 2 to be sampled, that is, by changing the sampling point, it is possible to generate an image A ′ obtained by reducing, enlarging, or blurring the image A.

【0039】具体的には、サンプリング間隔を1より大
きい値とすることで、画像A´は、画像Aを縮小した
(縮小画像)となる。反対に、サンプリング間隔を1よ
り小さい値とすることで、画像A´は、画像Aを拡大し
た画像(拡大画像)となる。また、サンプリングの開始
点を、所定量だけ所定方向にずらすことで、バイリニア
・フィルタリングの補間機能により、自動的に、画像A
の各画素の色が周囲ににじんだような画像、即ち画像A
にぼかしを施した画像(ぼかし画像)が生成されること
になる。
Specifically, by setting the sampling interval to a value larger than 1, the image A'is a reduced version of the image A (reduced image). On the contrary, by setting the sampling interval to a value smaller than 1, the image A ′ becomes an image obtained by enlarging the image A (enlarged image). Further, by shifting the sampling start point by a predetermined amount in a predetermined direction, the interpolation function of the bilinear filtering automatically
The image in which the color of each pixel in the
A blurred image (blurred image) is generated.

【0040】バイリニア・フィルタリングについて、説
明する。図4は、既存の画素T1〜T4と、バイリニア
・フィルタリングにより内挿される画素Pとの関係を示
す図である。同図(a)に示すように、内挿される画素
(サンプリング点)Pの色CPは、Pの周りの画素T1
〜T4の色を補間した色となる。
The bilinear filtering will be described. FIG. 4 is a diagram showing a relationship between existing pixels T1 to T4 and a pixel P interpolated by bilinear filtering. As shown in FIG. 6A, the color CP of the pixel (sampling point) P to be interpolated is the pixel T1 around P.
It is a color obtained by interpolating the colors from T4 to T4.

【0041】具体的には、T1〜T4の座標とPの座標
とに基づき、x軸方向の座標比β:1−β(0≦β≦
1)と、y軸方向の座標比γ:1−γ(0≦γ≦1)
と、を求める。そして、Pの色CP(バイリニア・フィ
ルタリングでの出力色)は、次式のようになる。 CP=(1−β)×(1−γ)×CT1+β×(1−
γ)×CT2+(1−β)×γ×CT3+β×γ×CT
4 但し、CT1〜CT4は、それぞれ、画素T1〜T4の
色である。
Specifically, based on the coordinates of T1 to T4 and the coordinates of P, the coordinate ratio β: 1-β (0≤β≤
1) and the y-axis coordinate ratio γ: 1-γ (0 ≦ γ ≦ 1)
And ask. Then, the color CP of P (the output color in the bilinear filtering) is expressed by the following equation. CP = (1-β) × (1-γ) × CT1 + β × (1-
γ) × CT2 + (1-β) × γ × CT3 + β × γ × CT
4 However, CT1 to CT4 are the colors of the pixels T1 to T4, respectively.

【0042】また、同図(b)に示すように、β=γ=
1/2となる場合には、内挿される画素Pの色CPは、
次式のようになる。 CP=(CT1+CT2+CT3+CT4)/4
Further, as shown in FIG. 7B, β = γ =
When it becomes 1/2, the color CP of the pixel P to be interpolated is
It becomes like the following formula. CP = (CT1 + CT2 + CT3 + CT4) / 4

【0043】尚、ゲーム装置等の画像生成装置において
は、再近隣内挿法や共一次内挿法(いわゆるバイリニア
・フィルタリング)、三次畳み込み内挿法(いわゆるト
ライリニア・フィルタリング)といった内挿画素データ
演算処理が、ハードウェアの機能として実装されている
場合がある。そのような場合には、該機能を利用するこ
とで、上記画像の生成処理をより高速に実現することが
可能となる
In an image generating device such as a game device, interpolation pixel data such as a re-nearest neighbor interpolation method, a bilinear interpolation method (so-called bilinear filtering), and a cubic convolution interpolation method (so-called trilinear filtering). The arithmetic processing may be implemented as a hardware function. In such a case, by using the function, it is possible to realize the image generation processing at a higher speed.

【0044】続いて、上記画像の生成方法を利用した、
縮小画像の生成(画像の縮小)について説明する。
Next, using the above-mentioned image generation method,
Generation of a reduced image (image reduction) will be described.

【0045】図5は、元画像から縮小画像を生成する様
子を示す図である。同図において、元画像の4つの頂点
を、それぞれ、フレームバッファ510の座標(x,
y)=(0,0)、(2n,0)、(2n,2m)、
(0,2m)とする。そして、フレームバッファ510
に描画されている元画像をテクスチャとして設定する。
ここで設定されたテクスチャの4つの頂点を、それぞ
れ、座標(u,v)=(0,0)、(2n,0)、(2
n,2m)、(0,2m)とする。
FIG. 5 is a diagram showing how a reduced image is generated from an original image. In the figure, the four vertices of the original image are respectively represented by coordinates (x,
y) = (0,0), (2n, 0), (2n, 2m),
(0,2m). Then, the frame buffer 510
The original image drawn in is set as the texture.
The four vertices of the texture set here have coordinates (u, v) = (0,0), (2n, 0), (2
n, 2m) and (0, 2m).

【0046】次いで、このテクスチャ(元画像)を、1
/2フレームバッファ520に描画する。この時、1/
2フレームバッファ520の座標(x,y)=(0,
0)、(n,0)、(n,m)、(0,m)に与える頂
点座標を、それぞれ、テクスチャの座標(u,v)=
(0,0)、(2n,0)、(2n,2m)、(0,2
m)と設定する。つまり、元画像をテクスチャとして、
一番左上のテクセルの右下の位置から、上下/左右方向
それぞれ2テクセルの間隔でバイリニア・サンプリング
を行い、1/2フレームバッファ520に描画すること
になる。
Next, this texture (original image) is set to 1
Draw in the / 2 frame buffer 520. At this time, 1 /
2 frame buffer 520 coordinates (x, y) = (0,
0), (n, 0), (n, m), and (0, m), the vertex coordinates are respectively texture coordinates (u, v) =
(0,0), (2n, 0), (2n, 2m), (0,2
m). In other words, the original image as a texture,
From the lower right position of the upper left texel, bilinear sampling is performed at intervals of 2 texels each in the up / down / left / right directions, and the data is drawn in the 1/2 frame buffer 520.

【0047】このような処理により、元画像の縦・横を
それぞれ1/2倍(即ち、サイズを1/4倍)にした画
像(縮小画像)が、1/2フレームバッファ520に描
画(生成)されることとなる。
By such processing, an image (reduced image) obtained by halving the height and width of the original image (that is, reducing the size by 1/4) is drawn (generated) in the ½ frame buffer 520. ) Will be done.

【0048】また、フレームバッファ510に描画され
ている元画像をテクスチャとして設定する際には、各テ
クセルのRGB成分を、以下のように設定する。即ち、
次式に従い、テクスチャの各テクセルのRGB成分(R
t、Gt、Bt)を、対応するフレームバッファ510
(元画像)の画素のRGB成分に、αプレーンのα値を
掛け合わせた値とする。 Rt=α×Ra Gt=α×Ga Bt=α×Ba 但し、Ra、Ga、Baは、フレームバッファ510に
描画されている元画像のRGB成分(R、G、B)であ
る。また、αは、αプレーンにて設定されているα値で
ある。
When setting the original image drawn in the frame buffer 510 as a texture, the RGB components of each texel are set as follows. That is,
The RGB component (R
t, Gt, Bt) to the corresponding frame buffer 510
The RGB component of the pixel of the (original image) is multiplied by the α value of the α plane. Rt = α × Ra Gt = α × Ga Bt = α × Ba However, Ra, Ga, and Ba are RGB components (R, G, B) of the original image drawn in the frame buffer 510. Further, α is an α value set in the α plane.

【0049】つまり、上式によれば、テクスチャのRG
B成分として、グロー対象領域については、元画像のR
GBプレーンに設定されている値を、それ以外の領域に
ついては(0、0、0)を、それぞれ設定することにな
る。
That is, according to the above equation, the RG of the texture
As the B component, for the glow target area, R of the original image
The value set in the GB plane is set to (0, 0, 0) for the other areas.

【0050】次に、上記画像の生成方法を利用した、ぼ
かし画像の生成について説明する。
Next, generation of a blurred image using the above-described image generation method will be described.

【0051】図6は、縮小画像からぼかし画像を生成す
る様子を示す図である。同図において、縮小画像の4つ
の頂点を、それぞれ、1/2フレームバッファ520の
座標(x,y)=(0,0)、(n,0)、(n,
m)、(0,m)とする。そして、1/2フレームバッ
ファ520に描画されている縮小画像をテクスチャとし
て設定する。ここで設定されたテクスチャの4つの頂点
を、それぞれ、座標(u,v)=(0,0)、(n,
0)、(n,m)、(0,m)とする。
FIG. 6 is a diagram showing how a blurred image is generated from a reduced image. In the same figure, the four vertices of the reduced image have coordinates (x, y) = (0, 0), (n, 0), (n,
m) and (0, m). Then, the reduced image drawn in the 1/2 frame buffer 520 is set as a texture. The four vertices of the texture set here have coordinates (u, v) = (0, 0), (n,
0), (n, m), and (0, m).

【0052】次いで、このテクスチャ(縮小画像)を、
ぼかしバッファ530に描画する。この時、ぼかしバッ
ファ530の座標(x,y)=(0,0)、(n,
0)、(n,m)、(0,m)に与える頂点座標を、そ
れぞれ、テクスチャの座標(u,v)=(0.5,0.
5)、(n+0.5,0.5)、(n+0.5,m+
0.5)、(0.5,m+0.5)と設定する。
Next, this texture (reduced image) is
Drawing in the blurring buffer 530. At this time, the coordinates (x, y) of the blurring buffer 530 = (0, 0), (n,
0), (n, m), and (0, m), the vertex coordinates are respectively texture coordinates (u, v) = (0.5, 0.
5), (n + 0.5, 0.5), (n + 0.5, m +
0.5) and (0.5, m + 0.5).

【0053】つまり、1/2フレームバッファ520を
テクスチャとして、一番左上テクセルの右下の位置か
ら、上下/左右方向それぞれ1テクセルの間隔でバイリ
ニア・サンプリングを行い、ぼかしバッファ530に描
画することになる。
That is, using the 1/2 frame buffer 520 as a texture, bilinear sampling is performed from the lower right position of the upper left texel at intervals of 1 texel in the vertical / horizontal direction and is drawn in the blurring buffer 530. Become.

【0054】続いて、同様に、ぼかしバッファ530に
描画されている画像をテクスチャとして設定する。ここ
で設定されたテクスチャの4つの頂点を、それぞれ、座
標(u,v)=(0,0)、(n,0)、(n,m)、
(0,m)とする。
Subsequently, similarly, the image drawn in the blurring buffer 530 is set as a texture. The four vertices of the texture set here are respectively coordinate (u, v) = (0,0), (n, 0), (n, m),
(0, m).

【0055】そして、このテクスチャを、1/2フレー
ムバッファ520に描画する。この時、1/2フレーム
バッファ520の座標(x,y)=(0,0)、(n,
0)、(n,m)、(0,m)に与える頂点座標を、そ
れぞれ、テクスチャの座標(u,v)=(−0.5,−
0.5)、(n−0.5,−0.5)、(n−0.5,
m−0.5)、(−0.5,m−0.5)と設定する。
Then, this texture is drawn in the 1/2 frame buffer 520. At this time, the coordinates (x, y) of the 1/2 frame buffer 520 = (0, 0), (n,
0), (n, m), and (0, m), the vertex coordinates are respectively texture coordinates (u, v) = (-0.5,-).
0.5), (n-0.5, -0.5), (n-0.5,
m-0.5) and (-0.5, m-0.5).

【0056】つまり、ぼかしバッファ530に描画され
ている画像をテクスチャとして、一番左上のテクセルの
左上の位置から、上下/左右方向それぞれ1テクセルの
間隔でバイリニア・サンプリングを行い、1/2フレー
ムバッファ520に描画(重ね描き)することになる。
That is, using the image drawn in the blurring buffer 530 as a texture, bilinear sampling is performed from the upper left position of the upper left upper texel at intervals of 1 texel in the vertical / horizontal direction, and the 1/2 frame buffer is used. It will be drawn (overlaid) on 520.

【0057】このような処理により、縮小画像をぼかし
た画像(ぼかし画像)が、即ちグロー対象領域の色がそ
の周囲ににじんだような画像が、1/2フレームバッフ
ァ520に描画(生成)されることとなる。
By such processing, an image in which the reduced image is blurred (blurred image), that is, an image in which the color of the glow target area is blurred around the same is drawn (generated) in the 1/2 frame buffer 520. The Rukoto.

【0058】次に、上記画像の生成方法を利用した、拡
大画像の生成(画像の拡大)について、説明する。
Next, generation of an enlarged image (image enlargement) using the above-described image generation method will be described.

【0059】図7は、ぼかし画像から拡大画像を生成す
る様子を示す図である。同図において、ぼかし画像の4
つの頂点を、それぞれ、1/2フレームバッファ520
の座標(x,y)=(0,0)、(n,0)、(n,
m)、(0,m)とする。そして、1/2フレームバッ
ファ520に描画されているぼかし画像をテクスチャと
して設定する。ここで設定されたテクスチャの4つの頂
点を、それぞれ、座標(u,v)=(0,0)、(n,
0)、(n,m)、(0,m)とする。
FIG. 7 is a diagram showing how an enlarged image is generated from a blurred image. In the figure, 4 of the blurred image
½ the frame buffer 520
Coordinates (x, y) = (0, 0), (n, 0), (n,
m) and (0, m). Then, the blurred image drawn in the 1/2 frame buffer 520 is set as a texture. The four vertices of the texture set here have coordinates (u, v) = (0, 0), (n,
0), (n, m), and (0, m).

【0060】次いで、このテクスチャ(ぼかし画像)
を、作業用バッファに描画する。この時、作業用バッフ
ァの座標(x,y)=(0,0)、(2n,0)、(2
n,2m)、(0,2m)に与える頂点座標を、それぞ
れ、テクスチャの座標(u,v)=(0,0)、(n,
0)、(n,m)、(0,m)と設定する。
Next, this texture (blurred image)
Is drawn in the work buffer. At this time, the coordinates (x, y) of the work buffer = (0, 0), (2n, 0), (2
The vertex coordinates given to (n, 2m) and (0, 2m) are respectively the texture coordinates (u, v) = (0, 0), (n,
0), (n, m), and (0, m).

【0061】つまり、ぼかし画像をテクスチャとして、
一番左上のテクセルの左上の位置から、上下/左右方向
それぞれ2テクセルの間隔でバイリニア・サンプリング
を行い、作業用バッファに描画することになる。
That is, the blurred image is used as a texture,
From the upper left position of the upper left texel, bilinear sampling is performed at intervals of 2 texels each in the vertical / horizontal direction, and drawing is performed in the work buffer.

【0062】このような処理により、ぼかし画像の縦・
横をそれぞれ2倍(即ち、サイズを4倍)にした画像
(拡大画像)が、作業用バッファに描画(生成)される
こととなる。
By such processing, the vertical and
An image (enlarged image) whose width is doubled (that is, its size is quadrupled) is drawn (generated) in the work buffer.

【0063】次に、グロー画像の生成について、説明す
る。図8は、元画像とぼかし画像とを合成し、グロー画
像を生成する様子を示す図である。同図において、元画
像、及び拡大画像の4つの頂点を、それぞれ、フレーム
バッファ510、及び作業用バッファの座標(x,y)
=(0,0)、(2n,0)、(2n,2m)、(0,
2m)とする。そして、対応する画素毎に、双方のRG
B成分を加算し、加算結果を、フレームバッファ510
のRGB成分とする。尚、加算後のRGB成分の値が2
55を超えた場合には、超えた値を切り捨て、255と
する。
Next, the generation of the glow image will be described. FIG. 8 is a diagram showing a state in which an original image and a blurred image are combined to generate a glow image. In the figure, the four vertices of the original image and the enlarged image are represented by the coordinates (x, y) of the frame buffer 510 and the work buffer, respectively.
= (0,0), (2n, 0), (2n, 2m), (0,
2m). Then, for each corresponding pixel, both RGs are
The B component is added, and the addition result is displayed in the frame buffer 510.
Of RGB components. The value of the RGB component after addition is 2
When the value exceeds 55, the value that exceeds the value is truncated to be 255.

【0064】即ち、双方のRGB成分を加算すること
で、グロー対象領域は、そのRGB成分が(255、2
55、255)に近づく、即ちその色は‘白’に近づく
ことになる。このような処理により、元画像と拡大画像
とを合成した画像、即ち元画像にグローを表現した画像
(グロー画像)が、フレームバッファ510に描画(生
成)されることとなる。
That is, by adding both RGB components, the glow target area has its RGB components (255, 2).
55, 255), that is, the color approaches "white". By such a process, an image in which the original image and the enlarged image are combined, that is, an image in which a glow is expressed in the original image (glow image) is drawn (generated) in the frame buffer 510.

【0065】尚、上記ぼかし画像の拡大(拡大画像の生
成)と、拡大画像と元画像との合成(グロー画像の生
成)とは、同時実行可能である。
The enlargement of the blurred image (generation of the enlarged image) and the combination of the enlarged image and the original image (generation of the glow image) can be simultaneously executed.

【0066】即ち、フレームバッファ510の1画素毎
に、ぼかし画像から、バイリニア・フィルタリングを利
用することによりその色を決定する。そして、この色が
決定された画素と、既に描画されている元画像の対応す
る画素とを合成し、生成される画像データを、フレーム
バッファ510の当該画素に描画する。このように、フ
レームバッファ510の画素毎に、この合成・描画処理
を繰り返すことにより、ぼかし画像の拡大画像と元画像
とを合成した画像(グロー画像)が、フレームバッファ
510に描画(生成)されることとなる。
That is, for each pixel of the frame buffer 510, its color is determined from the blurred image by utilizing bilinear filtering. Then, the pixel for which the color is determined and the corresponding pixel of the already drawn original image are combined, and the generated image data is drawn in the pixel of the frame buffer 510. In this manner, by repeating this synthesis / drawing process for each pixel of the frame buffer 510, an image (glow image) obtained by synthesizing the enlarged image of the blurred image and the original image is drawn (generated) in the frame buffer 510. The Rukoto.

【0067】従って、上記拡大画像は、実際に作業用バ
ッファに描画(生成)されるものではなく、拡大画像の
生成と同時に、元画像の色情報に加色合成され、フレー
ムバッファ510に描画されることになる。そして、こ
の場合には、上記作業用バッファは不要である。
Therefore, the enlarged image is not actually drawn (generated) in the work buffer, but simultaneously with the generation of the enlarged image, the color information of the original image is color-added and combined and drawn in the frame buffer 510. Will be. In this case, the work buffer is unnecessary.

【0068】次に、本発明を適用したゲーム装置10の
構成について、説明する。図9は、ゲーム装置10の機
能構成の一例を示すブロック図である。同図に示すよう
に、ゲーム装置10の機能ブロックは、入力部100、
表示部200、処理部300、記憶部400、及び一時
記憶部500より構成される。
Next, the structure of the game device 10 to which the present invention is applied will be described. FIG. 9 is a block diagram showing an example of the functional configuration of the game device 10. As shown in the figure, the functional blocks of the game device 10 include an input unit 100,
It includes a display unit 200, a processing unit 300, a storage unit 400, and a temporary storage unit 500.

【0069】入力部100は、プレーヤが操作データを
入力するためのものであり、その機能は、レバー、ボタ
ン、筐体などのハードウェアにより実現できる。そし
て、ボタン押下等の操作がされた場合には、その操作信
号を処理部300に出力する。
The input section 100 is for the player to input operation data, and its function can be realized by hardware such as a lever, a button, and a case. Then, when an operation such as pressing a button is performed, the operation signal is output to the processing unit 300.

【0070】表示部200は、画像生成部320により
生成されたゲーム画像などを表示する。プレーヤは、表
示部200に表示されるゲーム画面を見ながら、入力部
100より、ゲーム進行に応じた操作データを入力す
る。
The display section 200 displays the game image generated by the image generation section 320. The player inputs the operation data according to the progress of the game from the input unit 100 while looking at the game screen displayed on the display unit 200.

【0071】処理部300は、ゲーム装置10全体の制
御、ゲーム装置10内の各部への命令、ゲーム進行処
理、画像処理、音処理等の各種処理を行うものであり、
その機能は、各種プロセッサ(CPU(Central Proces
sing Unit)、DSP(DigitalSignal Processor)
等)、或いはASIC(Application Specific Integra
tedCircuit)等のハードウェアや、所与のプログラムに
より実現できる。また、処理部300には、ゲーム演算
部310、及び画像生成部320が含まれる。
The processing section 300 controls the entire game apparatus 10, executes various commands such as instructions to each section in the game apparatus 10, game progress processing, image processing, and sound processing.
The function is based on various processors (CPU (Central Proces
sing Unit), DSP (Digital Signal Processor)
Etc.) or ASIC (Application Specific Integra
tedCircuit) and other hardware, or a given program. Further, the processing unit 300 includes a game calculation unit 310 and an image generation unit 320.

【0072】ゲーム演算部310は、ゲーム空間の構築
処理、各キャラクタの位置や向き、移動の速度、進行方
向等を求める処理、ゲーム空間における仮想カメラの位
置や、その視線方向を演算する処理、ストーリーの展開
といったゲームの進行処理、種々のゲーム処理を、入力
部100からの操作信号や記憶部400から読み出すゲ
ームプログラム等に基づいて実行する。
The game computing section 310 constructs a game space, obtains the position and orientation of each character, the speed of movement, the direction of travel, etc., computes the position of the virtual camera in the game space, and the line-of-sight direction thereof. A game progress process such as story development, and various game processes are executed based on an operation signal from the input unit 100, a game program read from the storage unit 400, and the like.

【0073】画像生成部320は、ゲーム演算部310
により設定されたゲーム空間を、仮想カメラに基づく画
像として生成し、表示部200へ出力する処理などを行
う。具体的には、前方/後方クリッピングを実行してビ
ューボリュームを決定する処理、各ポリゴンに対する座
標変換等のジオメトリ処理、視点と光源に基づく輝度計
算処理、色補間処理、陰面消去処理等のレンダリング処
理を実行することによりゲーム画像を生成する。
The image generation section 320 is a game calculation section 310.
The game space set by is generated as an image based on the virtual camera and output to the display unit 200. Specifically, processing to determine the view volume by executing forward / backward clipping, geometry processing such as coordinate conversion for each polygon, brightness calculation processing based on the viewpoint and light source, color interpolation processing, rendering processing such as hidden surface removal processing. A game image is generated by executing.

【0074】また、画像生成部320には、αプレーン
設定部321、画像縮小部322、ぼかし処理部32
3、画像合成部324が含まれており、レンダリング処
理によりフレームバッファ510に描画されたゲーム画
像に対して、グロー表現プログラム410に従うグロー
表現処理(図10参照)を実行する。そして、生成した
グロー画像を、画像データとして表示部200に出力・
表示させる。
Further, the image generation unit 320 includes an α plane setting unit 321, an image reduction unit 322, and a blurring processing unit 32.
3. The image synthesizing unit 324 is included, and the glow expression process (see FIG. 10) according to the glow expression program 410 is executed on the game image drawn in the frame buffer 510 by the rendering process. Then, the generated glow image is output to the display unit 200 as image data.
Display it.

【0075】αプレーン設定部321は、αプレーン設
定プログラム420に従い、後述するαプレーン設定処
理(図11参照)を実行する。具体的には、元画像が描
画されたフレームバッファ510のαプレーンにおい
て、グロー対象領域に対応する画素のα値を“1”に、
それ以外の画素のα値を“0”に、設定する。つまり、
図に示すグロー対象画像の生成に相当する処理を行う。
The α-plane setting unit 321 executes an α-plane setting process (see FIG. 11) described later according to the α-plane setting program 420. Specifically, in the α plane of the frame buffer 510 on which the original image is drawn, the α value of the pixel corresponding to the glow target area is set to “1”,
The α values of the other pixels are set to “0”. That is,
A process corresponding to the generation of the glow target image shown in the figure is performed.

【0076】画像縮小部322は、フレームバッファ5
10に描画されている画像(元画像)をテクスチャとし
て設定し、1/2フレームバッファ520に描画する。
つまり、図1に示す縮小画像の生成に相当する処理を行
う。
The image reducing section 322 is used by the frame buffer 5
The image (original image) drawn in 10 is set as a texture and drawn in the 1/2 frame buffer 520.
That is, the process corresponding to the generation of the reduced image shown in FIG. 1 is performed.

【0077】ぼかし処理部323は、ぼかし処理プログ
ラム430に従い、後述するぼかし処理(図12参照)
を実行する。具体的には、ぼかしバッファ530を利用
して、1/2フレームバッファ520に描画されている
画像(縮小画像)にぼかし処理を施し、この画像を再度
1/2フレームバッファ520に描画する。つまり、図
1に示すぼかし画像の生成に相当する処理を行う。
The blurring processing unit 323 follows the blurring processing program 430 and performs the blurring processing described later (see FIG. 12).
To execute. Specifically, the blurring buffer 530 is used to blur the image (reduced image) drawn in the 1/2 frame buffer 520, and the image is drawn again in the 1/2 frame buffer 520. That is, the process corresponding to the generation of the blurred image shown in FIG. 1 is performed.

【0078】画像合成部324は、1/2フレームバッ
ファ520に描画されている画像(ぼかし画像)を拡大
するとともに、フレームバッファ510に描画されてい
る画像(元画像)と合成し、合成後の画像(グロー画
像)を、再度フレームバッファ510に描画する。つま
り、図1に示すグローを表現した画像(グロー画像)の
生成に相当する処理を行う。
The image synthesizing unit 324 enlarges the image (blurred image) drawn in the 1/2 frame buffer 520, combines it with the image (original image) drawn in the frame buffer 510, and after synthesizing. The image (glow image) is drawn again in the frame buffer 510. That is, the process corresponding to the generation of the image expressing the glow shown in FIG. 1 (glow image) is performed.

【0079】記憶部400は、本ゲーム装置10に係る
ゲームを実行するためのゲームプログラムや各種データ
等とともに、αプレーン設定プログラム420、ぼかし
処理プログラム430を記憶する。また、その機能は、
CD−ROM、MO、DVD、メモリ、HD等のハード
ウェアにより実現できる。
The storage section 400 stores an α plane setting program 420 and a blurring processing program 430, as well as a game program for executing a game relating to the present game apparatus 10 and various data. Also, its function is
It can be realized by hardware such as CD-ROM, MO, DVD, memory, and HD.

【0080】一時記憶部500は、記憶部400から読
み出された各種プログラムやデータ、入力部100から
の入力データを展開するなど、処理部300の作業領域
として使用されるものである。また、一時記憶部500
は、フレームバッファ510、1/2フレームバッファ
520、ぼかしバッファ530を形成する。
The temporary storage unit 500 is used as a work area of the processing unit 300 such as expanding various programs and data read from the storage unit 400 and input data from the input unit 100. In addition, the temporary storage unit 500
Forms a frame buffer 510, a 1/2 frame buffer 520, and a blurring buffer 530.

【0081】次に、図10〜図12を参照し、ゲーム装
置10の実行する処理について、説明する。
Next, the processing executed by the game apparatus 10 will be described with reference to FIGS.

【0082】図10は、グロー表現処理を説明するため
のフローチャートである。このグロー表現処理は、1フ
レーム毎に、グロー表現プログラム410に従って、画
像生成部320に含まれる各部により実行される処理で
ある。また、対象となる元画像は、通常のレンダリング
処理を終了し、フレームバッファ510に描画されてい
るものとする。
FIG. 10 is a flow chart for explaining the glow expression processing. The glow expression process is a process executed by each unit included in the image generation unit 320 according to the glow expression program 410 for each frame. Further, it is assumed that the target original image has been rendered in the frame buffer 510 after the normal rendering process is completed.

【0083】同図において、先ずαプレーン設定部32
1は、αプレーン設定処理(図11参照)を実行し、フ
レームバッファ510のαプレーンを設定する(ステッ
プS11)。
In the figure, first, the α plane setting unit 32
1 executes the α plane setting process (see FIG. 11) to set the α plane of the frame buffer 510 (step S11).

【0084】次いで、画像縮小部322は、フレームバ
ッファ510の元画像を、テクスチャとして設定し、1
/2フレームバッファ520に描画する(ステップS1
2)。
Next, the image reduction unit 322 sets the original image in the frame buffer 510 as a texture,
Drawing on the 1/2 frame buffer 520 (step S1)
2).

【0085】その際には、図5において説明したよう
に、一番左上のテクセルの右下の位置から、上下/左右
方向それぞれ2テクセルの間隔でバイリニア・サンプリ
ングを行い、1/2フレームバッファ520に描画する
ことになる。つまり、元画像の縦・横をそれぞれ1/2
倍(即ち、サイズを1/4倍)にした画像(縮小画像)
を、1/2フレームバッファ520に描画(生成)する
ことになる。また、テクスチャとして設定するRGB成
分を、元画像のRGB成分に、αプレーンに設定されて
いる値を掛け合わせた値とする。
At this time, as described with reference to FIG. 5, bilinear sampling is performed from the lower right position of the upper left upper texel at intervals of 2 texels in the vertical and horizontal directions, and the 1/2 frame buffer 520 Will be drawn on. In other words, the vertical and horizontal directions of the original image are 1/2 each
Image that has been doubled (that is, reduced in size to 1/4) (reduced image)
Will be drawn (generated) in the 1/2 frame buffer 520. The RGB component set as the texture is a value obtained by multiplying the RGB component of the original image by the value set in the α plane.

【0086】1/2フレームバッファ520に縮小画像
が描画(生成)されると、続いて、ぼかし処理部323
は、ぼかし処理(図12参照)を実行し、ぼかし画像を
生成する(ステップS13)。
When the reduced image is drawn (generated) in the 1/2 frame buffer 520, the blurring processing unit 323 continues.
Performs blurring processing (see FIG. 12) to generate a blurry image (step S13).

【0087】その後、画像合成部324は、図7、図8
において説明したように、1/2フレームバッファ52
0のぼかし画像を拡大するとともに、フレームバッファ
510の元画像と合成し、フレームバッファ510を更
新する(ステップS14)。以上の処理を行うと、画像
生成部320は本処理を終了する。
After that, the image synthesizing unit 324 performs the processing shown in FIGS.
1/2 frame buffer 52
The blurred image of 0 is enlarged, combined with the original image of the frame buffer 510, and the frame buffer 510 is updated (step S14). After performing the above processing, the image generation unit 320 ends this processing.

【0088】図11は、αプレーン設定処理を説明する
ためのフローチャートである。同図において、先ずαプ
レーン設定部321は、元画像の画素毎に、当該画素が
グロー対象領域に含まれるか否かを判断する(ステップ
S111)。そして、グロー対象領域に含まれる場合に
は“1”を(ステップS111:YES、ステップS1
12)、含まれない場合には“0”を(ステップS11
1:NO、ステップS113)、図2において説明した
ように、フレームバッファ510のαプレーンに設定す
る。
FIG. 11 is a flow chart for explaining the α plane setting process. In the figure, first, the α plane setting unit 321 determines, for each pixel of the original image, whether or not the pixel is included in the glow target area (step S111). If it is included in the glow target area, "1" is set (step S111: YES, step S1
12), if not included, “0” (step S11
1: NO, step S113), and as described in FIG. 2, the α plane of the frame buffer 510 is set.

【0089】このように、全ての画素についてα値の設
定を行うと(ステップS114:YES)、αプレーン
設定部321は、本処理を終了し、図10のステップS
12に処理を移行する。
In this way, when the α value is set for all pixels (step S114: YES), the α plane setting unit 321 finishes this process, and step S in FIG.
The processing shifts to 12.

【0090】図12は、ぼかし画像生成処理を説明する
ためのフローチャートである。同図において、画像縮小
部322は、1/2フレームバッファ520の縮小画像
をテクスチャとして設定し、0.5テクセル右下にずら
し、ぼかしバッファ530に描画する。つまり、図6に
おいて説明したように、一番左上のテクセルの右下の位
置から、上下/左右方向それぞれ1テクセルの間隔でバ
イリニア・サンプリングを行い、ぼかしバッファ530
に描画する(ステップS131)。
FIG. 12 is a flow chart for explaining the blurred image generation processing. In the figure, the image reduction unit 322 sets the reduced image of the 1/2 frame buffer 520 as a texture, shifts it to the lower right of 0.5 texel, and draws it in the blurring buffer 530. That is, as described with reference to FIG. 6, bilinear sampling is performed from the lower right position of the upper left uppermost texel at intervals of 1 texel in each of the vertical and horizontal directions, and the blurring buffer 530
Is drawn (step S131).

【0091】次いで、画像縮小部322は、ぼかしバッ
ファ530の画像をテクスチャとして設定し、0.5テ
クセル左上にずらし、1/2フレームバッファ520に
描画する。つまり、図6において説明したように、一番
左上のテクセルの左上の位置から、上下/左右方向それ
ぞれ1テクセルの間隔でバイリニア・サンプリングを行
い、1/2フレームバッファ520に描画する(ステッ
プS132)。
Next, the image reduction unit 322 sets the image in the blurring buffer 530 as a texture, shifts it to the upper left of 0.5 texels, and draws it in the 1/2 frame buffer 520. That is, as described with reference to FIG. 6, bilinear sampling is performed from the upper left position of the upper left upper texel at intervals of 1 texel in the vertical / horizontal direction, and is drawn in the 1/2 frame buffer 520 (step S132). .

【0092】以上の処理を行うと、ぼかし処理部323
は本処理を終了し、図10のステップS14に処理を移
行する。
When the above processing is performed, the blurring processing unit 323
Ends this processing and shifts the processing to step S14 in FIG.

【0093】次に、本発明を適用したゲーム画像の例
を、図13〜図16に示す。図13は、元画像の一例を
示す図である。図14は、図13に示す元画像から、グ
ロー対象領域を抽出した画像の一例を示す図である。図
15は、図14に示すグロー対象画像に、縮小/ぼかし
/拡大処理を施した画像(拡大画像)の一例を示す図で
ある。図16は、図13に示す元画像と、図15に示す
拡大画像と、を合成した画像(グロー画像)の一例を示
す図である。
Next, examples of game images to which the present invention is applied are shown in FIGS. FIG. 13 is a diagram showing an example of the original image. FIG. 14 is a diagram showing an example of an image in which the glow target area is extracted from the original image shown in FIG. FIG. 15 is a diagram showing an example of an image (enlarged image) obtained by performing reduction / blurring / enlargement processing on the glow target image shown in FIG. FIG. 16 is a diagram showing an example of an image (glow image) obtained by combining the original image shown in FIG. 13 and the enlarged image shown in FIG.

【0094】続いて、ゲーム装置10を実現できるハー
ドウェアの構成の一例について、図17を用いて説明す
る。同図に示す装置では、CPU1000、ROM10
02、RAM1004、情報記憶媒体1006、音生成
IC1008、画像生成IC1010、I/Oポート1
012、1014が、システムバス1016により相互
にデータ入出力可能に接続されている。そして、画像生
成IC1010には表示装置1018が接続され、音生
成IC1008にはスピーカ1020が接続され、I/
Oポート1012にはコントロール装置1022が接続
され、I/Oポート1014には通信装置1024が接
続されている。
Next, an example of a hardware configuration that can realize the game apparatus 10 will be described with reference to FIG. In the device shown in the figure, the CPU 1000 and the ROM 10
02, RAM 1004, information storage medium 1006, sound generation IC 1008, image generation IC 1010, I / O port 1
012 and 1014 are connected to each other via a system bus 1016 so that data can be input / output. A display device 1018 is connected to the image generation IC 1010, a speaker 1020 is connected to the sound generation IC 1008, and I / O
A control device 1022 is connected to the O port 1012, and a communication device 1024 is connected to the I / O port 1014.

【0095】情報記憶媒体1006は、プログラム、表
示物を表現するための画像データ、音データ、プレイデ
ータ等が主に格納されるものであり、図9の記憶部40
0に相当するものである。例えば家庭用ゲーム装置で
は、ゲームプログラム等を格納する情報記憶媒体100
6として、CD−ROM、ゲームカセット、DVD等が
用いられ、ゲーム装置10に係るプレイデータ等を格納
する情報記憶媒体1006として、メモリカードなどが
用いられる。また、パーソナルコンピュータでは、CD
−ROM、DVD、ハードディスクなどが用いられる。
また、業務用ゲーム装置では、ROM等のハードディス
クが用いられ、この場合には、情報記憶媒体1006は
ROM1002になる。
The information storage medium 1006 mainly stores programs, image data for expressing display objects, sound data, play data, and the like, and the storage unit 40 in FIG.
It corresponds to 0. For example, in a home-use game machine, an information storage medium 100 that stores a game program and the like.
A CD-ROM, a game cassette, a DVD or the like is used as 6, and a memory card or the like is used as the information storage medium 1006 for storing play data or the like related to the game apparatus 10. Also, with a personal computer, a CD
-ROM, DVD, hard disk, etc. are used.
Further, in the arcade game machine, a hard disk such as a ROM is used, and in this case, the information storage medium 1006 becomes the ROM 1002.

【0096】コントロール装置1022は、ゲームコン
トローラ、操作パネル等に相当するものであり、ユーザ
がゲーム進行に応じて行う判断の結果を装置本体に入力
するための装置である。このコントロール装置1022
は、図9の入力部100に相当する。
The control device 1022 corresponds to a game controller, an operation panel, etc., and is a device for inputting the result of the judgment made by the user according to the progress of the game to the main body of the device. This control device 1022
Corresponds to the input unit 100 in FIG.

【0097】情報記憶媒体1006に格納されるプログ
ラムやデータ、ROM1002に格納されるシステムプ
ログラム(装置本体の初期化情報等)、コントロール装
置1022によって入力される信号等に従って、CPU
1000は、装置全体の制御や各種データ処理を行う。
According to the programs and data stored in the information storage medium 1006, the system programs stored in the ROM 1002 (initialization information of the apparatus main body, etc.), the signals input by the control unit 1022, etc., the CPU
1000 controls the entire apparatus and performs various data processing.

【0098】RAM1004は、このCPU1000の
作業領域として用いられる記憶手段であり、1フレーム
分の画像データやプレイデータが一時的に格納された
り、情報記憶媒体1006やROM1002の所与の内
容、或いはCPU1000の演算結果等が格納される。
また、このRAM1004は、図9の一時記憶部500
に相当する。
The RAM 1004 is a storage means used as a work area of the CPU 1000, and temporarily stores image data and play data for one frame, given contents of the information storage medium 1006 and the ROM 1002, or the CPU 1000. The calculation result and the like are stored.
Further, this RAM 1004 is a temporary storage unit 500 of FIG.
Equivalent to.

【0099】更に、この種の装置には音生成IC100
8と画像生成IC1010とが設けられていて、ゲーム
音やゲーム画像の好適な出力が行えるようになってい
る。
Furthermore, a sound generation IC 100 is provided in this type of device.
8 and an image generation IC 1010 are provided so that the game sound and the game image can be appropriately output.

【0100】音生成IC1008は、情報記憶媒体10
06やROM1002に記憶される情報に基づいて効果
音やバックグラウンド音等のゲーム音を生成する集積回
路であり、生成されたゲーム音はスピーカ1020によ
って出力される。また、画像生成IC1010は、RA
M1004、ROM1002、情報記憶媒体1006等
から送られる画像情報に基づいて表示装置1018に出
力するための画素情報を生成する集積回路である。また
表示装置1018は、CRTやLCD、TV、プラズマ
ディスプレイ、プロジェクタ等により実現され、図9の
表示部200に相当する。
The sound generation IC 1008 is used for the information storage medium 10
It is an integrated circuit that generates a game sound such as a sound effect or a background sound based on information stored in the ROM 06 or the ROM 1002, and the generated game sound is output by the speaker 1020. Further, the image generation IC 1010 is
It is an integrated circuit that generates pixel information to be output to the display device 1018 based on image information sent from the M1004, the ROM 1002, the information storage medium 1006, or the like. The display device 1018 is realized by a CRT, LCD, TV, plasma display, projector, etc., and corresponds to the display unit 200 in FIG. 9.

【0101】また通信装置1024は、ゲーム装置10
内部で利用する各種の情報を外部とやりとりするもので
あり、他のゲーム装置と接続されてゲームプログラムに
応じた所与の情報を送受したり、所定の通信回線を介し
てゲームプログラム等の情報を送受することなどに利用
される。
The communication device 1024 is the game device 10.
Various information used internally is exchanged with the outside. It is connected to another game device to send and receive given information according to the game program, or information such as the game program via a predetermined communication line. It is used for sending and receiving.

【0102】尚、画像生成IC1010、音生成IC1
008等で行われる処理は、CPU1000或いは汎用
のDSP等によりソフトウェア的に行ってもよい。この
場合には、CPU1000が、処理部300に該当する
こととなる。
The image generation IC 1010 and the sound generation IC1
The processing performed in 008 or the like may be performed by software using the CPU 1000 or a general-purpose DSP. In this case, the CPU 1000 corresponds to the processing unit 300.

【0103】次に、図18(a)に、本実施形態を業務
用ゲーム装置に適用した場合の例を示す。プレーヤは、
ディスプレイ1100上に映し出されたゲーム画像を見
ながら、レバー1102、ボタン1104等を操作して
ゲームを楽しむ。内蔵されるシステムボード(サーキッ
トボード)1106には、各種プロセッサ、各種メモリ
などが実装される。そして、本発明を実行するための情
報(プログラム、データ)は、システムボード1106
上の情報記憶媒体であるメモリ1108に格納される。
以下、この情報を格納情報と呼ぶ。
Next, FIG. 18A shows an example in which the present embodiment is applied to an arcade game machine. The player is
While watching the game image displayed on the display 1100, the user can enjoy the game by operating the lever 1102, the buttons 1104 and the like. Various processors, various memories, etc. are mounted on the built-in system board (circuit board) 1106. Information (program, data) for executing the present invention is stored on the system board 1106.
It is stored in the memory 1108 which is the above information storage medium.
Hereinafter, this information will be referred to as stored information.

【0104】図18(b)に、本実施形態を家庭用のゲ
ーム装置に適用した場合の例を示す。プレーヤはディス
プレイ1200に映し出されたゲーム画像を見ながら、
ゲームコントローラ1202、1204を操作してゲー
ムを楽しむ。この場合、上記格納情報は、本体装置に着
脱自在な情報記憶媒体であるCD(DVD)1206、
或いはメモリカード1208、1209等に格納されて
いる。
FIG. 18B shows an example in which the present embodiment is applied to a home-use game machine. The player looks at the game image displayed on the display 1200,
Enjoy the game by operating the game controllers 1202 and 1204. In this case, the above-mentioned stored information is stored in the CD (DVD) 1206, which is an information storage medium detachable from the main unit
Alternatively, it is stored in the memory cards 1208, 1209 or the like.

【0105】更に、本実施形態のゲーム装置10を実現
する具体例として、上記業務用ゲーム装置、或いは家庭
用ゲーム装置に限ることなく、例えば、携帯用ゲーム装
置、パーソナルコンピュータ、携帯端末(携帯電話機を
含む)、キオスク端末などに適用することも勿論可能で
ある。
Further, as a specific example for realizing the game device 10 of the present embodiment, it is not limited to the above-mentioned arcade game device or home game device, but may be, for example, a portable game device, a personal computer, a portable terminal (cellular phone). It is also possible to apply to a kiosk terminal or the like.

【0106】尚、本発明は、上記実施の形態に限ること
なく、本発明の趣旨を逸脱しない範囲で適宜変更可能で
ある。
The present invention is not limited to the above-described embodiments, but can be modified as appropriate without departing from the spirit of the present invention.

【0107】例えば、本実施形態においては、縮小画像
のサイズを、元画像の1/4としたが、これはどのサイ
ズとしても構わない。また、画像の縮小処理を所定回数
繰り返すことで、更に1/16や1/64といった縮小
画像を生成することとしてもよい。更に、画像の拡大処
理についても同様に、所定回数繰り返すことにより、元
画像と同サイズの拡大画像を生成することとしてもよ
い。
For example, in the present embodiment, the size of the reduced image is set to 1/4 of the original image, but it may be any size. Further, a reduction image of 1/16 or 1/64 may be further generated by repeating the reduction processing of the image a predetermined number of times. Further, the image enlargement process may be repeated a predetermined number of times to generate an enlarged image having the same size as the original image.

【0108】また、縮小画像に対するぼかし処理(図1
2参照)を、所定回数繰り返すこととしてもよい。この
ことにより、ぼかし度合を任意に調整することができる
とともに、より強いグローを表現した画像を生成するこ
とができる。
Further, the blurring process for the reduced image (see FIG.
2) may be repeated a predetermined number of times. This makes it possible to arbitrarily adjust the degree of blurring and generate an image expressing a stronger glow.

【0109】また、画像の縮小/拡大、及びぼかし画像
の生成処理は、バイリニア・フィルタリングを利用する
こととしたが、縮小/拡大画像、或いはぼかし画像が得
られる方法であれば、何れの方法を採用することとして
構わない。
Further, the image reduction / enlargement and the blurring image generation processing use the bilinear filtering. It doesn't matter what you hire.

【0110】尚、図11のステップS111において、
グロー対象領域であるか否かの判定方法としては、どの
ような判定基準に基づくものとしても良いが、一例を挙
げると、例えば画像の輝度に基づいて決定する方法があ
る。即ち、αプレーンを設定する際に、フレームバッフ
ァに描画されている元画像の画素毎に、それぞれの輝度
が所定値以上であるか否かといった判定基準により、グ
ロー対象領域であるか否かを判断する。
Incidentally, in step S111 of FIG.
As a method of determining whether the region is the glow target region, any determination criterion may be used, but as an example, there is a method of determining based on the brightness of the image. That is, when setting the α plane, whether or not the area is the glow target area is determined by a determination criterion such as whether or not the brightness of each pixel of the original image drawn in the frame buffer is equal to or more than a predetermined value. to decide.

【0111】[0111]

【発明の効果】本発明によれば、元画像の一部の領域が
自発光している、或いは反射して白っぽく光っていると
いった様子とともに、自発光、或いは反射している領域
の周辺に対する光の効果を表現することが可能となる。
更に、元画像の一部の領域の色情報を抽出し、平滑化を
行うといった簡易な処理で、光の効果を表現した画像を
容易に生成することができる。
According to the present invention, a part of the original image is self-luminous, or is reflected and shining whitish, and the light around the self-luminous or reflected region is illuminated. It is possible to express the effect of.
Furthermore, an image expressing the effect of light can be easily generated by a simple process such as extracting color information of a partial area of the original image and performing smoothing.

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施形態の概要を示す図である。FIG. 1 is a diagram showing an outline of the present embodiment.

【図2】元画像を記憶するフレームバッファの構成を示
す図である。
FIG. 2 is a diagram showing a configuration of a frame buffer that stores an original image.

【図3】バイリニアフィルタ方式によるテクスチャマッ
ピングを説明する図である。
FIG. 3 is a diagram illustrating texture mapping by a bilinear filter method.

【図4】バイリニア・フィルタリングを説明する図であ
る。
FIG. 4 is a diagram illustrating bilinear filtering.

【図5】縮小画像の生成を説明する図である。FIG. 5 is a diagram illustrating generation of a reduced image.

【図6】ぼかし画像の生成を説明する図である。FIG. 6 is a diagram illustrating generation of a blurred image.

【図7】拡大画像の生成を説明する図である。FIG. 7 is a diagram illustrating generation of an enlarged image.

【図8】グロー画像の生成を説明する図である。FIG. 8 is a diagram illustrating generation of a glow image.

【図9】ゲーム装置の内部構成の一例を示すブロック図
である。
FIG. 9 is a block diagram showing an example of an internal configuration of a game device.

【図10】グロー表現処理を説明するフローチャートで
ある。
FIG. 10 is a flowchart illustrating a glow expression process.

【図11】αプレーン設定処理を説明するフローチャー
トである。
FIG. 11 is a flowchart illustrating an α plane setting process.

【図12】ぼかし処理を説明するフローチャートであ
る。
FIG. 12 is a flowchart illustrating a blurring process.

【図13】元画像の一例を示す図である。FIG. 13 is a diagram showing an example of an original image.

【図14】グロー対象画像の一例を示す図である。FIG. 14 is a diagram illustrating an example of a glow target image.

【図15】拡大画像の一例を示す図である。FIG. 15 is a diagram showing an example of an enlarged image.

【図16】グロー画像の一例を示す図である。FIG. 16 is a diagram showing an example of a glow image.

【図17】本実施形態を実現できるハードウェア構成の
一例を示す図である。
FIG. 17 is a diagram showing an example of a hardware configuration capable of realizing the present embodiment.

【図18】本実施形態におけるゲーム装置の適用例を示
す図である。
FIG. 18 is a diagram showing an application example of the game device according to the present embodiment.

【符号の説明】[Explanation of symbols]

10 ゲーム装置 100 入力部 200 表示部 300 処理部 310 ゲーム演算部 320 画像生成部 321 αプレーン設定部 322 画像縮小部 323 ぼかし処理部 324 画像合成部 400 記憶部 410 グロー表現プログラム 420 αプレーン設定プログラム 430 ぼかし処理プログラム 500 一時記憶部 510 フレームバッファ 520 1/2フレームバッファ 530 ぼかしバッファ 10 game devices 100 input section 200 display 300 processing unit 310 Game operation unit 320 image generator 321 α plane setting section 322 Image reduction unit 323 Blur processing unit 324 Image synthesizer 400 storage 410 Glow Expression Program 420 α plane setting program 430 Blur processing program 500 temporary storage 510 frame buffer 520 1/2 frame buffer 530 blur buffer

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C001 BC05 BC06 BC10 CB01 CB02 CB03 CC02 5B050 BA08 EA09 EA12 EA15 EA19 FA02 FA05 5B057 AA20 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC03 CD05 CE04 CE05 CE06 CE08 CE17 CH09    ─────────────────────────────────────────────────── ─── Continued front page    F term (reference) 2C001 BC05 BC06 BC10 CB01 CB02                       CB03 CC02                 5B050 BA08 EA09 EA12 EA15 EA19                       FA02 FA05                 5B057 AA20 CA01 CA08 CA12 CA16                       CB01 CB08 CB12 CB16 CC03                       CD05 CE04 CE05 CE06 CE08                       CE17 CH09

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】フレームバッファを有し、所与の視点に基
づいて生成したゲーム空間のゲーム画像を前記フレーム
バッファに一時記憶させて、ゲーム画像を所定の表示部
に表示させる装置に対して、 前記フレームバッファに記憶された元画像の中から、少
なくとも所与の領域の色情報を抽出して中間画像を生成
するフィルタ手段と、 前記中間画像の色情報を平滑化して平滑化画像を生成す
る平滑化手段と、 前記平滑化画像と、前記元画像と、の色情報を合成する
合成手段と、 を機能させるためのゲーム情報。
1. A device having a frame buffer, wherein a game image of a game space generated based on a given viewpoint is temporarily stored in the frame buffer and the game image is displayed on a predetermined display unit. Filter means for extracting color information of at least a given area from the original image stored in the frame buffer to generate an intermediate image; and smoothing the color information of the intermediate image to generate a smoothed image. Game information for causing a smoothing unit and a synthesizing unit for synthesizing color information of the smoothed image and the original image to function.
【請求項2】請求項1において、 前記ゲーム画像の画素毎に平滑化対象とするか否かを決
定する決定手段、を前記装置に対して機能させるための
情報と、 前記フィルタ手段に対して、前記画素毎の決定に基づい
て中間画像を生成する、ように機能させるための情報
と、 を含むゲーム情報。
2. The information according to claim 1, for causing a determination unit that determines whether or not to perform smoothing for each pixel of the game image to function on the device, and to the filter unit. , Information for causing the intermediate image to be generated based on the determination for each pixel, and game information including:
【請求項3】請求項1において、 前記ゲーム画像に含まれるオブジェクト毎に平滑化対象
とするか否かを決定する決定手段、を前記装置に対して
機能させるための情報と、 前記フィルタ手段に対して、前記平滑化すると決定され
たオブジェクトを含む領域の色情報を抽出して中間画像
を生成する、ように機能させるための情報と、 を含むゲーム情報。
3. The information according to claim 1, for causing a determination unit that determines whether or not each object included in the game image is a smoothing target, to the device, and the filter unit. On the other hand, game information including: information for causing the intermediate information to be generated by extracting color information of the area including the object determined to be smoothed.
【請求項4】請求項2又は3において、 前記フレームバッファは、画素毎の透明度を記憶する透
明度バッファを有し、 前記決定手段による決定に基づき、平滑化対象の画素と
非平滑化対象の画素とを識別するために、前記透明度バ
ッファの各画素の透明度を設定する透明度設定手段、を
前記装置に対して機能させるための情報と、 前記フィルタ手段に対して、前記透明度バッファの各画
素の透明度に基づいて中間画像を生成する、ように機能
させるための情報と、 を含むゲーム情報。
4. The pixel according to claim 2, wherein the frame buffer has a transparency buffer that stores transparency for each pixel, and the pixel to be smoothed and the pixel to be non-smoothed based on the determination by the determining unit. Information for causing the device to operate transparency setting means for setting the transparency of each pixel of the transparency buffer in order to identify the, and the transparency of each pixel of the transparency buffer with respect to the filter means. Game information including information for causing the intermediate image to be generated based on, and.
【請求項5】請求項1〜4の何れかにおいて、 前記合成手段に対して、前記平滑化画像と前記元画像と
の合成比率を可変とする、ように機能させるための情報
を含むゲーム情報。
5. The game information according to any one of claims 1 to 4, wherein the synthesizing means includes information for causing the synthesizing unit to change the synthesizing ratio of the smoothed image and the original image. .
【請求項6】請求項1〜5の何れかにおいて、 前記フィルタ手段に対して、前記元画像の解像度を縮減
させて中間画像を生成する、ように機能させるための情
報と、 前記平滑化手段に対して、前記縮減された中間画像を平
滑化する、ように機能させるための情報と、 前記平滑化手段により平滑化された中間画像を伸張し
て、縮減前の解像度の画像を生成する画像伸張手段、を
前記装置に機能させるための情報と、 前記合成手段に対して、前記画像伸張手段により伸張さ
れた画像と、前記元画像と、の色情報を合成する、よう
に機能させるための情報と、 を含むゲーム情報。
6. The smoothing means according to claim 1, wherein the filter means functions to reduce the resolution of the original image to generate an intermediate image, and the smoothing means. On the other hand, information for functioning to smooth the reduced intermediate image, and an image for expanding the intermediate image smoothed by the smoothing unit to generate an image with the resolution before reduction. Information for causing the decompression unit to function in the device, and for causing the compositing unit to compose the color information of the image decompressed by the image decompression unit and the original image Information, and game information including.
【請求項7】請求項6において、 前記画像縮小手段による縮小、及び前記画像伸張手段に
よる伸張を、所与の回数繰り返し実行する、ように機能
させるための情報を含むゲーム情報。
7. The game information according to claim 6, including information for causing the image reducing unit and the image expanding unit to repeatedly perform a predetermined number of times.
【請求項8】請求項1〜7の何れか記載のゲーム情報を
記憶する情報記憶媒体。
8. An information storage medium for storing the game information according to claim 1.
【請求項9】フレームバッファを有し、所与の視点に基
づいて生成したゲーム空間のゲーム画像を前記フレーム
バッファに一時記憶させて、ゲーム画像を所定の表示部
に表示させるゲーム装置であって、 前記フレームバッファに記憶された元画像の中から、少
なくとも所与の領域の色情報を抽出して中間画像を生成
するフィルタ手段と、 前記中間画像の色情報を平滑化して平滑化画像を生成す
る平滑化手段と、 前記平滑化画像と、前記元画像と、の色情報を合成する
合成手段と、 を備えるゲーム装置。
9. A game device having a frame buffer, wherein a game image of a game space generated based on a given viewpoint is temporarily stored in the frame buffer and the game image is displayed on a predetermined display section. A filter unit for extracting color information of at least a given area from the original image stored in the frame buffer to generate an intermediate image; and smoothing the color information of the intermediate image to generate a smoothed image. And a smoothing means, and a synthesizing means for synthesizing the color information of the smoothed image and the original image.
【請求項10】請求項9において、 前記ゲーム画像の画素毎に平滑化対象とするか否かを決
定する決定手段、を備え、 前記フィルタ手段は、前記画素毎の決定に基づいて中間
画像を生成する、 ことを特徴とするゲーム装置。
10. The determination device according to claim 9, further comprising: a determination unit that determines whether or not to smooth each pixel of the game image, wherein the filtering unit determines an intermediate image based on the determination of each pixel. A game device characterized by generating.
【請求項11】請求項9又は10において、 前記フレームバッファは、画素毎の透明度を記憶する透
明度バッファを有し、 前記決定手段による決定に基づき、平滑化対象の画素と
非平滑化対象の画素とを識別するために、前記透明度バ
ッファの各画素の透明度を設定する透明度設定手段、を
備え、 前記フィルタ手段は、前記透明度バッファの各画素の透
明度に基づいて中間画像を生成する、 ことを特徴とするゲーム装置。
11. The pixel according to claim 9 or 10, wherein the frame buffer has a transparency buffer that stores transparency for each pixel, and the pixel to be smoothed and the pixel to be unsmoothed based on the determination by the determining unit. And a transparency setting unit that sets the transparency of each pixel of the transparency buffer, and the filtering unit generates an intermediate image based on the transparency of each pixel of the transparency buffer. And the game device.
JP2001280198A 2001-09-14 2001-09-14 Game information, information storage medium and game device Pending JP2003085578A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001280198A JP2003085578A (en) 2001-09-14 2001-09-14 Game information, information storage medium and game device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001280198A JP2003085578A (en) 2001-09-14 2001-09-14 Game information, information storage medium and game device

Publications (1)

Publication Number Publication Date
JP2003085578A true JP2003085578A (en) 2003-03-20

Family

ID=19104242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001280198A Pending JP2003085578A (en) 2001-09-14 2001-09-14 Game information, information storage medium and game device

Country Status (1)

Country Link
JP (1) JP2003085578A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346417A (en) * 2004-06-03 2005-12-15 Sega Corp Method for controlling display of object image by virtual three-dimensional coordinate polygon and image display device using the method
JP2006004364A (en) * 2004-06-21 2006-01-05 Namco Ltd Program, information storage medium and image generation system
JP2006011539A (en) * 2004-06-22 2006-01-12 Namco Ltd Program, information storage medium, and image generating system
JP2008077406A (en) * 2006-09-21 2008-04-03 Namco Bandai Games Inc Image generation system, program, and information storage medium
US7479961B2 (en) 2005-01-17 2009-01-20 Namco Bandai Games Inc. Program, information storage medium, and image generation system
JP2009032290A (en) * 2008-10-27 2009-02-12 Namco Bandai Games Inc Program, information storage medium, and image generation system
WO2009101693A1 (en) * 2008-02-14 2009-08-20 Fujitsu Limited Image processing device, image processing method, and image processing program
JP2012231508A (en) * 2006-08-01 2012-11-22 Qualcomm Inc Real-time capture and generation of stereo images and videos with monoscopic low power mobile device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0341571A (en) * 1989-07-10 1991-02-22 Fuji Xerox Co Ltd Method and device for processing image
JP2000020743A (en) * 1998-06-30 2000-01-21 Fujitsu Ltd Device and method for controlling moving picture data
JP2001175884A (en) * 1999-12-17 2001-06-29 Namco Ltd Image generation system and information storage medium
JP2001209822A (en) * 2000-01-28 2001-08-03 Square Co Ltd Computer readable recording medium with recorded program for three-dimensional computer image processing, gradation plotting processing method and video game device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0341571A (en) * 1989-07-10 1991-02-22 Fuji Xerox Co Ltd Method and device for processing image
JP2000020743A (en) * 1998-06-30 2000-01-21 Fujitsu Ltd Device and method for controlling moving picture data
JP2001175884A (en) * 1999-12-17 2001-06-29 Namco Ltd Image generation system and information storage medium
JP2001209822A (en) * 2000-01-28 2001-08-03 Square Co Ltd Computer readable recording medium with recorded program for three-dimensional computer image processing, gradation plotting processing method and video game device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346417A (en) * 2004-06-03 2005-12-15 Sega Corp Method for controlling display of object image by virtual three-dimensional coordinate polygon and image display device using the method
JP4513423B2 (en) * 2004-06-03 2010-07-28 株式会社セガ Object image display control method using virtual three-dimensional coordinate polygon and image display apparatus using the same
JP2006004364A (en) * 2004-06-21 2006-01-05 Namco Ltd Program, information storage medium and image generation system
JP4521811B2 (en) * 2004-06-21 2010-08-11 株式会社バンダイナムコゲームス Program, information storage medium, and image generation system
JP2006011539A (en) * 2004-06-22 2006-01-12 Namco Ltd Program, information storage medium, and image generating system
US7479961B2 (en) 2005-01-17 2009-01-20 Namco Bandai Games Inc. Program, information storage medium, and image generation system
JP2012231508A (en) * 2006-08-01 2012-11-22 Qualcomm Inc Real-time capture and generation of stereo images and videos with monoscopic low power mobile device
US9509980B2 (en) 2006-08-01 2016-11-29 Qualcomm Incorporated Real-time capturing and generating viewpoint images and videos with a monoscopic low power mobile device
US8970680B2 (en) 2006-08-01 2015-03-03 Qualcomm Incorporated Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device
JP2008077406A (en) * 2006-09-21 2008-04-03 Namco Bandai Games Inc Image generation system, program, and information storage medium
WO2009101693A1 (en) * 2008-02-14 2009-08-20 Fujitsu Limited Image processing device, image processing method, and image processing program
US8233706B2 (en) 2008-02-14 2012-07-31 Fujitsu Limited Image processing apparatus and image processing method
JP4847591B2 (en) * 2008-02-14 2011-12-28 富士通株式会社 Image processing apparatus, image processing method, and image processing program
JP2009032290A (en) * 2008-10-27 2009-02-12 Namco Bandai Games Inc Program, information storage medium, and image generation system

Similar Documents

Publication Publication Date Title
JP3635051B2 (en) Image generation method and apparatus, recording medium storing image processing program, and image processing program
TWI634517B (en) Method for efficient construction of high resolution display buffers
JP4917346B2 (en) Game image processing program and game image processing apparatus
JP3715222B2 (en) Drawing method, drawing device, drawing processing program, recording medium recording drawing processing program, and drawing processing program execution device
JP3527489B2 (en) Drawing processing method and apparatus, recording medium storing drawing processing program, drawing processing program
US20030193496A1 (en) Image processing system, image processing method, semiconductor device, computer program, and recording medium
JP2002298154A (en) Image processing program, computer readable recording medium with image processing program recorded thereon, program execution device, image processor and image processing method
JP3792149B2 (en) Image processing apparatus and image processing program
JP4468631B2 (en) Texture generation method and apparatus for 3D face model
JP3527672B2 (en) Computer-readable recording medium recording a three-dimensional computer image processing program, shadow drawing processing method, and video game apparatus
JP2003085578A (en) Game information, information storage medium and game device
JPH10295934A (en) Video game device and changing method of texture of model
JP2001188920A (en) Computer-readable recording medium with recorded program for video game, method for object rendering of video game, and video game device
WO2003009236A1 (en) Drawing method
JP3502796B2 (en) 3D model display method and apparatus in video game, game apparatus, and computer-readable recording medium storing 3D model display program for video game
JP3507039B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP3756888B2 (en) Graphics processor, graphics card and graphics processing system
JP3663407B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JPH11331700A (en) Image processing unit and image processing method
JP3491832B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP2001283254A (en) Three-dimensional graphic plotting device and its method
JP3701627B2 (en) Drawing processing program, recording medium storing drawing processing program, drawing processing apparatus and method
JP2003067770A (en) Image generating device and image generating program
JP3652586B2 (en) Image drawing system
JP4554834B2 (en) Image processing apparatus and method, and program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080912

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20081017

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20081017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110408

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110510