JP2002269582A - Game information, information storage medium, and game device - Google Patents

Game information, information storage medium, and game device

Info

Publication number
JP2002269582A
JP2002269582A JP2001064132A JP2001064132A JP2002269582A JP 2002269582 A JP2002269582 A JP 2002269582A JP 2001064132 A JP2001064132 A JP 2001064132A JP 2001064132 A JP2001064132 A JP 2001064132A JP 2002269582 A JP2002269582 A JP 2002269582A
Authority
JP
Japan
Prior art keywords
image
game
information
smoothed
game information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001064132A
Other languages
Japanese (ja)
Other versions
JP3507039B2 (en
Inventor
Toshiaki Matsuno
俊明 松野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2001064132A priority Critical patent/JP3507039B2/en
Publication of JP2002269582A publication Critical patent/JP2002269582A/en
Application granted granted Critical
Publication of JP3507039B2 publication Critical patent/JP3507039B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a means for easily generating an image having a large degree of smoothing. SOLUTION: An original image to be smoothed is contracted, by lowering its resolution to generate contracted images (images A and B). Next, the images A and B are respectively enlarged to the resolution before contraction to generate enlarged images (images A' and B'). These images A' and B' are then α-composited to generate a smoothed image. The images A and B are further contracted by reducing their resolution to generate contracted images (images C-F). The images C-F are then enlarged successively in the order, and α- composited, thereby an image of a larger degree of smoothness is generated.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ゲーム画像を生成
して所与のゲームを実行するためのゲーム情報、ゲーム
装置、及びそのゲーム情報を記憶する情報記憶媒体に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to game information for generating a game image and executing a given game, a game device, and an information storage medium for storing the game information.

【0002】[0002]

【従来の技術】画像の濃淡変動を滑らかにする処理、即
ち画像平滑化処理として、移動平均フィルタリング、加
重平均フィルタリング、可変加重平均フィルタリング、
メディアンフィルタリング等の種々の手法が知られてい
る。これらの画像平滑化処理は、雑音の低減を図る場合
やぼかす効果を得たい場合などに使用される。
2. Description of the Related Art Moving-average filtering, weighted-average filtering, variable-weighted-average filtering, and image-smoothing processing for smoothing gray-scale fluctuations of an image are known.
Various techniques such as median filtering are known. These image smoothing processes are used to reduce noise or obtain a blurring effect.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、平滑化
の度合いの高い画像(よりぼけた画像)を得るために
は、複雑な計算が必要になるのが一般的である。殊に、
高速な画像生成が要求されるゲーム装置においては、よ
り簡単な計算によって、より短時間にぼけた画像を生成
する手段が必要となる。
However, in order to obtain an image with a high degree of smoothing (a more blurred image), a complicated calculation is generally required. In particular,
In a game device that requires high-speed image generation, means for generating a blurred image in a shorter time by simpler calculation is required.

【0004】本発明の課題は、平滑化の度合いの大きい
画像を、容易に生成する手段を実現することである。
An object of the present invention is to realize means for easily generating an image having a high degree of smoothing.

【0005】[0005]

【課題を解決するための手段】以上の課題を解決するた
め、請求項1記載の発明のゲーム情報は、プロセッサに
よる演算・制御により、ゲーム画像を生成して所与のゲ
ームを実行することとなる装置に対して、一の画像平滑
化処理を異なる標本点に基づいて実行することにより、
一の元画像に対する複数の平滑化画像を生成する平滑化
画像生成手段(例えば、図10の縮小画像生成部421
と紗画像生成部422の一部)と、前記複数の平滑化画
像の色情報を合成する合成手段(例えば、図10の紗画
像生成部422)と、を機能させるための、前記プロセ
ッサによる演算可能なゲーム情報である。
In order to solve the above problems, the game information according to the first aspect of the present invention is to execute a given game by generating a game image by calculation and control by a processor. By performing one image smoothing process on different devices based on different sample points,
Smoothed image generating means for generating a plurality of smoothed images for one original image (for example, the reduced image generating unit 421 in FIG. 10)
And a part of the gauze image generation unit 422) and a synthesizing unit (eg, the gauze image generation unit 422 in FIG. 10) for synthesizing the color information of the plurality of smoothed images. Possible game information.

【0006】また、請求項25記載の発明は、ゲーム画
像を生成して所与のゲームを実行するゲーム装置であっ
て、一の画像平滑化処理を異なる標本点に基づいて実行
することにより、一の元画像に対する複数の平滑化画像
を生成する平滑化画像生成手段例えば、図10の縮小画
像生成部421と紗画像生成部422の一部)と、前記
複数の平滑化画像の色情報を合成する合成手段(例え
ば、図10の紗画像生成部422)と、を備えることを
特徴とする。
The invention according to claim 25 is a game device for generating a game image and executing a given game, wherein one image smoothing process is executed based on different sample points. Smoothed image generation means for generating a plurality of smoothed images for one original image (for example, a part of the reduced image generation unit 421 and the gauze image generation unit 422 in FIG. 10) and color information of the plurality of smoothed images And a combining means (for example, a gauze image generating unit 422 in FIG. 10) for combining.

【0007】この請求項1または25記載の発明によれ
ば、平滑化の度合の高い画像を簡単に得ることができ
る。即ち、一の画像平滑化処理を繰り返し実行するので
はなく、異なる標本点とすることにより、複数種類の平
滑化画像を生成せしめ、その複数種類の平滑化画像を合
成することにより、更に平滑化された、平滑化の度合の
高い画像を得ることができる。また、演算処理する画
像平滑化処理は一つで済み、標本点のみを異ならしめ
ればよく、生成される複数の平滑化画像に対する処理
も色情報の合成でよい、ために簡単な演算処理で済む。
このため、ゲーム画像の生成におけるような、1フレー
ムの画像生成に係る時間に制約のある場合には、本発明
は好適である。
According to the present invention, an image having a high degree of smoothing can be easily obtained. That is, rather than repeatedly executing one image smoothing process, different sample points are used to generate a plurality of types of smoothed images, and the plurality of types of smoothed images are combined to further smooth the image. Thus, it is possible to obtain an image having a high degree of smoothing. Further, only one image smoothing process is required for the arithmetic processing, and only the sample points need to be different. Processing for a plurality of smoothed images to be generated may be synthesis of color information. I'm done.
For this reason, the present invention is suitable when there is a restriction on the time required to generate one frame of image, such as when generating a game image.

【0008】また請求項2記載の発明のように、請求項
1記載のゲーム情報であって、前記平滑化画像生成手段
に対して、前記異なる標本点を、前記元画像における左
右方向及び上下方向の少なくとも一方向に異なる位置と
する、ように機能させるための情報を含むこととしても
よい。
In the game information according to the first aspect of the present invention, the different sample points may be set in the horizontal direction and the vertical direction in the original image. May be included in at least one direction.

【0009】この請求項2記載の発明によれば、元画像
における左右方向及び上下方向の少なくとも一方向に異
なる位置に標本点が設定されるため、ゲーム画像のよう
な動画において奇異な画像となることがない。即ち、例
えば、左右方向にのみ異なる位置に標本点を設定した場
合、元画像(ゲーム画像)中に表された物体が上下方向
に滑らかに移動したとしても、コマ送りのような画像と
して生成されるおそれがある。より具体的には、標本点
を左右方向にのみ異ならしめた場合、合成手段による最
終的な合成結果の画像は、左右方向をより平滑化した画
像となる。このため、上下方向に対しては平滑化の度合
が弱い(低い)。従って、元画像(ゲーム画像)中にお
ける物体の上下方向の移動は、円滑な移動であっても、
結果的にコマ送りのような、間欠的な移動として表現さ
れる。このことは、上下方向にのみ異なる位置に標本点
を設定した場合も同様である。即ち、この場合、元画像
(ゲーム画像)中に表された物体が左右方向に滑らかに
移動したとしても、結果的にコマ送りのように表現され
得る。本発明によれば、この欠点を補うことが可能であ
る。
According to the second aspect of the present invention, the sample points are set at different positions in at least one of the left-right direction and the up-down direction in the original image, so that a moving image such as a game image becomes an odd image. Nothing. That is, for example, when the sample points are set at different positions only in the horizontal direction, even if the object represented in the original image (game image) moves smoothly in the vertical direction, it is generated as an image such as frame advance. May be affected. More specifically, when the sample points are different only in the left-right direction, the image of the final synthesis result by the synthesizing unit is an image in which the left-right direction is further smoothed. For this reason, the degree of smoothing is weak (low) in the vertical direction. Therefore, even if the vertical movement of the object in the original image (game image) is a smooth movement,
As a result, it is expressed as intermittent movement such as frame advance. This is the same when the sample points are set at different positions only in the vertical direction. That is, in this case, even if the object represented in the original image (game image) moves smoothly in the left-right direction, it can be expressed as a frame advance as a result. According to the present invention, it is possible to make up for this disadvantage.

【0010】また請求項3記載の発明のように、請求項
1または2に記載のゲーム情報であって、前記平滑化画
像生成手段に対して、画像の解像度を縮減した縮小画像
を生成する画像縮小手段(例えば、図10の縮小画像生
成手段421)と、前記縮小画像を伸張して縮減前の解
像度の画像を生成する画像拡大手段(例えば、図10の
紗画像生成部422の一部)と、を機能させて前記画像
平滑化処理を実行するための情報、を含むこととしても
よい。
According to a third aspect of the present invention, there is provided the game information according to the first or second aspect, wherein an image for generating a reduced image having a reduced image resolution is provided to the smoothed image generating means. Reduction means (for example, reduced image generation means 421 in FIG. 10) and image enlargement means for expanding the reduced image to generate an image with a resolution before reduction (for example, a part of the gauze image generation unit 422 in FIG. 10) And information for executing the image smoothing process by functioning.

【0011】この請求項3記載の発明によれば、画像縮
小手段により画像の解像度を一旦縮減させた後、画像拡
大手段により元の解像度に戻すという一連の処理によ
り、画像平滑化処理が実行される。このため、例えば、
画素データを間引くことにより一旦解像度を落とし、縮
減された解像度の画素データを複写することにより解像
度を上げる(肉眼においては、解像度が上がっているよ
うには見えないが、データとして、解像度は上がる。)
といった処理により、画像平滑化処理を容易かつ簡単に
実現することが可能である。
According to the third aspect of the present invention, the image smoothing process is executed by a series of processes in which the resolution of the image is once reduced by the image reducing unit and then returned to the original resolution by the image enlarging unit. You. Thus, for example,
The resolution is temporarily reduced by thinning out the pixel data, and the resolution is increased by copying the pixel data of the reduced resolution (the resolution does not appear to be increased by the naked eye, but the resolution increases as data. )
By such processing, it is possible to easily and easily realize the image smoothing processing.

【0012】また、具体的な画像縮小手段による縮小画
像の生成処理として、例えば、請求項4記載の発明があ
る。即ち、請求項4記載の発明は、請求項3記載のゲー
ム情報であって、前記画像縮小手段に対して、所与の内
挿画素データ演算処理を実行し、求めた内挿画素データ
に基づいて縮小画像を生成する、ように機能させるため
の情報を含むことを特徴とする。
A specific example of the reduced image generation processing by the image reduction means is the invention described in claim 4. That is, a fourth aspect of the present invention is the game information according to the third aspect, wherein a predetermined interpolation pixel data calculation process is performed on the image reduction means, and based on the obtained interpolation pixel data. And generating information for generating a reduced image.

【0013】また、具体的な画像拡大手段による縮小画
像の伸張処理として、例えば、請求項5記載の発明があ
る。即ち、請求項5記載の発明は、請求項3または4記
載のゲーム情報であって、前記画像拡大手段に対して、
所与の内挿画素データ演算処理を実行することにより縮
小画像を伸張する、ように機能させるための情報を含む
ことを特徴とする。
[0013] Further, as a specific example of the expansion processing of the reduced image by the image enlargement means, there is an invention according to claim 5. That is, the invention according to claim 5 is the game information according to claim 3 or 4, wherein:
It is characterized by including information for functioning to expand a reduced image by performing a given interpolation pixel data operation process.

【0014】この請求項4または5記載の発明によれ
ば、内挿画素データ演算処理として知られている、最近
隣内挿法や、共1次内挿法(いわゆるバイリニア・フィ
ルタリング)、3次たたみ込み内挿法(いわゆるトライ
リニア・フィルタリング)といった処理を利用すること
ができる。特に、本発明の装置が、ゲーム装置やコンピ
ュータシステム等である場合にあっては、上記内挿画素
データ演算処理はハードウェアの機能として実現されて
いる場合もあるため、そのような場合には、画像縮小手
段による縮小画像の生成処理や縮小画像の伸張処理をよ
り高速化することが可能である。
According to the fourth or fifth aspect of the present invention, the nearest neighbor interpolation method or bilinear interpolation method (so-called bilinear filtering), which is known as interpolation pixel data arithmetic processing, and cubic Processing such as convolution interpolation (so-called trilinear filtering) can be used. In particular, when the device of the present invention is a game device, a computer system, or the like, the above-described interpolation pixel data calculation processing may be realized as a hardware function. Further, it is possible to further speed up the process of generating a reduced image and the process of expanding the reduced image by the image reducing unit.

【0015】また、請求項6記載の発明は、請求項3か
ら5のいずれかに記載のゲーム情報であって、前記平滑
化画像生成手段に対して、平滑化度合に基づいて、前記
画像縮小手段による縮小画像の生成を再帰的に実行した
後、前記画像拡大手段による縮小画像の伸張を再帰的に
実行する、ように機能させるための情報を含むことを特
徴とする。
According to a sixth aspect of the present invention, there is provided the game information according to any one of the third to fifth aspects, wherein the image reduction is performed on the smoothed image generating means based on a degree of smoothing. After recursively executing the generation of the reduced image by the means, the information includes information for causing the image enlargement means to recursively execute the expansion of the reduced image.

【0016】請求項7記載の発明は、請求項3から5の
いずれかに記載のゲーム情報であって、前記平滑化画像
生成手段に対して、前記画像縮小手段による縮小画像の
生成および前記画像拡大手段による縮小画像の伸張を、
平滑化度合に基づいて繰り返し実行する、ように機能さ
せるための情報を含むことを特徴とする。
According to a seventh aspect of the present invention, there is provided the game information according to any one of the third to fifth aspects, wherein the reduced image generation by the image reduction unit and the image generation are performed on the smoothed image generation unit. The expansion of the reduced image by the enlargement means
It is characterized by including information for functioning to execute repeatedly based on the degree of smoothing.

【0017】この請求項6または7記載の発明によれ
ば、平滑化の度合をより高めることができる。但し、平
滑化度合の高い画像を迅速に生成する場合には請求項6
記載の発明の方が、迅速性よりも平滑化度合の調整を図
りたい場合には請求項7記載の発明の方が好適である。
即ち、請求項6記載の発明によれば、先ず、画像縮小手
段により解像度が縮減されていくため、請求項6記載の
発明の方が、請求項7記載の発明よりも、迅速に平滑化
度合の高い画像を生成することができる。一方、請求項
7記載の発明によれば、画像縮小手段による縮小画像の
生成と画像拡大手段による縮小画像の伸張とを一連の処
理とし、この一連の処理が繰り返し実行されるため、そ
の繰り返し回数に応じて平滑化の度合が徐々に高まるた
め、平滑化度合の調整を図ることができる。
According to the invention described in claim 6 or 7, the degree of smoothing can be further enhanced. However, in a case where an image having a high degree of smoothing is quickly generated, a sixth aspect of the present invention is described.
The invention described in claim 7 is more preferable in the case where the smoothing degree is to be adjusted rather than speedy.
That is, according to the invention of claim 6, first, the resolution is reduced by the image reducing means, so that the invention of claim 6 is more quickly smoothed than the invention of claim 7. Can be generated. On the other hand, according to the present invention, the generation of the reduced image by the image reduction unit and the expansion of the reduced image by the image enlargement unit are a series of processes, and this series of processes is repeatedly executed. , The degree of smoothing gradually increases, so that the degree of smoothing can be adjusted.

【0018】また、請求項8記載の発明は、請求項1か
ら7のいずれかに記載のゲーム情報であって、前記合成
手段に対して、前記複数の平滑化画像の色情報と、前記
元画像の色情報とを合成して前記元画像を表示する、よ
うに機能させるための情報を含むことを特徴とする。
According to an eighth aspect of the present invention, there is provided the game information according to any one of the first to seventh aspects, wherein the color information of the plurality of smoothed images and the original It is characterized by including information for functioning to display the original image by combining with color information of the image.

【0019】請求項1から7のいずれかの発明にあって
は、生成される平滑化画像を用いて、例えばぼけた画像
として表現するといったことが可能ではある。しかし、
画像平滑化処理によって、元画像中の輪郭(エッジ)や
線などが分かり難くなったり、色情報などが変更される
ことによって元の色が判別でき難くなるといった事象が
生じる。またこのことは平滑化の度合が高まるに従って
顕著になる。この請求項8記載の発明によれば、このよ
うな問題を解決することができる。即ち、生成される平
滑化画像においては、上記問題を内在した画像ではある
が、本発明により元画像と合成されるため、上記問題を
補正することが可能である。
According to any one of the first to seventh aspects of the present invention, it is possible to represent a blurred image by using the generated smoothed image. But,
As a result of the image smoothing process, such a phenomenon occurs that contours (edges), lines, and the like in the original image are difficult to understand, and the original color is difficult to be determined due to changes in color information and the like. This becomes more remarkable as the degree of smoothing increases. According to the invention described in claim 8, such a problem can be solved. In other words, although the generated smoothed image is an image having the above problem, it is combined with the original image according to the present invention, so that the above problem can be corrected.

【0020】請求項9記載のゲーム情報は、請求項8に
おいて、前記合成手段に対して、前記複数の平滑化画像
の色情報と、前記元画像の色情報とを合成する際の合成
比率を可変とする、ように機能させるための情報を含む
ことを特徴とする。
According to a ninth aspect of the present invention, in the game information according to the eighth aspect, a combination ratio when combining the color information of the plurality of smoothed images and the color information of the original image is provided to the combining means. It is characterized by including information for functioning as variable.

【0021】この請求項9記載の発明によれば、例え
ば、同一の平滑化画像から、ぼかしの度合いを任意に変
化させたぼけ画像の表現が可能となる。
According to the ninth aspect of the present invention, for example, it is possible to represent a blurred image in which the degree of blur is arbitrarily changed from the same smoothed image.

【0022】請求項10記載のゲーム情報は、請求項8
または9において、前記合成手段に対して、所与の入力
信号に基づいて、前記複数の平滑化画像の色情報と、前
記元画像の色情報とを合成して前記元画像を更新するか
否かを決定する、ように機能させるための情報を含むこ
とを特徴とする。
The game information according to claim 10 is the game information according to claim 8.
Or 9) determining whether to update the original image by combining the color information of the plurality of smoothed images with the color information of the original image based on a given input signal. The information is characterized by including information for functioning as follows.

【0023】この請求項10記載の発明によれば、所与
の条件に応じて、ぼけ画像を表示するか否かを決定する
ことができる。例えば、リプレイシーンにのみぼかした
画像を生成してゲーム画像の粗を目立たなくしたり、プ
レーヤキャラクタの成長度や取得アイテム等に応じてぼ
け画像の表示/非表示を決定し、その成長度やアイテム
の効果を表すといったことが可能となる。
According to the tenth aspect, it is possible to determine whether or not to display a blurred image in accordance with a given condition. For example, a blurred image is generated in the replay scene to make the coarseness of the game image inconspicuous, or display / non-display of the blurred image is determined according to the growth degree of the player character or the acquired item, and the growth degree and the item are determined. Can be expressed.

【0024】請求項11記載のゲーム情報は、請求項8
から10のいずれかにおいて、前記装置に対して、前記
ゲーム画像を前記元画像とする手段(例えば、図10の
画像生成部420)と、前記平滑化画像生成手段により
生成される複数の平滑化画像の一部または全部を特定す
る特定手段(例えば、図10の画像生成部420)と、
を機能させるための情報と、前記合成手段に対して、前
記特定された部分に係る前記複数の平滑化画像の色情報
と、前記元画像の色情報とを合成して前記元画像を更新
する、ように機能させるための情報と、を含むことを特
徴とする。
The game information according to claim 11 is the game information according to claim 8
Any of (a) to (c), wherein the device is configured to use the game image as the original image (for example, the image generation unit 420 of FIG. 10), and a plurality of smoothing generated by the smoothed image generating unit. Specifying means for specifying a part or all of an image (for example, the image generating unit 420 in FIG. 10);
To update the original image by synthesizing information for causing the synthesizing unit to combine the color information of the plurality of smoothed images relating to the specified portion with the color information of the original image. , And information for functioning as described above.

【0025】この請求項11記載の発明によれば、ゲー
ム画像の全体或いは一部のみにぼかしを施すことが可能
となる。
According to the eleventh aspect of the present invention, it is possible to blur all or part of the game image.

【0026】請求項12記載のゲーム情報は、請求項1
から10のいずれかにおいて、前記装置に対して、プレ
ーヤキャラクタの状態、存在位置、移動速度、及び環境
の内、少なくとも1つに応じて、前記ゲーム画像の一部
または全部を前記元画像とする手段、を機能させるため
の情報を含むことを特徴とする。
The game information according to claim 12 is the game information according to claim 1.
In any one of Items 1 to 10, a part or all of the game image is set as the original image according to at least one of a state, a position, a moving speed, and an environment of the player character with respect to the device. And means for causing the means to function.

【0027】また、請求項13記載のゲーム情報は、請
求項11において、前記特定手段に対して、プレーヤキ
ャラクタの状態、存在位置、移動速度、及び環境の内、
少なくとも1つに応じて、前記平滑化画像生成手段によ
り生成される複数の平滑化画像の一部または全部を特定
する、ように機能させるための情報を含むことを特徴と
する。
According to a thirteenth aspect of the present invention, the game information according to the eleventh aspect is provided, in accordance with the eleventh aspect, with respect to the state, the present position, the moving speed and the environment of the player character.
According to at least one of the plurality of smoothed images generated by the smoothed image generating unit, the information includes information for causing a part or all of the plurality of smoothed images to be specified.

【0028】ここで、プレーヤキャラクタの状態とは、
成長度や攻撃力、容体、或いは取得したアイテムといっ
た、プレーヤキャラクタに関するパラメータを意味する
ものであり、また存在位置とは、プレーヤキャラクタの
ゲーム空間内における配置位置やゲーム画面上の表示位
置を意味するものである。また、移動速度とは、上記存
在位置の時間的変化のことであり、更には、その移動速
度の時間的変化である加速度をも含む。また、環境と
は、ゲーム空間内の天候や、或いはプレーヤキャラクタ
が存するゲームステージといったことである。
Here, the state of the player character is
The parameters mean the parameters related to the player character, such as the degree of growth, offensive power, physical condition, or acquired items. The term “existing position” refers to the arrangement position of the player character in the game space and the display position on the game screen. Things. The moving speed is a temporal change of the above-mentioned position, and further includes an acceleration which is a temporal change of the moving speed. The environment is the weather in the game space or the game stage where the player character exists.

【0029】この請求項12または13記載の発明によ
れば、例えば、プレーヤキャラクタが気を失う状況にお
いて、画面全体にぼかしを施し、視界が霞んでいく様子
を表現することが可能となる。また、レーシングゲーム
等において、プレーヤが操作する車(或いはバイク、航
空機等)が急加速した際に、周囲の景色をぼかすことに
より、視覚的にG(加速度)を表し、視界が狭くなる様
子を表現することができる。更に、プレーヤキャラクタ
が洞窟から脱出した際に、画面全体にぼかしを施し、目
が明るさになれていないといった演出も可能である。
According to the twelfth or thirteenth aspect of the present invention, for example, in a situation where the player character is faint, it is possible to blur the entire screen and express a state in which the field of vision becomes hazy. Further, in a racing game or the like, when a car (or a motorcycle, an aircraft, or the like) operated by a player suddenly accelerates, by blurring the surrounding scenery, G (acceleration) is visually represented, and a situation in which the field of view narrows. Can be expressed. Furthermore, when the player character escapes from the cave, it is possible to perform an effect such that the entire screen is blurred and the eyes are not brightened.

【0030】請求項14記載のゲーム情報は、請求項1
から10のいずれかにおいて、前記装置に対して、前記
所与のゲームのゲーム空間における所与の光源に基づい
て、前記ゲーム画像の一部または全部を前記元画像とす
る手段(例えば、図10の画像生成部420)、を機能
させるための情報を含むことを特徴とする。
The game information according to claim 14 is the game information according to claim 1.
In any one of (a) to (d), the device is configured to provide the device with a part or all of the game image as the original image based on a given light source in a game space of the given game (for example, FIG. Of the image generation section 420).

【0031】また、請求項15記載のゲーム情報は、請
求項11において、前記特定手段に対して、前記所与の
ゲームのゲーム空間における所与の光源に基づいて、前
記平滑化画像生成手段により生成される複数の平滑化画
像の一部または全部を特定する、ように機能させるため
の情報を含むことを特徴とする。
[0031] The game information described in claim 15 may be arranged such that the game information is sent to the specific means by the smoothed image generating means based on a given light source in a game space of the given game. It is characterized by including information for causing a part or all of a plurality of smoothed images to be generated to function.

【0032】この請求項14または15記載の発明によ
れば、例えば、光源の位置やその光線方向に応じてぼか
しを施す領域を決定することにより、視線方向が光源で
ある太陽を向いた場合にゲーム画面全体にぼかしを施
し、まぶしさを表現することが可能となる。
According to the fourteenth or fifteenth aspect of the present invention, for example, the region to be blurred is determined according to the position of the light source and the direction of the light beam so that the line of sight is directed to the sun as the light source. By blurring the entire game screen, it is possible to express glare.

【0033】請求項16記載のゲーム情報は、請求項1
から10のいずれかにおいて、前記装置に対して、前記
所与のゲームのゲーム空間における所与のオブジェクト
の周辺画像を前記元画像とする手段(例えば、図10の
画像生成部420)、を機能させるための情報を含むこ
とを特徴とする。
The game information according to claim 16 is the game information according to claim 1.
Any one of (a) to (c), wherein the device has a function (for example, the image generation unit 420 in FIG. 10) of using a peripheral image of a given object in the game space of the given game as the original image. It is characterized by including information for causing the information to be transmitted.

【0034】また、請求項17記載のゲーム情報は、請
求項11において、前記特定手段に対して、前記所与の
ゲームのゲーム空間における所与のオブジェクトの周辺
画像を、前記平滑化画像生成手段により生成される複数
の平滑化画像内から特定する(例えば、実施形態におけ
る紗ポリゴンの特定)、ように機能させるための情報を
含むことを特徴とする。
According to a seventeenth aspect of the present invention, in the game device according to the eleventh aspect, the identification means is provided with a peripheral image of a given object in a game space of the given game and the smoothed image generation means. (For example, identification of a gauze polygon in the embodiment) from among a plurality of smoothed images generated by the method described above.

【0035】ここで、周辺画像とは、所与のオブジェク
トの画像をも含む意味である、即ち、所与の視点から見
た画像中の所与のオブジェクトとその周辺とがぼけるこ
ととなる。
Here, the peripheral image includes an image of a given object, that is, a given object and its periphery in an image viewed from a given viewpoint are blurred.

【0036】この請求項16または17記載の発明によ
れば、例えば、雨が強く当たっている路面の上の部分に
ぼかしを施すことによって、雨が降っている様子を表現
するなど、特定のオブジェクトにおける特定の自称をよ
りリアリステッィクに表現することが可能となる。
According to the invention of claim 16 or 17, for example, a specific object such as expressing a state of raining by blurring a portion on a road surface which is strongly hit by rain. It is possible to express a specific self-proclaimed character in a more realistic manner.

【0037】請求項18記載のゲーム情報は、請求項1
から10のいずれかにおいて、前記装置に対して、所与
の視点に基づいて前記ゲーム画像を生成する手段(例え
ば、図10の画像生成部420)と、前記所与の視点か
らの距離に基づいて、前記ゲーム画像の一部または全部
を前記元画像とする手段(例えば、図10の画像生成部
420)と、を機能させるための情報を含むことを特徴
とする。
The game information according to claim 18 is the game information according to claim 1
Or means for generating the game image based on a given viewpoint with respect to the device (for example, the image generation unit 420 in FIG. 10), and based on a distance from the given viewpoint. And means for causing a part (or all) of the game image to be the original image (for example, the image generation unit 420 in FIG. 10).

【0038】また、請求項19記載のゲーム情報は、請
求項11において、前記装置に対して、所与の視点に基
づいて前記ゲーム画像を生成する手段(例えば、図10
の画像生成部420)、を機能させるための情報と、前
記特定手段に対して、前記所与の視点からの距離に基づ
いて、前記平滑化画像生成手段により生成される複数の
平滑化画像の一部または全部を特定する、ように機能さ
せるための情報と、を含むことを特徴とする。
The game information according to the nineteenth aspect is the device according to the eleventh aspect, wherein the device generates the game image based on a given viewpoint with respect to the device (for example, FIG. 10).
Of the plurality of smoothed images generated by the smoothed image generating unit based on the information for causing the image generating unit 420 to function and the specifying unit based on the distance from the given viewpoint. And information for causing a part or all to be specified.

【0039】この請求項18または19記載の発明によ
れば、視点からの距離に応じて、ゲーム画像の任意の領
域にぼかしを施すことができる。例えば、Zバッファ法
によるZ値(奥行き値)を利用することにより、視点か
らより遠いところに存在するオブジェクトに強いぼかし
を施し、被写界深度的な表現が可能となる。
According to the invention of claim 18 or 19, an arbitrary area of the game image can be blurred according to the distance from the viewpoint. For example, by using a Z value (depth value) by the Z-buffer method, an object existing farther from the viewpoint is strongly blurred, and a depth of field expression is possible.

【0040】請求項20記載のゲーム情報は、請求項1
から10のいずれかにおいて、前記装置に対して、前記
所与のゲームのゲーム空間に注視点を設定する手段(例
えば、図10の画像生成部420)と、前記注視点から
の距離に基づいて、前記ゲーム画像の一部または全部を
前記元画像とする手段(例えば、図10の画像生成部4
20)と、を機能させるための情報を含むことを特徴と
する。
The game information according to claim 20 is the game information according to claim 1.
Any one of (a) to (c), the device sets a point of interest in the game space of the given game (for example, the image generation unit 420 in FIG. 10), and the device based on the distance from the point of interest. Means for setting a part or all of the game image as the original image (for example, the image generation unit 4 in FIG. 10).
20) is included.

【0041】また、請求項21記載のゲーム情報は、請
求項11において、前記装置に対して、前記所与のゲー
ムのゲーム空間に注視点を設定する手段(例えば、図1
0の画像生成部420)、を機能させるための情報と、
前記特定手段に対して、前記注視点からの距離に基づい
て、前記平滑化画像生成手段により生成される複数の平
滑化画像の一部または全部を特定する、ように機能させ
るための情報と、を含むことを特徴とする。
Further, the game information according to claim 21 is a device according to claim 11, wherein the apparatus sets a point of interest in the game space of the given game with respect to the device (for example, FIG. 1).
0 image generation unit 420),
For the identification means, based on the distance from the gazing point, to identify a part or all of the plurality of smoothed images generated by the smoothed image generating means, information to function as, It is characterized by including.

【0042】この請求項20または21記載の発明によ
れば、例えば、注視点との距離が一定範囲外に存在する
オブジェクトに対してぼかしを施すことができる。この
ことにより、被写界深度的な表現を実現することができ
る。
According to the twentieth or twenty-first aspect of the present invention, for example, blurring can be performed on an object whose distance from the point of regard is outside a certain range. This makes it possible to realize a depth-of-field expression.

【0043】請求項22記載のゲーム情報は、請求項1
から10のいずれかにおいて、前記装置に対して、前記
ゲーム画像の一部または全部を前記元画像とする手段
(例えば、図10の画像生成部420)、を機能させる
ための情報を含むことを特徴とする。
The game information according to claim 22 is the game information according to claim 1.
In any one of Items 1 to 10, the information including information for causing the device to function as a source image of part or all of the game image (for example, the image generation unit 420 in FIG. 10) is included. Features.

【0044】この請求項22記載の発明によれば、ゲー
ム画像の任意の領域にのみぼかしを施すことが可能とな
る。
According to the twenty-second aspect of the present invention, it is possible to blur only an arbitrary area of a game image.

【0045】請求項23記載のゲーム情報は、請求項1
から10のいずれかにおいて、前記装置に対して、前記
所与のゲームのリプレイシーンに係る画像を前記元画像
とする手段(例えば、図10の画像生成部420)、を
機能させるための情報を含むことを特徴とする。
The game information according to claim 23 is the game information according to claim 1.
In any one of Items 1 to 10, information for causing the device to function as a source image using an image relating to a replay scene of the given game (for example, the image generation unit 420 in FIG. 10) is provided. It is characterized by including.

【0046】この請求項23記載の発明によれば、例え
ば、レーシングゲーム等において、リプレイシーンにぼ
かしを施し、ゲーム画像の粗を目立たなくするといった
ことを可能とする。
According to the twenty-third aspect of the present invention, for example, in a racing game or the like, it is possible to blur the replay scene to make the game image less noticeable.

【0047】更に、請求項24記載の情報記憶媒体のよ
うに、請求項1から23のいずれかに記載のゲーム情報
を記憶することとしてもよい。
Further, the game information according to any one of claims 1 to 23 may be stored like an information storage medium according to claim 24.

【0048】この請求項24記載の発明によれば、請求
項1〜23記載の発明の効果を有する情報記憶媒体を実
現することが可能となる。
According to the invention described in claim 24, an information storage medium having the effects of the inventions described in claims 1 to 23 can be realized.

【0049】[0049]

【発明の実施の形態】以下、図を参照して、本発明をゲ
ーム装置に適用した場合の、実施の形態を詳細に説明す
る。また、本実施形態においては、元画像からぼかし画
像を生成し、この生成したぼかし画像と元画像とをα合
成することにより紗画像を生成する場合について説明す
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Referring to the drawings, an embodiment in which the present invention is applied to a game device will be described below in detail. In the present embodiment, a case will be described in which a blurred image is generated from an original image, and a gauze image is generated by α-combining the generated blurred image and the original image.

【0050】尚、α合成とは、透明度或いは不透明度に
基づく色情報の合成のことであり、本実施形態において
は、主にαの値を不透明度として扱うこととする。
It should be noted that α synthesis is synthesis of color information based on transparency or opacity, and in this embodiment, the value of α is mainly treated as opacity.

【0051】図1は、元画像の一例を示す図である。図
2は、図1の元画像より、それぞれ異なるぼかし度合い
で生成したぼかし画像の一例を示す図である。図2
(a)は紗レベル1、同図(b)は紗レベル2、そし
て、同図(c)は紗レベル3、のぼかし画像を、それぞ
れ示すものである。
FIG. 1 is a diagram showing an example of an original image. FIG. 2 is a diagram illustrating an example of blurred images generated at different blur levels from the original image of FIG. 1. FIG.
(A) shows a gauze level 1, FIG. (B) shows a gauze level 2, and FIG. (C) shows a gauze level 3 and a blurred image, respectively.

【0052】この紗レベルM(M=0,1,2,3,・
・)は、ぼかし度合いを表現するものであり、紗レベル
Mの値が大きいほど、ぼかし度合いが大きいぼかし画像
である。また、紗レベル0のぼかし画像は、ぼかし処理
を施していない画像であり、元画像そのものである。
This gauze level M (M = 0, 1, 2, 3,...
()) Expresses the degree of blurring, and is a blurred image in which the greater the value of the gauze level M, the greater the degree of blurring. Further, the blurred image of the gauze level 0 is an image that has not been subjected to the blurring process, and is the original image itself.

【0053】図3は、図1の元画像と、図2(c)のぼ
かし画像(紗レベル3)とを、それぞれ異なる合成比率
でα合成することにより生成した紗画像を、飛行機ゲー
ムのゲーム画面に適用した場合の一例を示す図である。
FIG. 3 shows a gauze image generated by α-combining the original image of FIG. 1 and the blurred image (gauze level 3) of FIG. It is a figure showing an example at the time of applying to a screen.

【0054】図3(a)は、ぼかし画像を0%(即ち、
元画像を100%)で、同図(b)は、ぼかし画像を5
0%(即ち、元画像を50%)で、そして、同図(c)
は、ぼかし画像を100%(即ち、元画像を0%)で、
それぞれ元画像に対してα合成することにより生成され
る紗画像を示す図である。このように、合成比率を変化
させることにより、異なる紗画像が生成される。
FIG. 3A shows that the blurred image is 0% (ie,
The original image is 100%), and FIG.
0% (that is, the original image is 50%), and FIG.
Is 100% for the blurred image (ie, 0% for the original image)
It is a figure which shows the gauze image produced | generated by (alpha) combining with an original image, respectively. Thus, by changing the combination ratio, different gauze images are generated.

【0055】また、ぼかし画像を0%で合成した紗画像
(図3(a))は、図1の元画像そのものであり、ぼか
し画像を100%で合成した紗画像(図3(c))は、
図2(c)のぼかし画像そのものである。
The gauze image obtained by synthesizing the blurred image at 0% (FIG. 3A) is the original image itself shown in FIG. 1, and the gauze image obtained by synthesizing the blurred image at 100% (FIG. 3C) Is
This is the blurred image itself of FIG.

【0056】尚、生成されるぼかし画像をぼけた画像そ
のものとして表現することは可能である。しかし、ぼか
し画像を生成する処理によって、元画像の輪郭(エッ
ジ)や線などが分かり難くなったり、色情報等が変更さ
れることによって元の色が判別でき難くなったりという
ことが生じる。更にこのことは、ぼかし度合いが高まる
に従って顕著になる。しかし、元画像と合成することに
より、このような問題を補正することが可能となる。
Note that it is possible to express the generated blurred image as a blurred image itself. However, the process of generating a blurred image may make it difficult to understand the outline (edge) or line of the original image, or may make it difficult to determine the original color by changing color information or the like. Furthermore, this becomes more pronounced as the degree of blur increases. However, by combining with the original image, such a problem can be corrected.

【0057】次に、画像平滑化処理により、元画像から
ぼかし画像を生成する原理について、説明する。図4
は、画像平滑化処理の概要を示す図であり、同図(a)
は、紗レベル1のぼかし画像を生成する場合を示してい
る。
Next, the principle of generating a blurred image from an original image by an image smoothing process will be described. FIG.
FIG. 3A is a diagram showing an outline of an image smoothing process, and FIG.
Shows a case in which a blur image of gauze level 1 is generated.

【0058】尚、以降の説明中において、画像を“縮
小”する、或いは“拡大”するとは、「画像の解像度を
変更することにより、画像サイズを変更する」という意
味である。即ち、例えば、600ppiの画像を、単に小
さくしたり大きくしたりするのではなく、600ppiの
解像度を300ppiにすることによって画像本来のサイ
ズを小さくしたり、300ppiの解像度を600ppiにす
ることによって、画像本来のサイズを大きくする、とい
う意味である。
In the following description, “reducing” or “enlarging” an image means “changing the image size by changing the resolution of the image”. That is, for example, instead of simply reducing or enlarging an image of 600 ppi, the original size of the image is reduced by setting the resolution of 600 ppi to 300 ppi, or by changing the resolution of 300 ppi to 600 ppi. This means increasing the original size.

【0059】図4(a)において、まず、元画像を縮小
した画像A,Bを生成する。この画像A,Bは、元画像
を、縦・横それぞれ1/2にした画像であり、そのサイ
ズは、元画像の1/4となる。また、生成される画像
A,Bは、異なる標本点のため、それぞれに異なる画像
である。この点については、画像の縮小方法の詳細と併
せて後述する。
In FIG. 4A, first, images A and B obtained by reducing the original image are generated. The images A and B are images obtained by reducing the original image in both the vertical and horizontal directions by 1/2, and the size thereof is 1/4 of the original image. The generated images A and B are different images because of different sample points. This point will be described later together with details of the image reduction method.

【0060】次いで、画像A,Bを拡大した画像A’,
B’を生成する。この画像A’,B’は、画像A,B
を、縦・横それぞれに2倍にした画像であり、そのサイ
ズは、画像A,Bの4倍、即ち元画像と同サイズとな
る。尚、画像の拡大方法の詳細については、後述する。
Next, images A ', which are obtained by enlarging images A and B,
B ′ is generated. The images A 'and B' are
Is doubled vertically and horizontally, and its size is four times that of the images A and B, that is, the same size as the original image. The details of the image enlargement method will be described later.

【0061】そして、画像A’,B’を等比率でα合成
し、元画像と同サイズのぼかし画像を生成する。尚、画
像のα合成の詳細については、後述する。このように作
成されたぼかし画像が、図2(a)に示すような、紗レ
ベル1のぼかし画像である。
Then, the images A ′ and B ′ are α-combined at an equal ratio to generate a blurred image having the same size as the original image. The details of the α synthesis of the image will be described later. The blurred image created in this way is a shade level 1 blurred image as shown in FIG.

【0062】このように、元画像より異なる2つの縮小
画像を生成し、これらの縮小画像をα合成してぼかし画
像を生成する、という画像平滑化処理により、よりぼか
し度合いが大きいぼかし画像を、容易に生成することが
できる。また、これらの縮小画像に対する処理も、色情
報の合成でよいために、簡単な演算処理で済むという利
点がある。
As described above, by performing the image smoothing process of generating two reduced images different from the original image and α-synthesizing these reduced images to generate a blurred image, a blurred image having a higher degree of blurring is obtained. Can be easily generated. In addition, since processing for these reduced images can be performed by combining color information, there is an advantage that simple arithmetic processing is sufficient.

【0063】そして、最後に、元画像と、この元画像よ
り生成されるぼかし画像とを、所定の合成比率でα合成
することにより、紗画像を生成する。例えば、元画像と
ぼかし画像との合成比率を、1:1とした場合(即ち、
ぼかし画像の合成比率を50%とした場合)には、図3
(b)に示すような紗画像が生成され、また、0:1と
した場合(即ち、ぼかし画像の合成比率を100%とし
た場合)には、図3(c)に示すような紗画像が生成さ
れる。
Finally, a gauze image is generated by α-combining the original image and the blurred image generated from the original image at a predetermined combination ratio. For example, when the composition ratio of the original image and the blurred image is 1: 1 (ie,
In the case where the composition ratio of the blurred image is 50%), FIG.
When a gauze image as shown in FIG. 3B is generated and the ratio is set to 0: 1 (that is, when the synthesis ratio of the blurred image is 100%), a gauze image as shown in FIG. Is generated.

【0064】次に、画像のα合成について、説明する。
例えば、α合成がαブレンディングである場合には、次
式のように、画像Xと画像Yとが合成され、画像Zが生
成される。 Rz=(1−α)×Rx+α×Ry …(1−a) Gz=(1−α)×Gx+α×Gy …(1−b) Bz=(1−α)×Bx+α×By …(1−c) ここで、Rx、Gx、Bxは、画像Xの色(輝度)のR
GB成分(Rx、Gx、Bx)であり、また、Ry、G
y、Byは、画像Yの色(輝度)のRGB成分(Ry、
Gy、By)である。そして、Rz、Gz、Bzは、α
ブレンディング(α合成)により生成される画像Zの色
(輝度)のRGB成分(Rz、Gz、Bz)である。ま
た、αは、画像Yの不透明度を表し、0.0≦α≦1.
0、の範囲で設定される値である。
Next, the description will be made of the α-synthesis of an image.
For example, when the α synthesis is α blending, the image X and the image Y are synthesized and the image Z is generated as in the following equation. Rz = (1-α) × Rx + α × Ry (1-a) Gz = (1-α) × Gx + α × Gy (1-b) Bz = (1-α) × Bx + α × By (1-c) Here, Rx, Gx, and Bx are R (color) of the image X.
GB components (Rx, Gx, Bx), and Ry, G
y and By are RGB components (Ry, Ry,
Gy, By). Rz, Gz, and Bz are α
RGB components (Rz, Gz, Bz) of the color (luminance) of the image Z generated by blending (α synthesis). Α represents the opacity of the image Y, and 0.0 ≦ α ≦ 1.
This is a value set in the range of 0.

【0065】例えば、図4(a)において、画像A’,
B’のα合成は等比率で行われる(即ち、α=0.5で
ある)ので、生成されるぼかし画像の色のRGB(R、
G、B)成分は、以下のようになる。 R=0.5×Ra+0.5×Rb G=0.5×Ga+0.5×Gb B=0.5×Ba+0.5×Bb ここで、Ra、Ga、Baは、画像A’の色のRGB成
分(Ra、Ga、Ba)であり、また、Rb、Gb、B
bは、画像B’の色のRGB成分(Rb、Gb、Bb)
である。
For example, in FIG. 4A, images A ′,
Since the α synthesis of B ′ is performed at an equal ratio (that is, α = 0.5), the RGB (R, R,
G, B) components are as follows. R = 0.5 × Ra + 0.5 × Rb G = 0.5 × Ga + 0.5 × Gb B = 0.5 × Ba + 0.5 × Bb Here, Ra, Ga, and Ba are RGB of the color of the image A ′. Components (Ra, Ga, Ba), and Rb, Gb, B
b is the RGB component (Rb, Gb, Bb) of the color of the image B ′
It is.

【0066】また、本実施形態においては、バイリニア
・フィルタリングの画素データの補間機能を利用した画
像平滑化処理により、縮小画像或いは拡大画像の生成を
行う。ゲーム装置等の画像生成装置においては、再近隣
内挿法や共一次内挿法(いわゆるバイリニア・フィルタ
リング)、三次畳み込み内挿法(いわゆるトライリニア
・フィルタリング)といった内挿画素データ演算処理
が、ハードウェアの機能として実現されている場合があ
る。そのような場合には、上記画像平滑化処理をより高
速に実現することが可能である。
Further, in this embodiment, a reduced image or an enlarged image is generated by an image smoothing process using an interpolation function of pixel data of bilinear filtering. In an image generation device such as a game device, interpolation pixel data arithmetic processing such as nearest neighbor interpolation, bilinear interpolation (so-called bilinear filtering), and cubic convolution interpolation (so-called trilinear filtering) is performed by hardware. It may be implemented as a function of hardware. In such a case, it is possible to realize the image smoothing process at higher speed.

【0067】バイリニア・フィルタリングについて説明
する。図5は、既存の画素(T1、T2、T3、及びT
4)と、バイリニア・フィルタリングにより内挿される
画素(P)との関係を示す図である。図5(a)に示す
ように、内挿される画素(サンプリング点)Pの色CP
は、Pの周りの画素T1〜T4の色を補間した色とな
る。
Next, bilinear filtering will be described. FIG. 5 illustrates the existing pixels (T1, T2, T3, and T3).
FIG. 4 is a diagram illustrating a relationship between 4) and a pixel (P) interpolated by bilinear filtering. As shown in FIG. 5A, the color CP of the interpolated pixel (sampling point) P
Is a color obtained by interpolating the colors of the pixels T1 to T4 around P.

【0068】具体的には、T1〜T4の座標とPの座標
とに基づき、x軸方向の座標比β:1−β(0≦β≦
1)と、y軸方向の座標比γ:1−γ(0≦γ≦1)
と、を求める。そして、Pの色CP(バイリニア・フィ
ルタリングでの出力色)は、次式のようになる。 CP=(1−β)×(1−γ)×CT1+β×(1−γ)×CT2 +(1−β)×γ×CT3+β×γ×CT4 …(2)
Specifically, based on the coordinates of T1 to T4 and the coordinate of P, the coordinate ratio β: 1−β (0 ≦ β ≦
1) and the coordinate ratio γ: 1−γ in the y-axis direction (0 ≦ γ ≦ 1)
And ask. Then, the color CP of P (output color in bilinear filtering) is represented by the following equation. CP = (1-β) × (1-γ) × CT1 + β × (1-γ) × CT2 + (1-β) × γ × CT3 + β × γ × CT4 (2)

【0069】また、図5(b)に示すように、β=γ=
1/2となる場合には、内挿される画素Pの色CPは、
次式のようになる。 CP=(CT1+CT2+CT3+CT4)/4 …(3) 本実施形態においては、上式(3)を利用して縮小画像
或いは拡大画像を生成し、画像平滑化処理を実行する。
As shown in FIG. 5B, β = γ =
When it is と, the color CP of the interpolated pixel P is
It becomes like the following formula. CP = (CT1 + CT2 + CT3 + CT4) / 4 (3) In the present embodiment, a reduced image or an enlarged image is generated by using the above equation (3), and an image smoothing process is performed.

【0070】尚、α合成は、上記のαブレンディングに
限るものではなく、α加算、α減算、半透明処理等の手
法も考えられる。
The .alpha. Synthesis is not limited to the .alpha. Blending described above, but techniques such as .alpha. Addition, .alpha. Subtraction, and translucent processing are also conceivable.

【0071】図6は、図4を用いて説明した紗画像の生
成を、フレームバッファを利用することで実現する様子
を示す図である。
FIG. 6 is a diagram showing how the generation of the gauze image described with reference to FIG. 4 is realized by using a frame buffer.

【0072】フレームバッファとは、表示画面上に表示
される、60/1秒、もしくは30/1秒(1フレー
ム)毎の画像を格納するメモリのことである。本実施形
態においては、このフレームバッファを2つ用い、1フ
レームに係る全体の画像を格納するものをフレームバッ
ファFA、ぼかし画像等の本発明の処理として用いるも
のをフレームバッファFBとして説明する。
The frame buffer is a memory for storing an image displayed every 60/1 seconds or 30/1 seconds (one frame) displayed on the display screen. In the present embodiment, a description will be given of a frame buffer FA that uses two frame buffers and stores an entire image of one frame as a frame buffer FB, and a frame buffer FB that uses blurred images and the like as processing of the present invention.

【0073】図6において、フレームバッファFAには
元画像Xが描画されており、この元画像Xの頂点座標
(x,y)を、それぞれ、フレームバッファFAの
(0,0)、(2n,0)、(2n,2n)、(0,2
n)とする。そして、元画像Xを、バイリニア・フィル
タリングの補間機能を利用することにより、フレームバ
ッファFBに描画し、縮小画像(画像A,B)を生成す
る。
In FIG. 6, the original image X is drawn in the frame buffer FA, and the vertex coordinates (x, y) of the original image X are represented by (0, 0), (2n, 0), (2n, 2n), (0, 2
n). Then, the original image X is drawn in the frame buffer FB by using the interpolation function of bilinear filtering, and reduced images (images A and B) are generated.

【0074】具体的には、まず、元画像Xをフレームバ
ッファFBに描画する際に、フレームバッファFBの座
標(xa,ya)=(0,0)、(n,0)、(n,
n)、(0,n)に与える頂点座標を、それぞれ、フレ
ームバッファFAの(0,0)、(2n,0)、(2
n,2n)、(0,2n)と設定する。
More specifically, first, when drawing the original image X in the frame buffer FB, the coordinates (xa, ya) of the frame buffer FB = (0, 0), (n, 0), (n,
The vertex coordinates given to (n) and (0, n) are (0,0), (2n, 0), (2) in the frame buffer FA, respectively.
n, 2n) and (0, 2n).

【0075】すると、図7に示すように、式(3)に基
づき、縮小画像(画像A)が生成される。ここで、補間
により内挿される画素の色CA[u,v]は、次式のよう
に決定される。 CA[u,v]=(CX[2u,2v]+CX[2u+1,2v] +CX[2u,2v+1]+CX[2u+1,2v+1])/4 …(4) ただし、u,v=0,1,・・,n−1、である。ま
た、[u,v]は、当該画像における画素の位置を示し、
CX[u,v]は、元画像Xの画素位置[u,v]に対応する
画素の色である。即ち、上式(4)によると、内挿され
る画素の色CA[u,v]は、その周囲の4画素の色(即
ち、CX[2u,2v]、CX[2u+1,2v]、CX[2u,2v+
1]、そしてCX[2u+1,2u+1])の平均値により決定さ
れる。
Then, as shown in FIG. 7, a reduced image (image A) is generated based on equation (3). Here, the color CA [u, v] of the pixel interpolated by interpolation is determined as in the following equation. CA [u, v] = (CX [2u, 2v] + CX [2u + 1,2v] + CX [2u, 2v + 1] + CX [2u + 1,2v + 1]) / 4 (4) where u , V = 0, 1,..., N−1. [U, v] indicates the position of a pixel in the image,
CX [u, v] is the color of the pixel corresponding to the pixel position [u, v] of the original image X. That is, according to the above equation (4), the color CA [u, v] of the interpolated pixel is the color of the surrounding four pixels (that is, CX [2u, 2v], CX [2u + 1,2v], CX [2u, 2v +
1], and the average value of CX [2u + 1, 2u + 1]).

【0076】このように、元画像Xの4画素毎の色の平
均値を、画像Aの1画素の色とすることにより、縦・横
をそれぞれ1/2(即ち、サイズを1/4)に縮小した
画像A(縮小画像)が、フレームバッファFBに描画
(生成)されることとなる。
As described above, by setting the average value of the colors of the four pixels of the original image X to the color of one pixel of the image A, the vertical and horizontal widths are each 1 / (that is, the size is 1 /). Is drawn (generated) in the frame buffer FB.

【0077】更に、図6において、元画像Xをフレーム
バッファFBに描画する際に、フレームバッファFBの
座標(xb,yb)=(0,n)、(n,n)、(n,
2n)、(0,2n)に与える頂点座標を、それぞれ、
フレームバッファFAの(−1,−1)、(2n−1,
−1)、(2n−1,2n−1)、(−1,2n−1)
と設定する。すると、図7に示すように、自動的に色の
補間が行われ、同様に、画像B(縮小画像)が描画(生
成)される。
Further, in FIG. 6, when the original image X is drawn in the frame buffer FB, the coordinates (xb, yb) of the frame buffer FB = (0, n), (n, n), (n, n)
2n) and the vertex coordinates given to (0, 2n)
(−1, −1), (2n−1,
-1), (2n-1,2n-1), (-1,2n-1)
Set as Then, as shown in FIG. 7, color interpolation is automatically performed, and an image B (reduced image) is similarly drawn (generated).

【0078】ここで、補間により挿入される画素の色C
B[u,v]は、式(3)に基づき、次式のように決定さ
れる。 CB[u,v]=(CX[2u-1,2v-1]+CX[2u,2v-1] +CX[2u-1,2v]+CX[2u,2v])/4 …(5) ただし、u,v=0,1,・・,n−1、である。ま
た、CX[u,v]は、元画像Xの画素の色である。即
ち、上式(5)によると、内挿される画素の色CB[u,
v]は、標本点となるその周囲の4画素の色(即ち、C
X[2u-1,2v-1]、CX[2u,2v-1]、CX[2u-1,2v
2]、そしてCX[2u,2v])の平均値により決定され
る。
Here, the color C of the pixel inserted by interpolation
B [u, v] is determined as in the following equation based on equation (3). CB [u, v] = (CX [2u-1,2v-1] + CX [2u, 2v-1] + CX [2u-1,2v] + CX [2u, 2v]) / 4 (5) where u , V = 0, 1,..., N−1. CX [u, v] is the color of the pixel of the original image X. That is, according to the above equation (5), the color CB [u,
v] is the color of the four pixels surrounding the sample point (ie, C
X [2u-1,2v-1], CX [2u, 2v-1], CX [2u-1,2v
2], and the average value of CX [2u, 2v]).

【0079】また、式(5)において、標本点となる画
素の位置が、画像Bの領域外となる場合があるが、その
際には、その再近隣に位置する画素の色を、標本点とな
る画素の色として採用することとする。例えば、CX
[-1,-1]にはCX[0,0]を、また、CX[2,-1]には
CX[2,0]を、それぞれ採用するといった具合であ
る。
In equation (5), the position of a pixel serving as a sample point may be outside the area of the image B. In this case, the color of a pixel located in the immediate vicinity is changed to the sample point. Is adopted as the color of the pixel. For example, CX
For example, CX [0,0] is adopted for [-1, -1], and CX [2,0] is adopted for CX [2, -1].

【0080】このように、元画像Xの4画素毎の色の平
均値を、画像Bの1画素の色とすることにより、縦・横
をそれぞれ1/2(即ち、サイズを1/4)に縮小した
画像B(縮小画像)が、フレームバッファFBに描画
(生成)されることとなる。
As described above, by setting the average value of the colors of the four pixels of the original image X to the color of one pixel of the image B, the length and width are each reduced to 1 / (that is, the size is reduced to 4). Is rendered (generated) in the frame buffer FB.

【0081】また、式(4)と式(5)とでは標本点が
異なるため、フレームバッファFBに描画(生成)され
る画像A,Bは、それぞれ異なる画像となる。
Further, since the sampling points are different between Expressions (4) and (5), the images A and B drawn (generated) in the frame buffer FB are different images.

【0082】更に、元画像における左右方向及び上下方
向に異なる位置に標本点が設定されるため、ゲーム画像
のような動画において、奇異な画像となることがない。
例えば、左右方向にのみ異なる位置に標本点を設定した
場合、最終的に生成される画像は、左右方向のみをより
平滑化した画像となり、上下方向に対しては平滑化の度
合いが低い画像となる。そのため、元画像(ゲーム画
像)中に表された物体が上下方向に滑らかに移動したと
しても、結果的に、コマ送りのような画像として生成さ
れるおそれがある。また、上下方向のみに異なる位置に
標本点を設定した場合も同様のことが考えられる。しか
し、左右方向及び上下方向に異なる位置に標本点を設定
することにより、このような不具合を解決することがで
きる。
Further, since sample points are set at different positions in the left-right direction and the up-down direction in the original image, strange images are not generated in a moving image such as a game image.
For example, if sample points are set at different positions only in the horizontal direction, the finally generated image will be an image obtained by smoothing only the horizontal direction, and an image having a low degree of smoothing in the vertical direction. Become. Therefore, even if the object represented in the original image (game image) moves smoothly in the up-down direction, there is a possibility that an image such as frame-by-frame is eventually generated. The same can be considered when sample points are set at different positions only in the vertical direction. However, such problems can be solved by setting sample points at different positions in the horizontal direction and the vertical direction.

【0083】続いて、図6において、これらの縮小画像
(画像A,B)を拡大し、それぞれの拡大画像を元画像
とα合成することにより、紗画像(元画像とぼかし画像
とのα合成により生成)を生成する。まず、フレームバ
ッファFBに描画されている画像Aを拡大し、拡大画像
とフレームバッファFAに既に描画されている元画像X
とを、所定の合成比率でα合成し、合成画像を、フレー
ムバッファFAに描画する。
Subsequently, in FIG. 6, these reduced images (images A and B) are enlarged, and each enlarged image is α-combined with the original image to form a gauze image (α combination of the original image and the blurred image). Is generated). First, the image A drawn in the frame buffer FB is enlarged, and the enlarged image and the original image X already drawn in the frame buffer FA are enlarged.
Are combined at a predetermined combination ratio, and the combined image is drawn in the frame buffer FA.

【0084】具体的には、バイリニア・フィルタリング
の補間機能を利用することにより、画像Aから拡大画像
を生成する。画像AをフレームバッファFAに描画(α
合成)する際に、フレームバッファFAの座標(x,
y)=(0,0)、(2n,0)、(2n,2n)、
(0,2n)に与える頂点座標を、それぞれ、フレーム
バッファFBの(0,0)、(n,0)、(n,n)、
(0,n)と設定する。
Specifically, an enlarged image is generated from the image A by utilizing the interpolation function of bilinear filtering. Draw image A in frame buffer FA (α
At the time of synthesis, the coordinates (x,
y) = (0,0), (2n, 0), (2n, 2n),
The vertex coordinates given to (0, 2n) are (0, 0), (n, 0), (n, n),
(0, n).

【0085】このことにより、図8に示すように、式
(3)に基づき、拡大画像(画像Z)が生成される。こ
こで、補間により内挿される画素の色CZ[2u,2v]、
CZ[2u+1,2v]、CZ[2u,2v+1]、及びCZ[2u+1,2
v+1]は、次式のように決定される。 CZ[2u,2v] =(CA[u-1,v-1]+CA[u,v-1] +CA[u-1,v]+CA[u,v])/4 …(6−a) CZ[2u+1,2v] =(CA[u,v-1]+CA[u+1,v-1] +CA[u,v]+CA[u+1,v])/4 …(6−b) CZ[2u,2v+1] =(CA[u-1,v]+CA[u,v] +CA[u-1,v-1]+CA[u,v-1])/4 …(6−c) CZ[2u+1,2v+1]=(CA[u,v]+CA[u+1,v] +CA[u,v+1]+CA[u+1,v+1])/4 …(6−d) ただし、u,v=0,1,・・,n−1、である。ま
た、CA[u,v]は、画像Aの画素の色である。即ち、
上式(6−a)〜(6−d)によると、内挿される画素
CZ[u,v]の色は、その周囲の4画素の色(即ち、C
A[u-1,v-1]、CA[u,v-1]、CA[u-1,v]、そし
てCA[u,v])の平均値により決定される。
As a result, as shown in FIG. 8, an enlarged image (image Z) is generated based on equation (3). Here, the pixel color CZ [2u, 2v] interpolated by interpolation,
CZ [2u + 1,2v], CZ [2u, 2v + 1], and CZ [2u + 1,2
v + 1] is determined as follows. CZ [2u, 2v] = (CA [u-1, v-1] + CA [u, v-1] + CA [u-1, v] + CA [u, v]) / 4 (6-a) CZ [2u + 1,2v] = (CA [u, v-1] + CA [u + 1, v-1] + CA [u, v] + CA [u + 1, v]) / 4 (6-b) CZ [2u, 2v + 1] = (CA [u-1, v] + CA [u, v] + CA [u-1, v-1] + CA [u, v-1]) / 4 (6-c ) CZ [2u + 1,2v + 1] = (CA [u, v] + CA [u + 1, v] + CA [u, v + 1] + CA [u + 1, v + 1]) / 4 (4) 6-d) where u, v = 0, 1,..., N−1. CA [u, v] is the color of the pixel of the image A. That is,
According to the above equations (6-a) to (6-d), the color of the interpolated pixel CZ [u, v] is the color of the surrounding four pixels (that is, C
A [u-1, v-1], CA [u, v-1], CA [u-1, v], and CA [u, v]).

【0086】以上のように、バイリニア・フィルタリン
グの補間機能を利用することにより、容易に、縮小画像
或いは拡大画像の生成を行うことができる。
As described above, by utilizing the interpolation function of bilinear filtering, a reduced image or an enlarged image can be easily generated.

【0087】このように、画像Aより、縦・横をそれぞ
れ2倍(即ち、サイズを4倍)に拡大した画像が生成さ
れる。そして、この拡大画像と、フレームバッファFA
に既に描画されている元画像Xと、をα合成し、合成画
像を、フレームバッファFAに描画することで、元画像
Xを更新する。以下、この更新された元画像の符号を
X’とする。
As described above, an image is generated from the image A in which the vertical and horizontal dimensions are each doubled (ie, the size is quadrupled). Then, the enlarged image and the frame buffer FA
The original image X is updated by α-combining the original image X and the original image already drawn on the frame buffer FA. Hereinafter, the code of the updated original image is X ′.

【0088】また、フレームバッファFBに描画されて
いる画像Bについても同様に、拡大画像とフレームバッ
ファFAに既に描画されている元画像X’とを、所定の
合成比率でα合成し、フレームバッファFAに描画す
る。
Similarly, for the image B drawn in the frame buffer FB, the enlarged image and the original image X ′ already drawn in the frame buffer FA are α-combined at a predetermined combination ratio, and the frame buffer Draw on FA.

【0089】以上の処理をおこなうことで、最終的に、
フレームバッファFAに描画される画像は、元画像X
と、画像Aを拡大した画像と、画像Bを拡大した画像
と、をα合成した紗画像となる。また、この紗画像は、
紗レベル1のぼかし画像と元画像とをα合成した場合の
紗画像に相当する。
By performing the above processing, finally,
The image drawn in the frame buffer FA is the original image X
, And an image obtained by enlarging the image A and an image obtained by enlarging the image B are α-combined. In addition, this gauze image,
This corresponds to a gauze image when the blur image of gauze level 1 and the original image are α-combined.

【0090】尚、実際には、上記画像A,Bの拡大とα
合成処理は、フレームバッファFAの1画素毎に実行さ
れるものである。即ち、フレームバッファFAの画素毎
に、画像Aから、バイリニア・フィルタリングを利用す
ることによりその色を決定する。そして、この色が決定
された画素と、既に描画されている元画像Xの対応する
画素とを、所定の合成比率でα合成し、生成される画像
データを、フレームバッファFAの当該画素に描画す
る。そして、フレームバッファFAの画素毎に、この描
画処理を繰り返すことにより、画像Aの拡大画像と元画
像Xとの合成画像が、フレームバッファFAに描画され
ることとなる。また、画像Bについても、同様の処理を
行う。
Actually, enlargement of the images A and B and α
The combining process is performed for each pixel of the frame buffer FA. That is, the color of each pixel of the frame buffer FA is determined from the image A by using bilinear filtering. Then, the pixel whose color has been determined and the corresponding pixel of the original image X that has already been drawn are α-synthesized at a predetermined synthesis ratio, and the generated image data is drawn in the pixel of the frame buffer FA. I do. Then, by repeating this drawing process for each pixel of the frame buffer FA, a composite image of the enlarged image of the image A and the original image X is drawn in the frame buffer FA. The same processing is performed for the image B.

【0091】従って、上記拡大画像は、実際にフレーム
バッファFAに描画される(上書きされる)ものではな
く、拡大画像の生成と同時に、元画像X(或いは元画像
X’)とα合成される。即ち、最終的にフレームバッフ
ァFAに描画された画像が、紗画像となる。
Therefore, the enlarged image is not actually drawn (overwritten) in the frame buffer FA, but is synthesized with the original image X (or original image X ') at the same time as the enlarged image is generated. . That is, the image finally drawn on the frame buffer FA becomes a gauze image.

【0092】また、上記元画像Xと画像A、画像X’と
画像B、のα合成の合成比率は、元画像Xとぼかし画像
との合成比率に基づいて、決定される。
Further, the combination ratio of the α combination of the original image X and the image A and the image X ′ and the image B is determined based on the combination ratio of the original image X and the blurred image.

【0093】例えば、図4(a)において、画像Aの拡
大画像A’と画像Bの拡大画像B’とを等比率でα合成
する。そして、生成されたぼかし画像と元画像Xとを、
等比率でα合成するとする。この場合については、ま
ず、画像Aと元画像Xとの合成比率が1:2となるよう
に、画像Aを、元画像Xに対して33%でα合成(描
画)する。続いて、画像Bと元画像X’との合成比率を
1:3になるように、画像Bを、元画像X’に対して2
5%でα合成(描画)する。このことにより、元画像X
に対してぼかし画像を50%でα合成した紗画像が生成
(描画)されることとなる。
For example, in FIG. 4A, an enlarged image A ′ of the image A and an enlarged image B ′ of the image B are α-combined at an equal ratio. Then, the generated blurred image and the original image X are
It is assumed that α is synthesized at an equal ratio. In this case, first, the image A is α-combined (drawn) at 33% with respect to the original image X such that the composition ratio between the image A and the original image X is 1: 2. Subsequently, the image B is compared with the original image X ′ by 2 so that the composition ratio of the image B and the original image X ′ is 1: 3.
Perform α synthesis (drawing) at 5%. As a result, the original image X
Then, a gauze image is generated (drawn) in which the blurred image is α-combined at 50%.

【0094】以上のように、元画像の解像度を一旦縮減
させた後、元の解像度に戻すという一連の処理により、
画像平滑化処理が実行される。即ち、画素データを間引
くことにより解像度を一旦落とし、その後、縮減された
解像度の画素データを複写することにより解像度を上げ
るといった処理により、画像平滑化処理を容易且つ簡単
に実現することとなる。
As described above, a series of processes of once reducing the resolution of the original image and then returning to the original resolution,
An image smoothing process is performed. That is, the image smoothing process is easily and easily realized by a process of temporarily reducing the resolution by thinning out the pixel data and then increasing the resolution by copying the pixel data having the reduced resolution.

【0095】また、上記説明においては、画像平滑化処
理を実行することにより、紗レベル1のぼかし画像を生
成し、このぼかし画像と元画像Xとをα合成して紗画像
を生成する場合について説明したが、それ以上の紗レベ
ルM(M=2,3,・・)、即ちより平滑化度合いが高
い場合についても、同様に実現できる。
In the above description, the case where a blurred image of the gauze level 1 is generated by executing the image smoothing process, and the blurred image and the original image X are α-synthesized to generate a gauze image. As described above, the same can be realized for a higher gauze level M (M = 2, 3,...), That is, a case where the smoothing degree is higher.

【0096】例えば、図4(a)において、画像A,B
を再度縮小することにより、更にぼかし度合いが大き
い、紗レベル2のぼかし画像を生成できる。即ち、図4
(b)に示すように、画像A,Bそれぞれについて再度
縮小を行い、画像Aを縮小した画像C,D、画像Bを縮
小した画像E,F、をそれぞれ生成する。画像CとD、
画像EとFは、標本点が異なるため、それぞれ異なる画
像である。また、これらの画像C〜Fは、画像A,B
を、縦・横それぞれ1/2にした画像であり、そのサイ
ズ(面積)は、画像A,Bの1/4であり、元画像の1
/16となる。
For example, in FIG.
Is reduced again, it is possible to generate a blurred image of gauze level 2, which has a higher degree of blurring. That is, FIG.
As shown in (b), the images A and B are reduced again to generate images C and D obtained by reducing the image A and images E and F obtained by reducing the image B, respectively. Images C and D,
The images E and F are different images because the sample points are different. These images C to F are images A and B
Is an image in which each of the vertical and horizontal directions is reduced to そ れ ぞ れ, and the size (area) is 4 of the images A and B, and is 1
/ 16.

【0097】次に、これらの画像C〜Fを、それぞれ縦
・横ともに2倍に拡大し、元画像のサイズの1/4とな
る、画像C’,D’,E’,F’を生成する。そして、
画像C’,D’を等比率でα合成し、画像A’を生成す
る。また、画像E’,F’についても同様に、等比率で
α合成し、画像B’を生成する。この画像A’,B’
は、画像A,Bと同サイズであり、元画像の1/4のサ
イズである。
Next, these images C to F are doubled both vertically and horizontally to generate images C ′, D ′, E ′, and F ′ that are 1 / of the size of the original image. I do. And
The images C ′ and D ′ are α-combined at equal ratios to generate an image A ′. Similarly, the images E ′ and F ′ are α-synthesized at the same ratio to generate an image B ′. This image A ', B'
Is the same size as the images A and B, and is 1 / the size of the original image.

【0098】更に、この画像A’,B’を、それぞれ縦
・横ともに2倍に拡大し、元画像と同サイズの画像
A”,B”を生成する。最後に、画像A”,B”を等比
率でα合成することにより、ぼかし画像を生成する。こ
のように生成されるぼかし画像が、図2(b)に示すぼ
かし画像(紗レベル2)である。
Further, the images A 'and B' are enlarged twice in both the vertical and horizontal directions to generate images A "and B" having the same size as the original image. Finally, a blurred image is generated by α-combining the images A ″ and B ″ at the same ratio. The blurred image generated in this way is the blurred image (shape level 2) shown in FIG.

【0099】また、再度縮小画像(画像C〜F)に対す
る縮小を繰り返すことにより、更にぼかしの度合いが大
きいぼかし画像を生成することができる。
Further, by repeating the reduction for the reduced images (images C to F) again, it is possible to generate a blurred image having a higher degree of blurring.

【0100】図9は、元画像と、この元画像より生成さ
れる縮小画像と、の関係を示す図である。同図に示すよ
うに、元画像をルートとする階層構造で表現され、ま
た、階層の深さが、紗レベルMに相当することとなる。
FIG. 9 is a diagram showing the relationship between an original image and a reduced image generated from the original image. As shown in the figure, it is expressed in a hierarchical structure with the original image as the root, and the depth of the hierarchy corresponds to the gauze level M.

【0101】以上説明したように、紗レベルMに応じ
て、より強くぼかした(平滑化)された画像を迅速に生
成することができる。また、元画像とぼかし画像との合
成比率を変化させることにより、任意の度合いでぼかし
を施した画像(紗画像)を生成することができる。
As described above, a strongly blurred (smoothed) image can be quickly generated according to the gauze level M. Also, by changing the synthesis ratio between the original image and the blurred image, it is possible to generate an image (shape image) blurred to an arbitrary degree.

【0102】また、ぼかし画像の描画と画像の合成とを
同時に実行することにより、紗画像の生成に必要なメモ
リ容量は、最大でも2つのフレームバッファ分のみで済
む。例えば、図9に示すように、紗レベルMを大きくす
る、即ち平滑化度合いを大きくすることにより生成され
る縮小画像は、図11に示すように、フレームバッファ
Bに描画される。この図11において、フレームバッフ
ァA,Bは、図6のフレームバッファFA,FBそれぞ
れに相当するものであり、画像Aがscr[2]に、画
像Bがscr[3]に、対応する。そして、画像Aを更
に縮小することにより生成された画像C,Dは、それぞ
れ、図11におけるフレームバッファBのscr
[4],scr[5]に描画され、また、画像Bを縮小
することにより生成される画像E,Fも同様に、図11
におけるフレームバッファBのscr[6],scr
[7]に描画される。
Further, by simultaneously executing the drawing of the blurred image and the synthesis of the image, the memory capacity required for generating the gauze image is required to be at most two frame buffers. For example, as shown in FIG. 9, a reduced image generated by increasing the gauze level M, that is, increasing the degree of smoothing, is drawn in the frame buffer B as shown in FIG. In FIG. 11, the frame buffers A and B correspond to the frame buffers FA and FB in FIG. 6, respectively. The image A corresponds to scr [2], and the image B corresponds to scr [3]. The images C and D generated by further reducing the image A are stored in the scr of the frame buffer B in FIG.
Images E and F, which are drawn on [4] and scr [5] and are generated by reducing the image B, are similarly shown in FIG.
[6], scr of frame buffer B at
It is drawn in [7].

【0103】このように、以降、紗レベルMを大きくす
ることにより生成される縮小画像は、フレームバッファ
B(FB)の未使用の領域に描画されるため、結局、紗
画像の生成に必要なフレームバッファは、2つで済むこ
ととなる。
As described above, since the reduced image generated by increasing the gauze level M is drawn in an unused area of the frame buffer B (FB), it is necessary to generate the gauze image after all. Only two frame buffers are required.

【0104】図10は、本発明を適用したゲーム装置の
機能ブロックを示す図である。同図に示すように、機能
ブロックは、操作部100、表示部300、処理部40
0及び記憶部500により構成される。
FIG. 10 is a diagram showing functional blocks of a game device to which the present invention is applied. As shown in the figure, the functional blocks include an operation unit 100, a display unit 300, a processing unit 40
0 and the storage unit 500.

【0105】操作部100は、プレーヤが操作データを
入力するためのものである。その機能は、レバー、ボタ
ン、筐体などのハードウェアにより実現できる。また、
ボタン押下等の操作がされた場合には、操作信号を処理
部400に出力する。
The operation section 100 is for the player to input operation data. The function can be realized by hardware such as a lever, a button, and a housing. Also,
When an operation such as pressing a button is performed, an operation signal is output to the processing unit 400.

【0106】表示部300は、処理部400内の画像生
成部420により生成されたゲーム画像などを表示す
る。プレーヤは、表示部300に表示されるゲーム画像
を見ながら、操作部100より、ゲーム進行に応じた操
作データ(指示、選択)を入力する。
The display unit 300 displays a game image and the like generated by the image generation unit 420 in the processing unit 400. The player inputs operation data (instruction, selection) according to the game progress from the operation unit 100 while watching the game image displayed on the display unit 300.

【0107】処理部400は、上記操作信号と、記憶部
500に記憶されたゲームを実行するためのゲームプロ
グラム510等に基づいて、ゲームの進行処理や、得点
演算処理、ゲーム画像の生成処理等を行う。この処理部
400の機能は、CPU(SISC型、RISC型)、
DSP、ASIC(ゲートアレイ等)、メモリ等のハー
ドウェアにより実現できる。また、処理部400には、
ゲーム演算部410と、画像生成部420と、が含まれ
る。
The processing section 400 is based on the operation signal and the game program 510 for executing the game stored in the storage section 500, etc., for processing the game, calculating the score, generating the game image, etc. I do. The function of this processing unit 400 is a CPU (SISC type, RISC type),
It can be realized by hardware such as a DSP, an ASIC (such as a gate array), and a memory. Further, the processing unit 400 includes:
The game calculation unit 410 and the image generation unit 420 are included.

【0108】ゲーム演算部410は、プレーヤキャラク
タや敵キャラクタといったオブジェクトの配置位置を決
定してゲーム空間を設定する処理や、そのゲーム空間中
に視点(仮想カメラ)を設定する処理、ゲームプログラ
ム510に従ったゲームの進行処理等を行う。
The game calculation section 410 determines a position of an object such as a player character or an enemy character to set a game space, sets a viewpoint (virtual camera) in the game space, and performs processing for the game program 510. The game progress processing and the like according to the game are performed.

【0109】画像生成部420は、ゲーム演算部410
によりオブジェクトが配置されたゲーム空間を、視点
(仮想カメラ)から見たゲーム画像として生成する処理
等を行う。より具体的に説明すると、ゲーム空間内に配
置されているオブジェクトの代表点や、そのオブジェク
トを構成するポリゴンの頂点座標(ワールド座標系で表
現されている)等を、視点座標系に変換する。そして、
レンダリング処理を行うことにより画像データを生成
し、生成した画像データを、フレームバッファ(A)5
50に格納する処理を行う。
The image generating section 420 has a game operation section 410
For example, processing for generating a game space in which objects are arranged as a game image viewed from a viewpoint (virtual camera) is performed. More specifically, a representative point of an object arranged in the game space, vertex coordinates (expressed in a world coordinate system) of polygons constituting the object, and the like are converted to a viewpoint coordinate system. And
Image data is generated by performing a rendering process, and the generated image data is stored in a frame buffer (A) 5.
A process for storing the data in the storage 50 is performed.

【0110】また、画像生成部420には、縮小画像生
成部421と、紗画像生成部422と、が含まれ、フレ
ームバッファ(A)550に格納された元画像に対し
て、画像平滑化処理を行ってぼかし画像を生成するとと
もに、紗画像を生成する処理を行う。
The image generation section 420 includes a reduced image generation section 421 and a gauze image generation section 422, and performs image smoothing processing on the original image stored in the frame buffer (A) 550. Is performed to generate a blurred image, and a process of generating a gauze image is performed.

【0111】縮小画像生成部421は、フレームバッフ
ァ(A)550に描画されている元画像を、バイリニア
・フィルタリングを利用してフレームバッファ(B)5
50に描画することにより、紗レベルMまで縮小した画
像を生成する。
The reduced image generation unit 421 converts the original image drawn in the frame buffer (A) 550 into a frame buffer (B) 5 using bilinear filtering.
By drawing on 50, an image reduced to the gauze level M is generated.

【0112】紗画像生成部422は、縮小画像生成部4
21により、フレームバッファ(B)550に描画され
た縮小画像からぼかし画像を生成するとともに、このぼ
かし画像とフレームバッファ(A)550に格納されて
いる元画像とをα合成して、紗画像としてフレームバッ
ファ(A)550を更新する。
The gauze image generation unit 422 includes the reduced image generation unit 4
In step 21, a blurred image is generated from the reduced image drawn in the frame buffer (B) 550, and the blurred image and the original image stored in the frame buffer (A) 550 are α-combined as a gauze image Update the frame buffer (A) 550.

【0113】記憶部500は、ゲームの実行に関わるゲ
ームプログラム510と、図12に示すメイン処理を実
行するためのメインプログラム520と、図13に示す
縮小画像生成処理を実行するための縮小画像生成プログ
ラム530と、図14に示す紗画像生成処理を実行する
ための紗画像生成プログラム540と、を記憶する。ま
た、記憶部500は、フレームバッファ550と、一時
記憶部560を含む。
The storage section 500 stores a game program 510 relating to the execution of the game, a main program 520 for executing the main processing shown in FIG. 12, and a reduced image generation for executing the reduced image generation processing shown in FIG. A program 530 and a gauze image generation program 540 for executing the gauze image generation processing shown in FIG. 14 are stored. Further, storage unit 500 includes a frame buffer 550 and a temporary storage unit 560.

【0114】フレームバッファ550は、少なくとも2
つのフレームバッファA,Bにより構成されており、そ
れぞれ、1フレーム分の画像データを保持する容量のメ
モリから構成されている。一時記憶部560は、処理部
400或いは処理部400に含まれる各部が、各種処理
を実行する際の作業領域として使用されるものである。
The frame buffer 550 has at least two
It is composed of two frame buffers A and B, each composed of a memory having a capacity to hold image data for one frame. The temporary storage unit 560 is used as a work area when the processing unit 400 or each unit included in the processing unit 400 executes various processes.

【0115】記憶部500の機能は、CD−ROM、ゲ
ームカセット、ICカード、MO、FD、DVD、ハー
ドディスク、メモリなどのハードウェアにより実現でき
る。処理部400は、この記憶部500から読み出すプ
ログラム、データに基づいて種々の処理を行う。
The function of the storage section 500 can be realized by hardware such as a CD-ROM, game cassette, IC card, MO, FD, DVD, hard disk, and memory. The processing unit 400 performs various processes based on the program and data read from the storage unit 500.

【0116】図11は、フレームバッファ550の構成
を示す図であり、フレームバッファA、Bそれぞれに
は、同図に示すように、scr[i](i=1,2,・
・)の領域に画像が描画される。また、このフレームバ
ッファA,Bは、図6に示したフレームバッファFA,
Bに相当するものであり、同図においては、画像Aがs
cr[2]に、画像Bがscr[3]に、それぞれ描画
される。
FIG. 11 is a diagram showing the structure of the frame buffer 550. As shown in FIG. 11, scr [i] (i = 1, 2,.
・ An image is drawn in the area of ()). The frame buffers A and B correspond to the frame buffers FA and FA shown in FIG.
B, and in FIG.
The image B is drawn on cr [2] and the image B is drawn on scr [3].

【0117】図12は、元画像から紗画面を生成するた
めの、メイン処理を説明するフローチャートである。こ
の処理は、画像生成部420により、1フレーム分の画
像データを生成し、フレームバッファ(A)550に格
納した後に、記憶部500内のメインプログラム520
に従って実行される処理である。
FIG. 12 is a flowchart illustrating a main process for generating a gauze screen from an original image. In this processing, the image generation unit 420 generates image data for one frame, stores the image data in the frame buffer (A) 550, and then stores the main program 520 in the storage unit 500.
Is a process executed in accordance with

【0118】同図において、まず、画像生成部420
は、縮小画像生成部421に、後述する縮小画像生成処
理(図13参照)を実行させる(ステップS1)。この
縮小画像生成処理により、図11に示すように、scr
[2]〜scr[2m+1−1]には、元画像を紗レベル
Mまで縮小することにより生成された画像が描画され
る。
In the figure, first, the image generation unit 420
Causes the reduced image generation unit 421 to execute a reduced image generation process (see FIG. 13) described later (step S1). By this reduced image generation processing, as shown in FIG.
In [2] to scr [2 m + 1 -1], an image generated by reducing the original image to the gauze level M is drawn.

【0119】例えば、紗レベル1であれば、フレームバ
ッファBには、scr[2]〜scr[3]が、紗レベ
ル2であれば、scr[2]〜scr[7]が、また、
紗レベル3であれば、scr[2]〜scr[15]
が、それぞれ描画されることとなる。
For example, if the gauze level is 1, scr [2] to scr [3] are stored in the frame buffer B. If the gauze level is 2, scr [2] to scr [7] are stored.
For gauze level 3, scr [2] to scr [15]
Are rendered respectively.

【0120】次いで、画像生成部420は、紗画像生成
部422に、後述する紗画像生成処理(図14参照)を
実行させる(ステップS2)。この紗画像生成処理によ
り、元画像にぼかしを施した紗画像が、scr[1]
(フレームバッファA)に描画されることとなる。
Next, the image generation unit 420 causes the gauze image generation unit 422 to execute a gauze image generation process (see FIG. 14) described later (step S2). By this gauze image generation processing, the gauze image obtained by blurring the original image is represented by scr [1]
(Frame buffer A).

【0121】即ち、紗レベルMのぼかし画像と元画像と
を、所定の合成比率でα合成することにより生成された
紗画像が、scr[1](フレームバッファA)に描画
される。例えば、元画像に対してぼかし画像を0%でα
合成する場合には、図3(a)に示すような紗画像が、
50%でα合成する場合には、同図(b)に示すような
紗画像が、また、100%でα合成する場合には、同図
(c)に示すような紗画像が、それぞれscr[1]
(フレームバッファA)に描画されることとなる。
That is, a gauze image generated by α-combining the blurred image of the gauze level M and the original image at a predetermined combination ratio is drawn in scr [1] (frame buffer A). For example, if the blurred image is 0% with respect to the original image, α
In the case of combining, a gauze image as shown in FIG.
When alpha synthesis is performed at 50%, a gauze image as shown in FIG. 4B is obtained, and when alpha synthesis is performed at 100%, a gauze image as shown in FIG. [1]
(Frame buffer A).

【0122】最後に、画像生成部420は、フレームバ
ッファA(scr[1])に描画されている紗画像を、
表示部300に表示させ(ステップS3)、本メイン処
理を終了する。
Finally, the image generation section 420 converts the gauze image drawn in the frame buffer A (scr [1]) into
The display is displayed on the display unit 300 (step S3), and the main process ends.

【0123】図13は、上述したメイン処理(図12参
照)のステップS1において実行される、縮小画像生成
処理を説明するフローチャートである。この処理は、縮
小画像生成部421により、記憶部500内の縮小画像
生成プログラム530に従って実行されるサブルーチン
処理である。
FIG. 13 is a flowchart for explaining the reduced image generation processing executed in step S1 of the above-described main processing (see FIG. 12). This process is a subroutine process executed by the reduced image generation unit 421 according to the reduced image generation program 530 in the storage unit 500.

【0124】同図において、最初に、縮小画像生成部4
21は、現レベルmの値を“0”と設定する(ステップ
S11)。そして、現レベルmが、紗レベルM未満であ
る場合(ステップS12:YES)、変数iの値を2m
に、変数jの値を2m+1に、それぞれ設定する(ステッ
プS13)。
In the figure, first, the reduced image generation unit 4
21 sets the value of the current level m to "0" (step S11). If the current level m is less than the gauze level M (step S12: YES), the value of the variable i is set to 2 m
Is set to 2 m + 1 (step S13).

【0125】すると、縮小画像生成部421は、scr
[i]に描画されている画像を、図7を参照して説明し
たように、式(3)に基づくバイリニア・フィルタリン
グにより、scr[j]、scr[j+1]それぞれに
描画する(ステップS14)。即ち、scr[i]のサ
イズを1/4に縮小した画像が生成(描画)されること
となる。
Then, the reduced image generation unit 421 sets the scr
As described with reference to FIG. 7, the image drawn in [i] is drawn in each of scr [j] and scr [j + 1] by bilinear filtering based on Expression (3) (step S14). . That is, an image in which the size of scr [i] is reduced to 1/4 is generated (drawn).

【0126】その後、iの値を+1,jの値を+2する
(ステップS15)。そして、iの値が、2m+1未満で
あれば(ステップS16:YES)、縮小画像生成部4
22は、ステップS14に処理を移行し、同様の処理を
繰り返す。
Thereafter, the value of i is incremented by 1 and the value of j is incremented by 2 (step S15). If the value of i is less than 2 m + 1 (step S16: YES), the reduced image generation unit 4
In step 22, the process proceeds to step S14, and the same process is repeated.

【0127】このことにより、フレームバッファBに
は、現レベル(m+1)まで縮小された画像が、描画さ
れることとなる。
As a result, an image reduced to the current level (m + 1) is drawn in the frame buffer B.

【0128】また、iの値が、2m+1以上であれば(ス
テップS16:NO)、縮小画像生成部421は、現レ
ベルmを+1して(ステップS17)、ステップS12
に処理を移行する。そして、次のレベル(m+1)につ
いても同様の処理を繰り返し実行する。
If the value of i is equal to or greater than 2 m + 1 (step S16: NO), the reduced image generation unit 421 increments the current level m by 1 (step S17), and proceeds to step S12.
The processing shifts to. Then, the same processing is repeatedly executed for the next level (m + 1).

【0129】また、上記処理中に、現レベルmが紗レベ
ルMに一致した場合、即ち紗レベルM未満でない場合に
は(ステップS12:NO)、縮小画像生成部421
は、紗レベルMまで縮小された画像が、フレームバッフ
ァBに描画されたものと判断し、本処理を終了する。
If the current level m matches the gauze level M during the above processing, that is, if the current level m is not less than the gauze level M (step S12: NO), the reduced image generation unit 421
Determines that the image reduced to the gauze level M has been drawn in the frame buffer B, and ends this processing.

【0130】図14は、上述のメイン処理(図12参
照)のステップS2において実行される、紗画像生成処
理を説明するフローチャートである。この処理は、紗画
像生成部422により、記憶部500内の紗画像生成プ
ログラム540に従って実行されるサブルーチン処理で
ある。
FIG. 14 is a flowchart for explaining the gauze image generation processing executed in step S2 of the above-described main processing (see FIG. 12). This process is a subroutine process executed by the gauze image generation unit 422 in accordance with the gauze image generation program 540 in the storage unit 500.

【0131】同図において、最初に、紗画像生成部42
2は、現レベルmの値を、紗レベル“M”と設定する
(ステップS21)。そして、現レベルmが、“2”以
上である場合(ステップS22:YES)、紗画像生成
部422は、変数iの値を2mに、変数jの値を2
m+1に、それぞれ設定する(ステップS23)。
In the figure, first, a gauze image generation unit 42
2 sets the value of the current level m to the gauze level "M" (step S21). If the current level m is equal to or greater than “2” (step S22: YES), the gauze image generation unit 422 sets the value of the variable i to 2 m and the value of the variable j to 2
to m + 1, respectively set (step S23).

【0132】次いで、紗画像生成部422は、scr
[i]に描画されている画像を、図8を参照して説明し
たように、式(3)に基づくバイリニア・フィルタリン
グにより、scr[j]に描画(重ね描き)する。続い
て、紗画像生成部422は、scr[i+1]に描画さ
れている画像を、図8において説明したように、式
(3)に基づくバイリニア・フィルタリングにより、s
cr[j]に対して、等比率でα合成するとともに描画
する(ステップS24)。このことにより、scr
[i]とscr[i+1]とに描画されている画像を等
比率でα合成した画像が、scr[j]に描画されるこ
ととなる。
Next, the gauze image generation unit 422 generates the scr
As described with reference to FIG. 8, the image drawn in [i] is drawn (overlaid) on scr [j] by bilinear filtering based on Expression (3). Subsequently, the gauze image generation unit 422 converts the image drawn in scr [i + 1] into s by bilinear filtering based on Expression (3) as described in FIG.
α is synthesized at the same ratio with respect to cr [j] and rendered (step S24). This allows the scr
An image obtained by α-combining the images drawn on [i] and scr [i + 1] at the same ratio is drawn on scr [j].

【0133】その後、紗画像生成部422は、iの値を
+1,jの値を+2する(ステップS25)。そして、
iの値が、2m未満であれば(ステップS26:YE
S)、紗画像生成部422は、ステップS24に処理を
移行し、同様の処理を繰り返す。
Thereafter, the gauze image generator 422 increments the value of i by +1 and the value of j by +2 (step S25). And
If the value of i is less than 2 m (step S26: YE
S), the gauze image generation unit 422 shifts the processing to step S24, and repeats the same processing.

【0134】また、iの値が、2m以上であれば(ステ
ップS26:NO)、紗画像生成部422は、現レベル
mを−1する(ステップS27)。そして、ステップS
22に処理を移行し、次のレベル(m−1)についても
同様の処理を繰り返し実行する。
If the value of i is 2 m or more (step S26: NO), the gauze image generation unit 422 decrements the current level m by one (step S27). And step S
The process shifts to 22 and the same process is repeatedly executed for the next level (m-1).

【0135】また、上記処理中に、現レベルmが“2”
未満になった場合には(ステップS22:NO)、紗画
像生成部422は、scr[2]に描画されている画像
を、図8を参照して説明したように、式(3)に基づく
バイリニア・フィルタリングにより、scr[1]に、
所定の合成比率でα合成するとともに描画する(ステッ
プS28)。そして、scr[3]に描画されている画
像についても同様に、図8を参照して説明したように、
式(3)に基づくバイリニア・フィルタリングにより、
scr[1]に、所定の合成比率でα合成するとともに
描画する(ステップS29)。
During the above processing, the current level m is “2”.
If the value is less than (Step S22: NO), the gauze image generation unit 422 converts the image drawn in scr [2] based on Expression (3) as described with reference to FIG. By bilinear filtering, to scr [1],
A combination is performed at a predetermined combination ratio and the drawing is performed (step S28). Then, similarly, the image drawn in the scr [3], as described with reference to FIG.
By bilinear filtering based on equation (3),
α is synthesized and drawn on scr [1] at a predetermined synthesis ratio (step S29).

【0136】ここで、scr[2](或いはscr
[3])に描画されている画像と、scr[1]に描画
されている画像との合成比率は、上述したように、元画
像とぼかし画像との合成比率に基づいて、決定される。
以上の処理を行うと、紗画像生成部422は、本処理を
終了する。
Here, scr [2] (or scr [2]
As described above, the combination ratio of the image drawn in [3]) and the image drawn in scr [1] is determined based on the combination ratio of the original image and the blurred image.
After performing the above processing, the gauze image generation unit 422 ends this processing.

【0137】次に、本実施の形態を実現できるハードウ
ェアの構成の一例について、図15を参照して説明す
る。同図に示す装置では、CPU1000、ROM10
02、RAM1004、情報記憶媒体1006、音生成
IC1008、画像生成IC1010、I/Oポート1
012、1014が、システムバス1016により相互
にデータ入出力可能に接続されている。そして画像生成
IC1010には表示装置1018が接続され、音生成
IC1008にはスピーカ1020が接続され、I/O
ポート1012にはコントロール装置1022が接続さ
れ、I/Oポート1014には通信装置1024が接続
されている。
Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG. In the device shown in FIG.
02, RAM 1004, information storage medium 1006, sound generation IC 1008, image generation IC 1010, I / O port 1
012 and 1014 are connected to each other via a system bus 1016 so that data can be input and output. The display device 1018 is connected to the image generation IC 1010, the speaker 1020 is connected to the sound generation IC 1008, and the I / O
The control device 1022 is connected to the port 1012, and the communication device 1024 is connected to the I / O port 1014.

【0138】情報記憶媒体1006は、各種プログラ
ム、表示物を表現するための画像データ、音データ、プ
レイデータ等を主に格納するものであり、主に図10に
示す記憶部500の機能部に相当するものである。例え
ば家庭用ゲーム装置では、図10におけるゲームプログ
ラム510、メインプログラム520、縮小画像生成プ
ログラム530、紗画像生成プログラム540や各種処
理プログラム等を格納する記憶部500としてCD−R
OM、ゲームカセット、DVD等が用いられる。また、
パーソナルコンピュータではCD−ROM、DVD、ハ
ードディスクなどが用いられる。更に、業務用ゲーム装
置ではROM等のメモリやハードディスクが用いられ、
この場合には情報記憶媒体1006はROM1002に
なる。
The information storage medium 1006 mainly stores various programs, image data for expressing a display object, sound data, play data, and the like. The information storage medium 1006 is mainly stored in the functional units of the storage unit 500 shown in FIG. It is equivalent. For example, in a home-use game device, a CD-R is used as the storage unit 500 for storing the game program 510, the main program 520, the reduced image generation program 530, the shade image generation program 540, various processing programs, and the like in FIG.
OMs, game cassettes, DVDs and the like are used. Also,
A personal computer uses a CD-ROM, DVD, hard disk, or the like. Further, in the arcade game device, a memory such as a ROM or a hard disk is used,
In this case, the information storage medium 1006 becomes the ROM 1002.

【0139】コントロール装置1022はゲームコント
ローラ、操作パネル等に相当するものであり、プレーヤ
がゲーム進行に応じて行う判断の結果を装置本体に入力
するための装置である。このコントロール装置1022
は、図10の操作部100の機能部に該当する。
[0139] The control device 1022 corresponds to a game controller, an operation panel, and the like, and is a device for inputting a result of a determination made by a player in accordance with the progress of a game to the main body of the device. This control device 1022
Corresponds to the functional unit of the operation unit 100 in FIG.

【0140】情報記憶媒体1006に格納される各種プ
ログラムやデータ、ROM1002に格納されるシステ
ムプログラム(装置本体の初期化情報等)、コントロー
ル装置1022によって入力される信号等に従って、C
PU1000は装置全体の制御や各種データ処理を行
う。RAM1004はこのCPU1000の作業領域と
して用いられる記憶手段であり、記憶部500のフレー
ムバッファ550と一時記憶部560とに相当し、1フ
レーム分の画像データやプレイデータが一時的に格納さ
れたり、情報記憶媒体1006やROM1002の所与
の内容、或いはCPU1000の演算結果等が格納され
る。RAM1004は、上述した図10の一時記憶部5
60に該当するものである。
According to various programs and data stored in the information storage medium 1006, system programs (initialization information of the apparatus main body) stored in the ROM 1002, signals input by the control apparatus 1022, etc.
The PU 1000 controls the entire apparatus and performs various data processing. The RAM 1004 is a storage unit used as a work area of the CPU 1000, and corresponds to the frame buffer 550 and the temporary storage unit 560 of the storage unit 500, and temporarily stores one frame of image data and play data, The predetermined contents of the storage medium 1006 and the ROM 1002 or the calculation results of the CPU 1000 are stored. The RAM 1004 stores the temporary storage unit 5 of FIG.
This corresponds to 60.

【0141】更に、この種の装置には音生成IC100
8と画像生成IC1010とが設けられていてゲーム音
やゲーム画像の好適な出力が行えるようになっている。
音生成IC1008は情報記憶媒体1006やROM1
002に記憶される情報に基づいて効果音やバックグラ
ウンド音等のゲーム音を生成する集積回路であり、生成
されたゲーム音はスピーカ1020によって出力され
る。また、画像生成IC1010は、RAM1004、
ROM1002、情報記憶媒体1006等から送られる
画像情報に基づいて表示装置1018に出力するための
画像信号を生成する集積回路である。
Further, this type of device includes a sound generation IC 100
8 and an image generation IC 1010 are provided so that suitable output of game sounds and game images can be performed.
The sound generation IC 1008 includes the information storage medium 1006 and the ROM 1
This is an integrated circuit that generates game sounds such as sound effects and background sounds based on the information stored in 002, and the generated game sounds are output by the speaker 1020. The image generation IC 1010 includes a RAM 1004,
An integrated circuit that generates an image signal to be output to the display device 1018 based on image information sent from the ROM 1002, the information storage medium 1006, and the like.

【0142】表示装置1018は、CRTやLCD、T
V、プラズマディスプレイ、プロジェクタ等により実現
される。この表示装置1018は、図10の表示部30
0の機能部に該当するものである。
The display device 1018 is a CRT, LCD, T
V, a plasma display, a projector, and the like. This display device 1018 corresponds to the display unit 30 shown in FIG.
0 corresponds to the functional unit.

【0143】また、通信装置1024は、ゲーム装置内
部で利用する各種の情報を外部とやり取りするものであ
り、他のゲーム装置と接続されてゲームプログラム51
0に応じた所与の情報を送受したり、通信回線を介して
ゲームプログラム510等の情報を送受すること等に利
用される。
The communication device 1024 exchanges various types of information used inside the game device with the outside. The communication device 1024 is connected to another game device and communicates with the game program 51.
It is used for transmitting / receiving given information corresponding to 0, transmitting / receiving information of the game program 510 or the like via a communication line, and the like.

【0144】そして、図1〜図9を用いて説明した各種
処理は、図12のフローチャートに示したメインプログ
ラム520、図13のフローチャートに示した縮小画像
生成プログラム530、及び図14のフローチャートに
示した紗画像生成プログラム540、を格納した情報記
憶媒体1006と、フレームバッファ550に相当する
RAM1004と、該プログラムに従って動作するCP
U1000、画像生成IC1010、音生成IC100
8等によって実現される。
The various processes described with reference to FIGS. 1 to 9 are shown in the main program 520 shown in the flowchart of FIG. 12, the reduced image generation program 530 shown in the flowchart of FIG. 13, and the flowchart shown in FIG. An information storage medium 1006 storing a gauze image generation program 540, a RAM 1004 corresponding to a frame buffer 550, and a CP operating according to the program.
U1000, image generation IC 1010, sound generation IC 100
8 and the like.

【0145】CPU1000及び画像生成IC1010
は、図10の処理部400に該当するものであり、主に
CPU1000がゲーム演算部410に、また、画像生
成ICが画像生成部420に該当する。なお画像生成I
C1010、音生成IC1008等で行われる処理は、
CPU1000或いは汎用のDSP等によりソフトウェ
ア的に行ってもよい。この場合には、CPU1000が
処理部400に該当することとなる。
CPU 1000 and Image Generation IC 1010
Corresponds to the processing unit 400 in FIG. 10. The CPU 1000 mainly corresponds to the game calculation unit 410, and the image generation IC corresponds to the image generation unit 420. Image generation I
The processing performed by the C1010, the sound generation IC 1008, etc.
The processing may be performed by software using the CPU 1000 or a general-purpose DSP. In this case, the CPU 1000 corresponds to the processing section 400.

【0146】次に、図16(a)に、本実施形態を業務
用ゲーム装置に適用した場合の例を示す。プレーヤは、
ディスプレイ1100上に映し出されたゲーム画像を見
ながら、レバー1102、ボタン1104等を操作して
ゲームを楽しむ。内蔵されるシステムボード(サーキッ
トボード)1106には、各種プロセッサ、各種メモリ
などが実装される。そして、本発明を実行するための情
報(プログラム、データ)は、システムボード1106
上の情報記憶媒体であるメモリ1108に格納される。
以下、この情報を格納情報と呼ぶ。
Next, FIG. 16A shows an example in which the present embodiment is applied to an arcade game device. The player
The user enjoys the game by operating the lever 1102, the button 1104, etc. while watching the game image projected on the display 1100. Various processors, various memories, and the like are mounted on a built-in system board (circuit board) 1106. Information (program, data) for executing the present invention is stored in the system board 1106.
The information is stored in the memory 1108 as the information storage medium.
Hereinafter, this information is referred to as storage information.

【0147】同図(b)に、本実施形態を家庭用のゲー
ム装置に適用した場合の例を示す。プレーヤはディスプ
レイ1200に映し出されたゲーム画像を見ながら、ゲ
ームコントローラ1202,1204を操作してゲーム
を楽しむ。この場合、上記格納情報は、本体装置に着脱
自在な情報記憶媒体であるCD(DVD)1206、或
いはメモリカード1208、1209等に格納されてい
る。
FIG. 14B shows an example in which the present embodiment is applied to a home game machine. The player enjoys the game by operating the game controllers 1202 and 1204 while watching the game image projected on the display 1200. In this case, the storage information is stored in a CD (DVD) 1206, a memory card 1208, 1209, or the like, which is an information storage medium detachable from the main unit.

【0148】同図(c)に、ホスト装置1300と、こ
のホスト装置1300とネットワーク1302(LAN
のような小規模ネットワークやインターネットのような
広域ネットワーク)を介して接続される端末1304−
1〜1304−nとを含むシステムに、本実施形態を適
用した場合の例を示す。この場合、上記格納情報は、例
えばホスト装置1300が制御可能な磁気ディスク装
置、磁気テープ装置、メモリ等の情報記憶媒体1306
に格納されている。端末1304−1〜1304−n
が、スタンドアロンでゲーム画像、ゲーム音を生成でき
るものである場合には、ホスト装置1300からは、ゲ
ーム画像、ゲーム音を生成するためのゲームプログラム
510などが端末1304−1〜1304−nに配信さ
れる。一方、スタンドアロンで生成できない場合には、
ホスト装置1300がゲーム画像、ゲーム音を生成し、
これを端末1304−1〜1304−nに伝送すること
により端末において出力することとなる。
FIG. 17C shows a host device 1300, a host device 1300 and a network 1302 (LAN).
1304 connected via a small-scale network such as the Internet or a wide-area network such as the Internet.
An example in which the present embodiment is applied to a system including 1 to 1304-n will be described. In this case, the stored information is, for example, an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a memory that can be controlled by the host device 1300.
Is stored in Terminals 1304-1 to 1304-n
However, when a game image and a game sound can be generated stand-alone, a game program 510 for generating a game image and a game sound is distributed from the host device 1300 to the terminals 1304-1 to 1304-n. Is done. On the other hand, if it cannot be generated standalone,
The host device 1300 generates a game image and a game sound,
By transmitting this to the terminals 1304-1 to 1304-n, the terminal outputs.

【0149】なお、図16(c)の構成の場合に、本発
明の各処理を、ホスト装置(サーバ)と端末と分散して
実行するようにしてもよい。また、本発明の各処理を実
行するための上記格納情報を、ホスト装置(サーバ)の
情報記憶媒体と端末の情報記憶媒体に分散して格納する
ようにしてもよい。
In the case of the configuration shown in FIG. 16C, each processing of the present invention may be executed by distributing the processing between the host device (server) and the terminal. Further, the storage information for executing each process of the present invention may be distributed and stored in an information storage medium of a host device (server) and an information storage medium of a terminal.

【0150】また、ネットワークに接続する端末は、家
庭用ゲーム装置であってもよいし業務用ゲーム装置であ
ってもよい。そして、業務用ゲーム装置をネットワーク
に接続する場合には、業務用ゲーム装置との間で情報の
やりとりが可能であるとともに家庭用ゲーム装置との間
でも情報のやりとりが可能な携帯型情報記憶装置(メモ
リカード、携帯型ゲーム装置)を使用可能なように構成
してもよい。
The terminal connected to the network may be a home game device or a business game device. When the arcade game device is connected to a network, the portable information storage device is capable of exchanging information with the arcade game device and exchanging information with the home game device. (A memory card, a portable game device) may be used.

【0151】尚、本発明は、上記実施の形態の内容に限
定されるものではなく、本発明の主旨を逸脱しない範囲
で適宜変更可能である。
It should be noted that the present invention is not limited to the contents of the above-described embodiment, and can be appropriately changed without departing from the gist of the present invention.

【0152】例えば、図6において、フレームバッファ
FAの元画像を、フレームバッファFBの画像A(或い
は画像B)に描画する際に、フレームバッファFBの座
標(0,0)に設定する座標を、フレームバッファFA
の座標(0,0)(或いは(1−1,−1))とした
が、設定するフレームバッファFAの座標値は、これに
限るものではない。
For example, in FIG. 6, when the original image of the frame buffer FA is drawn on the image A (or image B) of the frame buffer FB, the coordinates set to the coordinates (0, 0) of the frame buffer FB are as follows: Frame buffer FA
(0, 0) (or (1-1, -1)), but the coordinate value of the frame buffer FA to be set is not limited to this.

【0153】また、元画像より生成する縮小画像の数
も、“2”に限るものではなく、それ以上の数であって
も構わない。しかし、生成する縮小画像は異なることが
望ましいため、標本点の位置を変更する、即ち、設定す
るフレームバッファFAの座標値をそれぞれ異ならしめ
る必要がある。
Further, the number of reduced images generated from the original image is not limited to “2”, but may be more. However, since it is desirable that the reduced images to be generated are different, it is necessary to change the positions of the sample points, that is, to change the coordinate values of the frame buffer FA to be set.

【0154】また、本実施形態においては、バイリニア
・フィルタリングの補間機能を利用して、画像平滑化処
理を行うものとしたが、他の画素データの内挿方法、例
えば、トライリニア・フィルタリング(3次畳み込み内
挿法)を利用することもできる。3次畳み込み内挿法と
は、内挿したい点の画像データを、その点の周囲16個
の画像データを標本点として用い、畳み込み関数によっ
て求めるものである。
In this embodiment, the image smoothing process is performed by using the interpolation function of bilinear filtering. However, other pixel data interpolation methods, for example, trilinear filtering (3 Next-order convolution interpolation) can also be used. In the cubic convolution interpolation method, image data of a point to be interpolated is obtained by a convolution function using 16 image data around the point as sampling points.

【0155】更に、本実施形態においては、まず元画像
を紗レベルMまで縮小し、そして、生成された縮小画像
を順次拡大、α合成することにより、紗をかけた画像
(紗画像)を生成することとした。しかし、最初に元画
像の縮小、拡大、そしてα合成を連続して行い、その
後、これら一連の処理を再度繰り返すことにより、紗画
像を生成するように構成することもできる。その際に
は、これら一連の処理を繰り返し実行する、その繰り返
し回数に応じて、平滑化の度合いが徐々に高まる。その
ため、まず元画像を紗レベルMまで縮小し、次いでこれ
らの縮小画像を拡大・α合成する場合に比較して、平滑
化度合いの調整を図ることができる。
Further, in the present embodiment, first, the original image is reduced to a gauze level M, and the generated reduced image is sequentially enlarged and α-combined to generate a gauze-applied image (shaa image). It was decided to. However, it is also possible to configure so as to generate a gauze image by first performing reduction, enlargement, and α synthesis of the original image successively, and then repeating these series of processes again. At this time, the series of processes are repeatedly executed, and the degree of smoothing gradually increases in accordance with the number of repetitions. Therefore, the degree of smoothing can be adjusted as compared with the case where the original image is first reduced to the gauze level M, and then these reduced images are enlarged and α-combined.

【0156】また、プレーヤからの入力指示などの所与
の条件により、紗をかけた画像を表示(或いは生成)す
るか否かを決定することとしてもよい。具体的には、図
12に示したメイン処理において、ステップS1の処理
に先立って、紗画像の表示(或いは生成)を指示する入
力信号により、紗画像の表示/非表示(或いは生成/非
生成)を決定するための判断処理を追加する。そして、
上記指示信号が入力された場合には、ステップS1以降
の処理を実行し、紗画像の表示(或いは生成)を行うこ
とにより実現できる。また更に、紗レベルMを、所与の
条件に応じて決定可能なように構成してもよい。
It is also possible to determine whether or not to display (or generate) a shaded image according to given conditions such as an input instruction from the player. Specifically, in the main processing shown in FIG. 12, prior to the processing in step S1, display / non-display (or generation / non-generation) of the gauze image is performed by an input signal instructing display (or generation) of the gauze image. ) Is added. And
When the above-mentioned instruction signal is input, it can be realized by executing the processing after step S1 and displaying (or generating) a gauze image. Still further, the gauze level M may be configured to be able to be determined according to given conditions.

【0157】このことにより、例えば、ゲームのリプレ
イシーンにのみ紗をかけた画像を表示(生成)すること
として、ゲーム画像の粗を目立たなくすることができ
る。また、ロールプレイングゲームにおいて、プレーヤ
キャラクタの成長度や取得アイテム等に応じて、紗をか
けるか否か、紗レベルMをいくつにするかを決定するこ
とにより、その成長度やアイテムの効果を現すことがで
きるまた、洞窟内などのゲームステージに応じて紗をか
けた画像とするか否かを決定してもよい。
As a result, for example, by displaying (generating) an image in which gauze is applied only to the replay scene of the game, the coarseness of the game image can be made inconspicuous. Further, in the role playing game, whether or not to wear gauze and the number of gauze levels M are determined in accordance with the degree of growth of the player character, the acquired items, and the like, so that the degree of growth and the effects of the items are exhibited. In addition, it may be determined whether or not to use an image with gauze according to a game stage such as in a cave.

【0158】また、本実施形態においては、元画像全体
に画像平滑化処理を施した、画像全体に対する紗画像の
生成について説明したが、勿論、平滑化された(ぼけ
た)領域と平滑化されない(ぼけていない)領域とを含
む紗画像を生成することも可能であるし、平滑化された
(ぼけた)領域のみを取り出すことを可能である。また
更に、紗をかける度合いを、領域により変化させるよう
に構成することもできる。以下、その実現手法について
説明する。
Further, in the present embodiment, the generation of a gauze image for the entire image in which the entire image is subjected to image smoothing processing has been described. It is possible to generate a gauze image including a (non-blurred) region, and to extract only a smoothed (blurred) region. Furthermore, the degree of gauze application may be changed depending on the area. Hereinafter, a method for realizing the method will be described.

【0159】実現方法としては、大きく2つの手法があ
る。1つは、元画像全体に対する画像平滑化処理を実行
した後に、生成されるぼかし画像或いは紗画像に対し
て、ぼけた領域とぼけていない領域とを区分する方法
(以下、領域区分を後に実行する方法という。)であ
る。また、もう1つは、元画像の内、ぼけた領域とぼけ
ていない領域とを先に区分した後、ぼけた領域に対して
のみ画像平滑化処理を実行する方法(以下、領域区分を
先に実行する方法という。)である。それぞれについて
具体的に説明する。
There are roughly two methods for realizing the method. One is a method of dividing a blurred region and a non-blurred region with respect to a generated blurred image or gauze image after performing an image smoothing process on the entire original image (hereinafter, region dividing is performed later). Method). Another method is to first classify a blurred region and a non-blurred region in the original image, and then execute an image smoothing process only on the blurred region (hereinafter, the region classification is performed first). It is called a method of execution.) Each will be described specifically.

【0160】(1)領域区分を後に実行する方法 領域区分を後に実行する方法としては、例えば、マスク
をかける方法がある。マスクをかける方法とは、元画像
のサイズと同サイズのマスクデータを用意し、生成され
たぼかし画像あるいは紗画像に対して、このマスクデー
タによるマスクをかけることによって、領域を区分する
方法である。より詳細には、元画像の各画素に対応する
ビット(“1”または“0”)を格納するマスクデータ
を用意し、マスクデータの内、ぼけた領域内の画素に対
応するビットを“1”に、ぼけていない領域内の画素に
対応するビットを“0”に設定する。そして、ぼかし画
像あるいは紗画像に対して、このマスクデータを用いた
マスク処理(例えば、各画素に対応するビット値を、当
該画素のRGB値に乗算したり、当該画素のα値に乗算
する等)を行うことによって、ぼけた領域を切り出した
り、ぼけた領域とぼけていない領域とを区分することが
できる。
(1) Method of Executing Area Division Later As a method of executing area division later, for example, there is a method of applying a mask. The masking method is a method of preparing mask data having the same size as the size of the original image, and masking the generated blurred image or gauze image with the mask data, thereby dividing a region. . More specifically, mask data for storing a bit ("1" or "0") corresponding to each pixel of the original image is prepared, and a bit corresponding to a pixel in a blurred area is set to "1" in the mask data. And a bit corresponding to a pixel in an unblurred area is set to “0”. Then, mask processing using this mask data is performed on the blurred image or the gauze image (for example, the bit value corresponding to each pixel is multiplied by the RGB value of the pixel, the α value of the pixel is multiplied, or the like). ), A blurred area can be cut out, or a blurred area and a non-blurred area can be distinguished.

【0161】ここで、マスクデータの設定方法、即ち、
ぼけた領域内の画素とぼけていない領域内の画素との決
定方法については、以下の手段により実現可能である。
即ち、例えば、オブジェクト毎にぼけさせるか否かを設
定したり、オブジェクトを構成するポリゴン毎にぼけさ
せるか否かを設定する。そして、画像生成部420によ
る透視投影変換の際に、当該オブジェクトまたは当該ポ
リゴンをフレームバッファ(A)550に描画すると同
時に、当該オブジェクトまたは当該ポリゴンが描画され
る画素に対応するマスクデータを更新することにより実
現できる。
Here, the mask data setting method, that is,
The method for determining the pixels in the blurred area and the pixels in the non-blurred area can be realized by the following means.
That is, for example, it is set whether or not to blur each object, or whether or not to blur each polygon constituting the object. Then, at the time of perspective projection conversion by the image generation unit 420, the object or the polygon is drawn on the frame buffer (A) 550, and at the same time, the mask data corresponding to the pixel on which the object or the polygon is drawn is updated. Can be realized by:

【0162】また、ゲーム空間中に、紗(ぼかし)をか
ける範囲を特定するための、オブジェクトやポリゴン
(以下、紗ポリゴンという。)を配置することとしても
よい。例えば、飛行機オブジェクトのエンジン部分周辺
に、この紗ポリゴンを設定したり、雨の当たっている部
分に紗ポリゴンを設定したりすることによって、エンジ
ンの熱や雨によって背景がぼけて見える様子を表現する
ことができる。
In the game space, objects or polygons (hereinafter referred to as “shape polygons”) for specifying a range to be shaded (blurred) may be arranged. For example, by setting this gauze polygon around the engine part of an airplane object, or by setting a gauze polygon around a part that is exposed to rain, the background is blurred due to the heat or rain of the engine. be able to.

【0163】また、透視投影変換においては、奥行き値
を利用したZバッファ法が利用されるのが一般的であ
る。したがって、透視投影変換されるオブジェクトやポ
リゴンの奥行き値に応じて、マスクデータを設定するこ
ととしてもよい。その場合には、例えば、被写界深度に
よるぼけた画像として利用することができる。
In the perspective projection conversion, a Z-buffer method using a depth value is generally used. Therefore, the mask data may be set according to the depth value of the object or polygon to be perspectively transformed. In that case, for example, it can be used as a blurred image due to the depth of field.

【0164】尚、マスクデータを、“1”または“0”
のビットではなく、“0”以上“1”以下の数値とし、
ぼかし画像と元画像とをα合成する際の、α値として利
用することとしてもよい。具体的には、ぼかし画像の各
画素のα値をマスクデータによって決定し、そのα値に
基づいて元画像とαブレンディングを行うこととしても
よい。その場合には、ぼけた領域とぼけていない領域と
の区分ができる上、更にぼかし具合を調整することがで
きる。例えば、透視投影変換の際の奥行き値に応じて、
このマスクデータの値を変更することとすれば、より実
際的な被写界深度を表現することができる。
The mask data is set to “1” or “0”.
Is not a bit but a numerical value between "0" and "1".
It may be used as an α value when the blurred image and the original image are α-combined. Specifically, the α value of each pixel of the blurred image may be determined by the mask data, and α blending with the original image may be performed based on the α value. In that case, a blurred area and a non-blurred area can be divided, and the degree of blurring can be further adjusted. For example, according to the depth value at the time of perspective projection transformation,
If the value of the mask data is changed, a more practical depth of field can be expressed.

【0165】(2)領域区分を先に実行する方法 領域区分を先に実行する方法としては、例えば、ぼけた
領域用のフレームバッファと、ぼけていない領域用のフ
レームバッファとを用意する方法がある。画像生成部4
20による透視投影変換およびレンダリングの際に、オ
ブジェクトあるいはポリゴン毎に、ぼけさせるか否かを
判定して、何れかのフレームバッファに描画する。そし
て、全てのオブジェクト等の描画終了後、ぼけた領域用
のフレームバッファに対してのみ、画像平滑化処理を施
し、最終的にぼけていない領域用のフレームバッファと
合成することによって領域区分がなされた画像を生成す
ることができる。
(2) Method of Executing Area Division First As a method of executing area division first, for example, a method of preparing a frame buffer for a blurred area and a frame buffer for a non-blurred area is available. is there. Image generation unit 4
At the time of perspective projection conversion and rendering by 20, it is determined whether each object or polygon is to be blurred, and is drawn in any frame buffer. Then, after the drawing of all the objects and the like is completed, the image is smoothed only for the frame buffer for the blurred area, and the area is finally divided with the frame buffer for the unblurred area to perform the area division. Images can be generated.

【0166】オブジェクト或いはポリゴン毎にぼけさせ
るか否かの判定は、予め、オブジェクト等にその設定を
することとしてもよいし、透視投影変換時の奥行き値な
どに応じて決定することとしてもよい。
The determination as to whether or not to blur each object or polygon may be made in advance for the object or the like, or may be determined according to the depth value at the time of perspective projection conversion.

【0167】また、上述した被写界深度的な表現方法で
あるが、ゲーム空間に注視点を設定し、この注視点から
の距離に応じて、ぼかしたい領域或いはオブジェクト等
を特定することとしてもよい。即ち、例えば、プレーヤ
キャラクタを注視点とし、このプレーヤキャラクタから
の距離を算出することによって、ぼかすオブジェクトを
特定したり、ぼかす度合を決定する。このことにより、
プレーヤに対して、注視位置をプレーヤキャラクタに向
けさせるとともに、被写界深度的な表現をよりリアリス
ティックに実現することができる。
In the above-described depth-of-field expression method, a point of interest may be set in the game space, and an area or an object to be blurred may be specified according to the distance from the point of interest. Good. That is, for example, the object to be blurred is specified or the degree of blurring is determined by calculating the distance from the player character with the player character as the point of regard. This allows
It is possible to make the player point the gaze position at the player character and realize a more realistic representation of the depth of field.

【発明の効果】本発明によれば、紗レベルMに応じて、
より強くぼかした(平滑化)された画像を迅速に生成す
ることができる。また、元画像とぼかし画像との合成比
率を変化させることにより、任意の度合いでぼかしを施
した画像(紗画像)を生成することができる。
According to the present invention, according to the gauze level M,
A more strongly blurred (smoothed) image can be generated quickly. Also, by changing the synthesis ratio between the original image and the blurred image, it is possible to generate an image (shape image) blurred to an arbitrary degree.

【図面の簡単な説明】[Brief description of the drawings]

【図1】元画像の一例を示す図である。FIG. 1 is a diagram illustrating an example of an original image.

【図2】ぼかし画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of a blurred image.

【図3】紗画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of a gauze image.

【図4】元画像から紗画像を生成する手順の概要を示す
図である。
FIG. 4 is a diagram showing an outline of a procedure for generating a gauze image from an original image.

【図5】バイリニア・フィルタリングを説明する図であ
る。
FIG. 5 is a diagram illustrating bilinear filtering.

【図6】フレームバッファの利用し、紗画像を生成する
概念を示す図である。
FIG. 6 is a diagram illustrating a concept of generating a gauze image using a frame buffer.

【図7】縮小画像の生成を説明する図である。FIG. 7 is a diagram illustrating generation of a reduced image.

【図8】拡大画像の生成を示す図である。FIG. 8 is a diagram illustrating generation of an enlarged image.

【図9】元画像と縮小画像との関係を示す図である。FIG. 9 is a diagram illustrating a relationship between an original image and a reduced image.

【図10】本発明の機能ブロックを示す図である。FIG. 10 is a diagram showing functional blocks of the present invention.

【図11】フレームバッファの構成を示す図である。FIG. 11 is a diagram showing a configuration of a frame buffer.

【図12】メイン処理を説明するフローチャートであ
る。
FIG. 12 is a flowchart illustrating main processing.

【図13】縮小画像生成処理を説明するフローチャート
である。
FIG. 13 is a flowchart illustrating a reduced image generation process.

【図14】紗画像生成処理を説明するフローチャートで
ある。
FIG. 14 is a flowchart illustrating a gauze image generation process.

【図15】本実施の形態を実現できるハードウェア構成
の一例を示す図である。
FIG. 15 is a diagram illustrating an example of a hardware configuration that can implement the present embodiment;

【図16】本実施の形態が適用される種々の形態のシス
テムの例を示す図である。
FIG. 16 is a diagram showing examples of various types of systems to which the present embodiment is applied;

【符号の説明】[Explanation of symbols]

100 操作部 200 通信部 300 表示部 400 処理部 410 ゲーム演算部 420 画像生成部 421 縮小画像生成部 422 紗画像生成部 500 記憶部 510 ゲームプログラム 520 メインプログラム 530 縮小画像生成プログラム 540 紗画像生成プログラム 550 フレームバッファ 560 一時記憶部 REFERENCE SIGNS LIST 100 operation unit 200 communication unit 300 display unit 400 processing unit 410 game calculation unit 420 image generation unit 421 reduced image generation unit 422 gauze image generation unit 500 storage unit 510 game program 520 main program 530 reduced image generation program 540 gauze image generation program 550 Frame buffer 560 Temporary storage

Claims (25)

【特許請求の範囲】[Claims] 【請求項1】プロセッサによる演算・制御により、ゲー
ム画像を生成して所与のゲームを実行することとなる装
置に対して、 一の画像平滑化処理を異なる標本点に基づいて実行する
ことにより、一の元画像に対する複数の平滑化画像を生
成する平滑化画像生成手段と、 前記複数の平滑化画像の色情報を合成する合成手段と、 を機能させるための、前記プロセッサによる演算可能な
ゲーム情報。
1. An apparatus for generating a game image and executing a given game by calculation and control by a processor, by executing one image smoothing process based on different sample points. A smoothable image generating means for generating a plurality of smoothed images for one original image; and a synthesizing means for synthesizing color information of the plurality of smoothed images. information.
【請求項2】請求項1記載のゲーム情報であって、 前記平滑化画像生成手段に対して、前記異なる標本点
を、前記元画像における左右方向及び上下方向の少なく
とも一方向に異なる位置とする、ように機能させるため
の情報を含むことを特徴とするゲーム情報。
2. The game information according to claim 1, wherein the different sample points are located at different positions in at least one of a horizontal direction and a vertical direction in the original image with respect to the smoothed image generating means. And game information including information for causing the game to function.
【請求項3】請求項1または2に記載のゲーム情報であ
って、 前記平滑化画像生成手段に対して、 画像の解像度を縮減した縮小画像を生成する画像縮小手
段と、 前記縮小画像を伸張して縮減前の解像度の画像を生成す
る画像拡大手段と、 を機能させて前記画像平滑化処理を実行するための情
報、を含むことを特徴とするゲーム情報。
3. The game information according to claim 1, wherein said smoothed image generating means includes an image reducing means for generating a reduced image having a reduced image resolution, and expanding said reduced image. An image enlarging means for generating an image having a resolution before the reduction by reducing the information, and information for executing the image smoothing process by operating the game information.
【請求項4】請求項3記載のゲーム情報であって、 前記画像縮小手段に対して、前記標本点に基づく複数画
素データの平均演算を実行することにより縮小画像を生
成する、ように機能させるための情報を含むことを特徴
とするゲーム情報。
4. The game information according to claim 3, wherein the image reduction means is configured to generate a reduced image by performing an average calculation of a plurality of pixel data based on the sample points. Game information including information for the game.
【請求項5】請求項3または4記載のゲーム情報であっ
て、 前記画像拡大手段に対して、前記標本点に基づく複数画
素データの平均演算を実行することにより、内挿画素デ
ータを算出して縮小画像を伸張する、ように機能させる
ための情報を含むことを特徴とするゲーム情報。
5. The game information according to claim 3, wherein interpolation image data is calculated by executing an average calculation of a plurality of pixel data based on the sample points with respect to the image enlarging means. Game information including information for causing a reduced image to be expanded.
【請求項6】請求項3から5のいずれかに記載のゲーム
情報であって、 前記平滑化画像生成手段に対して、平滑化度合に基づい
て、前記画像縮小手段による縮小画像の生成を再帰的に
実行した後、前記画像拡大手段による縮小画像の伸張を
再帰的に実行する、ように機能させるための情報を含む
ことを特徴とするゲーム情報。
6. The game information according to claim 3, wherein the generation of the reduced image by the image reduction unit based on the degree of smoothing is performed recursively for the smoothed image generation unit. Game information including information for causing the image enlarging means to recursively execute the expansion of the reduced image after the image expansion.
【請求項7】請求項3から5のいずれかに記載のゲーム
情報であって、 前記平滑化画像生成手段に対して、前記画像縮小手段に
よる縮小画像の生成および前記画像拡大手段による縮小
画像の伸張を、平滑化度合に基づいて繰り返し実行す
る、ように機能させるための情報を含むことを特徴とす
るゲーム情報。
7. The game information according to claim 3, wherein: the reduced image generation unit generates a reduced image and the reduced image generated by the image enlargement unit transmits the reduced image to the smoothed image generation unit. Game information characterized by including information for causing a function to repeatedly execute expansion based on a degree of smoothing.
【請求項8】請求項1から7のいずれかに記載のゲーム
情報であって、 前記合成手段に対して、前記複数の平滑化画像の色情報
と、前記元画像の色情報とを合成して前記元画像を表示
する、ように機能させるための情報を含むことを特徴と
するゲーム情報。
8. The game information according to claim 1, wherein the combining means combines the color information of the plurality of smoothed images and the color information of the original image. Game information including information for displaying the original image.
【請求項9】請求項8記載のゲーム情報であって、 前記合成手段に対して、前記複数の平滑化画像の色情報
と、前記元画像の色情報とを合成する際の合成比率を可
変とする、ように機能させるための情報を含むことを特
徴とするゲーム情報。
9. The game information according to claim 8, wherein a combination ratio for combining the color information of the plurality of smoothed images and the color information of the original image is variable with respect to the combining means. And game information including information for causing the game to function.
【請求項10】請求項8または9記載のゲーム情報であ
って、 前記合成手段に対して、所与の入力信号に基づいて、前
記複数の平滑化画像の色情報と、前記元画像の色情報と
を合成して前記元画像を更新するか否かを決定する、よ
うに機能させるための情報を含むことを特徴とするゲー
ム情報。
10. The game information according to claim 8, wherein color information of the plurality of smoothed images and color of the original image are provided to the synthesizing unit based on a given input signal. A game information comprising information for functioning to determine whether to update the original image by synthesizing the information with the information.
【請求項11】請求項8から10のいずれかに記載のゲ
ーム情報であって、 前記装置に対して、 前記ゲーム画像を前記元画像とする手段と、 前記平滑化画像生成手段により生成される複数の平滑化
画像の一部または全部を特定する特定手段と、 を機能させるための情報と、 前記合成手段に対して、前記特定された部分に係る前記
複数の平滑化画像の色情報と、前記元画像の色情報とを
合成して前記元画像を更新する、ように機能させるため
の情報と、 を含むことを特徴とするゲーム情報。
11. The game information according to claim 8, wherein the game information is generated by the means for using the game image as the original image, and the smoothed image generating means. Specifying means for specifying a part or all of the plurality of smoothed images; and information for causing the function to function; and for the synthesizing means, color information of the plurality of smoothed images related to the specified portion, And information for causing the original image to be updated by synthesizing the color information of the original image.
【請求項12】請求項1から10のいずれかに記載のゲ
ーム情報であって、 前記装置に対して、プレーヤキャラクタの状態、存在位
置、移動速度、及び環境の内、少なくとも1つに応じ
て、前記ゲーム画像の一部または全部を前記元画像とす
る手段、を機能させるための情報を含むことを特徴とす
るゲーム情報。
12. The game information according to any one of claims 1 to 10, wherein the game information is provided to the device according to at least one of a state, a location, a moving speed, and an environment of a player character. Means for causing a part or the entirety of the game image to be the original image.
【請求項13】請求項11記載のゲーム情報であって、 前記特定手段に対して、プレーヤキャラクタの状態、存
在位置、移動速度、及び環境の内、少なくとも1つに応
じて、前記平滑化画像生成手段により生成される複数の
平滑化画像の一部または全部を特定する、ように機能さ
せるための情報を含むことを特徴とするゲーム情報。
13. The game information according to claim 11, wherein the smoothed image is provided to the specifying means in accordance with at least one of a state, an existing position, a moving speed, and an environment of a player character. A game information comprising information for causing a part or all of a plurality of smoothed images generated by a generation unit to be specified.
【請求項14】請求項1から10のいずれかに記載のゲ
ーム情報であって、 前記装置に対して、前記所与のゲームのゲーム空間にお
ける所与の光源に基づいて、前記ゲーム画像の一部また
は全部を前記元画像とする手段、を機能させるための情
報を含むことを特徴とするゲーム情報。
14. The game information according to any one of claims 1 to 10, wherein the game apparatus outputs one of the game images to the device based on a given light source in a game space of the given game. Game information including information for causing a part or all of the means to be the original image to function.
【請求項15】請求項11記載のゲーム情報であって、 前記特定手段に対して、前記所与のゲームのゲーム空間
における所与の光源に基づいて、前記平滑化画像生成手
段により生成される複数の平滑化画像の一部または全部
を特定する、ように機能させるための情報を含むことを
特徴とするゲーム情報。
15. The game information according to claim 11, wherein the smoothed image generating unit generates the specified unit based on a given light source in a game space of the given game. Game information characterized by including information for causing a part or all of a plurality of smoothed images to be specified.
【請求項16】請求項1から10のいずれかに記載のゲ
ーム情報であって、 前記装置に対して、前記所与のゲームのゲーム空間にお
ける所与のオブジェクトの周辺画像を前記元画像とする
手段、を機能させるための情報を含むことを特徴とする
ゲーム情報。
16. The game information according to claim 1, wherein a peripheral image of a given object in a game space of the given game is used as the original image for the device. Game information, including information for causing the means to function.
【請求項17】請求項11記載のゲーム情報であって、 前記特定手段に対して、前記所与のゲームのゲーム空間
における所与のオブジェクトの周辺画像を、前記平滑化
画像生成手段により生成される複数の平滑化画像内から
特定する、ように機能させるための情報を含むことを特
徴とするゲーム情報。
17. The game information according to claim 11, wherein a peripheral image of a given object in a game space of the given game is generated by the smoothed image generating means for the specifying means. Game information including information for causing a function to be specified from among a plurality of smoothed images.
【請求項18】請求項1から10のいずれかに記載のゲ
ーム情報であって、 前記装置に対して、 所与の視点に基づいて前記ゲーム画像を生成する手段
と、 前記所与の視点からの距離に基づいて、前記ゲーム画像
の一部または全部を前記元画像とする手段と、 を機能させるための情報を含むことを特徴とするゲーム
情報。
18. The game information according to claim 1, wherein the game device generates the game image based on a given viewpoint; and Means for using part or all of the game image as the original image based on the distance of the game image, and information for causing the game to function.
【請求項19】請求項11記載のゲーム情報であって、 前記装置に対して、所与の視点に基づいて前記ゲーム画
像を生成する手段、を機能させるための情報と、 前記特定手段に対して、前記所与の視点からの距離に基
づいて、前記平滑化画像生成手段により生成される複数
の平滑化画像の一部または全部を特定する、ように機能
させるための情報と、 を含むことを特徴とするゲーム情報。
19. The game information according to claim 11, wherein: information for causing the device to function as a means for generating the game image based on a given viewpoint; And information for causing a part or all of the plurality of smoothed images generated by the smoothed image generating means to be specified based on the distance from the given viewpoint. Game information characterized by.
【請求項20】請求項1から10のいずれかに記載のゲ
ーム情報であって、 前記装置に対して、 前記所与のゲームのゲーム空間に注視点を設定する手段
と、 前記注視点からの距離に基づいて、前記ゲーム画像の一
部または全部を前記元画像とする手段と、 を機能させるための情報を含むことを特徴とするゲーム
情報。
20. The game information according to claim 1, wherein: a means for setting a gazing point in the game space of the given game; Means for using part or all of the game image as the original image based on the distance, and information for causing the game to function.
【請求項21】請求項11記載のゲーム情報であって、 前記装置に対して、前記所与のゲームのゲーム空間に注
視点を設定する手段、を機能させるための情報と、 前記特定手段に対して、前記注視点からの距離に基づい
て、前記平滑化画像生成手段により生成される複数の平
滑化画像の一部または全部を特定する、ように機能させ
るための情報と、 を含むことを特徴とするゲーム情報。
21. The game information according to claim 11, wherein: information for causing the device to function as a gazing point in a game space of the given game; On the other hand, based on the distance from the point of gazing point, based on the distance from the point of gaze, to specify a part or all of the plurality of smoothed images generated by the smoothed image generating means, information to function as, Feature game information.
【請求項22】請求項1から10のいずれかに記載のゲ
ーム情報であって、 前記装置に対して、前記ゲーム画像の一部または全部を
前記元画像とする手段、を機能させるための情報を含む
ことを特徴とするゲーム情報。
22. The game information according to claim 1, wherein information for causing the device to function as a part or all of the game image as the original image is provided. The game information characterized by including.
【請求項23】請求項1から10のいずれかに記載のゲ
ーム情報であって、 前記装置に対して、前記所与のゲームのリプレイシーン
に係る画像を前記元画像とする手段、を機能させるため
の情報を含むことを特徴とするゲーム情報。
23. The game information according to claim 1, wherein the device causes the device to function as an original image using an image related to a replay scene of the given game. Game information including information for the game.
【請求項24】請求項1から23のいずれかに記載のゲ
ーム情報を記憶する情報記憶媒体。
24. An information storage medium for storing the game information according to claim 1.
【請求項25】ゲーム画像を生成して所与のゲームを実
行するゲーム装置であって、 一の画像平滑化処理を異なる標本点に基づいて実行する
ことにより、一の元画像に対する複数の平滑化画像を生
成する平滑化画像生成手段と、 前記複数の平滑化画像の色情報を合成する合成手段と、 を備えるゲーム装置。
25. A game device for generating a game image and executing a given game, wherein a plurality of smoothing operations for one original image are performed by executing one image smoothing process based on different sample points. A game device comprising: a smoothed image generating unit that generates a smoothed image; and a combining unit that combines color information of the plurality of smoothed images.
JP2001064132A 2001-03-07 2001-03-07 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE Expired - Fee Related JP3507039B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001064132A JP3507039B2 (en) 2001-03-07 2001-03-07 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001064132A JP3507039B2 (en) 2001-03-07 2001-03-07 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE

Publications (2)

Publication Number Publication Date
JP2002269582A true JP2002269582A (en) 2002-09-20
JP3507039B2 JP3507039B2 (en) 2004-03-15

Family

ID=18923004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001064132A Expired - Fee Related JP3507039B2 (en) 2001-03-07 2001-03-07 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE

Country Status (1)

Country Link
JP (1) JP3507039B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004064388A1 (en) * 2003-01-09 2004-07-29 Sony Corporation Image processing device and method
JP2006011539A (en) * 2004-06-22 2006-01-12 Namco Ltd Program, information storage medium, and image generating system
WO2006117919A1 (en) * 2005-04-28 2006-11-09 Konica Minolta Holdings, Inc. Image processing method, image processing device and image processing program
JP2007506172A (en) * 2003-09-17 2007-03-15 コニンクリユケ フィリップス エレクトロニクス エヌ.ブイ. System and method for drawing 3D image on screen of 3D image display
JP2007272356A (en) * 2006-03-30 2007-10-18 Namco Bandai Games Inc Program, information storage medium and image generation system
CN100366052C (en) * 2003-01-09 2008-01-30 索尼株式会社 Image processing device and method
JP2010079780A (en) * 2008-09-29 2010-04-08 Keyence Corp Image processing apparatus, image processing method and computer program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004064388A1 (en) * 2003-01-09 2004-07-29 Sony Corporation Image processing device and method
CN100366052C (en) * 2003-01-09 2008-01-30 索尼株式会社 Image processing device and method
US7570390B2 (en) 2003-01-09 2009-08-04 Sony Corporation Image processing device and method
JP2007506172A (en) * 2003-09-17 2007-03-15 コニンクリユケ フィリップス エレクトロニクス エヌ.ブイ. System and method for drawing 3D image on screen of 3D image display
JP4740135B2 (en) * 2003-09-17 2011-08-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ System and method for drawing 3D image on screen of 3D image display
JP2006011539A (en) * 2004-06-22 2006-01-12 Namco Ltd Program, information storage medium, and image generating system
WO2006117919A1 (en) * 2005-04-28 2006-11-09 Konica Minolta Holdings, Inc. Image processing method, image processing device and image processing program
JP2007272356A (en) * 2006-03-30 2007-10-18 Namco Bandai Games Inc Program, information storage medium and image generation system
JP2010079780A (en) * 2008-09-29 2010-04-08 Keyence Corp Image processing apparatus, image processing method and computer program

Also Published As

Publication number Publication date
JP3507039B2 (en) 2004-03-15

Similar Documents

Publication Publication Date Title
US7609276B2 (en) Program, information storage medium, image generation system, and image generation method for generating an image for overdriving the display device
JP5025950B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP2002197486A (en) Video game machine, its control method, video game program and computer-readable recording medium with the program recorded thereon
JP2006092156A (en) Program, information storage medium and image generation device
EP1808207B1 (en) Storage medium having game program stored thereon and game apparatus
US7479961B2 (en) Program, information storage medium, and image generation system
EP1355276A2 (en) System and method for distance adjusted rendering
US6409598B1 (en) Method, program product, and game system for blurring an image
JP4305903B2 (en) Image generation system, program, and information storage medium
JPH10295934A (en) Video game device and changing method of texture of model
JP3502796B2 (en) 3D model display method and apparatus in video game, game apparatus, and computer-readable recording medium storing 3D model display program for video game
JP2002269582A (en) Game information, information storage medium, and game device
JP3639286B2 (en) GAME PROGRAM AND GAME DEVICE
JP4749198B2 (en) Program, information storage medium, and image generation system
JP3656054B2 (en) Image generation system, program, and information storage medium
JP3663407B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP2003085578A (en) Game information, information storage medium and game device
JP2006011539A (en) Program, information storage medium, and image generating system
JP3491832B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4656616B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4632855B2 (en) Program, information storage medium, and image generation system
JP2002183753A (en) Image generation system and information storage medium
JP2005215974A (en) Program, information storage medium, and game device
JP4680670B2 (en) Program, information storage medium, and image generation system
JP4554834B2 (en) Image processing apparatus and method, and program thereof

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031217

R150 Certificate of patent or registration of utility model

Ref document number: 3507039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071226

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071226

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071226

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081226

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081226

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091226

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091226

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091226

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101226

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101226

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111226

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111226

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111226

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121226

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121226

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131226

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees