JP2003051024A - Image generation system and information storage medium - Google Patents
Image generation system and information storage mediumInfo
- Publication number
- JP2003051024A JP2003051024A JP2002150349A JP2002150349A JP2003051024A JP 2003051024 A JP2003051024 A JP 2003051024A JP 2002150349 A JP2002150349 A JP 2002150349A JP 2002150349 A JP2002150349 A JP 2002150349A JP 2003051024 A JP2003051024 A JP 2003051024A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- processing
- blurring
- information storage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像生成システム
及び情報記憶媒体に関する。TECHNICAL FIELD The present invention relates to an image generation system and an information storage medium.
【0002】[0002]
【背景技術及び発明が解決しようとする課題】従来よ
り、仮想的な3次元空間であるオブジェクト空間内の所
与の視点から見える画像を生成する画像生成システムが
知られており、いわゆる仮想現実を体験できるものとし
て人気が高い。レーシングゲームを楽しむことができる
画像生成システムを例にとれば、プレーヤは、レーシン
グカー(オブジェクト)を操作してオブジェクト空間内
で走行させ、他のプレーヤやコンピュータが操作するレ
ーシングカーと競争することで3次元ゲームを楽しむこ
とができる。2. Description of the Related Art Conventionally, an image generation system for generating an image viewed from a given viewpoint in an object space, which is a virtual three-dimensional space, has been known. It is very popular as an experience. Taking an image generation system that can enjoy a racing game as an example, a player operates a racing car (object) to run in an object space and competes with another player or a racing car operated by a computer. You can enjoy 3D games.
【0003】このような画像生成システムでは、プレー
ヤの仮想現実感の向上のために、よりリアルな画像を生
成することが重要な技術的課題になっている。In such an image generation system, it is an important technical problem to generate a more realistic image in order to improve the virtual reality of the player.
【0004】ところで従来のゲーム画像は、人間の視界
画像のように視点からの距離等に応じてフォーカシング
された画像を生成するという概念が欠落していた。この
ため従来のゲーム画像等は画像内のすべての被写体にピ
ントが合っている状態の表現方法がとられていた。By the way, the conventional game image lacks the concept of generating an image focused according to the distance from the viewpoint like a human visual field image. For this reason, in the conventional game image and the like, a method of expressing a state in which all the subjects in the image are in focus is used.
【0005】しかし、至近距離から遠距離まで全ての被
写体にピントが合っている画像は日常生活では体験しな
い変則的な視界環境であるため、見た目に不自然さがあ
った。However, an image in which all subjects are in focus from a very close distance to a long distance is an unnatural visual environment that is not experienced in daily life, and thus has an unnatural appearance.
【0006】よりリアリティを追求するためには視点と
オブジェクトとの距離や視線方向等に応じてピントの度
合いが調節された画像を生成することが好ましい。しか
しゲーム空間内の個々のオブジェクトに対して視点との
距離や視線方向に応じてピントの度合いを判断しそれに
基づき各オブジェクト毎にぼやけ具合を演算してぼやけ
た画像を生成すると演算負荷の大幅な増大を招くことに
なる。In order to pursue more reality, it is preferable to generate an image in which the degree of focus is adjusted according to the distance between the viewpoint and the object, the direction of the line of sight, and the like. However, if the degree of focus is determined for each object in the game space depending on the distance from the viewpoint and the direction of the line of sight, and the degree of blurring is calculated for each object based on that to generate a blurred image, the calculation load will be large. Will lead to an increase.
【0007】制約されたハード資源を用いてリアルタイ
ムに変化する視点に対応した画像を生成しなければなら
ないゲーム画像等においては、如何にして少ない処理負
担で視界画像のようにフォーカッシングされた画像を生
成するかが問題となる。In a game image or the like in which an image corresponding to a viewpoint that changes in real time must be generated by using limited hardware resources, it is possible to generate a focused image like a view image with a small processing load. The issue is how to generate it.
【0008】本発明は、以上のような課題に鑑みてなさ
れたものであり、その目的とするところは、少ない処理
負担で視界画像のようにフォーカッシングされた画像を
生成成可能な画像生成システム及び情報記憶媒体を提供
することにある。The present invention has been made in view of the above problems, and an object of the present invention is to generate an image generation system capable of generating a focused image like a view image with a small processing load. And to provide an information storage medium.
【0009】[0009]
【課題を解決するための手段】本発明は3次元空間の画
像を生成するための画像生成システムであって、透視投
影変換後の所与の画像が描画された描画領域において、
各画素の奥行き値に基づいてぼかし処理の対象となる画
素を決定する手段と、ぼかし処理の対象となる画素に対
してその近傍の画素を用いて画素単位の合成処理を行う
手段と、を含むことを特徴とする。The present invention is an image generation system for generating an image in a three-dimensional space, wherein in a drawing area in which a given image after perspective projection conversion is drawn,
And a means for determining a pixel to be subjected to the blurring processing based on the depth value of each pixel, and a means to perform pixel-by-pixel combining processing on the pixel to be subjected to the blurring processing by using pixels in the vicinity thereof. It is characterized by
【0010】また本発明に係る情報記憶媒体は、コンピ
ュータにより使用可能な情報記憶媒体であって、上記手
段を実行するためのプログラムを含むことを特徴とす
る。また本発明に係るプログラムは、コンピュータによ
り使用可能なプログラム(搬送波に具現化されるプログ
ラムを含む)であって、上記手段を実行するための処理
ルーチンを含むことを特徴とする。An information storage medium according to the present invention is an information storage medium usable by a computer and includes a program for executing the above means. A program according to the present invention is a program that can be used by a computer (including a program embodied in a carrier wave) and includes a processing routine for executing the above means.
【0011】また本発明は、3次元空間の画像を生成す
るための画像生成システムであって、透視投影変換後の
所与の画像が描画された描画領域において、各画素の奥
行き値に基づいてぼかし処理の対象となる画素を決定す
る手段と、ぼかし処理の対象となる画素に対して、前記
所与の画像、前記所与の画像に近似した画像、前記所与
の画像に関連した画像、前記所与の画像を加工した画像
のいずれかを用いて画素単位の合成処理を行う手段と、
を含むことを特徴とする。The present invention is also an image generation system for generating an image in a three-dimensional space, which is based on the depth value of each pixel in a drawing area in which a given image after perspective projection conversion is drawn. Means for determining pixels to be subjected to the blurring process, the given image, an image approximate to the given image, an image related to the given image, with respect to the pixels to be subjected to the blurring process, Means for performing pixel-by-pixel combining processing using any of the images obtained by processing the given image;
It is characterized by including.
【0012】また本発明に係る情報記憶媒体は、コンピ
ュータにより使用可能な情報記憶媒体であって、上記手
段を実行するためのプログラムを含むことを特徴とす
る。また本発明に係るプログラムは、コンピュータによ
り使用可能なプログラム(搬送波に具現化されるプログ
ラムを含む)であって、上記手段を実行するための処理
ルーチンを含むことを特徴とする。An information storage medium according to the present invention is an information storage medium that can be used by a computer and is characterized by including a program for executing the above means. A program according to the present invention is a program that can be used by a computer (including a program embodied in a carrier wave) and includes a processing routine for executing the above means.
【0013】所与の画像は例えば一旦レンダリング処理
を行って描画領域に描画された画像である。また各画素
の奥行き値とは例えば各画素毎のZ値等である。また画
素単位の合成処理とはたとえばαブレンディング処理や
α加算処理やα減算処理等の半透明描画処理でもよい
し、画素単位で色情報の合成演算を行う場合でもよい。The given image is, for example, an image which has been rendered in the rendering area by performing the rendering process once. The depth value of each pixel is, for example, the Z value of each pixel. The pixel-by-pixel combination process may be a semi-transparent drawing process such as an α blending process, an α addition process, an α subtraction process, or may be a case where a color information combination operation is performed in a pixel unit.
【0014】従来のゲーム画像等は画像内のすべての被
写体にピントが合っている状態の表現方法がとられてい
た。しかし視界画像は注視点付近のフォーカス領域にピ
ントがあっており、フォーカス領域から遠ざかるにつれ
ぼやけてくるが普通である。このため画像内のすべての
被写体にピントが合っている状態は見た目に不自然であ
った。In conventional game images and the like, an expression method is used in which all the subjects in the image are in focus. However, the field-of-view image is usually in focus in the focus area near the gazing point, and is usually blurred as it moves away from the focus area. For this reason, the state in which all the subjects in the image are in focus is unnatural to the eye.
【0015】一般にピントがあっているかいなかは視点
から対象までの距離と視線方向に依存する。本発明によ
れば、所与の画像が描画された描画領域において、各画
素の奥行き値に基づいてぼかし処理の対象となる画素を
決定する。従って仮想カメラの方向を視線方向として奥
行き値に応じてぼかした画像を生成することが出来る。In general, whether or not the subject is in focus depends on the distance from the viewpoint to the object and the line-of-sight direction. According to the present invention, in a drawing area in which a given image is drawn, a pixel to be subjected to blurring processing is determined based on the depth value of each pixel. Therefore, it is possible to generate an image that is blurred according to the depth value with the direction of the virtual camera as the line-of-sight direction.
【0016】通常のゲーム画像等ではプレーヤの視線方
向を仮想カメラの視線方向と同視してよいので、本発明
により特定されたぼやけ処理の対象となる画素領域をぼ
やかすことでプレーヤの視界画像に近い画像をえること
が出来る。しかも本発明では視線方向や各オブジェクト
と視点との位置関係に基づく演算が不要であるため、少
ない演算負荷でぼやけ処理の対象となるエリアを特定す
ることが出来る。In a normal game image or the like, the player's line-of-sight direction may be regarded as the same as the line-of-sight direction of the virtual camera. Therefore, by blurring the pixel area targeted for the blurring process specified by the present invention, the player's line-of-sight image is displayed. You can get a close image. Moreover, according to the present invention, since the calculation based on the line-of-sight direction and the positional relationship between each object and the viewpoint is unnecessary, it is possible to specify the area to be subjected to the blur processing with a small calculation load.
【0017】また本発明ではぼかし処理の対象となる画
素に対して、前記所与の画像、前記所与の画像に近似し
た画像、前記所与の画像に関連した画像、前記所与の画
像を加工した画像のいずれかを用いて画素単位の合成処
理を行うことにより、ぼかし処理の対象となる画素領域
がぼやけた画像を生成している。Further, according to the present invention, the given image, the image approximate to the given image, the image related to the given image, and the given image are given to the pixel to be blurred. By performing a pixel-by-pixel combining process using any of the processed images, an image in which the pixel region that is the target of the blurring process is blurred is generated.
【0018】ここにおいて前記所与の画像に関連した画
像や前記所与の画像に近似した画像とは、例えば1また
は数フレーム前の画像等を含む。また前記所与の画像を
加工した画像とは例えば前記所与の画像を縮小拡大処理
を施した画像等を含む。Here, the image related to the given image and the image approximate to the given image include, for example, an image one or several frames before. The image obtained by processing the given image includes, for example, an image obtained by subjecting the given image to a reduction / enlargement process.
【0019】本発明によれば前記所与の画像を生成する
ための透視投影変換やレンダリング処理は1回でよいた
め、少ない演算負荷でぼやけた画像を生成することが出
来る。According to the present invention, the perspective projection conversion and the rendering process for generating the given image need only be performed once, so that a blurred image can be generated with a small calculation load.
【0020】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記描画領域に描画された
所与の画像に対して、所与の画像を所与の方向に所定量
ずらしたテクスチャ画像を生成し、所与の画像が描画さ
れた描画領域のぼかし処理の対象となる画素に対して、
当該テクスチャ画像を用いて画素単位の合成処理を行う
ことを特徴とする。The image generation system, information storage medium, and program according to the present invention are texture images obtained by shifting a given image in a given direction by a given amount with respect to a given image drawn in the drawing area. Is generated, and for the pixels to be subjected to the blurring process of the drawing area in which the given image is drawn,
It is characterized in that the texture image is used to perform pixel-by-pixel synthesis processing.
【0021】元画像をずらして画素単位の合成を行うこ
とで、簡単な処理でにじんだ画像を生成することが出来
る。またずらす量を調節することでほかしの程度を調節
することが出来る。By shifting the original image and synthesizing in pixel units, a blurred image can be generated by a simple process. Also, by adjusting the amount of shift, the degree of addition can be adjusted.
【0022】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記ぼかし処理の対象を判
断するためのしきい値を段階的に複数設定し、前期複数
のしきい値と各画素の奥行き値を比較してぼかし処理の
対象となる複数の画素集合を特定し、特定された複数の
画素集合に対してそれぞれ画素単位の合成処理を行うこ
とを特徴とする。Further, the image generation system, the information storage medium and the program according to the present invention set a plurality of thresholds for determining the target of the blurring process stepwise, and set a plurality of thresholds and each pixel in the previous period. The present invention is characterized in that a plurality of pixel sets to be subjected to the blurring process are specified by comparing the depth values, and the pixel-by-pixel combining process is performed on each of the specified plurality of pixel sets.
【0023】本発明によれば段階的に設定された複数の
しきい値によって、ぼかし処理の対象となる複数の画素
集合が特定される。各画素集合単位でぼやけ具合を調整
することにより奥行き値に応じてぼやけの度合いが段階
的に変化している画像を生成することが出来る。According to the present invention, a plurality of threshold values set in stages identify a plurality of pixel sets to be subjected to blurring processing. By adjusting the degree of blur for each pixel set, it is possible to generate an image in which the degree of blur changes stepwise according to the depth value.
【0024】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記ぼかし処理の対象とな
る複数の画素領域は重畳的に設定され、各画素領域につ
いて段階的にぼかし処理を行うことを特徴とする。Further, in the image generating system, the information storage medium and the program according to the present invention, a plurality of pixel areas to be subjected to the blurring processing are set in a superimposed manner, and the blurring processing is performed stepwise for each pixel area. Characterize.
【0025】重畳的に設定された範囲の画素にたいして
は複数回のぼかし処理が行われるため、各画素に対して
ぼかし回数によってぼやけの度合いを調整することが出
来る。Since the blurring processing is performed a plurality of times on the pixels in the range set in a superimposed manner, the degree of blurring can be adjusted for each pixel by the number of blurring.
【0026】また段階的に画素単位の合成処理を行うこ
とにより、ぼかしの度合いの変化が自然な画像を生成す
ることが出来る。By performing the pixel-by-pixel synthesizing process stepwise, an image in which the degree of blurring changes naturally can be generated.
【0027】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前期しきい値と設定された
注視点の奥行き値の差に基づいて前期しきい値によって
特定された画素集合に画素単位の合成演算を行う際の合
成係数を設定することを特徴とする。Further, the image generation system, the information storage medium and the program according to the present invention are arranged in pixel units in the pixel set specified by the threshold value based on the difference between the threshold value and the depth value of the set gazing point. It is characterized in that a synthesis coefficient is set when performing the synthesis operation of.
【0028】注視点はピントを合わせたい点であり、そ
の設定方法は任意である。本発明では設定された注視点
の奥行き値が与えられていればよい。The point of interest is the point at which the user wants to focus, and the setting method is arbitrary. In the present invention, the depth value of the set gazing point may be given.
【0029】ここにおいて、前期しきい値と注視点の奥
行き値の差が大きくなるほど前期しきい値によって特定
された画素集合のぼかしの度合いがおおきくなるように
画素単位の合成処理を行う際の合成係数を設定すること
が望ましい。In this case, the combination in the pixel unit combination process is performed such that the larger the difference between the previous period threshold value and the depth value of the gazing point, the greater the degree of blurring of the pixel set specified by the previous period threshold value. It is desirable to set the coefficient.
【0030】本発明によれば、注視点から前後いずれか
の方向に離れるほどぼやけの度合いが強くなる画象を生
成することが出来る。According to the present invention, it is possible to generate an image in which the degree of blurring increases as the distance from the gazing point to the front or back increases.
【0031】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、設定された注視点より手前
の奥行き値を有する画素については、前期各画素の奥行
き値の代わりに各画素の奥行き値を反転させた値を用い
てぼかし処理の対象となる画素を決定することを特徴と
する。Further, the image generation system, the information storage medium and the program according to the present invention, for a pixel having a depth value before the set gazing point, use the depth value of each pixel instead of the depth value of each pixel in the previous period. It is characterized in that the pixel to be subjected to the blurring process is determined by using the inverted value.
【0032】奥行き値を反転させた値とは奥行き値の大
小関係が反対になるような関数値である。例えば奥行き
値が0〜1の範囲をとる場合には、奥行き値を反転させ
た値として1−奥行き値をもちいてもよい。A value obtained by reversing the depth value is a function value that reverses the magnitude relationship of the depth value. For example, when the depth value is in the range of 0 to 1, 1-depth value may be used as a value obtained by inverting the depth value.
【0033】このようにすることにより、例えば奥行き
値がある値より小さい時または大きい時のみ所与の処理
が可能な機能を有するハードまたはソフト資源を用いて
画像生成を行う場合にも少ない処理負担で、ぼかし処理
の対象となる画素を決定する処理を行うことが出来る。By doing so, for example, even when an image is generated by using a hardware or software resource having a function capable of performing a given process only when the depth value is smaller than or larger than a certain value, the processing load is small. Thus, it is possible to perform the process of determining the pixel to be the subject of the blurring process.
【0034】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記奥行き値としてZバッ
ファに記憶されたZ値を用いることを特徴とする。Further, the image generating system, the information storage medium and the program according to the present invention are characterized by using the Z value stored in the Z buffer as the depth value.
【0035】ここにおいてZバッファは、例えばフレー
ムバファ上のZ値プレーンとして設けられていても良い
し、フレームバッファとは独立して設けられていてもよ
い。Here, the Z buffer may be provided, for example, as a Z value plane on the frame buffer, or may be provided independently of the frame buffer.
【0036】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記画素単位の合成処理と
して半透明描画処理を行うことを特徴とする。Further, the image generating system, the information storage medium and the program according to the present invention are characterized in that they perform a semi-transparent drawing process as the pixel-by-pixel combining process.
【0037】ここにおいて半透明描画処理とはたとえば
αブレンディング処理やα加算処理等である。Here, the semi-transparent drawing process is, for example, α blending process or α addition process.
【0038】[0038]
【発明の実施の形態】以下、本発明の好適な実施形態に
ついて図面を用いて説明する。なお以下では、本発明
を、レーシングゲームに適用した場合を例にとり説明す
るが、本発明はこれに限定されず、種々のゲームに適用
できる。BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the present invention will be described below with reference to the drawings. Although the present invention will be described below by taking the case of being applied to a racing game as an example, the present invention is not limited to this and can be applied to various games.
【0039】1.構成
図1に、本実施形態のブロック図の一例を示す。なお同
図において本実施形態は、少なくとも処理部100を含
めばよく(或いは処理部100と記憶部170、或いは
処理部100と記憶部170と情報記憶媒体180を含
めばよく)、それ以外のブロック(例えば操作部16
0、表示部190、音出力部192、携帯型情報記憶装
置194、通信部196)については、任意の構成要素
とすることができる。1. Configuration FIG. 1 shows an example of a block diagram of this embodiment. In the figure, in the present embodiment, at least the processing unit 100 may be included (or the processing unit 100 and the storage unit 170, or the processing unit 100, the storage unit 170, and the information storage medium 180 may be included), and other blocks. (For example, the operation unit 16
0, the display unit 190, the sound output unit 192, the portable information storage device 194, and the communication unit 196) can be arbitrary constituent elements.
【0040】ここで処理部100は、システム全体の制
御、システム内の各ブロックへの命令の指示、ゲーム処
理、画像処理、音処理などの各種の処理を行うものであ
り、その機能は、各種プロセッサ(CPU、DSP
等)、或いはASIC(ゲートアレイ等)などのハード
ウェアや、所与のプログラム(ゲームプログラム)によ
り実現できる。Here, the processing section 100 performs various processing such as control of the entire system, instruction of commands to each block in the system, game processing, image processing, sound processing, etc., and its functions are various. Processor (CPU, DSP
Etc.) or hardware such as ASIC (gate array etc.) or a given program (game program).
【0041】操作部160は、プレーヤが操作データを
入力するためのものであり、その機能は、レバー、ボタ
ン、筺体などのハードウェアにより実現できる。The operation section 160 is for the player to input operation data, and its function can be realized by hardware such as a lever, a button, and a housing.
【0042】記憶部170は、処理部100や通信部1
96などのワーク領域となるもので、その機能はRAM
などのハードウェアにより実現できる。The storage unit 170 includes the processing unit 100 and the communication unit 1.
A work area such as 96, whose function is RAM
It can be realized by hardware such as.
【0043】情報記憶媒体(コンピュータにより使用可
能な記憶媒体)180は、プログラムやデータなどの情
報を格納するものであり、その機能は、光ディスク(C
D、DVD)、光磁気ディスク(MO)、磁気ディス
ク、ハードディスク、磁気テープ、或いはメモリ(RO
M)などのハードウェアにより実現できる。処理部10
0は、この情報記憶媒体180に格納される情報に基づ
いて本発明(本実施形態)の種々の処理を行う。即ち情
報記憶媒体180には、本発明(本実施形態)の手段
(特に処理部100に含まれるブロック)を実行するた
めの情報(プログラム或いはプログラム及びデータ)が
格納される。An information storage medium (a storage medium usable by a computer) 180 stores information such as programs and data, and its function is that of an optical disc (C
D, DVD), magneto-optical disk (MO), magnetic disk, hard disk, magnetic tape, or memory (RO
It can be realized by hardware such as M). Processing unit 10
0 performs various processes of the present invention (this embodiment) based on the information stored in the information storage medium 180. That is, the information storage medium 180 stores information (program or programs and data) for executing the means of the present invention (the present embodiment) (particularly the blocks included in the processing unit 100).
【0044】なお、情報記憶媒体180に格納される情
報の一部又は全部は、システムへの電源投入時等に記憶
部170に転送されることになる。また情報記憶媒体1
80に記憶される情報は、本発明の処理を行うためのプ
ログラムコード、画像データ、音データ、表示物の形状
データ、テーブルデータ、リストデータ、本発明の処理
を指示するための情報、その指示に従って処理を行うた
めの情報等の少なくとも1つを含むものである。A part or all of the information stored in the information storage medium 180 will be transferred to the storage section 170 when the system is powered on. The information storage medium 1
Information stored in 80 is a program code for performing the process of the present invention, image data, sound data, shape data of a display object, table data, list data, information for instructing the process of the present invention, and instructions thereof. The information includes at least one of the information for performing the processing according to the above.
【0045】表示部190は、本実施形態により生成さ
れた画像を出力するものであり、その機能は、CRT、
LCD、或いはHMD(ヘッドマウントディスプレイ)
などのハードウェアにより実現できる。The display unit 190 outputs the image generated by the present embodiment, and its function is CRT,
LCD or HMD (head mounted display)
It can be realized by hardware such as.
【0046】音出力部192は、本実施形態により生成
された音を出力するものであり、その機能は、スピーカ
などのハードウェアにより実現できる。The sound output unit 192 outputs the sound generated by this embodiment, and its function can be realized by hardware such as a speaker.
【0047】携帯型情報記憶装置194は、プレーヤの
個人データやセーブデータなどが記憶されるものであ
り、この携帯型情報記憶装置194としては、メモリカ
ードや携帯型ゲーム装置などを考えることができる。The portable information storage device 194 stores the player's personal data, save data, and the like. As the portable information storage device 194, a memory card, a portable game device, or the like can be considered. .
【0048】通信部196は、外部(例えばホスト装置
や他の画像生成システム)との間で通信を行うための各
種の制御を行うものであり、その機能は、各種プロセッ
サ、或いは通信用ASICなどのハードウェアや、プロ
グラムなどにより実現できる。The communication unit 196 performs various controls for communicating with the outside (for example, a host device or another image generation system), and its function is various processors or communication ASICs. It can be realized by the hardware or the program.
【0049】なお本発明(本実施形態)の手段を実行す
るためのプログラム或いはデータは、ホスト装置(サー
バー)が有する情報記憶媒体からネットワーク及び通信
部196を介して情報記憶媒体180に配信するように
してもよい。このようなホスト装置(サーバー)の情報
記憶媒体の使用も本発明の範囲内に含まれる。The program or data for executing the means of the present invention (this embodiment) is distributed from the information storage medium of the host device (server) to the information storage medium 180 via the network and the communication unit 196. You may Use of such an information storage medium of the host device (server) is also included in the scope of the present invention.
【0050】処理部100は、ゲーム処理部110、画
像生成部140、音生成部150を含む。The processing section 100 includes a game processing section 110, an image generating section 140, and a sound generating section 150.
【0051】ここでゲーム処理部110は、コイン(代
価)の受け付け処理、各種モードの設定処理、ゲームの
進行処理、選択画面の設定処理、オブジェクトの位置や
回転角度(X、Y又はZ軸回り回転角度)を求める処
理、オブジェクトを動作させる処理(モーション処
理)、視点位置や視線角度(視線方向)を求める処理、
マップオブジェクトなどのオブジェクトをオブジェクト
空間へ配置する処理、ヒットチェック処理、ゲーム結果
(成果、成績)を演算する処理、複数のプレーヤが共通
のゲーム空間でプレイするための処理、或いはゲームオ
ーバー処理などの種々のゲーム処理を、操作部160か
らの操作データや、携帯型情報記憶装置194からの個
人データ、保存データや、ゲームプログラムなどに基づ
いて行う。Here, the game processing unit 110 accepts coins (price), sets various modes, advances the game, sets a selection screen, and sets the position and rotation angle of the object (around the X, Y or Z axis). Rotation angle) processing, object movement processing (motion processing), viewpoint position and line-of-sight angle (line-of-sight) processing,
Such as processing to arrange objects such as map objects in the object space, processing to check hits, processing to calculate game results (results, achievements), processing for multiple players to play in a common game space, or game over processing. Various game processes are performed based on operation data from the operation unit 160, personal data from the portable information storage device 194, saved data, a game program, and the like.
【0052】画像生成部140は、ゲーム処理部110
からの指示等にしたがって、各種の画像処理を行うもの
である。また、音生成部150は、ゲーム処理部110
からの指示等にしたがって、各種の音処理を行うもので
ある。The image generation section 140 includes the game processing section 110.
Various kinds of image processing are performed in accordance with instructions from the. In addition, the sound generation unit 150 includes the game processing unit 110.
Various kinds of sound processing are performed in accordance with instructions from the.
【0053】なお画像生成部140、音生成部150の
機能は、その全てをハードウェアにより実現してもよい
し、その全てをプログラムにより実現してもよい。或い
は、ハードウェアとプログラムの両方により実現しても
よい。All the functions of the image generating section 140 and the sound generating section 150 may be realized by hardware, or all of them may be realized by a program. Alternatively, it may be realized by both hardware and a program.
【0054】ゲーム処理部110は、移動・動作演算部
112、注視点設定部114を含む。The game processing section 110 includes a movement / motion calculation section 112 and a gazing point setting section 114.
【0055】移動・動作演算部112は、車などのオブ
ジェクトの移動情報(位置データ、回転角度データ)や
動作情報(オブジェクトの各パーツの位置データ、回転
角度データ)を演算するものであり、例えば、操作部1
60によりプレーヤが入力した操作データやゲームプロ
グラムなどに基づいて、オブジェクトを移動させたり動
作させたりする処理を行う。The movement / motion calculation unit 112 calculates movement information (position data, rotation angle data) and motion information (position data of each part of the object, rotation angle data) of an object such as a car. , Operation unit 1
Based on the operation data input by the player through 60, the game program, etc., processing for moving or operating the object is performed.
【0056】より具体的には、移動・動作演算部114
は、オブジェクトの位置や回転角度を例えば1フレーム
(1/60秒)毎に求める処理を行う。例えば(k−
1)フレームでのオブジェクトの位置をPMk-1、速度
をVMk-1、加速度をAMk-1、1フレームの時間を△t
とする。するとkフレームでのオブジェクトの位置PM
k、速度VMkは例えば下式(1)、(2)のように求め
られる。More specifically, the movement / motion calculation unit 114
Performs processing for obtaining the position and rotation angle of the object, for example, for each frame (1/60 seconds). For example (k-
1) The position of an object in a frame is PMk-1, the velocity is VMk-1, the acceleration is AMk-1, and the time of one frame is Δt.
And Then the position PM of the object in k frames
The k and the speed VMk are obtained, for example, by the following equations (1) and (2).
【0057】
PMk=PMk-1+VMk-1×△t (1)
VMk=VMk-1+AMk-1×△t (2)
注視点設定部114は、ゲーム状況に応じて注視点を設
定する。例えば前方を走っている車に注視点を設定して
も良いし、前方の標準位置に設定しても良い。口述する
ぼかし処理部144は注視点設定部114において設定
された注視点の奥行き値に基づいてぼかし処理の対象と
なる画素を決定することになる。PMk = PMk-1 + VMk-1 × Δt (1) VMk = VMk-1 + AMk-1 × Δt (2) The gazing point setting unit 114 sets a gazing point according to the game situation. For example, the gazing point may be set for a vehicle running ahead, or may be set at a standard position ahead. The blurring processing unit 144 to dictate determines pixels to be subjected to the blurring processing based on the depth value of the gazing point set by the gazing point setting unit 114.
【0058】画像生成部140は、ジオメトリ処理部
(3次元座標演算部)142、ぼかし処理部144、描
画部(レンダリング部)146を含む。The image generating section 140 includes a geometry processing section (three-dimensional coordinate calculation section) 142, a blurring processing section 144, and a drawing section (rendering section) 146.
【0059】ここで、ジオメトリ処理部142は、座標
変換、クリッピング処理、透視変換、或いは光源計算な
どの種々のジオメトリ処理(3次元座標演算)を行う。Here, the geometry processing section 142 performs various geometry processing (three-dimensional coordinate calculation) such as coordinate conversion, clipping processing, perspective conversion, or light source calculation.
【0060】ぼかし処理部144は、透視投影変換後の
所与の画像が描画された描画領域において、各画素の奥
行き値に基づいてぼかし処理の対象となる画素を決定
し、ぼかし処理の対象となる画素に対してその近傍の画
素を用いて半透明描画処理を行う。またぼかし処理の対
象となる画素に対して、前記所与の画像、前記所与の画
像に近似した画像、前記所与の画像に関連した画像、前
記所与の画像を加工した画像のいずれかを用いて半透明
描画処理を行うようにしてもよい。The blurring processing unit 144 determines the pixels to be subjected to the blurring processing based on the depth value of each pixel in the drawing area in which the given image after the perspective projection conversion is drawn, and determines the pixels to be subjected to the blurring processing. The semi-transparent drawing process is performed for the pixel using the pixel in the vicinity thereof. Further, for the pixel to be subjected to the blurring processing, any one of the given image, an image approximate to the given image, an image related to the given image, and an image obtained by processing the given image. May be used to perform the semi-transparent drawing process.
【0061】例えば前記描画領域に描画された所与の画
像に対して、所与の画像を所与の方向に所定量ずらした
テクスチャ画像を生成し、所与の画像が描画された描画
領域のぼかし処理の対象となる画素に対して、当該テク
スチャ画像を用いて半透明描画処理を行うようにしても
よい。For example, with respect to a given image drawn in the drawing area, a texture image is generated by shifting the given image in a given direction by a predetermined amount, and a texture image of the given area is drawn. You may make it perform semi-transparent drawing processing with respect to the pixel used as the object of blurring processing using the said texture image.
【0062】前記ぼかし処理の対象を判断するためのし
きい値を段階的に複数設定し、前期複数のしきい値と各
画素の奥行き値を比較してぼかし処理の対象となる複数
の画素集合を特定し、特定された複数の画素集合に対し
てそれぞれ半透明描画処理を行うようにしてもよい。A plurality of threshold values for determining the target of the blurring process are set in stages, and a plurality of pixel sets to be the target of the blurring process are compared by comparing the plurality of threshold values with the depth value of each pixel in the previous period. May be specified, and the semi-transparent drawing process may be performed on each of the specified pixel sets.
【0063】前記ぼかし処理の対象となる複数の画素領
域は重畳的に設定され、各画素領域について段階的にぼ
かし処理を行うようにしてもよい。A plurality of pixel areas to be subjected to the blurring processing may be set in a superimposed manner, and the blurring processing may be performed stepwise for each pixel area.
【0064】前期しきい値と設定された注視点の奥行き
値の差に基づいて前期しきい値によって特定された画素
集合に半透明描画演算を行う際のα値を設定するように
してもよい。Based on the difference between the previous period threshold value and the depth value of the set gazing point, the α value at the time of performing the semitransparent drawing operation may be set for the pixel set specified by the previous period threshold value. .
【0065】設定された注視点より手前の奥行き値を有
する画素については、前期各画素の奥行き値の代わりに
各画素の奥行き値を反転させた値を用いてぼかし処理の
対象となる画素を決定するようにしてもよい。For a pixel having a depth value before the set gazing point, the pixel to be subjected to the blurring process is determined by using the value obtained by inverting the depth value of each pixel instead of the depth value of each pixel in the previous period. You may do it.
【0066】描画部146は、ジオメトリ処理後(透視
変換後)のオブジェクトデータと、テクスチャバッファ
に記憶されるテクスチャとに基づいて、オブジェクト描
画する処理を行う。The drawing unit 146 performs a process of drawing an object based on the object data after the geometry processing (after the perspective transformation) and the texture stored in the texture buffer.
【0067】なお、本実施形態の画像生成システムは、
1人のプレーヤのみがプレイできるシングルプレーヤモ
ード専用のシステムにしてもよいし、このようなシング
ルプレーヤモードのみならず、複数のプレーヤがプレイ
できるマルチプレーヤモードも備えるシステムにしても
よい。The image generation system of this embodiment is
The system may be a system dedicated to the single player mode in which only one player can play, or a system having not only such a single player mode but also a multiplayer mode in which a plurality of players can play.
【0068】また複数のプレーヤがプレイする場合に、
これらの複数のプレーヤに提供するゲーム画像やゲーム
音を、1つの端末を用いて生成してもよいし、ネットワ
ーク(伝送ライン、通信回線)などで接続された複数の
端末を用いて生成してもよい。When a plurality of players play,
The game images and game sounds to be provided to the plurality of players may be generated using one terminal, or may be generated using a plurality of terminals connected by a network (transmission line, communication line) or the like. Good.
【0069】2.本実施形態の特徴
本実施の形態の第一の特徴は、透視投影変換後の所与の
画像が描画された描画領域において、各画素の奥行き値
に基づいてぼかし処理の対象となる画素を決定する点に
ある。2. Features of this Embodiment A first feature of this embodiment is to determine a pixel to be subjected to blurring processing based on a depth value of each pixel in a rendering area in which a given image after perspective projection conversion is rendered. There is a point to do.
【0070】まずぼかし処理の対象となる画素の決定例
について説明する。First, an example of determining pixels to be the blurring process will be described.
【0071】図2(A)〜(C)はしきい値を用いたぼ
かし処理の対象となる画素の選別例について説明するた
めの図である。また図3は本実施の形態におけるしきい
値とぼかし処理の対象となる画素の透視投影変換前のオ
ブジェクトの3次元的な位置関係について説明するため
の図である。FIGS. 2A to 2C are diagrams for explaining an example of selecting pixels to be subjected to blurring processing using a threshold value. Further, FIG. 3 is a diagram for explaining a three-dimensional positional relationship between the threshold value and the object to be subjected to the blurring process before the perspective projection conversion in the present embodiment.
【0072】本実施の形態では、所与の画像が描画され
たフレームバッファのZプレーンまたはZバッファに格
納されているZ値に基づいて、各画素がぼかし処理の対
象となるか否かについて決定する。すなわち1または複
数のしきい値SZn(n=1、2‥‥)を設定し、各し
きい値と各画素のZ値を比べて当該画素がぼかし処理の
対象のなるか否かについて決定する。In the present embodiment, it is determined whether or not each pixel is a target of blurring processing based on the Z plane of the frame buffer in which a given image is drawn or the Z value stored in the Z buffer. To do. That is, one or a plurality of threshold values SZ n (n = 1, 2, ...) Are set, and each threshold value is compared with the Z value of each pixel to determine whether or not the pixel is a target of blurring processing. To do.
【0073】画面奥行き方向に行くほど(仮想カメラか
ら遠ざかるほど)Z値の値が大きくなるように設定され
ているとし,3つのしきい値SZ1、SZ2、SZ3(S
Z1<SZ2<SZ3)が与えられたとする。It is assumed that the Z value is set to increase in the depth direction of the screen (the further away from the virtual camera), and three threshold values SZ 1 , SZ 2 , SZ 3 (S
It is assumed that Z 1 <SZ 2 <SZ 3 ) is given.
【0074】また図3の210は仮想カメラ、220は
Z軸(視線方向と平行)、230は視野範囲の境界を示
すビューボリュームであるとする。このとき各しきい値
によって区切られた空間をK1、K2、K3内に存在す
るオブジェクトをOB1、OB2、OB3とする。各オ
ブジェクトOB1、OB2、OB3の透視投影変換後の
画素が有するZ値をZOB1、ZOB2、ZOB3とす
ると以下のようになる。Further, it is assumed that 210 in FIG. 3 is a virtual camera, 220 is the Z axis (parallel to the line-of-sight direction), and 230 is a view volume indicating the boundary of the visual field range. At this time, the spaces partitioned by the respective thresholds are referred to as objects existing in K1, K2, and K3 as OB1, OB2, and OB3. The Z values of the pixels of the objects OB1, OB2, and OB3 after perspective projection conversion are ZOB1, ZOB2, and ZOB3 as follows.
【0075】
ZOB1、ZOB2、ZOB3>SZ1
ZOB2、ZOB3 >SZ2
ZOB3 >SZ3
図2(A)の310は透視投影変換後の所与の画像が描
画されたフレームバッファであり、各画素のZ値がしき
い値SZ1より大きい画素からなる領域を312とする
と、312がしきい値SZ1によって特定されるぼかし
処理の対象となる第一の画素領域となる。第一の画素領
域310に含まれる画素に対して第一のぼかし処理が行
われる。図3のOB1、OB2、OB3の透視投影変換
後の画像はいずれもこの第一の画素領域に含まれるた
め、第一のぼかし処理によりOB1、OB2、OB3の
透視投影変換後の画像は少しボケた画像となる。ZOB1, ZOB2, ZOB3> SZ 1 ZOB2, ZOB3> SZ 2 ZOB3> SZ 3 310 in FIG. 2A is a frame buffer in which a given image after perspective projection conversion is drawn, and If an area made up of pixels having a Z value larger than the threshold value SZ 1 is 312, the area 312 becomes the first pixel area that is the target of the blurring process specified by the threshold value SZ 1 . The first blurring process is performed on the pixels included in the first pixel region 310. Since the images after perspective projection conversion of OB1, OB2, and OB3 in FIG. 3 are all included in this first pixel area, the images after perspective projection conversion of OB1, OB2, and OB3 are slightly blurred by the first blurring process. It becomes an image.
【0076】図2(B)のフレームバッファ320には
第一のぼかし処理後の画像が描画されているとする。こ
こで各画素のZ値がしきい値SZ2より大きい画素から
なる領域を322とすると、322がしきい値SZ2に
よって特定されるぼかし処理の対象となる第二の画素領
域となる。第二の画素領域322に含まれる画素に対し
て第二のぼかし処理が行われる。図3のOB2、OB3
の透視投影変換後の画像はいずれもこの画素領域に含ま
れるため、第二のぼかし処理によりOB2、OB3の透
視投影変換後の画像はさらにボケた画像となる。It is assumed that the image after the first blurring process is drawn in the frame buffer 320 of FIG. 2 (B). Here, if an area consisting of pixels in which the Z value of each pixel is larger than the threshold value SZ 2 is 322, then 322 is the second pixel area that is the target of the blurring process specified by the threshold value SZ 2 . The second blurring process is performed on the pixels included in the second pixel area 322. OB2 and OB3 in FIG.
Since all the images after perspective projection conversion are included in this pixel region, the images after perspective projection conversion of OB2 and OB3 are further blurred by the second blurring process.
【0077】図2(C)のフレームバッファ330には
第二のぼかし処理後の画像が描画されているとする。こ
こで各画素のZ値がしきい値SZ3より大きい画素から
なる領域を332とすると、332がしきい値SZ3に
よって特定されるぼかし処理の対象となる第三の画素領
域となる。第三の画素領域332に含まれる画素に対し
て第三のぼかし処理が行われる。図3のOB3の透視投
影変換後の画像はこの画素領域に含まれるため、この第
三のぼかし処理によりOB3の透視投影変換後の画像は
またさらにボケた画像となる。It is assumed that the image after the second blurring processing is drawn in the frame buffer 330 of FIG. Here, if an area formed of pixels in which the Z value of each pixel is larger than the threshold value SZ 3 is 332, 332 is the third pixel area that is the target of the blurring process specified by the threshold value SZ 3 . The third blurring process is performed on the pixels included in the third pixel area 332. Since the image after the perspective projection conversion of OB3 in FIG. 3 is included in this pixel area, the image after the perspective projection conversion of OB3 becomes a further blurred image by the third blurring process.
【0078】このように本実施の形態では段階的に設定
された複数のしきい値によって特定された複数の画素領
域に対して重畳的にぼかし処理を行う。これにより注視
点から離れたオブジェクトほどぼやけの度合いが大きい
画像を生成することが出来る。As described above, in the present embodiment, blurring processing is performed in a superimposed manner on a plurality of pixel regions specified by a plurality of stepwise set thresholds. As a result, it is possible to generate an image with a greater degree of blurring as the object is farther from the gazing point.
【0079】なお複数回に分けて段階的にぼかし処理を
行うことにより、自然なぼやけ具合の画像を生成するこ
とが出来る。It is possible to generate an image with a natural blurring condition by performing the blurring process stepwise for a plurality of times.
【0080】本実施の形態の第二の特徴は、透視投影変
換後の所与の画像(以下元画像という)が描画された描
画領域においてぼかし処理の対象となる画素に対して、
元画像、元画像に近似した画像、元画像に関連した画
像、元画像を加工した画像のいずれかまたは、ぼかし処
理の対象となる画素の近傍の画素を用いて半透明描画処
理を行う点にある。The second feature of this embodiment is that for a pixel to be subjected to blurring processing in a drawing area in which a given image (hereinafter referred to as an original image) after perspective projection conversion is drawn,
The point that the semi-transparent drawing process is performed using any of the original image, an image close to the original image, an image related to the original image, an image obtained by processing the original image, or a pixel near the pixel to be subjected to the blurring process. is there.
【0081】図4は、本実施の形態の元画像を用いたぼ
かし処理の一例の原理について概念的に説明するための
図である。描画領域にかかれた元画像400をX軸及び
Y軸方向にそれぞれ所定ピクセルずらして半透明描画処
理を行うと、図4に示すように元画像がぶれて滲んだ様
子の画像を生成することが出来る。なお所定ピクセルと
は例えば0.5でも良いし1または数ピクセルでもよ
い。FIG. 4 is a diagram for conceptually explaining the principle of an example of the blurring process using the original image according to the present embodiment. When the semitransparent drawing process is performed by shifting the original image 400 drawn in the drawing area in the X-axis and Y-axis directions by predetermined pixels, an image in which the original image is blurred and blurred can be generated as shown in FIG. I can. The predetermined pixel may be, for example, 0.5, or 1 or several pixels.
【0082】図5は元画像をずらしてテクスチャ画像を
生成し半透明描画処理を行う手法の具体例について説明
するための図である。FIG. 5 is a diagram for explaining a specific example of a method of shifting the original image to generate a texture image and performing the semitransparent drawing process.
【0083】本実施の形態ではフレームバッファに描画
された画像510をX軸及びY軸方向に所定ピクセルず
らしたテクスチャ画像520を生成する。そしてフレー
ムバッファの画像510とテクスチャ画像520を所定
のα値を用いてαブレンディング処理を行いぼやけた画
像を生成する(530参照)。なお530はフレームバ
ッファ全画素についてαブレンディング処理を行った場
合のイメージ画像であるが、実際にはぼかし処理の対象
となった画素のみαブレンディング処理を行う。In this embodiment, a texture image 520 is generated by shifting the image 510 drawn in the frame buffer by a predetermined pixel in the X-axis and Y-axis directions. Then, the image 510 in the frame buffer and the texture image 520 are subjected to α blending processing using a predetermined α value to generate a blurred image (see 530). Note that 530 is an image image when the α blending process is performed on all the pixels of the frame buffer, but in reality, the α blending process is performed only on the pixels that are the target of the blurring process.
【0084】ここでフレームバッファのぼかし処理の対
象となった画素FPmの色情報をCsm(Rsm、Gsm、
Bsm)、対応する座標値を有するテクチャバッファの
画素TPmの色情報をCdm(Rdm、Gdm、Bdm)、
ブレンド係数をα、αブレンディング処理後のFPmの
色情報をCm(Rm、Gm、Bm)とすると以下の式が成り
立つ。Here, the color information of the pixel FP m subjected to the blurring process of the frame buffer is set to Cs m (Rs m , Gs m ,
Bs m ), the color information of the pixel TP m of the texture buffer having the corresponding coordinate value is Cd m (Rd m , Gd m , Bd m ),
When the blending coefficient is α and the color information of FP m after α blending processing is C m (R m , G m , B m ), the following formula is established.
【0085】
Cm=(1−α)Csm+αCdm
Rm=(1−α)Rsm+αRdm
Gm=(1−α)Gsm+αGdm
Bm=(1−α)Bsm+αBdm
図6は本実施の形態における奥行き値とぼかしの濃さの
関係の一例について説明するための図である。本実施の
形態では所与のアルゴリズムによって仮想カメラの視線
方向612に注視点620を与え、注視点620付近の
所定範囲をフォーカス範囲630として、その前後をそ
れぞれ手前方向のぼかし領域640、奥方向のぼかし領
域650とする。C m = (1-α) Cs m + αCd m R m = (1-α) Rs m + αRd m G m = (1-α) Gs m + αGd m B m = (1-α) Bs m + αBd m FIG. 6 is a diagram for explaining an example of the relationship between the depth value and the blur density in the present embodiment. In the present embodiment, a gazing point 620 is given in the line-of-sight direction 612 of the virtual camera by a given algorithm, and a predetermined range in the vicinity of the gazing point 620 is set as a focus range 630. A blurred area 650 is set.
【0086】ここにおいてZ3’、Z2’、Z1’、
Z0’、Z0、Z1、Z2、Z3は奥行き値を表しており、
Z0’とZ0、Z1’とZ1、Z2’とZ2、Z3’とZ3は注
視点から同程度はなれているとし、α0、α1、α2、α3
はぼかしの濃さとする。Here, Z 3 ', Z 2 ', Z 1 ',
Z 0 ', Z 0 , Z 1 , Z 2 and Z 3 represent depth values,
It is assumed that Z 0 'and Z 0 , Z 1 ' and Z 1 , Z 2 'and Z 2 , Z 3 ' and Z 3 are different from the gazing point, and α 0 , α 1 , α 2 , α 3
Is the depth of blur.
【0087】本実施の形態ではフォーカス範囲630と
手前方向のぼかし領域640及び奥方向のぼかし領域6
50との境界をなじませるため、ぼかしの濃さをα0<
α1<α2<α3‥‥と、フォーカス位置に近いほど薄く
なる値に設定している。そしてこのぼかしの濃さに基づ
いてアルファブレンディング処理を行う際のα値の値を
決定している。In the present embodiment, the focus range 630, the blurring area 640 in the front direction and the blurring area 6 in the back direction.
In order to fit the boundary with 50, the blur density is set to α 0 <
It is set to a value such that α 1 <α 2 <α 3 ... Then, the value of the α value at the time of performing the alpha blending process is determined based on the density of this blur.
【0088】図7は本実施の形態における奥方向のぼか
し処理の動作例を説明するためのフローチャート図であ
る。奥方向のぼかし処理とは図6の奥方向のぼかし領域
にたいして行うぼかし処理である。FIG. 7 is a flow chart for explaining an operation example of the blurring process in the depth direction in this embodiment. The blurring process in the back direction is a blurring process performed on the blurring region in the back direction in FIG.
【0089】透視投影変換後の画像(以下、元画像とい
う)をフレームバッファに描画する(ステップS1
0)。フレームバッファには一旦通常のレンダリング処
理を行ってぼやけていない状態の元画像が描画されてい
る。An image after perspective projection conversion (hereinafter referred to as an original image) is drawn in the frame buffer (step S1).
0). An original image in a non-blurred state is drawn in the frame buffer by performing a normal rendering process once.
【0090】このフレームバッファの元画像を少しだけ
ずらした画像をぼかし用テクスチャとして設定する(ス
テップS20)。An image obtained by slightly shifting the original image in the frame buffer is set as a blurring texture (step S20).
【0091】そして、ぼかし領域を決定する際のしきい
値SZ1〜SZN、これに対応したα値α1〜αNを設定す
る(ステップS30)。本実施の形態では各しきい値に
よって選別された画素にたいしてステップS50〜S1
00のぼかし処理を行う。ここではしきい値がN個だけ
与えられているので、ステップS50〜S100のぼか
し処理をN回行うことになる。Then, thresholds SZ 1 to SZ N for determining the blur area and α values α 1 to α N corresponding thereto are set (step S30). In the present embodiment, steps S50 to S1 are performed on the pixels selected by each threshold value.
00 blurring processing is performed. Since only N threshold values are given here, the blurring process of steps S50 to S100 is performed N times.
【0092】次に変数の初期設定(n=0、m=0)を
行う。ここで変数nはぼかし処理の回数を表す変数であ
り、変数mはフレームバッファの画素番号を表す変数で
ある。Next, the variables are initialized (n = 0, m = 0). Here, the variable n is a variable representing the number of blurring processes, and the variable m is a variable representing the pixel number of the frame buffer.
【0093】変数nをインクリメントしながら(ステッ
プS50)、ぼかし処理がN回終了するまでステップS
50〜S100の処理を行う。While incrementing the variable n (step S50), step S is performed until the blurring processing is completed N times.
The processing of 50 to S100 is performed.
【0094】また変数mをインクリメントしながら(ス
テップS60)、フレームバッファの全画素について処
理が終了するまでS60〜S90の処理を行う。Further, while incrementing the variable m (step S60), the processing of S60 to S90 is performed until the processing is completed for all the pixels of the frame buffer.
【0095】ここでフレームバッファの各画素FPmに
ついて画素のZ値PZmがしきい値SZnより奥である場
合には、フレームバッファの画素FPmとぼかし用テク
スチャの画素TPmについて、αnを用いて半透明描画処
理(αブレンディング処理)を行う(ステップS70、
S80)。[0095] Here, when Z value PZ m pixels for each pixel FP m of the frame buffer is deeper than the threshold SZ n is the pixel TP m pixel FP m and blur textures of the frame buffer, alpha A semi-transparent drawing process (α blending process) is performed using n (step S70,
S80).
【0096】フレームバッファの画素FPmの色情報を
Csm(Rs1,Gs1,Bs1)、テクスチャの画素TP
mの色情報Cdm(Rd2,Gd2,Bd2)とするとαnを
用いて以下のようにαブレンディング処理(以下の式
(1)〜(4)参照)を行い、各画素毎にぼやけた画像
の色情報Cm(Rm,Gm,Bm)を演算する。The color information of the pixel FP m of the frame buffer is Cs m (Rs 1 , Gs 1 , Bs 1 ) and the pixel TP of the texture.
If the color information of m is Cd m (Rd 2 , Gd 2 , Bd 2 ), α blending processing (see the following equations (1) to (4)) is performed using α n , and each pixel is processed. The color information C m (R m , G m , B m ) of the blurred image is calculated.
【0097】
Cm=Cpm・αn+Cpm(1−αn) ‥‥(1)
Rm=Rpm・αn+Rpm(1−αn) ‥‥(2)
Gm=Gpm・αn+Gpm(1−αn) ‥‥(3)
Bm=Bpm・αn+Bpm(1−αn) ‥‥(4)
このようにすることにより、対象となる画素のみぼやけ
処理を行うことが出来る。C m = C pm · α n + C pm (1-α n ) ... (1) R m = R pm · α n + R pm (1-α n ) ... (2) G m = G pm · α n + G pm (1 -α n) ‥‥ (3) B m = B pm · α n + B pm (1-α n) ‥‥ (4) by doing so, blurring only the pixel of interest Processing can be performed.
【0098】図8は本実施の形態における手前方向のぼ
かし処理の動作例を説明するためのフローチャート図で
ある。手前方向のぼかし処理とは図6の手前方向のぼか
し領域に対して行うぼかし処理である。FIG. 8 is a flow chart for explaining an operation example of the blurring process in the front direction in the present embodiment. The frontward blurring process is a blurring process performed on the frontward blurring region in FIG.
【0099】奥方向の場合と同様に、まず透視投影変換
後の画像(以下、元画像という)をフレームバッファに
描画する(ステップS210)。Similar to the case of the depth direction, first, the image after perspective projection conversion (hereinafter referred to as the original image) is drawn in the frame buffer (step S210).
【0100】そしてフレームバッファのZ値を反転させ
(ステップS220)、反転させたZ値を用いて奥方向
のぼかし処理(図7のステップS20〜S100)を行
う(ステップS230)。ここにおいて例えば反転させ
たZ値とは、フレームバッファのZ値をPZmとすれば
例えば1−PZm等でもよい。Then, the Z value of the frame buffer is inverted (step S220), and a blurring process in the depth direction (steps S20 to S100 in FIG. 7) is performed using the inverted Z value (step S230). Here, for example, the inverted Z value may be, for example, 1-PZ m if the Z value of the frame buffer is PZ m .
【0101】その後、反転させたZ値を再び反転させて
もとにもどす処理を行う。After that, a process of returning the inverted Z value to the original value by reversing it is performed.
【0102】図9は本実施の形態において奥方向に段階
的にぼやけ処理を施した場合のゲーム画像例である。図
9のゲーム画像は、視点位置に近い部分をフォーカス範
囲とし、奥行き値が大きくなるほどぼやけるようにしき
い値SZ1、SZ2、SZ3(SZ1<SZ2<SZ3)によ
り画素を選別して段階的でぼやけ処理を行った場合の画
像例である。画面手前の710がフォーカス範囲であり
ピントのあった画像となっている。720はSZ1<奥
行き値<SZ2の画素領域であり1回ぼやけ処理が行わ
れたエリアである。730はSZ2<奥行き値<SZ3の
画素領域であり2回ぼやけ処理が行われたエリアであ
る。730はSZ3<奥行き値の画素領域であり3回ぼ
やけ処理が行われたエリアである。ぼやけ処理が施され
るの回数がおおいほどぼやけの度合いが強くなるため、
図9に示すように遠くにいくほどぼやけた画像を生成す
ることができる。FIG. 9 shows an example of a game image when the blurring process is performed stepwise in the depth direction in this embodiment. In the game image of FIG. 9, a portion close to the viewpoint position is set as a focus range, and pixels are selected by threshold values SZ 1 , SZ 2 , and SZ 3 (SZ 1 <SZ 2 <SZ 3 ) so that the depth value becomes more blurred. It is an example of an image when the blurring process is performed step by step. An image 710 in front of the screen is the focus range and is in focus. A pixel area 720 is SZ 1 <depth value <SZ 2 and is an area to which the blurring process has been performed once. A pixel area 730 is SZ 2 <depth value <SZ 3 and is an area in which the blurring process has been performed twice. Reference numeral 730 denotes a pixel area with SZ 3 <depth value, which is an area on which blur processing has been performed three times. As the number of times the blurring process is performed increases, the degree of blurring increases, so
As shown in FIG. 9, a farther blurred image can be generated.
【0103】図10は本実施の形態において奥方向およ
び手前方向にそれぞれにぼやけ処理を施した場合のゲー
ム画像例である。図10のゲーム画像は、画面中央付近
の車を注視点として注視点から奥行き値が離れるほどぼ
やけるようにしきい値SZ1’、SZ1、(SZ1’<注
視点の奥行き値<SZ1)により画素を選別して段階的
でぼやけ処理を行った場合の画像例である。画面中央の
820がフォーカス範囲でありピントのあった画像とな
っている。810は奥行き値<SZ1’の画素領域であ
り、1回ぼやけ処理が行われたエリアである。830は
SZ1<奥行き値の画素領域であり1回ぼやけ処理が行
われたエリアである。FIG. 10 shows an example of a game image when blur processing is performed in the depth direction and the front direction in the present embodiment. In the game image of FIG. 10, the threshold value SZ 1 ', SZ 1 , (SZ 1 '<depth value of the gazing point <SZ 1 ) is set so that the car near the center of the screen becomes the gazing point and the depth value becomes more distant from the gazing point. It is an example of an image when pixels are selected by and blur processing is performed in stages. An image 820 in the center of the screen is the focus range and is in focus. Reference numeral 810 denotes a pixel area having a depth value <SZ 1 ', which is an area where blur processing has been performed once. Reference numeral 830 denotes a pixel area with SZ 1 <depth value, which is an area where blur processing has been performed once.
【0104】このように注視点の前後それぞれにたいし
て奥方向および手前方向のぼやけ処理を行うことにより
注視点から奥行き値が離れるほどぼやけた画像を生成す
ることが出来る。In this way, by performing the blurring processing in the depth direction and the front direction before and after the gazing point, it is possible to generate a blurred image as the depth value is farther from the gazing point.
【0105】3.ハードウェア構成
次に、本実施形態を実現できるハードウェアの構成の一
例について図11を用いて説明する。3. Hardware Configuration Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG.
【0106】メインプロセッサ900は、CD982
(情報記憶媒体)に格納されたプログラム、通信インタ
ーフェース990を介して転送されたプログラム、或い
はROM950(情報記憶媒体の1つ)に格納されたプ
ログラムなどに基づき動作し、ゲーム処理、画像処理、
音処理などの種々の処理を実行する。The main processor 900 is a CD982.
It operates based on a program stored in the (information storage medium), a program transferred via the communication interface 990, a program stored in the ROM 950 (one of the information storage media), game processing, image processing,
Various processing such as sound processing is executed.
【0107】コプロセッサ902は、メインプロセッサ
900の処理を補助するものであり、高速並列演算が可
能な積和算器や除算器を有し、マトリクス演算(ベクト
ル演算)を高速に実行する。例えば、オブジェクトを移
動させたり動作(モーション)させるための物理シミュ
レーションに、マトリクス演算などの処理が必要な場合
には、メインプロセッサ900上で動作するプログラム
が、その処理をコプロセッサ902に指示(依頼)す
る。The coprocessor 902 assists the processing of the main processor 900, has a product-sum calculator and a divider capable of high-speed parallel calculation, and executes matrix calculation (vector calculation) at high speed. For example, when a physical simulation for moving or moving an object requires a process such as a matrix calculation, a program operating on the main processor 900 instructs (requests) the coprocessor 902 to perform the process. ) Do.
【0108】ジオメトリプロセッサ904は、座標変
換、透視変換、光源計算、曲面生成などのジオメトリ処
理を行うものであり、高速並列演算が可能な積和算器や
除算器を有し、マトリクス演算(ベクトル演算)を高速
に実行する。例えば、座標変換、透視変換、光源計算な
どの処理を行う場合には、メインプロセッサ900で動
作するプログラムが、その処理をジオメトリプロセッサ
904に指示する。The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation, and curved surface generation, has a product-sum calculator and a divider capable of high-speed parallel calculation, and performs matrix calculation (vector calculation). Calculation) is executed at high speed. For example, when processing such as coordinate transformation, perspective transformation, and light source calculation is performed, the program running on the main processor 900 instructs the geometry processor 904 to perform the processing.
【0109】データ伸張プロセッサ906は、圧縮され
た画像データや音データを伸張するデコード処理を行っ
たり、メインプロセッサ900のデコード処理をアクセ
レートする処理を行う。これにより、オープニング画
面、インターミッション画面、エンディング画面、或い
はゲーム画面などにおいて、MPEG方式等で圧縮され
た動画像を表示できるようになる。なお、デコード処理
の対象となる画像データや音データは、ROM950、
CD982に格納されたり、或いは通信インターフェー
ス990を介して外部から転送される。The data decompression processor 906 performs a decoding process for decompressing the compressed image data and sound data, and a process for accelerating the decoding process of the main processor 900. As a result, a moving image compressed by the MPEG system or the like can be displayed on the opening screen, the intermission screen, the ending screen, the game screen, or the like. The image data and sound data to be decoded are stored in the ROM 950,
It is stored in the CD 982 or transferred from the outside via the communication interface 990.
【0110】描画プロセッサ910は、ポリゴンや曲面
などのプリミティブ面で構成されるオブジェクトの描画
(レンダリング)処理を高速に実行するものである。オ
ブジェクトの描画の際には、メインプロセッサ900
は、DMAコントローラ970の機能を利用して、オブ
ジェクトデータを描画プロセッサ910に渡すと共に、
必要であればテクスチャ記憶部924にテクスチャを転
送する。すると、描画プロセッサ910は、これらのオ
ブジェクトデータやテクスチャに基づいて、Zバッファ
などを利用した陰面消去を行いながら、オブジェクトを
フレームバッファ922に高速に描画する。また、描画
プロセッサ910は、αブレンディング(半透明処
理)、ミップマッピング、フォグ処理、トライリニア・
フィルタリング、アンチエリアシング、シェーディング
処理なども行うことができる。そして、1フレーム分の
画像がフレームバッファ922に書き込まれると、その
画像はディスプレイ912に表示される。The drawing processor 910 is for executing the drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces at high speed. When drawing an object, the main processor 900
Uses the function of the DMA controller 970 to pass the object data to the drawing processor 910 and
If necessary, the texture is transferred to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 at high speed while performing hidden surface removal using a Z buffer or the like based on these object data and texture. In addition, the drawing processor 910 uses α blending (semi-transparency processing), mip mapping, fog processing, trilinear processing.
Filtering, anti-aliasing, shading processing, etc. can also be performed. Then, when the image for one frame is written in the frame buffer 922, the image is displayed on the display 912.
【0111】サウンドプロセッサ930は、多チャンネ
ルのADPCM音源などを内蔵し、BGM、効果音、音
声などの高品位のゲーム音を生成する。生成されたゲー
ム音は、スピーカ932から出力される。The sound processor 930 incorporates a multi-channel ADPCM sound source, etc., and generates high-quality game sounds such as BGM, sound effects, and sounds. The generated game sound is output from the speaker 932.
【0112】ゲームコントローラ942からの操作デー
タや、メモリカード944からのセーブデータ、個人デ
ータは、シリアルインターフェース940を介してデー
タ転送される。The operation data from the game controller 942, save data from the memory card 944, and personal data are transferred via the serial interface 940.
【0113】ROM950にはシステムプログラムなど
が格納される。なお、業務用ゲームシステムの場合に
は、ROM950が情報記憶媒体として機能し、ROM
950に各種プログラムが格納されることになる。な
お、ROM950の代わりにハードディスクを利用する
ようにしてもよい。The ROM 950 stores system programs and the like. In the case of the arcade game system, the ROM 950 functions as an information storage medium,
Various programs are stored in 950. A hard disk may be used instead of the ROM 950.
【0114】RAM960は、各種プロセッサの作業領
域として用いられる。The RAM 960 is used as a work area for various processors.
【0115】DMAコントローラ970は、プロセッ
サ、メモリ(RAM、VRAM、ROM等)間でのDM
A転送を制御するものである。The DMA controller 970 is a DM between processors and memories (RAM, VRAM, ROM, etc.).
It controls the A transfer.
【0116】CDドライブ980は、プログラム、画像
データ、或いは音データなどが格納されるCD982
(情報記憶媒体)を駆動し、これらのプログラム、デー
タへのアクセスを可能にする。The CD drive 980 is a CD 982 in which programs, image data, sound data, etc. are stored.
(Information storage medium) is driven to enable access to these programs and data.
【0117】通信インターフェース990は、ネットワ
ークを介して外部との間でデータ転送を行うためのイン
ターフェースである。この場合に、通信インターフェー
ス990に接続されるネットワークとしては、通信回線
(アナログ電話回線、ISDN)、高速シリアルインタ
ーフェースのバスなどを考えることができる。そして、
通信回線を利用することでインターネットを介したデー
タ転送が可能になる。また、高速シリアルインターフェ
ースのバスを利用することで、他の画像生成システム、
他のゲームシステム、或いは情報処理機器(パーソナル
コンピュータ、プリンタ、マウス、キーボード)などと
の間でのデータ転送が可能になる。The communication interface 990 is an interface for transferring data with the outside via a network. In this case, as the network connected to the communication interface 990, a communication line (analog telephone line, ISDN), a high-speed serial interface bus, or the like can be considered. And
Data can be transferred via the Internet by using the communication line. Also, by using the bus of high-speed serial interface, other image generation system,
It is possible to transfer data to / from another game system or an information processing device (personal computer, printer, mouse, keyboard) or the like.
【0118】なお、本発明の各手段は、その全てを、ハ
ードウェアのみにより実行してもよいし、情報記憶媒体
に格納されるプログラムや通信インターフェースを介し
て配信されるプログラムのみにより実行してもよい。或
いは、ハードウェアとプログラムの両方により実行して
もよい。The respective means of the present invention may be executed entirely by hardware, or only by a program stored in an information storage medium or a program distributed via a communication interface. Good. Alternatively, it may be executed by both hardware and a program.
【0119】そして、本発明の各手段をハードウェアと
プログラムの両方により実行する場合には、情報記憶媒
体には、本発明の各手段をハードウェアを利用して実行
するためのプログラム(プログラム及びデータ)が格納
されることになる。より具体的には、上記プログラム
が、ハードウェアである各プロセッサ902、904、
906、910、930等に処理を指示すると共に、必
要であればデータを渡す。そして、各プロセッサ90
2、904、906、910、930等は、その指示と
渡されたデータとに基づいて、本発明の各手段を実行す
ることになる。When each means of the present invention is executed by both hardware and a program, a program (program and program for executing each means of the present invention is executed on the information storage medium. Data) will be stored. More specifically, the program is executed by each of the processors 902, 904, which are hardware,
The processing is instructed to 906, 910, 930, etc., and data is passed if necessary. Then, each processor 90
2, 904, 906, 910, 930, etc. will execute the respective means of the present invention based on the instruction and the passed data.
【0120】図12(A)に、本実施形態を業務用ゲー
ムシステムに適用した場合の例を示す。プレーヤは、デ
ィスプレイ1100上に映し出されたゲーム画像を見な
がら、レバー1102、ボタン1104等を操作してゲ
ームを楽しむ。内蔵されるシステムボード(サーキット
ボード)1106には、各種プロセッサ、各種メモリな
どが実装される。そして、本発明の各手段を実行するた
めのプログラム(或いはプログラム及びデータ)は、シ
ステムボード1106上の情報記憶媒体であるメモリ1
108に格納される。以下、この情報を格納情報と呼
ぶ。FIG. 12A shows an example in which this embodiment is applied to an arcade game system. The player enjoys the game by operating the lever 1102, the buttons 1104, etc. while watching the game image displayed on the display 1100. Various processors, various memories, etc. are mounted on the built-in system board (circuit board) 1106. The program (or program and data) for executing each unit of the present invention is the memory 1 which is an information storage medium on the system board 1106.
It is stored in 108. Hereinafter, this information will be referred to as stored information.
【0121】図12(B)に、本実施形態を家庭用のゲ
ームシステムに適用した場合の例を示す。プレーヤはデ
ィスプレイ1200に映し出されたゲーム画像を見なが
ら、ゲームコントローラ1202、1204を操作して
ゲームを楽しむ。この場合、上記格納情報は、本体シス
テムに着脱自在な情報記憶媒体であるCD1206、或
いはメモリカード1208、1209等に格納されてい
る。FIG. 12B shows an example in which this embodiment is applied to a home game system. While watching the game image displayed on the display 1200, the player operates the game controllers 1202 and 1204 to enjoy the game. In this case, the above-mentioned stored information is stored in the CD 1206 or the memory cards 1208, 1209, which is an information storage medium that can be detachably attached to the main body system.
【0122】図12(C)に、ホスト装置1300と、
このホスト装置1300とネットワーク1302(LA
Nのような小規模ネットワークや、インターネットのよ
うな広域ネットワーク)を介して接続される端末130
4-1〜1304-nとを含むシステムに本実施形態を適用
した場合の例を示す。この場合、上記格納情報は、例え
ばホスト装置1300が制御可能な磁気ディスク装置、
磁気テープ装置、メモリ等の情報記憶媒体1306に格
納されている。端末1304-1〜1304-nが、スタン
ドアロンでゲーム画像、ゲーム音を生成できるものであ
る場合には、ホスト装置1300からは、ゲーム画像、
ゲーム音を生成するためのゲームプログラム等が端末1
304-1〜1304-nに配送される。一方、スタンドア
ロンで生成できない場合には、ホスト装置1300がゲ
ーム画像、ゲーム音を生成し、これを端末1304-1〜
1304-nに伝送し端末において出力することになる。FIG. 12C shows a host device 1300,
This host device 1300 and network 1302 (LA
A terminal 130 connected via a small network such as N or a wide area network such as the Internet)
An example in which the present embodiment is applied to a system including 4-1 to 1304-n will be described. In this case, the stored information is, for example, a magnetic disk device that can be controlled by the host device 1300,
It is stored in an information storage medium 1306 such as a magnetic tape device or a memory. When the terminals 1304-1 to 1304-n are capable of standalone generation of game images and game sounds, the host device 1300 sends game images,
A game program or the like for generating a game sound is provided on the terminal 1
It is delivered to 304-1 to 1304-n. On the other hand, when it cannot be generated standalone, the host device 1300 generates a game image and a game sound, and the terminal device 1304-1 ...
It will be transmitted to 1304-n and output at the terminal.
【0123】なお、図12(C)の構成の場合に、本発
明の各手段を、ホスト装置(サーバー)と端末とで分散
して実行するようにしてもよい。また、本発明の各手段
を実行するための上記格納情報を、ホスト装置(サーバ
ー)の情報記憶媒体と端末の情報記憶媒体に分散して格
納するようにしてもよい。In the case of the configuration of FIG. 12C, the respective means of the present invention may be distributed and executed by the host device (server) and the terminal. Further, the above stored information for executing each means of the present invention may be distributed and stored in the information storage medium of the host device (server) and the information storage medium of the terminal.
【0124】またネットワークに接続する端末は、家庭
用ゲームシステムであってもよいし業務用ゲームシステ
ムであってもよい。そして、業務用ゲームシステムをネ
ットワークに接続する場合には、業務用ゲームシステム
との間で情報のやり取りが可能であると共に家庭用ゲー
ムシステムとの間でも情報のやり取りが可能な携帯型情
報記憶装置(メモリカード、携帯型ゲーム装置)を用い
ることが望ましい。The terminal connected to the network may be a home game system or an arcade game system. When the arcade game system is connected to a network, a portable information storage device is capable of exchanging information with the arcade game system and also with the home game system. (Memory card, portable game device) is preferably used.
【0125】なお本発明は、上記実施形態で説明したも
のに限らず、種々の変形実施が可能である。The present invention is not limited to that described in the above embodiment, and various modifications can be made.
【0126】例えば、本発明のうち従属請求項に係る発
明においては、従属先の請求項の構成要件の一部を省略
する構成とすることもできる。また、本発明の1の独立
請求項に係る発明の要部を、他の独立請求項に従属させ
ることもできる。For example, in the inventions according to the dependent claims of the present invention, it is possible to omit some of the constituent elements of the dependent claims. Further, a main part of the invention according to one independent claim of the present invention can be made dependent on another independent claim.
【0127】本実施の形態形態では、ぼかし処理の対象
となる画素に対してその近傍の画素を用いて半透明描画
処理を行う場合及び元画像をずらした画像を用いて半透
明描画処理を行う場合を例にとり説明したがこれに限ら
れない。In the present embodiment, when a pixel to be subjected to blurring processing is subjected to semi-transparent drawing processing by using pixels in the vicinity of the pixel, semi-transparent drawing processing is performed using an image obtained by shifting the original image. The case has been described as an example, but the present invention is not limited to this.
【0128】例えば半透明描画処理ではなく、画素単位
で色情報の合成演算を行い演算結果を描画領域に書き込
む場合でもよい。For example, instead of the semi-transparent drawing process, the color information combining operation may be performed pixel by pixel and the operation result may be written in the drawing area.
【0129】また例えば元画像に関連した画像として1
フレーム前の画像を用いて半透明描画処理を行ってもよ
いし、元画像を加工した画像を用いて半透明描画処理を
行っても良い。Also, for example, as an image related to the original image, 1
The semi-transparent drawing process may be performed using the image before the frame, or the semi-transparent drawing process may be performed using the image obtained by processing the original image.
【0130】また半透明描画の例としてαブレンディン
グ処理を例にとり説明したがこれに限られない。例えば
α加算処理でも良いし、α減算処理でもよい。Further, the α blending process has been described as an example of the semi-transparent drawing, but the present invention is not limited to this. For example, α addition processing or α subtraction processing may be performed.
【0131】また本実施の形態では段階的なぼかしをか
ける場合には、各しきい値によって特定された画素集合
に対して複数回に分けて重畳的にぼかし処理を行う場合
を例にとり説明したがこれに限られない。例えば、各画
素の奥行き値に応じて異なるα値を設定して、画素毎に
異なるα値を用いて1回のぼかし処理で段階的なぼかし
をかけてもよい。Further, in the present embodiment, in the case of performing the stepwise blurring, the case where the blurring processing is performed in a superimposed manner by dividing the pixel set specified by each threshold into a plurality of times has been described as an example. Is not limited to this. For example, different α values may be set according to the depth value of each pixel, and stepwise blurring may be performed in a single blurring process using different α values for each pixel.
【0132】また本実施の形態では視点から遠ざかるほ
ど奥行き値が大きくなる場合を例にとり説明したがこれ
に限られない。例えば視点から遠ざかるほど奥行き値が
小さくなる場合でもよい。Further, the present embodiment has been described by taking the case where the depth value increases as the distance from the viewpoint increases, but the present invention is not limited to this. For example, the depth value may decrease as the distance from the viewpoint increases.
【0133】また本発明はレーシングゲーム以外にも種
々のゲーム(格闘ゲーム、シューティングゲーム、ロボ
ット対戦ゲーム、スポーツゲーム、競争ゲーム、ロール
プレイングゲーム、音楽演奏ゲーム、ダンスゲーム等)
に適用できる。Further, the present invention is applicable to various games other than racing games (fighting games, shooting games, robot battle games, sports games, competition games, role-playing games, music playing games, dance games, etc.).
Applicable to
【0134】また本発明は、業務用ゲームシステム、家
庭用ゲームシステム、多数のプレーヤが参加する大型ア
トラクションシステム、シミュレータ、マルチメディア
端末、画像生成システム、ゲーム画像を生成するシステ
ムボード等の種々の画像生成システムに適用できる。The present invention is also applicable to various images such as a game system for business use, a game system for home use, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, an image generation system, and a system board for generating a game image. Applicable to generation system.
【図1】本実施形態の画像生成システムのブロック図の
例である。FIG. 1 is an example of a block diagram of an image generation system of this embodiment.
【図2】図2(A)〜(C)はしきい値を用いたぼかし
処理の対象となる画素の選別例について説明するための
図である。FIGS. 2A to 2C are diagrams for explaining an example of selecting pixels to be subjected to blurring processing using a threshold value.
【図3】本実施の形態におけるしきい値とぼかし処理の
対象となる画素の透視投影変換前のオブジェクトの3次
元的な位置関係について説明するための図である。FIG. 3 is a diagram for describing a three-dimensional positional relationship between an object before perspective projection conversion of a threshold value and a pixel to be subjected to blurring processing in the present embodiment.
【図4】本実施の形態の元画像を用いたぼかし処理の一
例の原理について概念的に説明するための図である。FIG. 4 is a diagram for conceptually explaining the principle of an example of blurring processing using an original image according to the present embodiment.
【図5】元画像をずらしてテクスチャ画像を生成し半透
明描画処理を行う手法の具体例について説明するための
図である。FIG. 5 is a diagram for explaining a specific example of a method of generating a texture image by shifting an original image and performing a semi-transparent drawing process.
【図6】本実施の形態における奥行き値とぼかしの濃さ
の関係の一例について説明するための図である。FIG. 6 is a diagram for explaining an example of a relationship between a depth value and a blur density according to the present embodiment.
【図7】本実施の形態における奥方向のぼかし処理の動
作例を説明するためのフローチャート図である。FIG. 7 is a flow chart diagram for explaining an operation example of a blurring process in the depth direction in the present embodiment.
【図8】本実施の形態における手前方向のぼかし処理の
動作例を説明するためのフローチャート図である。FIG. 8 is a flowchart for explaining an operation example of a blurring process in the front direction according to the present embodiment.
【図9】本実施の形態において奥方向に段階的にぼやけ
処理を施した場合のゲーム画像例である。FIG. 9 is an example of a game image when the blurring process is performed stepwise in the depth direction in the present embodiment.
【図10】本実施の形態において奥方向および手前方向
にそれぞれにぼやけ処理を施した場合のゲーム画像例で
ある。FIG. 10 is an example of a game image when blur processing is performed in the depth direction and the front direction in the present embodiment.
【図11】本実施形態を実現できるハードウェアの構成
の一例を示す図である。FIG. 11 is a diagram showing an example of a hardware configuration capable of realizing the present embodiment.
【図12】図12(A)、(B)、(C)は、本実施形
態が適用される種々の形態のシステムの例を示す図であ
る。12 (A), (B), and (C) are diagrams showing examples of various types of systems to which the present embodiment is applied.
100 処理部 110 ゲーム処理部 112 移動・動作演算部 114 注視点設定部 140 画像生成部 142 ジオメトリ処理部 144 ぼかし処理部 146 描画部 150 音生成部 160 操作部 170 記憶部 172 メインメモリ 174 フレームバッファ 176 テクスチャ記憶部 180 情報記憶媒体 190 表示部 192 音出力部 194 携帯型情報記憶装置 196 通信部 100 processing unit 110 Game processing unit 112 Movement / motion calculation unit 114 gazing point setting section 140 image generator 142 Geometry processing unit 144 Blur processing unit 146 Drawing unit 150 sound generator 160 Operation part 170 storage 172 main memory 174 frame buffer 176 Texture storage 180 Information storage medium 190 Display 192 sound output section 194 Portable information storage device 196 Communications Department
フロントページの続き Fターム(参考) 2C001 AA09 BA02 BA05 BA06 BC04 BC05 BC08 CB01 CB03 CB06 CB08 5B050 AA08 BA08 BA09 BA18 CA02 CA07 CA08 EA09 EA15 EA24 EA27 EA28 FA02 FA05 FA10 5B080 BA04 CA01 CA03 FA02 FA03 FA17 GA02 GA22 Continued front page F-term (reference) 2C001 AA09 BA02 BA05 BA06 BC04 BC05 BC08 CB01 CB03 CB06 CB08 5B050 AA08 BA08 BA09 BA18 CA02 CA07 CA08 EA09 EA15 EA24 EA27 EA28 FA02 FA05 FA10 5B080 BA04 CA01 CA03 FA02 FA03 FA17 GA02 GA22
Claims (4)
生成システムであって、 透視投影変換後の所与の画像が描画された描画領域にお
いて、各画素の奥行き値に基づいてぼかし処理の対象と
なる画素を決定する手段と、 ぼかし処理の対象となる画素に対してその近傍の画素を
用いて画素単位の合成処理を行う手段と、 を含むことを特徴とする画像生成システム。1. An image generation system for generating an image in a three-dimensional space, comprising a blurring process based on a depth value of each pixel in a drawing area in which a given image after perspective projection conversion is drawn. An image generation system comprising: a unit for determining a target pixel; and a unit for performing a pixel-by-pixel combination process on a pixel to be a blurring target by using pixels in the vicinity thereof.
生成システムであって、 透視投影変換後の所与の画像が描画された描画領域にお
いて、各画素の奥行き値に基づいてぼかし処理の対象と
なる画素を決定する手段と、 ぼかし処理の対象となる画素に対して、前記所与の画
像、前記所与の画像に近似した画像、前記所与の画像に
関連した画像、前記所与の画像を加工した画像のいずれ
かを用いて画素単位の合成処理を行う手段と、 を含むことを特徴とする画像生成システム。2. An image generation system for generating an image in a three-dimensional space, comprising a blurring process based on a depth value of each pixel in a drawing region in which a given image after perspective projection conversion is drawn. A means for determining a pixel to be a target, a pixel to be a blurring target, the given image, an image close to the given image, an image related to the given image, the given An image generation system comprising: means for performing a pixel-by-pixel combination process using any one of the processed images.
ピュータが使用可能な情報記憶媒体であって、 透視投影変換後の所与の画像が描画された描画領域にお
いて、各画素の奥行き値に基づいてぼかし処理の対象と
なる画素を決定する手段と、 ぼかし処理の対象となる画素に対してその近傍の画素を
用いて画素単位の合成処理を行う手段と、 を実行するためのプログラムが記憶されていることを特
徴とする情報記憶媒体。3. An information storage medium usable by a computer for generating an image in a three-dimensional space, wherein a depth value of each pixel is set in a drawing area in which a given image after perspective projection conversion is drawn. A means for determining a pixel to be subjected to blurring processing based on the blurring means, a means for performing pixel-by-pixel combining processing using pixels in the vicinity of the pixel to be blurring processing, and a program for executing An information storage medium characterized by being provided.
ピュータが使用可能な情報記憶媒体であって、 透視投影変換後の所与の画像が描画された描画領域にお
いて、各画素の奥行き値に基づいてぼかし処理の対象と
なる画素を決定する手段と、 ぼかし処理の対象となる画素に対して、前記所与の画
像、前記所与の画像に近似した画像、前記所与の画像に
関連した画像、前記所与の画像を加工した画像のいずれ
かを用いて画素単位の合成処理を行う手段と、 を実行するためのプログラムが記憶されていることを特
徴とする情報記憶媒体。4. A computer-usable information storage medium for generating an image in a three-dimensional space, wherein a depth value of each pixel is set in a drawing area in which a given image after perspective projection conversion is drawn. A means for determining a pixel to be subjected to blurring processing based on the given image, an image close to the given image, and a pixel related to the given image with respect to the pixel to be subjected to the blurring processing. An information storage medium, which stores an image and a unit for performing pixel-by-pixel combining processing using any one of an image obtained by processing the given image, and a program for executing the following.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002150349A JP2003051024A (en) | 2002-05-24 | 2002-05-24 | Image generation system and information storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002150349A JP2003051024A (en) | 2002-05-24 | 2002-05-24 | Image generation system and information storage medium |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP34531499A Division JP3350654B2 (en) | 1999-12-03 | 1999-12-03 | Image generation system and information storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003051024A true JP2003051024A (en) | 2003-02-21 |
JP2003051024A5 JP2003051024A5 (en) | 2007-01-18 |
Family
ID=19194730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002150349A Pending JP2003051024A (en) | 2002-05-24 | 2002-05-24 | Image generation system and information storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003051024A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006004364A (en) * | 2004-06-21 | 2006-01-05 | Namco Ltd | Program, information storage medium and image generation system |
JP2006221128A (en) * | 2005-01-12 | 2006-08-24 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional display method and three-dimensional display device |
JP2007272273A (en) * | 2006-03-30 | 2007-10-18 | Namco Bandai Games Inc | Image generation system, program, and information storage medium |
JP2009015263A (en) * | 2007-07-09 | 2009-01-22 | Nintendo Co Ltd | Image processing program and image processing device |
JP2009199136A (en) * | 2008-02-19 | 2009-09-03 | Dainippon Printing Co Ltd | Image generation device, image generation method, and computer program |
CN1696973B (en) * | 2004-05-11 | 2010-04-14 | 世嘉股份有限公司 | Image processing method, game processing method, image processing apparatus and game processing apparatus |
JP2011039520A (en) * | 2001-08-07 | 2011-02-24 | Square Enix Co Ltd | Electronic information processing device and method |
US8687002B2 (en) | 2006-09-29 | 2014-04-01 | Samsung Electronics Co., Ltd. | Method, medium and system rendering 3-D graphics data having an object to which a motion blur effect is to be applied |
-
2002
- 2002-05-24 JP JP2002150349A patent/JP2003051024A/en active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039520A (en) * | 2001-08-07 | 2011-02-24 | Square Enix Co Ltd | Electronic information processing device and method |
CN1696973B (en) * | 2004-05-11 | 2010-04-14 | 世嘉股份有限公司 | Image processing method, game processing method, image processing apparatus and game processing apparatus |
JP4521811B2 (en) * | 2004-06-21 | 2010-08-11 | 株式会社バンダイナムコゲームス | Program, information storage medium, and image generation system |
JP2006004364A (en) * | 2004-06-21 | 2006-01-05 | Namco Ltd | Program, information storage medium and image generation system |
JP2006221128A (en) * | 2005-01-12 | 2006-08-24 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional display method and three-dimensional display device |
JP4593359B2 (en) * | 2005-01-12 | 2010-12-08 | 日本電信電話株式会社 | 3D display method and 3D display device |
JP4743770B2 (en) * | 2006-03-30 | 2011-08-10 | 株式会社バンダイナムコゲームス | Image generation system, program, and information storage medium |
JP2007272273A (en) * | 2006-03-30 | 2007-10-18 | Namco Bandai Games Inc | Image generation system, program, and information storage medium |
US8687002B2 (en) | 2006-09-29 | 2014-04-01 | Samsung Electronics Co., Ltd. | Method, medium and system rendering 3-D graphics data having an object to which a motion blur effect is to be applied |
US8976180B2 (en) | 2006-09-29 | 2015-03-10 | Samsung Electronics Co., Ltd. | Method, medium and system rendering 3-D graphics data having an object to which a motion blur effect is to be applied |
JP2009015263A (en) * | 2007-07-09 | 2009-01-22 | Nintendo Co Ltd | Image processing program and image processing device |
US8421795B2 (en) | 2007-07-09 | 2013-04-16 | Nintendo Co., Ltd. | Storage medium having image processing program stored thereon and image processing apparatus |
JP2009199136A (en) * | 2008-02-19 | 2009-09-03 | Dainippon Printing Co Ltd | Image generation device, image generation method, and computer program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3747050B1 (en) | Program, information storage medium, and image generation system | |
JP3350654B2 (en) | Image generation system and information storage medium | |
JP2001319244A (en) | Game system and information storage medium | |
JP2003051024A (en) | Image generation system and information storage medium | |
JP3280355B2 (en) | Image generation system and information storage medium | |
JP3413383B2 (en) | GAME SYSTEM AND INFORMATION STORAGE MEDIUM | |
US6847361B1 (en) | Image generation system and program | |
JP3442344B2 (en) | GAME SYSTEM AND INFORMATION STORAGE MEDIUM | |
JP4367804B2 (en) | Image generation system and information storage medium | |
JP2001084392A (en) | Picture generation system and information storage medium | |
US7796132B1 (en) | Image generation system and program | |
JP4245356B2 (en) | GAME SYSTEM AND INFORMATION STORAGE MEDIUM | |
JP3297410B2 (en) | Image generation system and information storage medium | |
JP2005209217A (en) | Game system and information storage medium | |
JP2001229403A (en) | Game system and information storage medium | |
JP3254195B2 (en) | Image generation system and information storage medium | |
JP4497690B2 (en) | GAME SYSTEM AND INFORMATION STORAGE MEDIUM | |
JP4574058B2 (en) | Image generation system, program, and information storage medium | |
JP3431562B2 (en) | GAME SYSTEM AND INFORMATION STORAGE MEDIUM | |
JP3614340B2 (en) | GAME SYSTEM AND INFORMATION STORAGE MEDIUM | |
JP3420987B2 (en) | GAME SYSTEM AND INFORMATION STORAGE MEDIUM | |
JP2003162734A (en) | Game system and information storage medium | |
JP2004329791A (en) | Image forming system, program, and information storing medium | |
JP2005275795A (en) | Program, information storage medium and image generation system | |
JP4632530B2 (en) | GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061128 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090904 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090916 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100127 |