JP4847572B2 - Image processing apparatus, image processing apparatus control method, and program - Google Patents
Image processing apparatus, image processing apparatus control method, and program Download PDFInfo
- Publication number
- JP4847572B2 JP4847572B2 JP2009259729A JP2009259729A JP4847572B2 JP 4847572 B2 JP4847572 B2 JP 4847572B2 JP 2009259729 A JP2009259729 A JP 2009259729A JP 2009259729 A JP2009259729 A JP 2009259729A JP 4847572 B2 JP4847572 B2 JP 4847572B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual
- dimensional space
- viewpoint
- depth information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 71
- 238000000034 method Methods 0.000 title claims description 64
- 239000000203 mixture Substances 0.000 claims description 10
- 230000015572 biosynthetic process Effects 0.000 claims description 6
- 238000003786 synthesis reaction Methods 0.000 claims description 6
- 230000002093 peripheral effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 18
- 230000015654 memory Effects 0.000 description 18
- 230000003287 optical effect Effects 0.000 description 17
- 238000013500 data storage Methods 0.000 description 14
- 238000012986 modification Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 7
- 238000013459 approach Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 125000000524 functional group Chemical group 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
本発明は、画像処理装置、画像処理装置の制御方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, a control method for the image processing apparatus, and a program.
ゲームキャラクタ等の各種オブジェクトが配置された仮想3次元空間を、所与の視点から見た様子を表示する画像処理装置が知られている。特許文献1には、雪や雨が降っている様子等を画面に表示させる際の処理負荷を軽減するための技術が記載されている。
There is known an image processing apparatus that displays a virtual three-dimensional space in which various objects such as game characters are arranged as viewed from a given viewpoint.
上記のような画像処理装置においては、視点に近いオブジェクトを鮮明に表示させ、視点から遠いオブジェクトをぼかして表示させると、画面に遠近感が表現される。遠近感を表現する方法として、例えば、オブジェクトをぼかさない画像と、オブジェクトをぼかした画像と、を各画素の奥行き情報に応じた割合で合成する手法が考えられる。この場合、奥行きがある画素ほど、オブジェクトをぼかした画像の割合が多くなるようにする。即ち、視点から離れたオブジェクトほど、画面には、ぼかされて表示される。 In the image processing apparatus as described above, when an object close to the viewpoint is clearly displayed and an object far from the viewpoint is blurred and displayed, a sense of perspective is expressed on the screen. As a method of expressing perspective, for example, a method of combining an image that does not blur the object and an image that is blurred of the object at a ratio according to the depth information of each pixel is conceivable. In this case, the ratio of the image in which the object is blurred increases as the pixel has a depth. That is, the object that is farther from the viewpoint is blurred and displayed on the screen.
しかしながら、例えば、多数の精密なオブジェクトが仮想3次元空間に配置されると、仮想3次元空間に含まれるポリゴン数の増加に起因して、奥行き情報の作成処理は複雑になる。つまり、遠近感を表現した画面を表示する際に、画像処理装置の処理負荷が増大する可能性がある。 However, for example, when a large number of precise objects are arranged in the virtual three-dimensional space, the depth information creation process becomes complicated due to an increase in the number of polygons included in the virtual three-dimensional space. That is, there is a possibility that the processing load of the image processing apparatus increases when displaying a screen expressing a sense of perspective.
本発明は、上記課題に鑑みてなされたものであって、その目的とするところは、処理負荷を軽減しつつ、遠近感を表現した画面を表示させることが可能な画像処理装置、画像処理装置の制御方法、及びプログラムを提供することである。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing apparatus and an image processing apparatus capable of displaying a screen expressing a sense of perspective while reducing a processing load. It is providing the control method and program of this.
上記課題を解決するために、本発明に係る画像処理装置は、複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置であって、前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成手段と、前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成手段と、前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得手段と、前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御手段と、を含むことを特徴とする。 In order to solve the above problems, an image processing apparatus according to the present invention is an image processing apparatus that displays a screen representing a state in which a first virtual three-dimensional space in which a plurality of objects are arranged is viewed from a given viewpoint. A first image creating means for creating a first image representing a state of viewing the first virtual three-dimensional space from the viewpoint; and a state of viewing the first virtual three-dimensional space from the viewpoint. A second image creating means for creating a second image subjected to the blurring process, and a second virtual three-dimensional space in which the number of polygons is reduced as compared with the first virtual three-dimensional space from the viewpoint. Depth information acquisition means for acquiring depth information regarding the distance from the viewpoint for each pixel of the image representing the appearance, and a ratio of synthesis of each pixel of the first image and the second image based on the depth information. The first image and the second image Display control means for displaying the synthesized screen, characterized in that it comprises a.
また、本発明に係る画像処理装置の制御方法は、複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置の制御方法であって、前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成ステップと、前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成ステップと、前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得ステップと、前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御ステップと、を含むことを特徴とする。 The image processing apparatus control method according to the present invention is a control method for an image processing apparatus that displays a screen representing a state in which a first virtual three-dimensional space in which a plurality of objects are arranged is viewed from a given viewpoint. A first image creating step of creating a first image representing a state of viewing the first virtual three-dimensional space from the viewpoint; and a state of viewing the first virtual three-dimensional space from the viewpoint. A second image creation step for creating a second image subjected to the blurring process, and a second virtual three-dimensional space in which the number of polygons is reduced as compared with the first virtual three-dimensional space. A depth information acquisition step for acquiring depth information regarding the distance from the viewpoint for each pixel of the image representing the appearance, and a ratio of synthesis of each pixel of the first image and the second image based on the depth information. The first picture When the second image is characterized by comprising a display control step of displaying the screen which is synthesized, a.
また、本発明に係るプログラムは、複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置としてコンピュータを機能させるためのプログラムであって、前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成手段、前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成手段、前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得手段、前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御手段、として前記コンピュータを機能させることを特徴とする。 The program according to the present invention is a program for causing a computer to function as an image processing apparatus that displays a screen representing a state in which a first virtual three-dimensional space in which a plurality of objects are arranged is viewed from a given viewpoint. A first image creating means for creating a first image representing a state of viewing the first virtual three-dimensional space from the viewpoint; a state of viewing the first virtual three-dimensional space from the viewpoint; Second image creation means for creating a second image that has been subjected to the blurring process, and a second virtual three-dimensional space in which the number of polygons is reduced as compared to the first virtual three-dimensional space as seen from the viewpoint Depth information acquisition means for acquiring depth information regarding the distance from the viewpoint for each pixel of the image that represents the ratio of the synthesis of the pixels of the first image and the second image based on the depth information. The above And second images are characterized by causing the computer to function as a display control unit, to display a screen that has been synthesized.
本発明によれば、処理負荷を軽減しつつ、遠近感を表現した画面を表示させることが可能になる。 According to the present invention, it is possible to display a screen expressing perspective while reducing the processing load.
また、本発明の一態様では、前記奥行き情報取得手段は、前記複数のオブジェクトのうち所定のオブジェクトが取り除かれた前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする。 Moreover, in one aspect of the present invention, the depth information acquisition unit includes each pixel of an image representing a state in which the second virtual three-dimensional space from which a predetermined object is removed from the plurality of objects is viewed from the viewpoint. It is characterized in that depth information regarding the distance from the viewpoint is acquired every time.
また、本発明の一態様では、前記第2の仮想3次元空間は、前記複数のオブジェクトのうち前記視点との距離が所定値以上の前記所定のオブジェクトが取り除かれたものであることを特徴とする。 In the aspect of the present invention, the second virtual three-dimensional space is obtained by removing the predetermined object whose distance from the viewpoint is a predetermined value or more from the plurality of objects. To do.
また、本発明の一態様では、前記奥行き情報取得手段は、前記複数のオブジェクトのうち所定のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられた前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする。 In the aspect of the invention, the depth information acquisition unit may include the second virtual three-dimensional space in which the predetermined object among the plurality of objects is replaced with an object having a smaller number of polygons than the object. Depth information regarding the distance from the viewpoint is acquired for each pixel of an image representing a state viewed from the viewpoint.
また、本発明の一態様では、前記第2の仮想3次元空間は、前記複数のオブジェクトのうち前記視点との奥行きが所定値以上の前記所定のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられたものであることを特徴とする。 In the aspect of the present invention, the second virtual three-dimensional space may include an object in which the predetermined object having a depth with respect to the viewpoint of the plurality of objects is less than a predetermined number of polygons than the object. It is characterized by being replaced by.
また、本発明の一態様では、前記第2画像作成手段は、前記第1の仮想3次元空間を前記視点から見た様子を表す画像の注目画素と、当該注目画素に隣接する複数の周囲画素の何れかと、の当該視点に対応する奥行きの差が基準値以上である場合、当該周囲画素の色に基づいて前記注目画素に基づく所定領域の色を変更した画像を取得する取得手段を含み、当該画像にぼかし処理を施すことによって前記第2画像を作成することを特徴とする。 In one aspect of the present invention, the second image creating means includes a target pixel of an image representing a state in which the first virtual three-dimensional space is viewed from the viewpoint, and a plurality of surrounding pixels adjacent to the target pixel. If the difference in depth corresponding to the viewpoint with any of the above is equal to or greater than a reference value, an acquisition unit that acquires an image in which the color of the predetermined region based on the target pixel is changed based on the color of the surrounding pixel, The second image is created by performing a blurring process on the image.
また、本発明の一態様では、前記第1の仮想3次元空間は、少なくともキャラクタオブジェクトと、スポーツの会場を表すオブジェクトが配置されたスポーツゲームの空間であって、前記奥行き情報取得手段は、前記第1の仮想3次元空間に比べて少なくとも前記キャラクタオブジェクトに対応するポリゴンの数が削減された前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする。 In the aspect of the invention, the first virtual three-dimensional space is a sports game space in which at least a character object and an object representing a sports venue are arranged, and the depth information acquisition unit includes the depth information acquisition unit, For each pixel of the image representing the state in which the second virtual three-dimensional space in which at least the number of polygons corresponding to the character object is reduced compared to the first virtual three-dimensional space is viewed from the viewpoint, the viewpoint It is characterized by acquiring depth information related to the distance from.
[1.実施形態1]
以下、本発明の実施形態の一例について図面に基づき詳細に説明する。ここでは、画像処理装置の一態様であるゲーム装置に本発明を適用した場合について説明する。本発明の実施形態に係るゲーム装置は、例えば、家庭用ゲーム機(据置型ゲーム機)、携帯ゲーム機、携帯電話機、携帯情報端末(PDA)又はパーソナルコンピュータ等によって実現される。ここでは、実施形態1に係るゲーム装置を家庭用ゲーム機によって実現する場合について説明する。
[1. Embodiment 1]
Hereinafter, an example of an embodiment of the present invention will be described in detail based on the drawings. Here, a case where the present invention is applied to a game device which is an aspect of an image processing device will be described. The game device according to the embodiment of the present invention is realized by, for example, a home game machine (stationary game machine), a portable game machine, a mobile phone, a personal digital assistant (PDA), a personal computer, or the like. Here, a case where the game device according to the first embodiment is realized by a consumer game machine will be described.
[1−1.ゲーム装置のハードウェア構成]
図1は、本発明の実施形態に係るゲーム装置のハードウェア構成を示す図である。図1に示すように、ゲーム装置10においては、家庭用ゲーム機11に情報記憶媒体である光ディスク25及びメモリカード28が装着される。また、ゲーム装置10には、表示部18及び音声出力部22が接続される。例えば、表示部18には家庭用テレビ受像機が用いられ、音声出力部22にはその内蔵スピーカが用いられる。
[1-1. Hardware configuration of game device]
FIG. 1 is a diagram illustrating a hardware configuration of a game device according to an embodiment of the present invention. As shown in FIG. 1, in the game apparatus 10, an optical disk 25 and a
家庭用ゲーム機11は、バス12、マイクロプロセッサ14、画像処理部16、音声処理部20、光ディスク再生部24、主記憶26、入出力処理部30及びコントローラ32を含んで構成される公知のコンピュータゲームシステムである。コントローラ32以外の構成要素は筐体内に収容される。
The home game machine 11 is a known computer including a
バス12は、アドレス及びデータを家庭用ゲーム機11の各部でやり取りするためのものである。マイクロプロセッサ14、画像処理部16、主記憶26及び入出力処理部30は、バス12によって相互データ通信可能に接続される。
The
マイクロプロセッサ14は、図示しないROMに格納されるオペレーティングシステム、光ディスク25から読み出されるプログラムや、メモリカード28から読み出されるデータに基づいて、家庭用ゲーム機11の各部を制御する。
The
主記憶26は、例えばRAMを含んで構成されるものであり、光ディスク25から読み出されたプログラムやメモリカード28から読み出されたデータが必要に応じて書き込まれる。主記憶26は、マイクロプロセッサ14の作業用メモリとしても用いられる。
The
画像処理部16は、VRAMを含んで構成される。画像処理部16は、マイクロプロセッサ14から送られる画像データに基づいてVRAM上にゲーム画面を描画する。画像処理部16は、この内容をビデオ信号に変換して所定のタイミングで表示部18に出力する。
The
入出力処理部30は、マイクロプロセッサ14が音声処理部20、光ディスク再生部24、メモリカード28及びコントローラ32にアクセスするためのインタフェースである。入出力処理部30には、音声処理部20、光ディスク再生部24、メモリカード28及びコントローラ32が接続される。
The input /
音声処理部20はサウンドバッファを含んで構成される。音声処理部20は、光ディスク25から読み出されてサウンドバッファに記憶されたゲーム音楽、ゲーム効果音、メッセージ等の各種音声データを音声出力部22から出力する。
The
光ディスク再生部24は、マイクロプロセッサ14からの指示に従って光ディスク25に記録されたプログラムを読み取る。なお、ここではプログラムを家庭用ゲーム機11に供給するために光ディスク25を用いることとするが、CD−ROMやROMカード等、他のあらゆる情報記憶媒体を用いるようにしてもよい。また、インターネット等のデータ通信網を介して遠隔地からプログラムを家庭用ゲーム機11に供給するようにしてもよい。
The optical
メモリカード28は、不揮発性メモリ(例えばEEPROM等)を含んで構成される。家庭用ゲーム機11は、メモリカード28を装着するための複数のメモリカードスロットを備えており、複数のメモリカード28を同時に装着可能となっている。メモリカード28は、このメモリカードスロットに対して脱着可能に構成され、例えば、セーブデータなどの各種ゲームデータを記憶させるために用いられる。
The
コントローラ32は、プレイヤが各種ゲーム操作の入力をするためのものである。入出力処理部30は、一定周期毎(例えば1/60秒毎)にコントローラ32の各部の状態をスキャンする。このスキャン結果を表す操作信号は、バス12を介してマイクロプロセッサ14に入力される。
The
マイクロプロセッサ14は、コントローラ32からの操作信号に基づいてプレイヤのゲーム操作を判定する。家庭用ゲーム機11は、複数のコントローラ32を接続可能に構成されている。つまり、家庭用ゲーム機11は、各コントローラ32から入力される操作信号に基づいて、マイクロプロセッサ14がゲーム制御を行うようになっている。
The
[1−2.第1の仮想3次元空間]
ゲーム装置10では、例えば、プレイヤが操作する選手がサッカーの試合を行うサッカーゲームが実行される。このサッカーゲームは、マイクロプロセッサ14が、光ディスク25から読み出したプログラムを実行することによって実現される。
[1-2. First virtual three-dimensional space]
In the game apparatus 10, for example, a soccer game is executed in which a player operated by a player plays a soccer game. This soccer game is realized by the
ゲーム装置10において、サッカーゲームが実行されると、主記憶26には、このゲームに対応する仮想3次元空間が構築される。以降では、この仮想3次元空間を第1の仮想3次元空間40という。
When a soccer game is executed in the game apparatus 10, a virtual three-dimensional space corresponding to the game is constructed in the
図2は、第1の仮想3次元空間40の一例を示す図である。図2に示すように、第1の仮想3次元空間40には、互いに直交するXw軸、Yw軸、及びZw軸が設定される。第1の仮想3次元空間40に配置される各オブジェクトの位置は、これらの座標軸のワールド座標値(ワールド座標系の座標値)により特定される。
FIG. 2 is a diagram illustrating an example of the first virtual three-
第1の仮想3次元空間40に配置される各オブジェクトの形状は、ポリゴンによって表現される。例えば、第1の仮想3次元空間40のオブジェクトの表面が、微小な三角形のポリゴンに分割される。オブジェクトが多数化又は精密化するほど、ポリゴンの数は増加するため、ゲーム画面を表示する際のゲーム装置10の処理負荷は増大する。
The shape of each object arranged in the first virtual three-
表示部18にゲーム画面が表示される際には、後述する仮想カメラ52の視野に含まれるポリゴンの頂点を示す3次元座標に基づいて画像が作成される。例えば、ポリゴンの頂点を示す3次元座標は、後述するゲームデータ記憶部60に記憶されていてもよいし、所定の計算式に基づいて算出されてもよい。
When the game screen is displayed on the display unit 18, an image is created based on three-dimensional coordinates indicating the vertices of polygons included in the visual field of the
また、例えば、ゲームデータ記憶部60に記憶されたオブジェクトの色情報に基づいて、ゲーム画面の各画素に表示すべき色が特定される。例えば、選手のユニフォームの色等が特定される。なお、ゲーム画面の表示方法はこれに限られず、例えば、上記の色情報を図示しないROMにデータベース化し、これを読み出すことにより表示させるようにしてもよい。
Further, for example, the color to be displayed on each pixel of the game screen is specified based on the color information of the object stored in the game
図2に示すように、第1の仮想3次元空間40には、サッカーが行われるグラウンドを表すフィールドオブジェクト42が配置される。フィールドオブジェクト42は、例えば、Xw−Zw平面に平行に配置される。
As shown in FIG. 2, a
フィールドオブジェクト42の四方を囲むように、スタジアムオブジェクト44a,44b,44c,44d(以降、これらを総じて、単にスタジアムオブジェクト44という)が配置される。スタジアムオブジェクト44には、例えば、観客や看板を表すオブジェクト等が含まれていてもよい。
Stadium objects 44a, 44b, 44c, and 44d (hereinafter collectively referred to simply as the stadium object 44) are arranged so as to surround the four sides of the
フィールドオブジェクト42上には、サッカーゴールを表すゴールオブジェクト46、選手を表すキャラクタオブジェクト48、サッカーボールを表すボールオブジェクト50等が配置される。つまり、第1の仮想3次元空間40には、サッカーの試合会場が形成される。
On the
なお、フィールドオブジェクト42上のピッチ外の領域に、看板を表すオブジェクト等が配置されるようにしてもよい。ピッチとは、フィールドオブジェクト42の領域のうち、ゴールラインとタッチラインとに囲まれる領域のことである。
Note that an object representing a signboard or the like may be arranged in an area outside the pitch on the
第1の仮想3次元空間40には、複数のキャラクタオブジェクト48が配置される。即ち、一方のチームに所属する11体のキャラクタオブジェクト48と、他方のチームに所属する11体のキャラクタオブジェクト48とが配置される。
A plurality of character objects 48 are arranged in the first virtual three-
プレイヤが一方のチームを操作する場合、このチームに所属するキャラクタオブジェクト48の何れか一つが、コントローラ32からの入力により、プレイヤの操作に供される。キャラクタオブジェクト48やボールオブジェクト50は、ゲーム状況に応じて第1の仮想3次元空間40内を移動する。
When the player operates one team, any one of the character objects 48 belonging to the team is used for the player's operation by an input from the
また、第1の仮想3次元空間40には、仮想カメラ52(視点)が設定される。ゲーム装置10は、仮想カメラ52から第1の仮想3次元空間40を見た様子を表すゲーム画面を表示部18に表示する。つまり、仮想カメラ52に対応する視野に含まれる各オブジェクトが、ゲーム画面として表示部18に表示される。
A virtual camera 52 (viewpoint) is set in the first virtual three-
仮想カメラ52の視野は、例えば、仮想カメラ52の位置座標、仮想カメラ52の視線方向を示す視線ベクトル、仮想カメラ52の視野角、及びゲーム画面のアスペクト比等によって決定される。これらの値は、主記憶26に記憶され、ゲームの状況に応じて適宜変更される。
The field of view of the
表示部18に表示されるゲーム画面は、例えば、後述するゲームデータ記憶部60に基づいて作成される。具体的には、仮想カメラ52の視野内に配置された各オブジェクトの位置座標(ワールド座標)が、所定の行列計算に基づいてゲーム画面に対応する2次元座標(スクリーン座標)に変換される。即ち、各ポリゴンの頂点を示す座標が、2次元座標に変換される。この2次元座標は、オブジェクトを表示すべきゲーム画面上の位置を特定するための情報である。
The game screen displayed on the display unit 18 is created based on, for example, a game
表示部18に表示されるゲーム画面は、所定時間毎(例えば1/60秒毎)に表示が更新される。ゲーム画面には、互いに直行するXs軸、Ys軸が設定される。例えば、ゲーム画面の左上を原点O(0,0)とし、各画素に対応する座標が割り当てられる。即ち、仮想カメラ52の視野内に配置されたオブジェクトに対応する2次元座標は、ゲーム画面に対応する領域内の座標となる。
The display of the game screen displayed on the display unit 18 is updated every predetermined time (for example, every 1/60 seconds). An Xs axis and a Ys axis that are orthogonal to each other are set on the game screen. For example, the upper left corner of the game screen is the origin O (0, 0), and coordinates corresponding to each pixel are assigned. That is, the two-dimensional coordinates corresponding to the object arranged in the field of view of the
[1−3.ゲーム装置で実現される機能]
図3は、ゲーム装置10において実現される機能群を示す機能ブロック図である。図3に示すように、ゲーム装置10では、ゲームデータ記憶部60、第1画像作成部62、第2画像作成部64、奥行き情報取得部66、及び表示制御部68が実現される。これらの機能は、マイクロプロセッサ14が光ディスク25から読み出されたプログラムに従って動作することにより、実現される。
[1-3. Functions realized with game devices]
FIG. 3 is a functional block diagram showing a functional group realized in the game apparatus 10. As shown in FIG. 3, in the game apparatus 10, a game
[1−3−1.ゲームデータ記憶部]
ゲームデータ記憶部60は、主記憶26及び光ディスク25を主として実現される。ゲームデータ記憶部60は、ゲームに必要な各種データを記憶する。本実施形態の場合、ゲームデータ記憶部60は、第1の仮想3次元空間40の現在の状況を示すゲーム状況データ等を記憶する。
[1-3-1. Game data storage unit]
The game
図2に示す第1の仮想3次元空間40は、ゲーム状況データに基づいて主記憶26に構築される。ゲーム状況データには、例えば、各オブジェクトを配置すべき3次元座標、このオブジェクトに対応するポリゴンの頂点を示す情報、仮想カメラ52の3次元座標、オブジェクトの色等のゲーム画面の色彩に関する色情報が格納される。
The first virtual three-
また、ゲーム状況データには、仮想カメラ52の視野に関する各種情報が格納される。即ち、ゲーム状況データには、仮想カメラ52の視線ベクトル、視野角、ゲーム画面のアスペクト比等が格納される。ゲーム状況データに格納される値は、ゲームの状況に応じて適宜更新される。
In the game situation data, various types of information related to the visual field of the
[1−3−2.第1画像作成部]
第1画像作成部62は、マイクロプロセッサ14を主として実現される。第1画像作成部62は、第1の仮想3次元空間40を仮想カメラ52(視点)から見た様子を表す第1画像を作成する。第1画像は、例えば、ゲームデータ記憶部60が参照されることにより作成される。つまり、第1画像は、仮想カメラ52の視野に含まれる各オブジェクトがぼかされずに、オブジェクトに対応する色が付された画像である。
[1-3-2. First image creation unit]
The first
図4Aは、第1画像の一例を示す図である。第1画像は、第1の仮想3次元空間40を仮想カメラ52から見た様子が表され、図4Aに示すように、仮想カメラ52の視野に含まれる各オブジェクトに所定の色がそのまま付された状態の画像が作成される。
FIG. 4A is a diagram illustrating an example of the first image. The first image shows a state in which the first virtual three-
[1−3−3.第2画像作成部]
第2画像作成部64は、マイクロプロセッサ14を主として実現される。第2画像作成部64は、第1の仮想3次元空間40を仮想カメラ52(視点)から見た様子を表し、ぼかし処理が施された第2画像を作成する。ぼかし処理とは、第1の仮想3次元空間40に配置された各オブジェクトの色をぼかすための処理である。ぼかし処理としては、一般的なぼかし処理を用いることができる。
[1-3-3. Second image creation unit]
The second
図4Bは、第2画像の一例を示す図である。図4Bでは、ぼかし処理が施されたオブジェクトを、模式的に点線で示している。即ち、第2画像は、図4Aに示す第1画像に比べて、各オブジェクトの輪郭や内部の領域の色がぼかされたものになる。 FIG. 4B is a diagram illustrating an example of the second image. In FIG. 4B, the object subjected to the blurring process is schematically shown by a dotted line. That is, in the second image, the outline of each object and the color of the internal area are blurred compared to the first image shown in FIG. 4A.
第2画像は、例えば、第1画像と同様に、ゲームデータ記憶部60が参照されることにより作成される。ゲームデータ記憶部60に記憶された各オブジェクトの色にぼかし処理が施される点で、第2画像は第1画像と異なる。
For example, the second image is created by referring to the game
第2画像は、任意の方法に基づいて、仮想カメラ52の視野に含まれるオブジェクトに対応するぼかし処理が施されて作成されればよい。例えば、第2画像は、第1画像に基づいて生成される。
The second image may be created by performing a blurring process corresponding to an object included in the field of view of the
より具体的には、まず、第1画像が複製されて主記憶26に記憶される。この複製された第1画像に対応する1つの画素の画素値を、この画素を囲む周囲の8つの画素値の平均値に変更することにより、ぼかし処理を行って、第2画像とするようにしてもよい。他にも、複製された第1画像に対応する1つの画素の画素値を、この画素の上下左右の4つの画素の色を混合した値とするようにしてもよい。
More specifically, first, the first image is duplicated and stored in the
[1−3−4.奥行き情報取得部]
奥行き情報取得部66は、第1の仮想3次元空間40に比べてポリゴンの数が削減された第2の仮想3次元空間40’を仮想カメラ52’(視点)から見た様子を表す画像の各画素毎に、当該仮想カメラ52(視点)からの距離に関する奥行き情報(距離情報)を取得する。第2の仮想3次元空間40’については後述する。以下、奥行き情報取得部66が取得する奥行き情報を、第2の仮想3次元空間40’に対応する奥行き情報という。
[1-3-4. Depth information acquisition unit]
The depth
奥行き情報とは、各画素に表されたオブジェクトの部分と、仮想カメラ52’との間の奥行き(距離)を示す情報である。奥行きとは、視点とオブジェクトの部分とを結ぶ直線の距離、即ち視点方向の距離のことをいう。奥行き情報は、図示しないROM等に記憶されたプログラマブルシェーダ等によって作成されて、主記憶26に記憶される。奥行き情報が作成されるタイミングは任意であってよく、例えば、表示部18に表示されるゲーム画面の更新タイミングで作成される。
The depth information is information indicating the depth (distance) between the object portion represented by each pixel and the virtual camera 52 '. The depth refers to the distance of a straight line connecting the viewpoint and the object portion, that is, the distance in the viewpoint direction. The depth information is created by a programmable shader or the like stored in a ROM or the like (not shown) and stored in the
奥行き情報は、例えば、8ビットのグレースケールの画像で表現されて主記憶26等に記憶される。本実施形態では、視点に最も近い画素の画素値を255(白を表す)とし、最も遠い画素の画素値を0(黒を表す)とする。即ち、視点からの距離に応じて画素値が0〜255の間で表現される。なお、奥行き情報の作成方法はこれに限られず、公知の種々の方法を適用可能とする。
The depth information is expressed by, for example, an 8-bit gray scale image and stored in the
[第2の仮想3次元空間]
上記のように、奥行き情報取得部66は、第1の仮想3次元空間40に比べてポリゴンの数が削減された第2の仮想3次元空間40’に基づいて奥行き情報を取得する。本実施形態においては、ゲーム装置10は、第1の仮想3次元空間40に含まれるオブジェクトのうち、所定のオブジェクトを取り除くことにより、ポリゴンの数を削減する。
[Second virtual three-dimensional space]
As described above, the depth
図5は、第2の仮想3次元空間40’を示す図である。図5に示すように、例えば、第1の仮想3次元空間40から、ゴールオブジェクト46、キャラクタオブジェクト48、及びボールオブジェクト50が取り除かれる。つまり、第2の仮想3次元空間40’においては、第1の仮想3次元空間40に比べて、これらの取り除かれたオブジェクトに含まれるポリゴンの数の総和分のポリゴンの数が削減される。取り除かれるオブジェクトは、予め定められていてよい。
FIG. 5 is a diagram illustrating the second virtual three-
なお、図5に示すように、スタジアムオブジェクト44の形状は、簡略化されてもよい。例えば、スタジアムオブジェクト44を構成する面が、Yw軸方向と平行になるように簡略化される。以降では、これをスタジアムオブジェクト44’という。
As shown in FIG. 5, the shape of the
スタジアムオブジェクト44’に含まれるポリゴンの数は、スタジアムオブジェクト44に比べて少ない。第2の仮想3次元空間40’では、スタジアムオブジェクト44がスタジアムオブジェクト44’に置き換えられている。スタジアムオブジェクト44’は、スタジアムオブジェクト44の位置に対応する位置に配置される。
The number of polygons included in the
第2の仮想3次元空間40’は、フィールドオブジェクト42’の四方を囲むように、スタジアムオブジェクト44a’,44b',44c’,44d’が含まれる。フィールドオブジェクト42’とスタジアムオブジェクト44’により、第2の仮想3次元空間40’は、図5に示すように、ほぼ箱形状となる。
The second virtual three-
また、第2の仮想3次元空間40’には、仮想カメラ52’(視点)が配置される。本実施形態においては、仮想カメラ52と仮想カメラ52’の3次元座標は、同一であるものとする。奥行き情報取得部66は、以上説明した第2の仮想3次元空間40’に基づいて奥行き情報を取得する。
A virtual camera 52 '(viewpoint) is arranged in the second virtual three-dimensional space 40'. In the present embodiment, it is assumed that the three-dimensional coordinates of the
図6は、奥行き情報の一例を示す図である。図6に示す例は、図5に示す第2の仮想3次元空間40’に対応する奥行き情報である。即ち、第1の仮想3次元空間40のうち、フィールドオブジェクト42と簡略化されたスタジアムオブジェクト44のみが考慮されて、奥行き情報が作成される。図6の例では、仮想的に、奥行き情報を4段階(図6の領域E1〜領域E4)とする。
FIG. 6 is a diagram illustrating an example of depth information. The example shown in FIG. 6 is depth information corresponding to the second virtual three-
図6に示すように、仮想カメラ52’との距離が近い画素の領域E1は白く(網かけがない領域)、仮想カメラ52’との距離が遠い画素の領域E4は黒く(網かけがある領域)表現される。領域E1と領域E4の間にある領域E2と領域E3は、それぞれ仮想カメラ52’からの距離に応じて濃淡が決定される。つまり、仮想カメラ52’からの距離が画素値によって表現される。 As shown in FIG. 6, the pixel area E1 that is close to the virtual camera 52 'is white (area without shading), and the pixel area E4 that is far from the virtual camera 52' is black (has shading). Area) is expressed. The density of the areas E2 and E3 between the areas E1 and E4 is determined according to the distance from the virtual camera 52 '. That is, the distance from the virtual camera 52 'is expressed by the pixel value.
なお、奥行き情報は、第2の仮想3次元空間40’に対応する奥行きが表現されればよく、奥行き情報のデータ構成の例は、これに限られない。例えば、図6のようなグレースケールの画像ではなく、RGBカラーモデルによって表現される画像であってもよいし、各画素の座標と距離を示す値とがデータテーブルに対応付けられて主記憶26に記憶されるようにしてもよい。
The depth information only needs to represent the depth corresponding to the second virtual three-
[1−3−5.表示制御部]
表示制御部68は、マイクロプロセッサ14及び画像処理部16を主として実現される。表示制御部68は、第1画像と第2画像の各画素の合成の割合を奥行き情報に基づいて決定し、第1画像と第2画像が合成された画面を表示部18に表示させる。
[1-3-5. Display control unit]
The
図4Cは、表示制御部68が表示させる画像の一例を示す図である。図4Cの例では、図4Bと同様に、ぼかし処理が施されたオブジェクトを模式的に点線で示している。また、点線が細かいほど、オブジェクトの色がぼかされていることを示している。
FIG. 4C is a diagram illustrating an example of an image displayed by the
表示制御部68が、第1画像と第2画像が合成された画像を表示させることにより、視点から近いオブジェクトを鮮明に表示させ、視点から遠いオブジェクトをぼかして表示させることができる。
The
表示制御部68が第1画像と第2画像を合成させる方法は、例えば、いわゆるアルファ値(半透明合成率,透過度)を使用した半透明合成を用いる。アルファ値を0〜1の実数とすると、ゲーム画面のある画素(座標を(Xs,Ys)とする)の画素値は、「(1−アルファ値)×第1画像の座標(Xs,Ys)の画素値+アルファ値×第2画像の座標(Xs,Ys)の画素値」等のように算出される。
As a method for the
なお、本実施形態では、奥行き情報取得部66によって取得された奥行き情報(図6参照)における画素(Xs,Ys)の奥行き情報の値を、第1画素及び第2画像の画素(Xs、Ys)の奥行き情報の値とみなし、第1画像及び第2画像の画素(Xs,Ys)のアルファ値が算出される。
In this embodiment, the depth information value of the pixel (Xs, Ys) in the depth information (see FIG. 6) acquired by the depth
つまり、アルファ値は、奥行き情報に基づいて決定される。本実施形態においては、奥行きが大きい画素ほど、アルファ値が大きくなる。つまり、視点との距離が離れるほど、ぼかしの程度が大きくなる。一方、奥行きが小さい画素ほど、アルファ値が小さくなる。つまり、視点との距離が近いほど、ぼかしの程度が小さくなる。 That is, the alpha value is determined based on the depth information. In the present embodiment, the alpha value increases as the depth of the pixel increases. That is, the greater the distance from the viewpoint, the greater the degree of blurring. On the other hand, the smaller the depth, the smaller the alpha value. That is, the closer to the viewpoint, the smaller the degree of blurring.
なお、第1画像と第2画像の各画素の合成の割合が奥行き情報に基づいて決定されればよく、画像の合成方法は、これに限られない。画像の合成方法は、公知の任意の手法を適用可能とする。 Note that the ratio of combining the pixels of the first image and the second image may be determined based on the depth information, and the image combining method is not limited to this. Any known method can be applied to the image composition method.
[1−4.ゲーム装置にて実行される処理]
図7は、ゲーム装置10において所定時間毎(例えば、1/60秒毎)に実行される処理の一例を示すフロー図である。図7の処理は、マイクロプロセッサ14が、光ディスク25から読み出されたプログラムに従って動作することにより実行される。
[1-4. Processing executed on game device]
FIG. 7 is a flowchart illustrating an example of processing executed at predetermined time intervals (for example, every 1/60 seconds) in the game apparatus 10. The processing of FIG. 7 is executed by the
図7に示すように、まず、マイクロプロセッサ14(第1画像作成部62)は、主記憶26に記憶されたゲームデータ記憶部60を参照し、第1の仮想3次元空間40を仮想カメラ52から見た様子を表す第1画像を作成する(S101)。S101において作成される第1画像(図4A参照)は、仮想カメラ52の視野に含まれる各オブジェクトがぼかされずに、各オブジェクトの色がそのまま表された画像である。
As shown in FIG. 7, first, the microprocessor 14 (first image creation unit 62) refers to the game
マイクロプロセッサ14(第2画像作成部64)は、第1の仮想3次元空間40を仮想カメラ52から見た様子を表し、ぼかし処理が施された第2画像を作成する(S102)。S102において作成される第2画像(図4B参照)は、例えば、第1画像に対して所定のぼかし処理が施された画像である。
The microprocessor 14 (second image creation unit 64) represents a state in which the first virtual three-
マイクロプロセッサ14(奥行き情報取得部66)は、第2の仮想3次元空間40’に対応する奥行き情報を取得する(S103)。本実施形態においては、第1の仮想3次元空間40から、ゴールオブジェクト46、キャラクタオブジェクト48、及びボールオブジェクト50を取り除いた第2の仮想3次元空間40’に対応する奥行き情報が取得される。この奥行き情報は、先述のように、例えば、プログラマブルシェーダ等によって、ゲーム画面の表示タイミングが訪れる毎に作成されて主記憶26等に記憶されている。
The microprocessor 14 (depth information acquisition unit 66) acquires depth information corresponding to the second virtual three-dimensional space 40 '(S103). In the present embodiment, depth information corresponding to the second virtual three-
マイクロプロセッサ14(表示制御部68)は、奥行き情報に基づいて各画素の半透明合成の割合を決定する(S104)。S104において決定された割合は、例えばアルファ値であり、画素の位置座標と対応付けられて主記憶26に記憶される。
The microprocessor 14 (display control unit 68) determines the ratio of semitransparent composition of each pixel based on the depth information (S104). The ratio determined in S104 is, for example, an alpha value, and is stored in the
S104においては、例えば、奥行き情報に対応する画像(図6)の画素値に基づいて半透明合成の割合が決定される。より具体的には、表示制御部68が、ある画素の画素値を「(1−アルファ値)×第1画像の画素値+アルファ値×第2画像の画素値」として算出することによりゲーム画面を表示させる場合、S304においては、アルファ値=第2画像の最大アルファ値(例えば0.95)*(1−奥行き情報の画素値/255)となるように算出される。
In S104, for example, the ratio of the translucent composition is determined based on the pixel value of the image (FIG. 6) corresponding to the depth information. More specifically, the
このように半透明合成の割合を定めることにより、奥行き情報に応じた割合を画素毎に決定することができる。上記の例では、仮想カメラ52に近い画素ほどアルファ値が小さくなるので、第2画像の割合を小さくすることができる。即ち、仮想カメラ52に近い画素ほどオブジェクトのぼかし具合が少なくなる。
By determining the ratio of semitransparent composition in this way, the ratio according to the depth information can be determined for each pixel. In the above example, since the alpha value is smaller as the pixel is closer to the
なお、S304においては、奥行き情報に基づいて半透明合成の割合が決定されればよく、半透明合成の割合の決定方法は、これに限られない。例えば、奥行き情報と半透明合成の割合が対応付けられたデータテーブルを用意しておいてもよいし、所定の計算式に奥行き情報を代入して半透明合成の割合が算出されるようにしてもよい。 In S304, the ratio of the semi-transparent composition may be determined based on the depth information, and the method for determining the ratio of the semi-transparent composition is not limited to this. For example, a data table in which the depth information and the ratio of the semi-transparent composition are associated may be prepared, or the ratio of the translucent composition may be calculated by substituting the depth information into a predetermined calculation formula. Also good.
マイクロプロセッサ14は(表示制御部68)、第1画像と第2画像とを合成して表示部18に表示させる(S105)。例えば、S104において決定された半透明合成の割合に基づいて第1画像(図4A)と第2画像(図4B)とが合成された合成画像(図4C)が、表示部18に表示される。即ち、ある画素の画素値が、「(1−アルファ値)×第1画像の画素値+アルファ値×第2画像の画素値」となる合成画像が表示される。 The microprocessor 14 (display control unit 68) combines the first image and the second image and causes the display unit 18 to display them (S105). For example, a composite image (FIG. 4C) in which the first image (FIG. 4A) and the second image (FIG. 4B) are combined based on the translucent combination ratio determined in S <b> 104 is displayed on the display unit 18. . That is, a composite image in which the pixel value of a certain pixel is “(1−alpha value) × pixel value of first image + alpha value × pixel value of second image” is displayed.
[1−5.実施形態1のまとめ]
以上説明した実施形態1に係るゲーム装置10は、第2の仮想3次元空間40’に対応する奥行き情報に基づいて、第1画像と第2画像の半透明合成の割合を決定して、この割合に基づいて第1画像と第2画像を合成して表示部18に表示させる。実施形態1におけるゲーム装置10によれば、仮想カメラ52に近いオブジェクトを鮮明に表示させ、遠いオブジェクトをぼかして表示させることができ、遠近感の表現を実現することができる。
[1-5. Summary of Embodiment 1]
Based on the depth information corresponding to the second virtual three-
また、ゲーム装置10によれば、第1の仮想3次元空間40に比べてポリゴンの数が削減された第2の仮想3次元空間40’に基づいて奥行き情報を取得して、遠近感の表現を実現することができる。ゲーム装置10によれば、例えば、第1の仮想3次元空間40に基づいて奥行き情報を取得する場合に比べて、ゲーム装置10の処理負荷を軽減することができる。
In addition, according to the game apparatus 10, depth information is acquired based on the second virtual three-
より具体的には、例えば、仮想カメラ52の視野内に多数のオブジェクトが含まれている場合、これらのオブジェクトの全てを考慮して奥行き情報を作成する際に、ポリゴン数の増加に起因してゲーム装置10に処理負荷がかかる。しかし、視野内に多数のオブジェクトが含まれている場合には、ゲーム画面に表示されるオブジェクトは比較的小さいことが多い。
More specifically, for example, when a large number of objects are included in the field of view of the
したがって、オブジェクトを取り除いて作成された奥行き情報と、オブジェクトを全て考慮に入れて作成された奥行き情報と、の間には、例えば、オブジェクトがゲーム画面にズームされて表示されている場合等に比べて、データ内容の差異が比較的少ない。即ち、本実施形態のように、第2の仮想3次元空間40’に基づいて取得される奥行き情報に基づいて第1画像と第2画像を合成しても遠近感を表現でき、かつ、処理負荷の軽減を実現することができる。 Therefore, between the depth information created by removing the object and the depth information created by taking all the objects into consideration, for example, compared to when the object is zoomed and displayed on the game screen, etc. Therefore, the difference in data contents is relatively small. That is, as in the present embodiment, the perspective can be expressed even if the first image and the second image are synthesized based on the depth information acquired based on the second virtual three-dimensional space 40 ', and the processing Reduction of load can be realized.
なお、本発明は、以上説明した実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。例えば、本実施形態では家庭用ゲーム機を例に挙げて説明したが、ゲームセンター等に設置されるアーケード型ゲーム機であってもよい。 The present invention is not limited to the embodiment described above, and can be appropriately changed without departing from the spirit of the present invention. For example, although the home game machine has been described as an example in the present embodiment, an arcade game machine installed in a game center or the like may be used.
また、本実施形態においては、第2の仮想3次元空間40’に含まれるオブジェクトを、フィールドオブジェクト42’及びスタジアムオブジェクト44’としたが、第1の仮想3次元空間40に配置されるオブジェクトのうち、予め定められたオブジェクトが含まれるようにすればよい。つまり、第1の仮想3次元空間40から取り除かれるオブジェクトは、本実施形態の例に限られない。
In the present embodiment, the objects included in the second virtual three-
また、ほぼ箱形状の第2の仮想3次元空間40’(図5)を例に挙げて説明したが、第2の仮想3次元空間40’は、第1の仮想3次元空間40に比べてポリゴン数が削減されたものであればよく、フィールドオブジェクト42’を、傾斜するスタジアムオブジェクト44’で囲むようにしてもよい。即ち、すり鉢状の第2の仮想3次元空間40’となるようにしてもよい。
Further, the second virtual three-
また、図7に示す処理は所定間隔で実行されるように説明したが、図7の処理が実行されるための条件を設けてもよい。例えば、仮想カメラ52との距離が近いオブジェクトはゲーム画面内における上記オブジェクトの占める領域が大きい。このオブジェクトが占める領域は、様々な奥行き情報の値を取る領域をまたがるため、この領域内の奥行き情報の誤差が大きくなる。即ち、オブジェクトが部分的にぼかされて表示される。このような状況では、図7の処理が実行されないようにしてもよい。
Moreover, although the process shown in FIG. 7 was demonstrated so that it might be performed at predetermined intervals, you may provide the conditions for performing the process of FIG. For example, an object that is close to the
例えば、仮想カメラ52の位置がフィールドオブジェクト42から所定距離以上離れた場合には、フィールドオブジェクト42上に配置された各オブジェクトがゲーム画面内において占める領域が小さくなり、この領域内での奥行き情報の誤差が小さいため、部分的にぼかされて表示されるオブジェクトがない。また例えば、ボールオブジェクト50が所定の高さ以上の位置に配置されたときに、このボールオブジェクト50の動きに仮想カメラ52が従動して、仮想カメラ52の位置がフィールドオブジェクト42から離れることがある。このような場合にも、上記と同様に、部分的にぼかされて表示されるオブジェクトがない。これらの所定の場合にのみ、図7の処理が実行されるようにしてもよい。
For example, when the position of the
一方、キャラクタオブジェクト48と仮想カメラ52との距離が所定値以内である場合(つまりズームインする場合)には、フィールドオブジェクト42上に配置された各オブジェクトがゲーム画面内において占める領域が大きくなり、この領域内での奥行き情報の誤差が大きくなるため、部分的にぼかされて表示されるオブジェクトがある。このような場合には、図7に示す処理が行われなくてもよい。
On the other hand, when the distance between the
[2.実施形態2]
以下、実施形態2について説明する。実施形態1においては、第1の仮想3次元空間40から所定のオブジェクトが取り除かれた第2の仮想3次元空間40’に対応する奥行き情報が作成されていた。
[2. Embodiment 2]
The second embodiment will be described below. In the first embodiment, depth information corresponding to the second virtual three-
しかしながら、第1の仮想3次元空間40から取り除くオブジェクトを予め定めておいた場合には、ゲーム状況に応じた画面表示処理ができない可能性がある。例えば、仮想カメラ52とキャラクタオブジェクト48が接近した場合には、第1画像と第2画像とを合成するための奥行き情報が正確に取得されない可能性がある。
However, if an object to be removed from the first virtual three-
図8Aは、仮想カメラ52とキャラクタオブジェクト48が接近した場合における第1の仮想3次元空間40に基づいて取得される奥行き情報の一例である。図8Aに示す例では、図6と同様に、奥行き情報を仮想的に4段階(領域E1〜領域E4)とする。キャラクタオブジェクト48が表示される画素は、仮想カメラ52に接近しているので、領域E1に含まれる。他の領域E2〜領域E4は、図6と同様であるので説明を省略する。
FIG. 8A is an example of depth information acquired based on the first virtual three-
図8Bは、仮想カメラ52とキャラクタオブジェクト48が接近した場合において、実施形態1のゲーム装置10で取得される奥行き情報の一例である。図8Bに示す例では、図8Aにおいてキャラクタオブジェクト48が配置されていた領域を点線で示している。
FIG. 8B is an example of depth information acquired by the game apparatus 10 of the first embodiment when the
図8に示すように、キャラクタオブジェクト48が領域E1〜領域E4にまたがって配置されており、本来、領域E1として表現されるべき画素が、領域E2〜領域E4でも表現される。即ち、奥行き情報に誤差が生じる。仮想カメラ52とキャラクタオブジェクト48が接近すればするほど、キャラクタオブジェクト48の領域は大きくなるので、この誤差が生じる画素数が多くなる。この際に実施形態1の処理をそのまま適用した場合、第1画像と第2画像とを合成した際に、キャラクタオブジェクト48の足元が鮮明に表示されているにも関わらず、頭だけぼかされて表示されてしまう。
As shown in FIG. 8, the
上記のことを防止するために、実施形態2における第2の仮想3次元空間40’は、第1の仮想3次元空間40に配置された複数のオブジェクトにおける所定のオブジェクトのうち、仮想カメラ52(視点)との奥行きが所定値以上の所定のオブジェクトが取り除かれたものである点に特徴がある。
In order to prevent the above, the second virtual three-
なお、実施形態2に係るゲーム装置10のハードウェア構成や機能ブロック図は、実施形態1(図1、図3参照)と同様であるため、ここでは説明を省略する。また、実施形態2に係るゲーム装置10においても、図2と同様の第1の仮想3次元空間40が生成されてゲームが実行される。
Note that the hardware configuration and functional block diagram of the game apparatus 10 according to the second embodiment are the same as those in the first embodiment (see FIGS. 1 and 3), and thus the description thereof is omitted here. Also in the game apparatus 10 according to the second embodiment, the first virtual three-
図9は、実施形態2における第1の仮想3次元空間40の一例を示す図である。図9では、フィールドオブジェクト42上に配置されるキャラクタオブジェクト48をキャラクタオブジェクト48a,48b,48cとする。
FIG. 9 is a diagram illustrating an example of the first virtual three-
仮想カメラ52は、キャラクタオブジェクト48aの背後に配置される。図9の例では、仮想カメラ52とキャラクタオブジェクト48aとの距離は所定値未満であり、仮想カメラ52とキャラクタオブジェクト48b及びキャラクタオブジェクト48cとの距離やゴールオブジェクト46等の他のオブジェクトとの距離は、所定値以上である。他のオブジェクトについては、図2と同様であるので、説明を省略する。
The
[2−1.第2の仮想3次元空間]
先述のように、実施形態2における第2の仮想3次元空間40’は、第1の仮想3次元空間40に配置された複数のオブジェクトのうち仮想カメラ52(視点)との奥行きが所定値以上の所定のオブジェクトが取り除かれたものである点で実施形態1と異なる。
[2-1. Second virtual three-dimensional space]
As described above, in the second virtual three-
図10は、実施形態2における第2の仮想3次元空間40’を示す図である。図10の例では、図9に示す第1の仮想3次元空間40に、仮想カメラ52との奥行きが所定値未満のキャラクタオブジェクト48aが存在した場合を示す。
FIG. 10 is a diagram illustrating a second virtual three-
実施形態2の第2の仮想3次元空間40’では、仮想カメラ52との奥行きが所定値以上の所定のオブジェクトが取り除かれるので、図10に示すように、キャラクタオブジェクト48は取り除かれずに配置される。これをキャラクタオブジェクト48a’とする。つまり、第2の仮想3次元空間40’には、フィールドオブジェクト42’、スタジアムオブジェクト44’、及びキャラクタオブジェクト48a’が配置される。
In the second virtual three-
奥行き情報取得部66は、実施形態1と同様に、第2の仮想3次元空間40’を仮想カメラ52’(視点)から見た様子を表す画像の各画素毎に、当該仮想カメラ52(視点)からの距離に関する奥行き情報(距離情報)を取得する。
Similarly to the first embodiment, the depth
奥行き情報とは、実施形態1と同様に、各画素に表されたオブジェクトの部分と、仮想カメラ52’との間の奥行き(距離)を示す情報である。奥行きとは、視点とオブジェクトとを結ぶ直線の距離、即ち視点方向の距離のことをいう。 The depth information is information indicating the depth (distance) between the portion of the object represented by each pixel and the virtual camera 52 ', as in the first embodiment. The depth refers to the distance of a straight line connecting the viewpoint and the object, that is, the distance in the viewpoint direction.
図11は、実施形態2における奥行き情報の一例を示す図である。図11の例は、図10の第2の仮想3次元空間40’に対応する奥行き情報を示す。即ち、フィールドオブジェクト42’、スタジアムオブジェクト44’、及びキャラクタオブジェクト48a’のそれぞれと、仮想カメラ52’と、の奥行きを示す奥行き情報が作成される。この例では、図6と同様に仮想的に奥行き情報を4段階(図11の領域E1〜領域E4)とする。
FIG. 11 is a diagram illustrating an example of depth information according to the second embodiment. The example in FIG. 11 shows depth information corresponding to the second virtual three-
つまり、実施形態2における奥行き情報は、キャラクタオブジェクト48a’が考慮される点で実施形態1における奥行き情報(図6)とは異なる。図11に示す例では、キャラクタオブジェクト48a’に対応する領域は、仮想カメラ52’との距離が最も近い領域E1となっている。他の領域E2〜領域E4については、実施形態1と同様である。
That is, the depth information in the second embodiment is different from the depth information in the first embodiment (FIG. 6) in that the
[2−2.ゲーム装置にて実行される処理]
図12に示す処理は、実施形態1における図6に示す処理に対応している。つまり、図12に示す処理は、ゲーム装置10において所定時間毎(例えば1/60秒毎)に実行される。
[2-2. Processing executed on game device]
The process shown in FIG. 12 corresponds to the process shown in FIG. 6 in the first embodiment. That is, the process shown in FIG. 12 is executed at predetermined time intervals (for example, every 1/60 seconds) in the game apparatus 10.
図12に示すように、S201,S202は、それぞれS101,S102と同様であるので、説明を省略する。 As shown in FIG. 12, S201 and S202 are the same as S101 and S102, respectively, and thus the description thereof is omitted.
マイクロプロセッサ14は、第1の仮想3次元空間40に、仮想カメラ52との奥行きが所定値未満のオブジェクトが配置されているか否かを判断する(S203)。具体的には、例えば、ゲームデータ記憶部60に記憶された各オブジェクトの位置座標と、仮想カメラ52の位置座標と、の距離が予め定められた所定値以上であるか否かによって判断される。この所定値は、予め光ディスク25等に記憶されている。
The
なお、S203においては、仮想カメラ52と各オブジェクトとの位置関係に基づいて判断されればよく、S203の判断方法は、これに限られない。他にも、例えば、第1の仮想3次元空間40に配置される各オブジェクトに対応するポリゴンのうち、最も仮想カメラ52から近いポリゴンとの距離が、所定値以上であるか否かによって判断されるようにしてもよい。
Note that in S203, the determination may be made based on the positional relationship between the
奥行きが所定値未満のオブジェクトが配置されている場合(S203;Y)、マイクロプロセッサ14(奥行き情報取得部66)は、奥行きが所定値以上のオブジェクトを取り除き、奥行きが所定値未満のオブジェクトが含まれる第2の仮想3次元空間40’に対応する奥行き情報を取得する(S204)。
When an object with a depth less than a predetermined value is arranged (S203; Y), the microprocessor 14 (depth information acquisition unit 66) removes an object with a depth greater than or equal to a predetermined value and includes an object with a depth less than a predetermined value. The depth information corresponding to the second virtual three-
S204においては、S103と同様の処理が行われることにより奥行き情報が取得される。S204において取得される奥行き情報は、奥行きが所定値未満のオブジェクトが含まれた状態の奥行き情報となる。つまり、図11の例のように、キャラクタオブジェクト48a’が含まれた状態の奥行き情報となる。
In S204, depth information is acquired by performing the same processing as in S103. The depth information acquired in S204 is depth information in a state where an object whose depth is less than a predetermined value is included. That is, as in the example of FIG. 11, the depth information includes the
奥行き情報が所定値未満のオブジェクトが配置されていない場合(S203;N)、マイクロプロセッサ14(奥行き情報取得部66)は、第2の仮想3次元空間40’に対応する奥行き情報を取得する(S205)。S205においては、S103と同様に、図5に示すような第2の仮想3次元空間40’に対応する奥行き情報が取得される。
When the object whose depth information is less than the predetermined value is not arranged (S203; N), the microprocessor 14 (depth information acquisition unit 66) acquires depth information corresponding to the second virtual three-
S206,S207は、それぞれS104,S105と同様であるので、説明を省略する。 Since S206 and S207 are the same as S104 and S105, respectively, description thereof will be omitted.
[2−3.実施形態2のまとめ]
以上説明した実施形態2に係るゲーム装置10は、仮想カメラ52との奥行きが所定値以上の所定のオブジェクトが取り除かれた第2の仮想3次元空間40’に対応する奥行き情報を取得する。実施形態2におけるゲーム装置10によれば、仮想カメラ52に接近したオブジェクトがあった場合でも、そのオブジェクトが部分的にぼかされて表示されることを防止しつつ、ゲーム画面に遠近感を表現させることができる。
[2-3. Summary of Embodiment 2]
The game apparatus 10 according to the second embodiment described above acquires depth information corresponding to the second virtual three-
即ち、実施形態2に係るゲーム装置によれば、例えば、上記説明したように、奥行き情報に誤差が生じる状況を回避することができるので、所定のオブジェクトと視点が接近した場合であっても、処理負荷を軽減しつつ、ゲーム状況に応じて遠近感を表現させることができる。 That is, according to the game device according to the second embodiment, for example, as described above, it is possible to avoid a situation in which an error occurs in depth information, so even if a predetermined object and a viewpoint approach, Perspective can be expressed according to the game situation while reducing the processing load.
[3.実施形態3]
以下、実施形態3について説明する。実施形態2においては、視点との距離が所定値未満のオブジェクトを考慮して奥行き情報を作成していた。
[3. Embodiment 3]
The third embodiment will be described below. In the second embodiment, depth information is created in consideration of an object whose distance from the viewpoint is less than a predetermined value.
しかしながら、例えば、図11のように奥行き情報を作成した場合、キャラクタオブジェクト48a’の頭部の画素は領域E1であるが、周囲の画素は領域E3又は領域E4であるので、これらの画素の間には、奥行き情報の値に差がある。即ち、表示制御部68が決定する割合に差がでるため、キャラクタオブジェクト48aの頭部は鮮明に表示されるが、この周囲の画素はぼかされて表示される。
However, for example, when the depth information is created as shown in FIG. 11, the head pixel of the
第2画像を作成する際には、周囲の画素にぼかし処理が施される。例えば、キャラクタオブジェクト48aの輪郭の周囲の画素(つまり、ぼかし処理が施される画素)は、この周囲の画素の色(フィールドオブジェクト42の芝生の色等)と、キャラクタオブジェクト48aのユニフォームや頭髪の色等と、が混合される。キャラクタオブジェクト48aの色が、選手の輪郭の外にはみ出して滲んで表現されてしまう可能性がある。即ち、キャラクタオブジェクト48a’の輪郭がちらついて見えづらくなってしまう可能性がある。
When creating the second image, a blurring process is performed on surrounding pixels. For example, the surrounding pixels of the outline of the
上記のことを防止するために、実施形態3は、上記のような奥行き情報の差を有するオブジェクトに基づく所定領域の周囲の色を変更する点に特徴がある。 In order to prevent the above, the third embodiment is characterized in that the color around the predetermined area based on the object having the difference in depth information as described above is changed.
なお、実施形態3に係るゲーム装置10のハードウェア構成や機能ブロック図は、実施形態1(図1、図3参照)と同様であるため、ここでは説明を省略する。ただし、実施形態3の第2画像作成部64は、第1の仮想3次元空間40を仮想カメラ52(視点)から見た様子を示す画像の注目画素と、当該注目画素に隣接する複数の周囲画素の何れかと、の当該視点に対応する奥行きの差が基準値以上である場合、当該周囲画素の色に基づいて前記注目画素に基づく所定領域の色を変更した画像を取得する取得部を含み、当該画像にぼかし処理が施された第2画像を作成する点で、実施形態1及び実施形態2とは異なる。
Note that the hardware configuration and functional block diagram of the game apparatus 10 according to the third embodiment are the same as those in the first embodiment (see FIGS. 1 and 3), and thus the description thereof is omitted here. However, the second
また、実施形態3に係るゲーム装置10においても、図2と同様の第1の仮想3次元空間40が生成されてゲームが実行される。実施形態3の第2の仮想3次元空間40’は、実施形態2と同様(図10参照)であるので説明を省略する。
Also in the game apparatus 10 according to the third embodiment, the first virtual three-
まず、実施形態3のゲーム装置10が作成する画像について説明する。 First, an image created by the game apparatus 10 according to the third embodiment will be described.
図13Aは、第1画像作成部62が作成する第1画像の一例を示す図である。第1画像は、実施形態1と同様に、第1の仮想3次元空間40を仮想カメラ52から見た様子が表される。
FIG. 13A is a diagram illustrating an example of a first image created by the first
図13Bは、第2画像作成部64の取得部が取得する画像の一例を示す図である。図13Bは、図13Aに示すキャラクタオブジェクト48の頭部を構成する画素が、周囲画素と奥行きの差がある場合の例を示す。
FIG. 13B is a diagram illustrating an example of an image acquired by the acquisition unit of the second
処理の詳細は後述するが、図13Bに示すように、周囲画素と奥行き情報の差を有する注目画素に基づく所定領域の周囲の色を変更する。例えば、キャラクタオブジェクト48の頭部の所定領域49の色が、周囲画素に対応する色に変更される。図13Bに示す例では、頭部の領域49aは、例えば、周囲画素に対応するスタジアムオブジェクト44の色に変更される。一方、頭部の領域49bは、例えば、周囲画素に対応するフィールドオブジェクト42の色に変更される。
Although details of the processing will be described later, as shown in FIG. 13B, the color around the predetermined area based on the pixel of interest having a difference between the surrounding pixels and the depth information is changed. For example, the color of the predetermined
第2画像作成部64は、図13Bに示す画像にぼかし処理が施された第2画像を作成する点で、実施形態1及び実施形態2と異なる。ぼかし処理については、実施形態1及び実施形態2と同様であるので、第2画像の図示を省略する。
The second
第2画像は、奥行き差があるオブジェクトの周囲の所定領域の色が周囲画素の色によって塗りつぶされた画像がぼかされたものとなる。即ち、キャラクタオブジェクト48の輪郭に近い画素を、周囲画素の色とすることで、ぼかし処理のためにキャラクタオブジェクト48の色が外ににじみ出なくなるので、上記のように画面がちらつくことを防止することができる。
The second image is obtained by blurring an image in which the color of a predetermined area around an object having a depth difference is filled with the color of surrounding pixels. That is, by setting the pixels close to the outline of the
[3−1.ゲーム装置にて実行される処理]
図14に示す処理は、実施形態1における図6及び実施形態2における図12に示す処理に対応している。つまり、図14に示す処理は、ゲーム装置10において所定時間毎(例えば1/60秒毎)に実行される。
[3-1. Processing executed on game device]
The process shown in FIG. 14 corresponds to the process shown in FIG. 6 in the first embodiment and FIG. 12 in the second embodiment. That is, the process shown in FIG. 14 is executed in the game apparatus 10 every predetermined time (for example, every 1/60 seconds).
図14に示すように、S301,S302は、それぞれS101,S203と同様であるので、説明を省略する。 As shown in FIG. 14, S301 and S302 are the same as S101 and S203, respectively, and thus the description thereof is omitted.
奥行きが所定値未満のオブジェクトが配置されている場合(S302;Y)、マイクロプロセッサ14(奥行き情報取得部66)は、奥行きが所定値以上のオブジェクトを取り除き、奥行きが所定値未満のオブジェクトが含まれる第2の仮想3次元空間40’に対応する奥行き情報を取得する(S303)。S303は、S204と同様の処理である。
When an object with a depth less than a predetermined value is arranged (S302; Y), the microprocessor 14 (depth information acquisition unit 66) removes an object with a depth greater than or equal to a predetermined value and includes an object with a depth less than a predetermined value. The depth information corresponding to the second virtual three-
次いで、マイクロプロセッサ14は、第1の仮想3次元空間40を仮想カメラ52から見た様子を表す画像に対応する任意の一画素(注目画素)と、この注目画素に隣接する複数の周囲画素の何れかと、の奥行きの差が基準値以上であるか否かを判定する(S304)。
Next, the
S304においては、S303で得られた奥行き情報(図11参照)の画素(Xs,Ys)の奥行き情報を、第1の仮想3次元空間40を仮想カメラ52から見た様子を示す画像の同位置の画素(Xs,Ys)の奥行き情報とみなして、S304の処理は実行される。
In S304, the depth information of the pixel (Xs, Ys) of the depth information (see FIG. 11) obtained in S303 is the same position of the image showing the first virtual three-
図15は、注目画素と周囲画素との関係を説明するための図である。図15に示すように、例えば、注目画素A1の2次元座標を(Xs,Ys)とする。注目画素A1の奥行き情報の値を230とする。この注目画素A1の周囲を囲む8つの周囲画素を、周囲画素B1〜周囲画素B8とする。なお、奥行き情報は、S302で取得されている。 FIG. 15 is a diagram for explaining the relationship between a target pixel and surrounding pixels. As shown in FIG. 15, for example, the two-dimensional coordinate of the pixel of interest A1 is (Xs, Ys). The depth information value of the target pixel A1 is set to 230. Eight surrounding pixels surrounding the pixel of interest A1 are referred to as a surrounding pixel B1 to a surrounding pixel B8. Note that the depth information is acquired in S302.
周囲画素B1の2次元座標は、(Xs−1,Ys−1)である。周囲画素B1の奥行き情報の値を230とする。周囲画素B8の2次元座標は、(Xs+1,Ys+1)である。周囲画素B8の奥行き情報の値を46とする。同様に、周囲画素B2〜周囲画素B7の座標と奥行き情報は、図15に示す通りとする。 The two-dimensional coordinates of the surrounding pixel B1 are (Xs-1, Ys-1). The depth information value of the surrounding pixel B1 is set to 230. The two-dimensional coordinates of the surrounding pixel B8 are (Xs + 1, Ys + 1). The value of the depth information of the surrounding pixel B8 is 46. Similarly, the coordinates and depth information of the surrounding pixels B2 to B7 are as shown in FIG.
S304においては、例えば、注目画素A1と、周囲画素B1〜周囲画素B8のそれぞれと、の奥行き情報の値の差が基準値以上であるものがあるか否かが判定される。例えば、基準値を100とすると、図15の例の場合、注目画素A1と奥行きの差が基準値以上である周囲画素は、周囲画素B4,B6,B7,B8の4つがある。即ち、注目画素A1は、周囲画素B1〜B8の何れかと、の奥行きの差が基準値以上であると判定される。 In S304, for example, it is determined whether or not there is a difference in depth information between the target pixel A1 and each of the surrounding pixels B1 to B8 that is greater than or equal to a reference value. For example, if the reference value is 100, in the example of FIG. 15, there are four surrounding pixels B4, B6, B7, and B8 that have a depth difference equal to or greater than the reference value with respect to the target pixel A1. That is, the pixel of interest A1 is determined to have a depth difference equal to or greater than the reference value from any of the surrounding pixels B1 to B8.
注目画素と周囲画素との奥行きの差が基準値以上である場合(S304;Y)、マイクロプロセッサ14(第2画像作成部64、取得部)は、周囲画素の色に基づいて注目画素に基づく所定領域の色を変更した画像を取得する(S305)。
When the difference in depth between the target pixel and the surrounding pixels is greater than or equal to the reference value (S304; Y), the microprocessor 14 (second
注目画素と周辺画素が図15に示す関係の場合、S305における注目画素に基づく所定領域は、例えば、注目画素を含むオブジェクト内部の領域となる。即ち、注目画素と、注目画素からの距離が基準距離以内である画素群のうちの、注目画素との奥行きの差が基準値未満であるような画素群と、を含むような領域となる。例えば、注目画素A1、周囲画素B2、及び周囲画素B5の3つの画素から構成される。注目画素に基づく所定領域は、注目画素が含まれる領域であればよく、この領域の決定方法は、任意である。例えば、注目画素を中心とする半径が16ピクセルの円内の領域を、この所定領域としてもよい。 When the target pixel and the peripheral pixels have the relationship shown in FIG. 15, the predetermined area based on the target pixel in S305 is, for example, an area inside the object including the target pixel. That is, the region includes the target pixel and a pixel group in which the depth difference from the target pixel is less than the reference value among the pixel group whose distance from the target pixel is within the reference distance. For example, the target pixel A1, the surrounding pixel B2, and the surrounding pixel B5 are configured by three pixels. The predetermined area based on the target pixel may be an area including the target pixel, and a method for determining this area is arbitrary. For example, an area within a circle having a radius of 16 pixels centered on the target pixel may be set as the predetermined area.
注目画素に基づく所定領域の色が、周囲画素の色に基づいて変更される。例えば、注目画素A1、周囲画素B2、及び周囲画素B5の色が、周囲画素B4,B6,B7,B8の色の平均値に変更される。S304とS305の処理は、画像に対応する全ての画素に対して実行される。つまり、周囲画素と奥行きの差が基準値以上である注目画素の全てに対して、S305の色の変更処理が行われる。 The color of the predetermined area based on the target pixel is changed based on the color of the surrounding pixels. For example, the colors of the target pixel A1, the surrounding pixel B2, and the surrounding pixel B5 are changed to the average values of the colors of the surrounding pixels B4, B6, B7, and B8. The processes of S304 and S305 are executed for all the pixels corresponding to the image. That is, the color changing process of S305 is performed on all the target pixels whose difference between the surrounding pixels and the depth is equal to or greater than the reference value.
なお、S305においては、周囲画素の色に基づいて注目画素に基づく所定領域の色が変更されればよく、色の変更方法は、上記の例に限られない。例えば、所定領域の色が、所定の計算式に基づいて算出されるようにしてもよい。 In S305, the color of the predetermined area based on the target pixel may be changed based on the color of the surrounding pixels, and the color changing method is not limited to the above example. For example, the color of the predetermined area may be calculated based on a predetermined calculation formula.
図14に戻り、マイクロプロセッサ14(第2画像作成部64)は、S305において取得された画像にぼかし処理を施して第2画像を作成する(S306)。 Returning to FIG. 14, the microprocessor 14 (second image creation unit 64) performs blurring processing on the image acquired in S <b> 305 to create a second image (S <b> 306).
一方、注目画素と周囲画素との奥行きの差が基準値以上でない場合(S304;N)、マイクロプロセッサ14(第2画像作成部64)は、S102と同様に、第2画像を作成する(S307)。 On the other hand, when the difference in depth between the target pixel and the surrounding pixels is not greater than or equal to the reference value (S304; N), the microprocessor 14 (second image creation unit 64) creates the second image in the same manner as S102 (S307). ).
一方、奥行きが所定値未満のオブジェクトが配置されていない場合(S302;N)、マイクロプロセッサ14(第2画像作成部64)は、S102と同様に第2画像を作成する(S308)。続くS309は、S103と同様であるので説明を省略する。 On the other hand, when an object having a depth less than the predetermined value is not arranged (S302; N), the microprocessor 14 (second image creation unit 64) creates a second image in the same manner as S102 (S308). Subsequent S309 is the same as S103 and will not be described.
S310,S311は、それぞれS104,S105と同様であるので、説明を省略する。 Since S310 and S311 are the same as S104 and S105, respectively, description thereof will be omitted.
[3−2.実施形態3のまとめ]
以上説明した実施形態3に係るゲーム装置10は、注目画素と周囲画素との奥行きの差が基準値以上である場合、この周囲画素の色に基づいて注目画素に基づく所定領域の色を変更した画像を取得する。実施形態3におけるゲーム装置10によれば、周囲と奥行きの差があるオブジェクトの色が変更され、このオブジェクトの色が外ににじみ出ないため、画素間に奥行き差がある場合に発生する画面のちらつきを防止することができる。
[3-2. Summary of Embodiment 3]
In the game device 10 according to the third embodiment described above, when the difference in depth between the target pixel and the surrounding pixels is greater than or equal to the reference value, the color of the predetermined region based on the target pixel is changed based on the color of the surrounding pixels. Get an image. According to the game device 10 in the third embodiment, the color of an object having a difference between the surroundings and the depth is changed, and the color of the object does not bleed out. Therefore, the screen flickering that occurs when there is a depth difference between pixels. Can be prevented.
[変形例]
実施形態1〜実施形態3においては、第1の仮想3次元空間40から所定のオブジェクトを取り除いて第2の仮想3次元空間40’とする例を挙げて説明した。第2の仮想3次元空間40’は、第1の仮想3次元空間40に含まれるポリゴンの数が削減されたものであればよく、第2の仮想3次元空間40’の様子は、図5又は図10を参照して説明した例に限られない。
[Modification]
In the first to third embodiments, an example in which a predetermined object is removed from the first virtual three-
例えば、実施形態1〜実施形態3の変形例として、所定のオブジェクトの形状が簡略化されることにより、ポリゴンの数が削減されるようにしてもよい。この場合、奥行き情報取得部66は、第1の仮想3次元空間40に配置された複数のオブジェクトのうち所定のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられた第2の仮想3次元空間40’を仮想カメラ52’(視点)から見た様子を表す画像の各画素毎に、当該視点の視線方向の奥行きを示す奥行き情報を取得する。
For example, as a modification of the first to third embodiments, the number of polygons may be reduced by simplifying the shape of a predetermined object. In this case, the depth
図16は、変形例における第2の仮想3次元空間40’を説明するための図である。図16に示すように、第2の仮想3次元空間40’は、第1の仮想3次元空間40のゴールオブジェクト46、キャラクタオブジェクト48、ボールオブジェクト50が、例えば、ポリゴン数が少ない直方体のオブジェクトに置き換えられた仮想3次元空間となる。これにより、第2の仮想3次元空間40’は、第1の仮想3次元空間40に比べてポリゴンの数が削減された仮想3次元空間になる。なお、この簡略化された形状は、ポリゴンの数が削減されればよく、直方体に限られず任意の形状とする。
FIG. 16 is a diagram for explaining the second virtual three-
以上説明した変形例では、ポリゴンの数が削減された第2の仮想3次元空間40’に基づいて奥行き情報が取得される。即ち、より少ない数のポリゴンに基づいて奥行き情報を取得することができる。先述のように、ポリゴンの数が増加すると、奥行き情報の作成処理は複雑になる。変形例の手法によれば、第1の仮想3次元空間40に基づいて奥行き情報を取得する場合に比べてポリゴンの数を削減できるので、処理負荷の軽減を図ることができる。
In the modification described above, the depth information is acquired based on the second virtual three-dimensional space 40 'in which the number of polygons is reduced. That is, depth information can be acquired based on a smaller number of polygons. As described above, when the number of polygons increases, the depth information creation process becomes complicated. According to the method of the modification, the number of polygons can be reduced as compared with the case where depth information is acquired based on the first virtual three-
この変形例を実施形態3に適用した場合、第2の仮想3次元空間40’は、第1の仮想3次元空間40に配置された複数のオブジェクトのうち視点との奥行きが所定値以上のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられたものとなる。即ち、視点と近いオブジェクトが、簡略化したオブジェクトに置き換えられる。
When this modification is applied to the third embodiment, the second virtual three-
なお、上記変形例では、形状を簡略化するオブジェクトを、ゴールオブジェクト46、キャラクタオブジェクト48、ボールオブジェクト50としたが、所定のオブジェクトの形状が簡略化されればよい。例えば、フィールドオブジェクト42が起伏がある場合に、平坦になるようにフィールドオブジェクト42を簡略化してもよい。他にも、スタジアムオブジェクト44に看板のオブジェクト等が含まれる場合には、この看板のオブジェクトを省略することにより、形状を簡略化してもよい。
In the modification, the objects whose shape is simplified are the
なお、実施形態1〜実施形態3、及び変形例においては、本発明をゲーム装置に適用した例を挙げて説明したが、本発明に係る画像処理装置は、パーソナルコンピュータ等他の装置であってもよい。 In the first to third embodiments and the modifications, the example in which the present invention is applied to a game device has been described. However, the image processing device according to the present invention is another device such as a personal computer. Also good.
10 ゲーム装置、11 家庭用ゲーム機、12 バス、14 マイクロプロセッサ、16 画像処理部、18 表示部、20 音声処理部、22 音声出力部、24 光ディスク再生部、25 光ディスク、26 主記憶、28 メモリカード、30 入出力処理部、32 コントローラ、40 第1の仮想3次元空間、40’ 第2の仮想3次元空間、42,42’ フィールドオブジェクト、44,44’,44a,44a’,44b,44b’,44c,44c’,44d,44d' スタジアムオブジェクト、46,46’ ゴールオブジェクト、48,48’,48a,48a’,48b,48c キャラクタオブジェクト、49 所定領域、49a,49b 領域、50,50’ ボールオブジェクト、52,52’ 仮想カメラ、60 ゲームデータ記憶部、62 第1画像作成部、64 第2画像作成部、66 奥行き情報取得部、68 表示制御部、E1,E2,E3,E4 領域、A1 注目画素、B1,B2,B3,B4,B5,B6,B7,B8 周囲画素。 DESCRIPTION OF SYMBOLS 10 Game device, 11 Home-use game machine, 12 bus | bath, 14 Microprocessor, 16 Image processing part, 18 Display part, 20 Audio | voice processing part, 22 Audio | voice output part, 24 Optical disk reproduction | regeneration part, 25 Optical disk, 26 Main memory, 28 Memory Card, 30 input / output processing unit, 32 controller, 40 first virtual three-dimensional space, 40 'second virtual three-dimensional space, 42, 42' field object, 44, 44 ', 44a, 44a', 44b, 44b ', 44c, 44c', 44d, 44d 'Stadium object, 46, 46' Goal object, 48, 48 ', 48a, 48a', 48b, 48c Character object, 49 Predetermined area, 49a, 49b area, 50, 50 ' Ball object, 52, 52 'virtual camera, 60 games Data storage unit, 62 first image creation unit, 64 second image creation unit, 66 depth information acquisition unit, 68 display control unit, E1, E2, E3, E4 area, A1 target pixel, B1, B2, B3, B4 , B5, B6, B7, B8 Surrounding pixels.
Claims (8)
前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成手段と、
前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成手段と、
前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得手段と、
前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御手段と、
を含み、
前記第2画像作成手段は、前記第1の仮想3次元空間を前記視点から見た様子を表す画像の注目画素と、当該注目画素に隣接する複数の周囲画素の何れかと、の当該視点に対応する奥行きの差が基準値以上である場合、当該周囲画素の色に基づいて前記注目画素に基づく所定領域の色を変更した画像を取得する取得手段を含み、当該画像にぼかし処理を施すことによって、前記所定領域の色が前記周辺画素の色に基づいて変更された画像がぼかされた前記第2画像を作成することを特徴とする画像処理装置。 An image processing apparatus that displays a screen representing a state in which a first virtual three-dimensional space in which a plurality of objects are arranged is viewed from a given viewpoint,
First image creating means for creating a first image representing a state of viewing the first virtual three-dimensional space from the viewpoint;
A second image creating means for representing the first virtual three-dimensional space as viewed from the viewpoint, and creating a second image subjected to a blurring process;
Depth information relating to the distance from the viewpoint for each pixel of the image representing a state in which the second virtual three-dimensional space in which the number of polygons is reduced as compared to the first virtual three-dimensional space is viewed from the viewpoint. Depth information acquisition means for acquiring;
Display control means for determining a composition ratio of each pixel of the first image and the second image based on the depth information and displaying a screen on which the first image and the second image are composed;
Including
The second image creation means corresponds to the viewpoint of a target pixel of an image representing a state in which the first virtual three-dimensional space is viewed from the viewpoint, and any of a plurality of surrounding pixels adjacent to the target pixel. Including a obtaining unit that obtains an image in which the color of the predetermined region based on the target pixel is changed based on the color of the surrounding pixel when the difference in depth to be performed is greater than or equal to a reference value, and performing blur processing on the image An image processing apparatus that creates the second image in which an image in which the color of the predetermined area is changed based on the color of the surrounding pixels is blurred .
前記奥行き情報取得手段は、前記第1の仮想3次元空間に比べて少なくとも前記キャラクタオブジェクトに対応するポリゴンの数が削減された前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする請求項1〜5の何れか一項に記載の画像処理装置。 The first virtual three-dimensional space is a sports game space in which at least a character object and an object representing a sports venue are arranged,
The depth information acquisition unit is an image representing a state in which the second virtual three-dimensional space in which at least the number of polygons corresponding to the character object is reduced compared to the first virtual three-dimensional space is viewed from the viewpoint. for each pixel of the image processing apparatus according to any one of claim 1 to 5, characterized in that to obtain the depth information about the distance from the viewpoint.
第1画像作成手段が、前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成ステップと、
第2画像作成手段が、前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成ステップと、
奥行き情報取得手段が、前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得ステップと、
表示制御手段が、前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御ステップと、
を含み、
前記第2画像作成ステップは、取得手段が、前記第1の仮想3次元空間を前記視点から見た様子を表す画像の注目画素と、当該注目画素に隣接する複数の周囲画素の何れかと、の当該視点に対応する奥行きの差が基準値以上である場合、当該周囲画素の色に基づいて前記注目画素に基づく所定領域の色を変更した画像を取得する取得ステップを含み、前記第2画像作成手段が、当該画像にぼかし処理を施すことによって、前記所定領域の色が前記周辺画素の色に基づいて変更された画像がぼかされた前記第2画像を作成することを特徴とする画像処理装置の制御方法。 A control method for an image processing apparatus for displaying a screen representing a state in which a first virtual three-dimensional space in which a plurality of objects are arranged is viewed from a given viewpoint,
A first image creating step for creating a first image representing a state in which the first virtual three-dimensional space is viewed from the viewpoint;
A second image creating step, wherein the second image creating means represents the first virtual three-dimensional space viewed from the viewpoint, and creates a second image subjected to the blurring process;
Depth information acquisition means, for each pixel of the image representing a state of viewing the second virtual three-dimensional space with a reduced number of polygons compared to the first virtual three-dimensional space from the viewpoint, from the viewpoint A depth information acquisition step of acquiring depth information regarding the distance of
Display control means, display control step of the proportion of combination of the pixels of the first image and the second image is determined based on the depth information, and displays the screen on which the first image and the second image are synthesized When,
Only including,
In the second image creation step, the acquisition unit includes a target pixel of an image representing a state in which the first virtual three-dimensional space is viewed from the viewpoint, and any one of a plurality of surrounding pixels adjacent to the target pixel. An acquisition step of acquiring an image in which a color of a predetermined area based on the target pixel is changed based on a color of the surrounding pixel when the difference in depth corresponding to the viewpoint is equal to or greater than a reference value; Means for performing blur processing on the image to create the second image in which an image in which the color of the predetermined area is changed based on the color of the peripheral pixels is blurred Control method of the device.
前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成手段、
前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成手段、
前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得手段、
前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御手段、
を含み、
前記第2画像作成手段は、前記第1の仮想3次元空間を前記視点から見た様子を表す画像の注目画素と、当該注目画素に隣接する複数の周囲画素の何れかと、の当該視点に対応する奥行きの差が基準値以上である場合、当該周囲画素の色に基づいて前記注目画素に基づく所定領域の色を変更した画像を取得する取得手段を含み、当該画像にぼかし処理を施すことによって、前記所定領域の色が前記周辺画素の色に基づいて変更された画像がぼかされた前記第2画像を作成することを特徴とする画像処理装置として前記コンピュータを機能させるためのプログラム。 A program for causing a computer to function as an image processing apparatus that displays a screen representing a state in which a first virtual three-dimensional space in which a plurality of objects are arranged is viewed from a given viewpoint,
First image creating means for creating a first image representing a state of viewing the first virtual three-dimensional space from the viewpoint;
A second image creating means for creating a second image subjected to a blurring process, representing a state in which the first virtual three-dimensional space is viewed from the viewpoint;
Depth information relating to the distance from the viewpoint for each pixel of the image representing a state in which the second virtual three-dimensional space in which the number of polygons is reduced as compared to the first virtual three-dimensional space is viewed from the viewpoint. Depth information acquisition means to acquire,
Display control means for determining a ratio of synthesis of each pixel of the first image and the second image based on the depth information, and displaying a screen on which the first image and the second image are synthesized;
Including
The second image creation means corresponds to the viewpoint of a target pixel of an image representing a state in which the first virtual three-dimensional space is viewed from the viewpoint, and any of a plurality of surrounding pixels adjacent to the target pixel. Including a obtaining unit that obtains an image in which the color of the predetermined region based on the target pixel is changed based on the color of the surrounding pixel when the difference in depth to be performed is greater than or equal to a reference value, and performing blur processing on the image A program for causing the computer to function as an image processing apparatus that creates the second image in which an image in which the color of the predetermined area is changed based on the color of the peripheral pixels is blurred .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009259729A JP4847572B2 (en) | 2009-11-13 | 2009-11-13 | Image processing apparatus, image processing apparatus control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009259729A JP4847572B2 (en) | 2009-11-13 | 2009-11-13 | Image processing apparatus, image processing apparatus control method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011107816A JP2011107816A (en) | 2011-06-02 |
JP4847572B2 true JP4847572B2 (en) | 2011-12-28 |
Family
ID=44231238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009259729A Active JP4847572B2 (en) | 2009-11-13 | 2009-11-13 | Image processing apparatus, image processing apparatus control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4847572B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113784811A (en) * | 2020-03-26 | 2021-12-10 | 国立大学法人东海国立大学机构 | Fresnel lens mold manufacturing method, Fresnel lens mold machining device and cutting tool |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU5652700A (en) * | 1999-09-24 | 2001-03-29 | Nintendo Co., Ltd. | Method and apparatus for providing non-photorealistic cartoon outlining within a 3D vodeographic system |
JP3715222B2 (en) * | 2000-12-27 | 2005-11-09 | 株式会社ソニー・コンピュータエンタテインメント | Drawing method, drawing device, drawing processing program, recording medium recording drawing processing program, and drawing processing program execution device |
JP3794681B2 (en) * | 2001-11-29 | 2006-07-05 | 株式会社スクウェア・エニックス | VIDEO GAME PROCESSING METHOD, VIDEO GAME PROCESSING DEVICE, VIDEO GAME PROGRAM, AND RECORDING MEDIUM CONTAINING VIDEO GAME PROGRAM |
JP2006127369A (en) * | 2004-11-01 | 2006-05-18 | Matsushita Electric Ind Co Ltd | Drawing device using fuzzy z |
JP3881363B1 (en) * | 2005-09-22 | 2007-02-14 | 株式会社コナミデジタルエンタテインメント | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM |
JP2008204145A (en) * | 2007-02-20 | 2008-09-04 | Sega Corp | Image processor, program, and computer-readable medium |
JP4793933B2 (en) * | 2007-03-12 | 2011-10-12 | 任天堂株式会社 | Image processing program and image processing apparatus |
-
2009
- 2009-11-13 JP JP2009259729A patent/JP4847572B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011107816A (en) | 2011-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3668019B2 (en) | Recording medium, image processing apparatus, and image processing method | |
US8602888B2 (en) | Video game device and image processing program | |
US8054309B2 (en) | Game machine, game machine control method, and information storage medium for shadow rendering | |
US20090179892A1 (en) | Image viewer, image displaying method and information storage medium | |
JP4982862B2 (en) | Program, information storage medium, and image generation system | |
EP1977801B1 (en) | Game machine, game machine control method, and information storage medium | |
US8698830B2 (en) | Image processing apparatus and method for texture-mapping an image onto a computer graphics image | |
JP4804120B2 (en) | Program, information storage medium, and image generation system | |
EP2065854A1 (en) | Image processing device, control method for image processing device and information recording medium | |
JP3372234B2 (en) | Reflected image display method, game apparatus, and recording medium | |
US8319786B2 (en) | Image processing device, control method for image processing device and information recording medium | |
JP5256153B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP4749198B2 (en) | Program, information storage medium, and image generation system | |
JP3366894B2 (en) | 3D image composition apparatus and method, information storage medium, program distribution apparatus and method | |
JP2005032140A (en) | Image generation system, program, and information storage medium | |
JP2009129167A (en) | Program, information storage medium, and image generation system | |
JP4847572B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP2008077405A (en) | Image generation system, program, and information storage medium | |
JP2005275797A (en) | Program, information storage medium, image generation system | |
JP4913399B2 (en) | Program, information storage medium, and image generation system | |
JP4447417B2 (en) | GAME DEVICE, PROGRAM, AND COMPUTER CONTROL METHOD | |
JP4838230B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP2005050070A (en) | Image processing device, method, and program | |
JP4838221B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP2008310377A (en) | Image generation system, program and information storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110902 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111004 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111013 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141021 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4847572 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |