JP4572245B2 - Image processing program, image processing apparatus, and image processing control method - Google Patents
Image processing program, image processing apparatus, and image processing control method Download PDFInfo
- Publication number
- JP4572245B2 JP4572245B2 JP2008118247A JP2008118247A JP4572245B2 JP 4572245 B2 JP4572245 B2 JP 4572245B2 JP 2008118247 A JP2008118247 A JP 2008118247A JP 2008118247 A JP2008118247 A JP 2008118247A JP 4572245 B2 JP4572245 B2 JP 4572245B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- image data
- dimming
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 71
- 238000012545 processing Methods 0.000 title claims description 39
- 230000002093 peripheral effect Effects 0.000 claims description 109
- 230000005484 gravity Effects 0.000 claims description 29
- 238000011156 evaluation Methods 0.000 claims description 14
- 238000012935 Averaging Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 47
- 238000003384 imaging method Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000012886 linear function Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 235000015096 spirit Nutrition 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Generation (AREA)
Description
本発明は、画像処理プログラム、特に、周辺減光の影響を再現した画像を画像表示部に表示可能な画像処理プログラムに関する。また、この画像処理プログラムによって実現される画像処理装置及び画像処理制御方法に関する。 The present invention relates to an image processing program, and more particularly to an image processing program capable of displaying an image in which the influence of peripheral dimming is reproduced on an image display unit. The present invention also relates to an image processing apparatus and an image processing control method realized by the image processing program.
従来から、仮想空間に配置されたオブジェクトが仮想カメラにより撮影された場合、ここで撮影された画像をモニタに表示する際には、様々な画像処理技術が施されてきた。 Conventionally, when an object placed in a virtual space is photographed by a virtual camera, various image processing techniques have been applied to display the photographed image on a monitor.
一般的には、物理的なレンズを有する実際のカメラでは、カメラの画角を大きくすると、カメラにより撮影された画像には、周辺減光が発生しやすくなる。一方で、仮想カメラは物理的なレンズを有していないため、仮想カメラでは画角が大きくなっても、仮想カメラにより撮影された画像には、周辺減光が発生することはなかった。 In general, in an actual camera having a physical lens, if the angle of view of the camera is increased, peripheral dimming tends to occur in an image taken by the camera. On the other hand, since the virtual camera does not have a physical lens, even if the angle of view of the virtual camera is increased, the peripheral dimming did not occur in the image taken by the virtual camera.
このように、実際のカメラにより撮影された画像と、仮想カメラにより撮影された画像との間には、周辺減光の有無に大きな違いがある。このため、仮想カメラにより撮影された画像を、実際のカメラにより撮影された画像と同じように、モニタに表示しようとした場合、仮想カメラにより撮影された画像に周辺減光の影響を反映させる必要が出る。そこで、従来では、仮想カメラにより撮影された画像に対して、周辺減光用のフィルタをかけることにより、周辺減光の影響が画像に反映されていた。 Thus, there is a great difference in the presence or absence of peripheral dimming between an image taken by an actual camera and an image taken by a virtual camera. For this reason, when an image taken by a virtual camera is displayed on a monitor in the same way as an image taken by an actual camera, it is necessary to reflect the influence of peripheral dimming on the image taken by the virtual camera. coming out. Therefore, conventionally, the influence of the peripheral light reduction is reflected in the image by applying a filter for peripheral light reduction to the image taken by the virtual camera.
たとえば、従来の野球ゲームでは、リプレイ画面等において、周辺減光の影響が反映されていた(非特許文献1を参照)。この野球ゲームにおいては、仮想カメラにより撮影された画像に対して、仮想カメラにより撮影された画像の周辺を暗くするフィルタをかけることにより、周辺減光の影響が画像に再現されていた。
従来の野球ゲームでは、仮想カメラにより撮影された画像に対して、仮想カメラにより撮影された画像の周辺を暗くするフィルタ(周辺減光用のフィルタ)をかけることにより、周辺減光の影響が画像において再現されていた。 In a conventional baseball game, a filter that darkens the periphery of the image captured by the virtual camera (peripheral dimming filter) is applied to the image captured by the virtual camera. It was reproduced in.
従来の周辺減光用のフィルタは、仮想カメラにより撮影された画像の周辺を、単に暗くするだけのものであった。このため、従来の周辺減光用のフィルタでは、画像の周辺を一定の割合でしか暗くすることができなかった。詳細には、周辺減光が発生する程度は、一般的に、カメラの画角すなわち光量に応じて変化する。しかしながら、従来の周辺減光用のフィルタでは、仮想カメラの画角すなわち光量が変化しても、画像の周辺を一定の割合でしか暗くすることができなかった。このため、仮想カメラにより撮影された画像に周辺減光用のフィルタをかけたとしても、実際のカメラにより撮影された画像と同じような周辺減光を、仮想カメラにより撮影された画像においてリアルに再現することが困難であった。 The conventional peripheral dimming filter simply darkens the periphery of the image taken by the virtual camera. For this reason, the conventional peripheral light reduction filter can darken the periphery of the image only at a certain rate. Specifically, the extent to which peripheral dimming generally varies depending on the angle of view of the camera, that is, the amount of light. However, the conventional peripheral light reduction filter can darken the periphery of an image only at a certain rate even when the angle of view of the virtual camera, that is, the amount of light changes. For this reason, even if an image captured by a virtual camera is filtered with a peripheral dimming filter, peripheral dimming similar to that of an image captured by an actual camera is realistic in an image captured by a virtual camera. It was difficult to reproduce.
本発明は、このような問題に鑑みてなされたものであり、本発明の目的は、仮想カメラにより撮影された画像において、リアリティのある周辺減光を再現することにある。 The present invention has been made in view of such problems, and an object of the present invention is to reproduce realistic peripheral dimming in an image taken by a virtual camera.
請求項1に係る画像処理プログラムは、周辺減光の影響を再現した画像を画像表示部に表示可能なコンピュータに、以下の機能を実現させるためのプログラムである。
(1)仮想カメラにより所定の画角で撮影された画像に対応する第1画像データを、記憶部に格納する第1画像格納機能。
(2)画像の周辺部を減光する減光用の画像に対応する第2画像データを、記憶部に格納する第2画像格納機能。
(3)仮想カメラの画角に応じて、第2画像データを調整する処理を、制御部に実行させる第2画像調整機能。
(4)第1画像データに、調整後の第2画像データを重ね合わせる処理を、制御部に実行させることにより、周辺部が減光されたモニタ表示用の画像データを生成するモニタ画像生成機能。
(5)周辺部が減光されたモニタ表示用の画像データを用いて、周辺減光の影響を再現した画像を、画像表示部に表示する画像表示機能。
An image processing program according to
(1) A first image storage function for storing first image data corresponding to an image photographed at a predetermined angle of view by a virtual camera in a storage unit.
(2) A second image storage function for storing, in the storage unit, second image data corresponding to a dimming image for dimming the peripheral portion of the image.
(3) A second image adjustment function that causes the control unit to execute a process of adjusting the second image data in accordance with the angle of view of the virtual camera.
(4) A monitor image generation function for generating monitor display image data in which the peripheral portion is dimmed by causing the control unit to execute a process of superimposing the adjusted second image data on the first image data. .
(5) An image display function for displaying, on the image display unit, an image that reproduces the influence of peripheral dimming using monitor display image data whose peripheral portion is dimmed.
この画像処理プログラムでは、第1画像格納機能において、仮想カメラにより所定の画角で撮影された画像に対応する第1画像データが、記憶部に格納される。第2画像格納機能において、画像の周辺部を減光する減光用の画像に対応する第2画像データが、記憶部に格納される。第2画像調整機能においては、仮想カメラの画角に応じて、第2画像データを調整する処理が、制御部により実行される。モニタ画像生成機能においては、第1画像データに、調整後の第2画像データを重ね合わせる処理を、制御部に実行させることにより、周辺部が減光されたモニタ表示用の画像データが生成される。画像表示機能においては、周辺部が減光されたモニタ表示用の画像データを用いて、周辺減光の影響を再現した画像が、画像表示部に表示される。 In this image processing program, in the first image storage function, first image data corresponding to an image photographed at a predetermined angle of view by the virtual camera is stored in the storage unit. In the second image storage function, the second image data corresponding to the dimming image for dimming the peripheral portion of the image is stored in the storage unit. In the second image adjustment function, a process of adjusting the second image data according to the angle of view of the virtual camera is executed by the control unit. In the monitor image generation function, monitor display image data in which the peripheral portion is dimmed is generated by causing the control unit to execute a process of superimposing the adjusted second image data on the first image data. The In the image display function, an image that reproduces the influence of the peripheral dimming is displayed on the image display unit using the monitor display image data in which the peripheral part is dimmed.
この場合、ある画像が仮想カメラにより所定の画角で撮影されると、この画像に対応する第1画像データが記憶部に格納される。また、画像の周辺部を減光する減光用の画像に対応する第2画像データが、記憶部に格納される。そして、仮想カメラの画角に応じた調整が、第2画像データに対して制御部により実行される。そして、ここで調整された第2画像データ(調整後の第2画像データ)を、仮想カメラにより所定の画角で撮影された画像に対応する第1画像データに重ね合わせる処理が、制御部により実行される。このようにして、周辺部が減光されたモニタ表示用の画像データが生成され、この周辺部が減光されたモニタ表示用の画像データを用いて、周辺減光の影響を再現した画像が、画像表示部に表示される。 In this case, when a certain image is taken with a predetermined angle of view by the virtual camera, the first image data corresponding to this image is stored in the storage unit. In addition, second image data corresponding to a dimming image for dimming the peripheral portion of the image is stored in the storage unit. Then, adjustment according to the angle of view of the virtual camera is executed by the control unit on the second image data. Then, the process of superimposing the adjusted second image data (adjusted second image data) on the first image data corresponding to the image captured at a predetermined angle of view by the virtual camera is performed by the control unit. Executed. In this way, image data for monitor display with the peripheral portion dimmed is generated, and an image that reproduces the influence of the peripheral dimming is generated using the monitor display image data with the peripheral portion dimmed. Is displayed on the image display section.
このように、請求項1に係る発明では、仮想カメラの画角に応じて調整された減光用の画像データ(第2画像データ)を、仮想カメラにより撮影された画像データ(第1画像データ)に重ね合わせることにより、仮想カメラの画角に応じた周辺減光の影響を、仮想カメラにより撮影された画像に反映することができる。このため、実際のカメラにより撮影された画像と同様に、仮想カメラにより撮影された画像においても、リアリティのある周辺減光を再現することができる。 Thus, according to the first aspect of the present invention, the dimming image data (second image data) adjusted according to the angle of view of the virtual camera is used as the image data (first image data) captured by the virtual camera. ), The effect of peripheral dimming according to the angle of view of the virtual camera can be reflected in the image taken by the virtual camera. For this reason, realistic peripheral dimming can be reproduced in an image taken by a virtual camera as well as an image taken by an actual camera.
請求項2に係る画像処理プログラムでは、請求項1に記載の画像処理プログラムにおいて、記憶部に格納された第1画像データに基づいて、仮想カメラの所定の画角に対応する光量を評価する処理が、制御部により実行される。そして、光量に応じて第2画像データを調整する処理が、制御部により実行される。前者の機能は光量評価機能において実現され、後者の機能は画像光量調整機能において実現される。これら光量評価機能および画像光量調整機能は、第2画像調整機能に含まれている。 According to a second aspect of the present invention, there is provided the image processing program according to the first aspect, wherein the amount of light corresponding to a predetermined angle of view of the virtual camera is evaluated based on the first image data stored in the storage unit. Is executed by the control unit. And the process which adjusts 2nd image data according to a light quantity is performed by the control part. The former function is realized in the light quantity evaluation function, and the latter function is realized in the image light quantity adjustment function. These light quantity evaluation function and image light quantity adjustment function are included in the second image adjustment function.
この場合、仮想カメラにより撮影された画像データ(第1画像データ)に基づいて、仮想カメラにより撮影された画像の光量、すなわち仮想カメラの画角に対応する光量が、評価される。そして、この光量に応じて、減光用の画像データ(第2画像データ)が調整される。このため、請求項2に係る発明では、周辺減光の影響を、仮想カメラにより撮影された画像に対して正確に反映することができる。このため、実際のカメラにより撮影された画像と同様に、仮想カメラにより撮影された画像においても、リアリティのある周辺減光を正確に再現することができる。
In this case, based on the image data (first image data) photographed by the virtual camera, the light quantity of the image photographed by the virtual camera, that is, the light quantity corresponding to the angle of view of the virtual camera is evaluated. Then, the dimming image data (second image data) is adjusted in accordance with the amount of light. For this reason, in the invention which concerns on
請求項3に係る画像処理プログラムでは、請求項2に記載の画像処理プログラムにおいて、記憶部に格納された第1画像データをグレースケールの画像データに変換する処理が、制御部により実行される。そして、グレースケールの画像データの階調を示す階調データが、仮想カメラの所定の画角に対応する光量を評価するデータとして、制御部に認識される。 According to a third aspect of the present invention, in the image processing program according to the second aspect, the process of converting the first image data stored in the storage unit into grayscale image data is executed by the control unit. Then, the gradation data indicating the gradation of the grayscale image data is recognized by the control unit as data for evaluating the amount of light corresponding to a predetermined angle of view of the virtual camera.
この場合、仮想カメラにより撮影された画像データ(第1画像データ)が、グレースケールの画像データに変換される。そして、このグレースケールの画像データの階調を示す階調データが算出され、この階調データを用いて、仮想カメラの所定の画角に対応する光量が評価される。このように、請求項3に係る発明では、仮想カメラにより撮影された画像データ(第1画像データ)さえあれば、仮想カメラにより撮影された画像の光量を評価することができる。このため、実際のカメラにより撮影された画像と同様に、仮想カメラにより撮影された画像においても、リアリティのある周辺減光を再現することができる。
In this case, the image data (first image data) captured by the virtual camera is converted into grayscale image data. Then, gradation data indicating the gradation of the grayscale image data is calculated, and the light amount corresponding to a predetermined angle of view of the virtual camera is evaluated using the gradation data. Thus, in the invention according to
請求項4に係る画像処理プログラムでは、請求項3に記載の画像処理プログラムにおいて、記憶部に格納された第1画像データをグレースケールの画像データに変換する処理が、制御部により実行される。そして、グレースケールの画像データを1ピクセルのグレースケールの画像データに変換する処理が、制御部により実行される。そして、1ピクセルのグレースケールの画像データの階調を示す階調データが、仮想カメラの所定の画角に対応する光量を評価するデータとして制御部に認識される。これらの機能は、光量評価機能において実現される。 According to a fourth aspect of the present invention, in the image processing program according to the third aspect, the process of converting the first image data stored in the storage unit into grayscale image data is executed by the control unit. Then, processing for converting the grayscale image data into 1-pixel grayscale image data is executed by the control unit. The gradation data indicating the gradation of the grayscale image data of one pixel is recognized by the control unit as data for evaluating the light amount corresponding to a predetermined angle of view of the virtual camera. These functions are realized in the light quantity evaluation function.
この場合、仮想カメラにより撮影された画像データ(第1画像データ)が、グレースケールの画像データに変換される。そして、グレースケールの画像データが、1ピクセルのグレースケールの画像データに変換される。そして、1ピクセルのグレースケールの画像データの階調を示す階調データが算出され、この階調データを用いて、仮想カメラの所定の画角に対応する光量が評価される。このように、請求項4に係る発明では、仮想カメラにより撮影された画像の光量を、1ピクセルのグレースケールの画像データの階調データに基づいて評価することができる。このため、実際のカメラにより撮影された画像と同様に、仮想カメラにより撮影された画像においても、リアリティのある周辺減光を再現することができる。 In this case, the image data (first image data) captured by the virtual camera is converted into grayscale image data. Then, the grayscale image data is converted into 1-pixel grayscale image data. Then, gradation data indicating the gradation of the grayscale image data of one pixel is calculated, and the light quantity corresponding to a predetermined angle of view of the virtual camera is evaluated using the gradation data. As described above, according to the fourth aspect of the present invention, it is possible to evaluate the light quantity of the image captured by the virtual camera based on the gradation data of the 1-pixel grayscale image data. For this reason, realistic peripheral dimming can be reproduced in an image taken by a virtual camera as well as an image taken by an actual camera.
請求項5に係る画像処理プログラムでは、請求項3に記載の画像処理プログラムにおいて、記憶部に格納された画像データをグレースケールの画像データに変換する処理が、制御部により実行される。そして、グレースケールの画像データの階調を示す階調データが、制御部に認識される。そして、階調データを平均化する処理が、制御部により実行される。そして、平均化された階調データが、仮想カメラの所定の画角に対応する光量を評価するデータとして制御部に認識される。これらの機能は、光量評価機能において実現される。 In an image processing program according to a fifth aspect, in the image processing program according to the third aspect, the process of converting the image data stored in the storage unit into grayscale image data is executed by the control unit. Then, gradation data indicating the gradation of grayscale image data is recognized by the control unit. And the process which averages gradation data is performed by the control part. Then, the averaged gradation data is recognized by the control unit as data for evaluating the amount of light corresponding to the predetermined angle of view of the virtual camera. These functions are realized in the light quantity evaluation function.
この場合、仮想カメラにより撮影された画像データ(第1画像データ)が、グレースケールの画像データに変換される。そして、グレースケールの画像データの階調を示す階調データが各ピクセルごとに算出され、各ピクセルの階調データを平均化される。そして、平均化された階調データを用いて、仮想カメラの所定の画角に対応する光量が評価される。このように、請求項5に係る発明では、仮想カメラにより撮影された画像の光量を、各ピクセルのグレースケールの画像データの階調データに基づいて評価することができる。このため、実際のカメラにより撮影された画像と同様に、仮想カメラにより撮影された画像においても、リアリティのある周辺減光を再現することができる。 In this case, the image data (first image data) captured by the virtual camera is converted into grayscale image data. Then, gradation data indicating the gradation of grayscale image data is calculated for each pixel, and the gradation data of each pixel is averaged. Then, the light amount corresponding to the predetermined angle of view of the virtual camera is evaluated using the averaged gradation data. Thus, according to the fifth aspect of the present invention, the amount of light of the image captured by the virtual camera can be evaluated based on the gradation data of the grayscale image data of each pixel. For this reason, realistic peripheral dimming can be reproduced in an image taken by a virtual camera as well as an image taken by an actual camera.
請求項6に係る画像処理プログラムでは、請求項3から5のいずれかに記載の画像処理プログラムにおいて、変換後の第1画像データの階調データに応じて、画像の周辺部を減光する程度を規定するための透明度データが、制御部により設定される。そして、この透明度データに基づいて、第2画像データの濃淡を調整する処理が、制御部により実行される。これらの機能は、画像光量調整機能において実現される。
The image processing program according to claim 6 is the image processing program according to any one of
この場合、グレースケールの画像データ(変換後の第1画像データ)の階調データに応じて、仮想カメラにより撮影された画像の周辺部を減光する程度を規定するための透明度データが、設定される。そして、この透明度データに基づいて、減光用の画像データ(第2画像データ)の濃淡が、調整される。このように、請求項6に係る発明では、仮想カメラにより撮影された画像の光量の大小、すなわちグレースケールの画像の階調の大小を、透明度データを介して、減光用の画像データ(第2画像データ)の濃淡に反映することができる。このため、仮想カメラにより撮影された画像データに、減光用の画像データを重ね合わせると、実際のカメラにより撮影された画像と同様に、仮想カメラにより撮影された画像においても、リアリティのある周辺減光を再現することができる。 In this case, transparency data for defining the degree to which the peripheral portion of the image taken by the virtual camera is dimmed according to the grayscale data of the grayscale image data (first image data after conversion) is set. Is done. Then, based on this transparency data, the density of the image data for dimming (second image data) is adjusted. Thus, according to the sixth aspect of the present invention, the amount of light of the image photographed by the virtual camera, that is, the gradation of the gray scale image is determined based on the image data for dimming (first number) via the transparency data. 2 image data). For this reason, if the image data for dimming is superimposed on the image data captured by the virtual camera, similar to the image captured by the actual camera, even in the image captured by the virtual camera, Dimming can be reproduced.
請求項7に係る画像処理プログラムでは、請求項6に記載の画像処理プログラムにおいて、減光用の画像の重心位置の透明度データが、第1透明度データとして制御部に認識される。そして、減光用の画像の周辺部の透明度データが、光量を評価した階調データに応じて、第2透明度データとして制御部に認識される。そして、第1透明度データおよび第2透明度データに基づいて、減光用の画像の重心位置と減光用の画像の周辺部との間の減光用の画像の透明度データが、第3透明度データとして制御部により設定される。そして、第1透明度データ、第2透明度データ、および第3透明度データに基づいて、第2画像データの濃淡を調整する処理が、制御部により実行される。これらの機能は、画像光量調整機能において実現される。 In an image processing program according to a seventh aspect, in the image processing program according to the sixth aspect, the transparency data of the gravity center position of the dimming image is recognized by the control unit as the first transparency data. Then, the transparency data of the peripheral part of the image for dimming is recognized by the control unit as the second transparency data according to the gradation data for which the light quantity is evaluated. Based on the first transparency data and the second transparency data, the transparency data of the light reduction image between the gravity center position of the light reduction image and the peripheral portion of the light reduction image is the third transparency data. Is set by the control unit. And the process which adjusts the light and shade of 2nd image data based on 1st transparency data, 2nd transparency data, and 3rd transparency data is performed by a control part. These functions are realized in the image light quantity adjustment function.
この場合、減光用の画像の重心位置の透明度データ(第1透明度データ)および減光用の画像の周辺部の透明度データ(第2透明度データ)に基づいて、減光用の画像の重心位置と減光用の画像の周辺部との間の減光用の画像の透明度データ(第3透明度データ)が、設定される。そして、これらの透明度データに基づいて、減光用の画像データ(第2画像データ)の濃淡が、調整される。このように、請求項7に係る発明では、仮想カメラにより撮影された画像の光量の大小、すなわちグレースケールの画像の階調の大小を、透明度データを介して、減光用の画像データ(第2画像データ)の濃淡に反映することができる。このため、仮想カメラにより撮影された画像データに、減光用の画像データを重ね合わせると、実際のカメラにより撮影された画像と同様に、仮想カメラにより撮影された画像においても、リアリティのある周辺減光を再現することができる。
In this case, based on the transparency data (first transparency data) of the center of gravity of the image for dimming and the transparency data (second transparency data) of the peripheral portion of the image for dimming (the second transparency data), The transparency data (third transparency data) of the light reduction image between the light and the peripheral portion of the light reduction image is set. Then, based on the transparency data, the density of the image data for dimming (second image data) is adjusted. In this way, in the invention according to
請求項8に係る画像処理装置は、周辺減光の影響を再現した画像を画像表示部に表示可能な画像処理装置である。この画像処理装置は、仮想カメラにより所定の画角で撮影された画像に対応する第1画像データを、記憶部に格納する第1画像格納手段と、画像の周辺部を減光する減光用の画像に対応する第2画像データを、記憶部に格納する第2画像格納手段と、仮想カメラの画角に応じて、第2画像データを調整する処理を、制御部に実行させる第2画像調整手段と、第1画像データに、調整後の第2画像データを重ね合わせる処理を、制御部に実行させることにより、周辺部が減光されたモニタ表示用の画像データを生成するモニタ画像生成手段と、周辺部が減光されたモニタ表示用の画像データを用いて、周辺減光の影響を再現した画像を、画像表示部に表示する画像表示手段と、を備えている。 An image processing apparatus according to an eighth aspect of the present invention is an image processing apparatus capable of displaying on the image display unit an image that reproduces the influence of peripheral light reduction. The image processing apparatus includes first image storage means for storing first image data corresponding to an image photographed at a predetermined angle of view by a virtual camera in a storage unit, and dimming for dimming a peripheral portion of the image. A second image storage unit that stores second image data corresponding to the image in the storage unit, and a second image that causes the control unit to execute a process of adjusting the second image data according to the angle of view of the virtual camera. Monitor image generation for generating monitor display image data in which the peripheral portion is dimmed by causing the control unit to execute a process of superimposing the adjusted second image data on the first image data and the adjustment unit And image display means for displaying on the image display section an image that reproduces the influence of the peripheral dimming using image data for monitor display whose peripheral area is dimmed.
請求項9に係る画像処理制御方法は、周辺減光の影響を再現した画像を画像表示部に表示可能なコンピュータにより制御される画像処理制御方法である。この画像処理制御方法は、仮想カメラにより所定の画角で撮影された画像に対応する第1画像データを、記憶部に格納する第1画像格納ステップと、画像の周辺部を減光する減光用の画像に対応する第2画像データを、記憶部に格納する第2画像格納ステップと、仮想カメラの画角に応じて、第2画像データを調整する処理を、制御部に実行させる第2画像調整ステップと、第1画像データに、調整後の第2画像データを重ね合わせる処理を、制御部に実行させることにより、周辺部が減光されたモニタ表示用の画像データを生成するモニタ画像生成ステップと、周辺部が減光されたモニタ表示用の画像データを用いて、周辺減光の影響を再現した画像を、画像表示部に表示する画像表示ステップと、を備えている。 An image processing control method according to a ninth aspect is an image processing control method controlled by a computer capable of displaying an image reproducing the influence of peripheral light reduction on an image display unit. This image processing control method includes a first image storing step for storing first image data corresponding to an image photographed at a predetermined angle of view by a virtual camera in a storage unit, and dimming for dimming a peripheral portion of the image. A second image storing step for storing second image data corresponding to the image for use in the storage unit, and a process for adjusting the second image data in accordance with the angle of view of the virtual camera. A monitor image for generating image data for monitor display in which the peripheral portion is dimmed by causing the control unit to execute an image adjustment step and a process of superimposing the adjusted second image data on the first image data A generation step, and an image display step of displaying an image in which the influence of the peripheral light reduction is reproduced on the image display unit using the monitor display image data whose peripheral part is dimmed.
本発明では、仮想カメラの画角に応じて調整された減光用の画像データ(第2画像データ)を、仮想カメラにより撮影された画像データ(第1画像データ)に重ね合わせることにより、仮想カメラの画角に応じた周辺減光の影響を、仮想カメラにより撮影された画像に反映することができる。 In the present invention, the image data for dimming (second image data) adjusted according to the angle of view of the virtual camera is superimposed on the image data (first image data) photographed by the virtual camera, so that the virtual The influence of peripheral dimming according to the angle of view of the camera can be reflected in the image taken by the virtual camera.
詳細には、仮想カメラにより撮影された画像データ(第1画像データ)に基づいて、仮想カメラにより撮影された画像の光量、すなわち仮想カメラの画角に対応する光量が、評価される。そして、この光量に応じて、減光用の画像データ(第2画像データ)が調整される。そして、ここで調整された第2画像データ(調整後の第2画像データ)を、仮想カメラにより所定の画角で撮影された画像に対応する第1画像データに重ね合わせることにより、仮想カメラの画角に応じた周辺減光の影響を、仮想カメラにより撮影された画像に反映することができる。 Specifically, based on the image data (first image data) captured by the virtual camera, the light amount of the image captured by the virtual camera, that is, the light amount corresponding to the angle of view of the virtual camera is evaluated. Then, the dimming image data (second image data) is adjusted in accordance with the amount of light. Then, by superimposing the second image data adjusted here (second image data after adjustment) on the first image data corresponding to the image captured at a predetermined angle of view by the virtual camera, The effect of peripheral dimming according to the angle of view can be reflected in the image taken by the virtual camera.
これにより、仮想カメラにより撮影された画像において、実際のカメラにより撮影された画像と同様に、リアリティのある周辺減光を再現することができる。 Thereby, in the image photographed by the virtual camera, the realistic peripheral dimming can be reproduced in the same manner as the image photographed by the actual camera.
〔ゲーム装置の構成と動作〕
図1は、本発明の一実施形態によるゲーム装置の基本構成を示している。ここでは、ビデオゲーム装置の一例として、家庭用ビデオゲーム装置をとりあげて説明を行うこととする。家庭用ビデオゲーム装置は、家庭用ゲーム機本体および家庭用テレビジョンを備える。家庭用ゲーム機本体には、記録媒体10が装填可能となっており、記録媒体10からゲームデータが適宜読み出されてゲームが実行される。このようにして実行されるゲーム内容が家庭用テレビジョンに表示される。
[Configuration and operation of game device]
FIG. 1 shows a basic configuration of a game device according to an embodiment of the present invention. Here, a home video game device will be described as an example of the video game device. The home video game apparatus includes a home game machine body and a home television. The home game machine body can be loaded with a
家庭用ビデオゲーム装置のゲームシステムは、制御部1と、記憶部2と、画像表示部3と、音声出力部4と、操作入力部5とからなっており、それぞれがバス6を介して接続される。このバス6は、アドレスバス、データバス、およびコントロールバスなどを含んでいる。ここで、制御部1、記憶部2、音声出力部4および操作入力部5は、家庭用ビデオゲーム装置の家庭用ゲーム機本体に含まれており、画像表示部3は家庭用テレビジョンに含まれている。
The game system of the home video game apparatus includes a
制御部1は、主に、ゲームプログラムに基づいてゲーム全体の進行を制御するために設けられている。制御部1は、たとえば、CPU(Central Processing Unit)7と、信号処理プロセッサ8と、画像処理プロセッサ9とから構成されている。CPU7と信号処理プロセッサ8と画像処理プロセッサ9とは、それぞれがバス6を介して互いに接続されている。CPU7は、ゲームプログラムからの命令を解釈し、各種のデータ処理や制御を行う。たとえば、CPU7は、信号処理プロセッサ8に対して、画像データを画像処理プロセッサに供給するように命令する。信号処理プロセッサ8は、主に、3次元空間上における計算と、3次元空間上から擬似3次元空間上への位置変換計算と、光源計算処理と、画像および音声データの生成加工処理とを行っている。画像処理プロセッサ9は、主に、信号処理プロセッサ8の計算結果および処理結果に基づいて、描画すべき画像データをRAM12に書き込む処理を行っている。
The
記憶部2は、主に、プログラムデータや、プログラムデータで使用される各種データなどを格納しておくために設けられている。記憶部2は、たとえば、記録媒体10と、インターフェース回路11と、RAM(Random Access Memory)12とから構成されている。記録媒体10には、インターフェース回路11が接続されている。そして、インターフェース回路11とRAM12とはバス6を介して接続されている。記録媒体10は、オペレーションシステムのプログラムデータや、画像データ、音声データ並びに各種プログラムデータからなるゲームデータなどを記録するためのものである。この記録媒体10は、たとえば、ROM(Read Only Memory)カセット、光ディスク、およびフレキシブルディスクなどであり、オペレーティングシステムのプログラムデータやゲームデータなどが記憶される。なお、記録媒体10にはカード型メモリも含まれており、このカード型メモリは、主に、ゲームを中断するときに中断時点での各種ゲームパラメータを保存するために用いられる。RAM12は、記録媒体10から読み出された各種データを一時的に格納したり、制御部1からの処理結果を一時的に記録したりするために用いられる。このRAM12には、各種データとともに、各種データの記憶位置を示すアドレスデータが格納されており、任意のアドレスを指定して読み書きすることが可能になっている。
The
画像表示部3は、主に、画像処理プロセッサ9によってRAM12に書き込まれた画像データや、記録媒体10から読み出される画像データなどを画像として出力するために設けられている。この画像表示部3は、たとえば、テレビジョンモニタ20と、インターフェース回路21と、D/Aコンバータ(Digital-To-Analogコンバータ)22とから構成されている。テレビジョンモニタ20にはD/Aコンバータ22が接続されており、D/Aコンバータ22にはインターフェース回路21が接続されている。そして、インターフェース回路21にバス6が接続されている。ここでは、画像データが、インターフェース回路21を介してD/Aコンバータ22に供給され、ここでアナログ画像信号に変換される。そして、アナログ画像信号がテレビジョンモニタ20に画像として出力される。
The
ここで、画像データには、たとえば、ポリゴンデータやテクスチャデータなどがある。ポリゴンデータはポリゴンを構成する頂点の座標データのことである。テクスチャデータは、ポリゴンにテクスチャを設定するためのものであり、テクスチャ指示データとテクスチャカラーデータとからなっている。テクスチャ指示データはポリゴンとテクスチャとを対応づけるためのデータであり、テクスチャカラーデータはテクスチャの色を指定するためのデータである。ここで、ポリゴンデータとテクスチャデータとには、各データの記憶位置を示すポリゴンアドレスデータとテクスチャアドレスデータとが対応づけられている。このような画像データでは、信号処理プロセッサ8により、ポリゴンアドレスデータの示す3次元空間上のポリゴンデータ(3次元ポリゴンデータ)が、画面自体(視点)の移動量データおよび回転量データに基づいて座標変換および透視投影変換されて、2次元空間上のポリゴンデータ(2次元ポリゴンデータ)に置換される。そして、複数の2次元ポリゴンデータでポリゴン外形を構成して、ポリゴンの内部領域にテクスチャアドレスデータが示すテクスチャデータを書き込む。このようにして、各ポリゴンにテクスチャが貼り付けられた物体つまり各種キャラクタを表現することができる。
Here, the image data includes, for example, polygon data and texture data. Polygon data is the coordinate data of vertices constituting a polygon. The texture data is for setting a texture on the polygon, and is composed of texture instruction data and texture color data. The texture instruction data is data for associating polygons and textures, and the texture color data is data for designating the texture color. Here, the polygon data and the texture data are associated with the polygon address data indicating the storage position of each data and the texture address data. In such image data, the
音声出力部4は、主に、記録媒体10から読み出される音声データを音声として出力するために設けられている。音声出力部4は、たとえば、スピーカー13と、増幅回路14と、D/Aコンバータ15と、インターフェース回路16とから構成されている。スピーカー13には増幅回路14が接続されており、増幅回路14にはD/Aコンバータ15が接続されており、D/Aコンバータ15にはインターフェース回路16が接続されている。そして、インターフェース回路16にバス6が接続されている。ここでは、音声データが、インターフェース回路16を介してD/Aコンバータ15に供給され、ここでアナログ音声信号に変換される。このアナログ音声信号が増幅回路14によって増幅され、スピーカー13から音声として出力される。音声データには、たとえば、ADPCM(Adaptive Differential Pulse Code Modulation)データやPCM(Pulse Code Modulation)データなどがある。ADPCMデータの場合、上述と同様の処理方法で音声をスピーカー13から出力することができる。PCMデータの場合、RAM12においてPCMデータをADPCMデータに変換しておくことで、上述と同様の処理方法で音声をスピーカー13から出力することができる。
The
操作入力部5は、主に、コントローラ17と、操作情報インターフェース回路18と、インターフェース回路19とから構成されている。コントローラ17には、操作情報インターフェース回路18が接続されており、操作情報インターフェース回路18にはインターフェース回路19が接続されている。そして、インターフェース回路19にバス6が接続されている。
The
コントローラ17は、プレイヤが種々の操作命令を入力するために使用する操作装置であり、プレイヤの操作に応じた操作信号をCPU7に送出する。コントローラ17には、第1ボタン17a、第2ボタン17b、第3ボタン17c、第4ボタン17d、上方向キー17U、下方向キー17D、左方向キー17L、右方向キー17R、L1ボタン17L1、L2ボタン17L2、R1ボタン17R1、R2ボタン17R2、スタートボタン17e、セレクトボタン17f、左スティック17SL及び右スティック17SRが設けられている。
The
上方向キー17U、下方向キー17D、左方向キー17L及び右方向キー17Rは、例えば、キャラクタやカーソルをテレビジョンモニタ20の画面上で上下左右に移動させるコマンドをCPU7に与えるために使用される。
The up direction key 17U, the down direction key 17D, the left direction key 17L, and the right direction key 17R are used, for example, to give the CPU 7 a command for moving a character or cursor up, down, left, or right on the screen of the
スタートボタン17eは、記録媒体10からゲームプログラムをロードするようにCPU7に指示するときなどに使用される。
The start button 17e is used when instructing the
セレクトボタン17fは、記録媒体10からロードされたゲームプログラムに対して、各種選択をCPU7に指示するときなどに使用される。
The
左スティック17SL及び右スティック17SRは、いわゆるジョイスティックとほぼ同一構成のスティック型コントローラである。このスティック型コントローラは、直立したスティックを有している。このスティックは、支点を中心として直立位置から前後左右を含む360°方向に亘って、傾倒可能な構成になっている。左スティック17SL及び右スティック17SRは、スティックの傾倒方向及び傾倒角度に応じて、直立位置を原点とするx座標及びy座標の値を、操作信号として操作情報インターフェース回路18とインターフェース回路19とを介してCPU7に送出する。
The left stick 17SL and the right stick 17SR are stick type controllers having substantially the same configuration as a so-called joystick. This stick type controller has an upright stick. The stick is configured to be tiltable from an upright position around the fulcrum in a 360 ° direction including front, rear, left and right. The left stick 17SL and the right stick 17SR pass through the operation
第1ボタン17a、第2ボタン17b、第3ボタン17c、第4ボタン17d、L1ボタン17L1、L2ボタン17L2、R1ボタン17R1及びR2ボタン17R2には、記録媒体10からロードされるゲームプログラムに応じて種々の機能が割り振られている。
The
なお、左スティック17SL及び右スティック17SRを除くコントローラ17の各ボタン及び各キーは、外部からの押圧力によって中立位置から押圧されるとオンになり、押圧力が解除されると中立位置に復帰してオフになるオンオフスイッチになっている。
Each button and each key of the
以上のような構成からなる家庭用ビデオゲーム装置の概略動作を、以下に説明する。電源スイッチ(図示省略)がオンにされゲームシステム1に電源が投入されると、CPU7が、記録媒体10に記憶されているオペレーティングシステムに基づいて、記録媒体10から画像データ、音声データ、およびプログラムデータを読み出す。読み出された画像データ、音声データ、およびプログラムデータの一部若しくは全部は、RAM12に格納される。そして、CPU7が、RAM12に格納されたプログラムデータに基づいて、RAM12に格納された画像データや音声データにコマンドを発行する。
The schematic operation of the home video game apparatus having the above configuration will be described below. When a power switch (not shown) is turned on and the
画像データの場合、CPU7からのコマンドに基づいて、まず、信号処理プロセッサ8が、3次元空間上におけるキャラクタの位置計算および光源計算などを行う。次に、画像処理プロセッサ9が、信号処理プロセッサ8の計算結果に基づいて、描画すべき画像データのRAM12への書き込み処理などを行う。そして、RAM12に書き込まれた画像データが、インターフェース回路13を介してD/Aコンバータ17に供給される。ここで、画像データがD/Aコンバータ17でアナログ映像信号に変換される。そして、画像データはテレビジョンモニタ20に供給され画像として表示される。
In the case of image data, based on a command from the
音声データの場合、まず、信号処理プロセッサ8が、CPU7からのコマンドに基づいて音声データの生成および加工処理を行う。ここでは、音声データに対して、たとえば、ピッチの変換、ノイズの付加、エンベロープの設定、レベルの設定及びリバーブの付加などの処理が施される。次に、音声データは、信号処理プロセッサ8から出力されて、インターフェース回路16を介してD/Aコンバータ15に供給される。ここで、音声データがアナログ音声信号に変換される。そして、音声データは増幅回路14を介してスピーカー13から音声として出力される。
In the case of audio data, first, the
〔ゲーム装置における各種処理概要〕
本ゲーム機において実行されるゲームは、たとえば野球ゲームである。本ゲーム機では、周辺減光の影響を再現した画像が、テレビジョンモニタ20に表示される。図2は、本発明で主要な役割を果たす機能を説明するための機能ブロック図である。
[Outline of various processes in game devices]
The game executed in this game machine is, for example, a baseball game. In the present game machine, an image that reproduces the influence of the peripheral dimming is displayed on the
カメラ設定手段50は、仮想ゲーム空間における仮想カメラの位置(視点)を規定するためのカメラ用の第1座標データ、仮想カメラの位置を基準とした仮想カメラの視線方向を規定するためのカメラ用の第2座標データ、仮想カメラの画角を規定するための画角データをCPU7に認識させることにより、仮想カメラを仮想ゲーム空間に設定する機能を備えている。
The camera setting means 50 is the first coordinate data for the camera for defining the position (viewpoint) of the virtual camera in the virtual game space, and for the camera for defining the viewing direction of the virtual camera with reference to the position of the virtual camera. The second coordinate data and the angle-of-view data for defining the angle of view of the virtual camera are recognized by the
この手段では、仮想ゲーム空間における仮想カメラの位置を規定するためのカメラ用の第1座標データ、仮想カメラの位置を基準とした仮想カメラの視線方向を規定するためのカメラ用の第2座標データ、仮想カメラの画角を規定するための画角データをCPU7に認識させることにより、仮想カメラが仮想ゲーム空間に設定される。
In this means, the first coordinate data for the camera for defining the position of the virtual camera in the virtual game space, the second coordinate data for the camera for defining the viewing direction of the virtual camera with reference to the position of the virtual camera The virtual camera is set in the virtual game space by causing the
ここでは、ゲームが開始されたときに初期条件としてCPU7に認識される、カメラ用の第1座標データ、カメラ用の第2座標データ、および仮想カメラの画角データは、RAM12に格納されている。これらのデータは、ゲームプログラムが記録媒体10からRAM12にロードされたときにRAM12に格納される。また、カメラ用の第1座標データ、カメラ用の第2座標データ、および仮想カメラの画角データの少なくともいずれか1つが変更された場合は、変更後の各データがRAM12に格納される。そして、RAM12に格納された各データが、CPU7に認識される。
Here, the first coordinate data for the camera, the second coordinate data for the camera, and the view angle data of the virtual camera, which are recognized by the
撮影空間規定手段51は、仮想ゲーム空間において、仮想カメラの撮影対象となる撮影空間を規定するための境界用のデータを、CPU7に認識させることにより、撮影空間を仮想ゲーム空間に規定する機能を備えている。
The shooting
この手段では、仮想ゲーム空間において、仮想カメラの撮影対象となる撮影空間を規定するための境界用のデータを、CPU7に認識させることにより、撮影空間が仮想ゲーム空間に規定される。
In this means, in the virtual game space, the photographing space is defined as the virtual game space by causing the
ここでは、仮想カメラの視界に入る全ての空間(視界空間)の内部の所定の領域が、モニタ20に表示される空間すなわち撮影空間(視錐領域)として規定される。言い換えると、仮想カメラの画角に入る全ての空間(視界空間)の内部の所定の領域が、撮影空間として規定される。この撮影空間は、カメラ側の面(第1面)およびカメラから離反した側の面(第2面)を仮想ゲーム空間の所定の位置に設定することにより規定される。たとえば、仮想カメラの位置を基準とした所定の2つの位置座標データ(第1面用の境界用のデータおよび第2面用の境界用データ)をCPU7に認識させることにより、第1面および第2面が、仮想ゲーム空間に規定される。
Here, a predetermined area inside all spaces (view space) that enter the field of view of the virtual camera is defined as a space displayed on the
なお、ここでは、撮影空間を規定するための第1面の位置および第2面の位置は、ゲームプログラムにおいて予め規定されているが、第1面の位置および第2面の位置を、ユーザが任意に設定することができるようにしても良い。 Here, the position of the first surface and the position of the second surface for defining the shooting space are defined in advance in the game program, but the user can specify the positions of the first surface and the second surface. It may be set arbitrarily.
第1画像格納手段52は、仮想カメラにより所定の画角で撮影された画像に対応する第1画像データを、RAM12に格納する機能を備えている。この手段では、仮想カメラにより所定の画角で撮影された画像に対応する第1画像データが、RAM12に格納される。
The first image storage means 52 has a function of storing, in the
ここでは、撮影空間の内部のオブジェクトを仮想カメラにより撮影したときに、撮影空間の内部のオブジェクトを2次元平面に投影する処理が、制御部により実行される。この処理により、仮想カメラにより所定の画角で撮影された画像(第1画像データ)が、生成される。 Here, when an object inside the shooting space is shot by the virtual camera, a process of projecting the object inside the shooting space onto a two-dimensional plane is executed by the control unit. By this process, an image (first image data) captured with a predetermined angle of view by the virtual camera is generated.
具体的には、ここでは、撮影空間の内部のオブジェクトが仮想カメラにより撮影されたときに、仮想カメラの視点を基準とした、撮影空間の内部のオブジェクトが位置する深さを示す深度データが、Zバッファ用のRAM12に格納される。この処理が、撮影空間の内部のオブジェクトを2次元平面に投影する処理に対応する。そして、Zバッファ用のRAM12に格納された深度データに基づいて、撮影空間の内部のオブジェクトに対応する画像データ(第1画像データ)が、フレームバッファ用のRAM12に格納される。このようにして、仮想カメラにより所定の画角で撮影された画像に対応する第1画像データが、RAM12に格納される。
Specifically, here, when the object inside the shooting space is shot by the virtual camera, the depth data indicating the depth at which the object inside the shooting space is located with reference to the viewpoint of the virtual camera, It is stored in the
第2画像格納手段53は、画像の周辺部を減光する減光用の画像に対応する第2画像データを、RAM12に格納する機能を備えている。この手段では、画像の周辺部を減光する減光用の画像に対応する第2画像データが、RAM12に格納される。
The second image storage means 53 has a function of storing, in the
ここでは、初期条件としての第2画像データが、RAM12に格納される。この第2画像データに対応する画像は、画像の重心位置から同心円状に段階的に濃度が濃くなる画像になっている。具体的には、この第2画像データに対応する画像は、画像の重心位置が完全透明であり、画像の重心位置から同心円状に段階的に黒色の濃度が濃くなっている。この画像では、画像の重心位置から同心円状に段階的に階調を変化させることにより(グラデーション処理により)、画像の濃度を徐々に変化させている。なお、この初期条件としての画像に対応する第2画像データは、ゲームプログラムにより予め規定されており、RAM12に格納される。
Here, the second image data as the initial condition is stored in the
第2画像調整手段54は、仮想カメラの画角に応じて、第2画像データを調整する処理を、CPU7に実行させる機能を備えている。
The second image adjustment unit 54 has a function of causing the
第2画像調整手段54は、光量評価手段54aと画像光量調整手段54bとを有している。光量評価手段54aは、RAM12に格納された第1画像データに基づいて、仮想カメラの所定の画角に対応する光量を評価する処理を、CPU7に実行させる機能を備えている。画像光量調整手段54bは、光量に応じて第2画像データを調整する処理を、CPU7に実行させる機能を備えている。
The second image adjustment unit 54 includes a light amount evaluation unit 54a and an image light amount adjustment unit 54b. The light quantity evaluation unit 54 a has a function of causing the
第2画像調整手段54では、仮想カメラの画角に応じて、第2画像データを調整する処理が、以下のように、CPU7により実行される。
In the second image adjustment unit 54, the
光量評価手段54aでは、RAM12に格納された第1画像データに基づいて、仮想カメラの所定の画角に対応する光量を評価する処理が、CPU7により実行される。
In the light quantity evaluation means 54a, the
ここでは、光量評価手段54aでは、RAM12に格納された第1画像データをグレースケールの画像データに変換する処理が、CPU7により実行される。そして、グレースケールの画像データの階調を示す階調データが、仮想カメラの所定の画角に対応する光量を評価するデータとしてCPU7に認識される。
Here, in the light quantity evaluation unit 54a, the
具体的には、RAM12に格納された第1画像データをグレースケールの画像データに変換する処理が、CPU7により実行される。そして、グレースケールの画像データを1ピクセルのグレースケールの画像データに変換する処理が、CPU7により実行される。そして、1ピクセルのグレースケールの画像データの階調を示す階調データが、仮想カメラの所定の画角に対応する光量を評価するデータとしてCPU7に認識される。
Specifically, the
画像光量調整手段54bでは、光量に応じて第2画像データを調整する処理が、CPU7により実行される。
In the image light amount adjusting means 54b, the
ここでは、光量を評価した階調データに応じて、画像の周辺部を減光する程度を規定するための透明度データが、CPU7により設定される。そして、透明度データに基づいて第2画像データの濃淡を調整する処理が、CPU7により実行される。
Here, transparency data for defining the degree to which the peripheral portion of the image is dimmed is set by the
具体的には、減光用の画像の重心位置の透明度データが、第1透明度データとしてCPU7に認識される。そして、減光用の画像の周辺部の透明度データが、光量を評価した階調データに応じて、第2透明度データとしてCPU7に認識される。そして、第1透明度データおよび第2透明度データに基づいて、減光用の画像の重心位置と減光用の画像の周辺部との間の減光用の画像の透明度データが、第3透明度データとしてCPU7により設定される。この第3透明度データは、第1透明度データおよび第2透明度データを初期条件として、一次関数又は多次関数に基づいて、CPU7により算出される。すなわち、第3透明度データは、一次関数による線形補間、又は多次関数による多次補間を用いて、CPU7により算出される。すると、第1透明度データ、第2透明度データ、および第3透明度データに基づいて、第2画像データの濃淡を調整する処理が、CPU7により実行される。なお、ここで用いられる一次関数又は多次関数は、ゲームプログラムにおいて予め規定されており、RAM12に格納されている。
Specifically, the transparency data of the gravity center position of the dimming image is recognized by the
モニタ画像生成手段55は、第1画像データに、調整後の第2画像データを重ね合わせる処理を、CPU7に実行させることにより、周辺部が減光されたモニタ表示用の画像データを生成する機能を備えている。この手段では、第1画像データに、調整後の第2画像データを重ね合わせる処理を、CPU7に実行させることにより、周辺部が減光されたモニタ表示用の画像データが生成される。
The monitor image generating means 55 has a function of generating image data for monitor display whose peripheral portion is dimmed by causing the
ここでは、第1画像データに、調整後の第2画像データを重ね合わせることにより、第1画像データと調整後の第2画像データとが合成され、周辺部が減光されたモニタ表示用の画像データが生成される。これにより、仮想カメラにより所定の画角で撮影された画像の周辺部の光量が調整され、周辺部が減光されたモニタ表示用の画像が生成される。 Here, by superimposing the adjusted second image data on the first image data, the first image data and the adjusted second image data are combined, and the peripheral display is dimmed. Image data is generated. Thereby, the light quantity of the peripheral part of the image image | photographed with the predetermined angle of view with the virtual camera is adjusted, and the monitor display image with the peripheral part dimmed is generated.
画像表示手段56は、周辺部が減光されたモニタ表示用の画像データを用いて、周辺減光の影響を再現した画像を、テレビジョンモニタ20に表示する機能を備えている。この手段では、周辺部が減光されたモニタ表示用の画像データを用いて、周辺減光の影響を再現した画像が、テレビジョンモニタ20に表示される。
The image display means 56 has a function of displaying on the television monitor 20 an image that reproduces the influence of the peripheral dimming using image data for monitor display whose peripheral portion is dimmed. With this means, an image that reproduces the influence of the peripheral dimming is displayed on the
ここでは、周辺部が減光されたモニタ表示用の画像データが、CPU7からの表示命令に基づいてテレビジョンモニタ20に供給される。これにより、周辺減光の影響を再現した画像が、テレビジョンモニタ20に表示される。
Here, the monitor display image data whose peripheral portion is dimmed is supplied to the
〔野球ゲームにおける周辺減光再現システムの概要〕
次に、野球ゲームにおける周辺減光再現システムの具体的な内容について説明する。また、図9および図10に示すフローについても同時に説明する。なお、図9は野球ゲームの全体概要を説明するためのフローであり、図10は上記システムを説明するためのフローである。
[Outline of ambient light reproduction system in baseball game]
Next, specific contents of the peripheral light reduction reproduction system in the baseball game will be described. The flow shown in FIGS. 9 and 10 will also be described at the same time. FIG. 9 is a flow for explaining the general outline of the baseball game, and FIG. 10 is a flow for explaining the system.
まず、ゲーム機の電源が投入されゲーム機が起動されると、野球ゲームプログラムが、記録媒体10からRAM12にロードされ格納される。このときには、野球ゲームを実行する上で必要となる各種の基本ゲームデータも、同時に、記録媒体10からRAM12にロードされ格納される(S1)。
First, when the game machine is turned on and the game machine is activated, the baseball game program is loaded from the
たとえば、基本ゲームデータには、3次元ゲーム空間用の各種の画像に関するデータが含まれている。そして、この3次元ゲーム空間用の各種の画像に関するデータ、たとえば、スタジアム用の画像データ、選手キャラクタ用の画像データ、および各種のオブジェクトの画像データ等が、CPU7に認識される。また、基本ゲームデータには、3次元ゲーム空間用の各種の画像に関するデータを3次元ゲーム空間に配置するための位置座標データが含まれている。また、基本ゲームデータには、上記システムで用いられるデータも、含まれている。
For example, the basic game data includes data related to various images for a three-dimensional game space. The
続いて、RAM12に格納された野球ゲームプログラムが、基本ゲームデータに基づいて、CPU7により実行される(S2)。すると、野球ゲームの起動画面がテレビジョンモニタ20に表示される。すると、野球ゲームを実行するための各種の設定画面がテレビジョンモニタ20に表示される。ここでは、たとえば、野球ゲームのプレイモードを選択するためのモード選択画面が、テレビジョンモニタ20に表示される(図示しない)。このモード選択画面において、プレイヤがコントローラ17を操作することにより、プレイモードが決定される(S3)。プレイモードには、たとえば、12球団の中から好きなチームを選択して1試合の対戦を楽しむ対戦モード、12球団の中から好きなチームを選択してペナントレースを戦うペナントモード、プレイヤが監督の立場でチームの選手キャラクタを育成する育成モード、およりプレイヤがある1人の選手キャラクタの立場になって野球ゲームを体感する成長体感モード等が、用意されている。
Subsequently, the baseball game program stored in the
続いて、モード選択画面で選択されたプレイモードにおいて、各種のイベントが、CPU7により実行される(S4)。ここで実行される各種のイベントには、たとえば、AIプログラム(Artificial Intelligence Program)に基づいてCPU7により自動制御されるイベントや、コントローラ17からの入力信号に基づいてプレイヤにより手動制御されるイベントのようなイベントがある。また、選手キャラクタの制御には、AIプログラムに基づいて選手キャラクタに命令を自動的に指示する自動制御や、コントローラ17からの入力信号に基づいて選手キャラクタに命令を直接的に指示する手動制御等がある。このように、本野球ゲームでは、コントローラ17からの指示やAIプログラムからの指示に応じて、イベントが制御されたり、選手キャラクタに命令が指示されたりするようになっている。
Subsequently, various events are executed by the
続いて、選択されたプレイモードが終了したか否かが、CPU7により判断される(S5)。具体的には、プレイモードが終了したことを示す命令が発行されたか否かが、CPU7により判断される。そして、プレイモードが終了したことを示す命令が発行されたとCPU7により判断された場合(S5でYes)、ゲーム継続用のデータをRAM12に格納する処理が、CPU7により実行される。そして、ゲーム継続用のデータがRAM12に格納されると、この野球ゲームを終了するか否かを選択する選択画面が、テレビジョンモニタ20に表示される(S6)。そして、この選択画面において、プレイヤがコントローラ17を操作することにより、野球ゲームの終了を示す項目が選択されると(S6でYes)、野球ゲームを終了するための処理がCPU7により実行される(S7)。一方で、この選択画面において、プレイヤがコントローラ17を操作することにより、野球ゲームの継続を示す項目が選択されると(S6でNo)、ステップ3(S3)のモード選択画面が、テレビジョンモニタ20に再表示される。
Subsequently, the
なお、プレイモードが終了するための命令が発行されたとCPU7に判断されない限り(S5でNo)、モード選択画面で選択されたプレイモードにおいて、各種のイベントがCPU7により実行される(S4)。
Unless the
次に、周辺減光再現システムの詳細を説明する。 Next, details of the peripheral dimming reproduction system will be described.
以下には、周辺減光再現システムが対戦モードにおいて機能する場合の例が示される。たとえば、モード選択画面において対戦モードが選択されたときに、周辺減光再現システムが機能する場合の例が示される。特に、以下では、周辺減光再現システムにおいて、リプレイ画像において、周辺減光が再現される場合の例が示される。 In the following, an example in which the peripheral dimming reproduction system functions in the battle mode is shown. For example, an example in which the peripheral dimming reproduction system functions when the battle mode is selected on the mode selection screen is shown. In particular, in the following, an example in which peripheral light reduction is reproduced in a replay image in the peripheral light reduction reproduction system will be shown.
本野球ゲームでは、対戦モードが開始される前に、画像の周辺部を減光する減光用の画像D2に対応する画像データ(第2画像データ)が、RAM12に格納される(S100)。ここでは、初期条件としての第2画像データが、RAM12に格納される。この第2画像データに対応する画像D2は、図3に示すように、画像の重心位置Gから同心円状に段階的に濃度が濃くなる画像になっている。具体的には、この第2画像データに対応する画像D2は、画像の重心位置Gから画像の四隅Y1,Y2,Y3,Y4に向けて、同心円状に段階的に黒色の濃度が濃くなっている。この画像では、画像の重心位置Gから同心円状に段階的に階調を変化させることにより(グラデーション処理により)、画像の濃度を徐々に変化させている。なお、ここでは、この第2画像データは、基本ゲームデータに含まれている。
In this baseball game, before the battle mode is started, image data (second image data) corresponding to the dimming image D2 for dimming the peripheral portion of the image is stored in the RAM 12 (S100). Here, the second image data as the initial condition is stored in the
そして、対戦モードが開始されると(S101)、図4に示すように、シーン再現用の仮想カメラの位置C1を3次元仮想ゲーム空間に規定するためのカメラ用の第1座標データ、シーン再現用の仮想カメラの位置C1を基準として仮想カメラの視線方向VDを規定するための位置C2を示すカメラ用の第2座標データ、シーン再現用の仮想カメラの画角を規定するための画角データGAが、CPU7に認識される。これにより、シーン再現用の仮想カメラが3次元仮想ゲーム空間に設定される(S102)。
Then, when the battle mode is started (S101), as shown in FIG. 4, the first coordinate data for the camera for defining the position C1 of the virtual camera for scene reproduction in the three-dimensional virtual game space, scene reproduction. Second coordinate data for the camera indicating the position C2 for defining the viewing direction VD of the virtual camera with reference to the position C1 of the virtual camera for viewing, and angle of view data for defining the angle of view of the virtual camera for scene reproduction GA is recognized by the
なお、ここでは、3次元仮想空間の座標系が、図4に示すように定義されている。すなわち、ここでは、仮想カメラの視線方向VDを水平面に投影した方向をY方向、高さ方向をZ方向、Y方向とZ方向とに互いに直交する方向をX方向と、定義されている。また、図4の撮影空間の底面VBは、XY平面上に設けられている。そして、このXY平面上には、グランド面が定義されている。 Here, the coordinate system of the three-dimensional virtual space is defined as shown in FIG. That is, here, the direction in which the visual line direction VD of the virtual camera is projected on the horizontal plane is defined as the Y direction, the height direction is defined as the Z direction, and the directions orthogonal to the Y direction and the Z direction are defined as the X direction. Further, the bottom surface VB of the imaging space in FIG. 4 is provided on the XY plane. A ground plane is defined on the XY plane.
続いて、図4に示すように、シーン再現用の仮想カメラの画角に入る全ての空間SK(視界空間)の内部の所定の領域が、撮影空間SSとして規定される(S103)。ここでは、シーン再現用の仮想カメラの撮影対象となる撮影空間SSの奥行きを規定するための境界、たとえば、仮想カメラ側の面VS1(第1面)および仮想カメラから離反した側の面VS2(第2面)を、3次元仮想ゲーム空間の所定の位置に設定することにより、撮影空間SSが3次元仮想ゲーム空間に規定される。 Subsequently, as shown in FIG. 4, a predetermined area inside all the spaces SK (view space) that falls within the angle of view of the virtual camera for scene reproduction is defined as the imaging space SS (S103). Here, a boundary for defining the depth of the imaging space SS to be imaged by the virtual camera for scene reproduction, for example, a surface VS1 (first surface) on the virtual camera side and a surface VS2 on the side away from the virtual camera ( By setting the second surface) to a predetermined position in the three-dimensional virtual game space, the shooting space SS is defined as the three-dimensional virtual game space.
具体的には、仮想カメラの位置C1の第1座標データ(x1,y1,z1)のy座標に、仮想カメラの位置C1からの第1面VS1までの距離ys1を加算する処理を制御部に実行させることにより、第1面用の境界用のデータ(x1,y1+ys1,z1)が算出される。また、仮想カメラの位置C1の第1座標データ(x1,y1,z1)のy座標に、仮想カメラの位置C1からの第2面VS2までの距離ys2を加算する処理を制御部に実行させることにより、第2面用の境界用のデータ(x1,y1+ys2,z1)が算出される。なお、距離ys1,ys2は、ゲームプログラムにおいて予め規定されており、RAM12に格納されている。また、距離ys1と距離ys2との間には、「ys2>ys1」の関係が成立している。
Specifically, a process for adding the distance ys1 from the virtual camera position C1 to the first surface VS1 to the y coordinate of the first coordinate data (x1, y1, z1) of the virtual camera position C1 is performed in the control unit. By executing this, the boundary data (x1, y1 + ys1, z1) for the first surface is calculated. Further, the control unit is caused to execute a process of adding a distance ys2 from the virtual camera position C1 to the second surface VS2 to the y coordinate of the first coordinate data (x1, y1, z1) of the virtual camera position C1. Thus, the boundary data (x1, y1 + ys2, z1) for the second surface is calculated. Note that the distances ys1 and ys2 are defined in advance in the game program and stored in the
このようにして算出された、第1面用の境界用のデータ、および第2面用の境界用のデータを、第1面VS1の位置座標データおよび第2面VS2の位置座標データとして、CPU7に認識させることにより、第1面VS1および第2面VS2が3次元仮想ゲーム空間に決定され、撮影空間SSが3次元仮想ゲーム空間に規定される。
The
なお、シーン再現用の仮想カメラの撮影対象となる撮影空間SSの幅方向の境界は、シーン再現用の仮想カメラの幅方向の第1画角データGAxyによって規定される(図4を参照)。また、シーン再現用の仮想カメラの撮影対象となる撮影空間SSの高さ方向の境界は、シーン再現用の仮想カメラの高さ方向の第2画角データGAyzによって規定される(図4を参照)。このように、ここでは、シーン再現用の仮想カメラの画角データGAは、幅方向の第1画角データGAxy、および高さ方向の第2画角データGAyzから構成されている。 Note that the boundary in the width direction of the shooting space SS to be shot by the virtual camera for scene reproduction is defined by the first angle-of-view data GAxy in the width direction of the virtual camera for scene reproduction (see FIG. 4). Also, the boundary in the height direction of the shooting space SS to be shot by the virtual camera for scene reproduction is defined by the second angle-of-view data GAyz in the height direction of the virtual camera for scene reproduction (see FIG. 4). ). Thus, here, the view angle data GA of the virtual camera for scene reproduction is composed of the first view angle data GAxy in the width direction and the second view angle data GAyz in the height direction.
続いて、試合イベントが開始されプレイが実行されると(S104)、実行されたプレイがリプレイ対象のプレイであるか否かが、CPU7により判別される(S105)。ここでは、リプレイ対象のプレイは、ゲームプログラムにおいて予め規定されている。以下では、3塁に走者キャラクタK1が存在していて打者キャラクタにより安打又は外野フライが放たれた場合のプレイが、リプレイ対象のプレイに規定されている場合の例が示される。
Subsequently, when a game event is started and a play is executed (S104), the
具体的には、実行されたプレイが、ゲームプログラムにおいて予め規定されたリプレイ対象のプレイ、たとえば、3塁に走者キャラクタが存在していて打者キャラクタにより安打又は外野フライが放たれた場合のプレイであるか否かが、CPU7により判別される。
Specifically, the executed play is a replay target play prescribed in the game program, for example, when a runner character exists on the third base and a hit or an outfield fly is released by the batter character. The
ここでは、たとえば、走者キャラクタが3塁に存在する場合、3塁における出塁状況を示すフラグの値として、数値「1」がCPU7により割り当てられる。また、走者キャラクタが3塁に存在しない場合、3塁における出塁状況を示すフラグの値として、数値「0」がCPU7により割り当てられる。このフラグの値をCPU7に認識させることにより、走者キャラクタが3塁に存在するか否かが、CPU7により判別される。
Here, for example, when the runner character is present on the third base, the
また、たとえば、打者キャラクタにより安打が放たれた場合、打撃結果を示す結果データの値として、ヒットに対応する数値「1」、2塁打に対応する数値「2」、3塁打に対応する数値「3」、およびホームランに対応する数値「4」のいずれか1つが、CPU7により割り当てられる。そして、打者キャラクタにより外野フライが放たれた場合、打撃結果を示す結果データの値として、外野フライに対応する数値「11」が、CPU7により割り当てられる。そして、上記以外の結果の場合、打撃結果を示す結果データの値として、数値「0」が、CPU7により割り当てられる。この結果データの値をCPU7に認識させることにより、打者キャラクタが安打又は外野フライを放ったか否かが、CPU7により判別される。
Also, for example, when a hit is released by the batter character, the value “1” corresponding to the hit, the value “2” corresponding to the second hit, the value “2” corresponding to the third hit, and the value “3” corresponding to the third hit Any one of “3” and a numerical value “4” corresponding to the home run is assigned by the
ここで、実行されたプレイがリプレイ対象のプレイであるとCPU7により判別された場合(S105でYes)、このリプレイ対象のプレイに関わるキャラクタの動作を再現するための座標データおよび画像データが、RAM12に格納される。たとえば、3塁に走者キャラクタが存在していて打者キャラクタにより安打又は外野フライが放たれた場合、リプレイ対象のプレイに関わるキャラクタは、走者キャラクタ、捕手キャラクタ、および主審キャラクタとなる。このため、この場合は、プレイ中の走者キャラクタ、プレイ中の捕手キャラクタ、およびプレイ中の主審キャラクタそれぞれの座標データおよび画像データが、RAM12に格納される。また、ここでは、プレイ中のボールの座標データおよび画像データも、RAM12に格納される(S106)。
Here, when the
なお、ボールの座標データは、ボールの軌道方程式に基づいて算出される。たとえば、ボールの軌道方程式は、位置と時間の関数になっている。このボールの軌道方程式において、ボールの送出位置の時間を基準として、時間を1/60(sec)づつ進行させることにより、所定のフレームにおけるボールの位置が算出される。なお、このボールの軌道方程式を構成するための変数および定数は、ゲームプログラムにおいて予め規定されている。 The coordinate data of the ball is calculated based on the ball trajectory equation. For example, the ball trajectory equation is a function of position and time. In this ball trajectory equation, the position of the ball in a predetermined frame is calculated by advancing the time by 1/60 (sec) with reference to the time of the ball delivery position. Note that variables and constants for configuring the ball trajectory equation are defined in advance in the game program.
続いて、ここでRAM12に格納されたデータの基づいて、リプレイ対象のプレイ(実行済みのプレイ)を3次元仮想ゲーム空間において再実行する処理が、CPU7により実行される。
Subsequently, based on the data stored in the
まず、3次元仮想ゲーム空間の内部に位置する複数のキャラクタそれぞれの座標データが、CPU7に認識される。たとえば、3塁に走者キャラクタが存在していて打者キャラクタが安打又は外野フライを放った場合、ホームベースに突入する走者キャラクタ、ボールを捕球する捕手キャラクタ、および主審キャラクタそれぞれの座標データが、1フレームごとに、CPU7に認識される。なお、ここでCPU7に認識される各キャラクタの座標データは、ステップ106(S106)でRAM12に格納されたデータである。
First, the
次に、3次元仮想ゲーム空間の内部を移動するボールの座標データが、CPU7に認識される。たとえば、3塁に走者キャラクタが存在していて打者キャラクタが安打又は外野フライを放った場合、ボールを捕球した野手キャラクタから捕手キャラクタへと送球されたボールの座標データが、1フレーム(1/60sec)ごとに、CPUに認識される。なお、ここでCPU7に認識されるボールの座標データは、ステップ106(S106)でRAM12に格納されたデータである。
Next, the
ここでは、1フレームごとに、複数のキャラクタの座標データおよびボールの座標データがCPU7に認識され、仮想カメラの視点を基準とした、撮影空間の内部のオブジェクトが位置する深さを示す深度データが、Zバッファ用のRAM12に格納される。この処理が、撮影空間の内部のオブジェクトを2次元平面に投影する処理に対応する。そして、Zバッファ用のRAM12に格納された深度データに基づいて、撮影空間の内部のオブジェクトを撮影したときの画像データ(第1画像データ)が、フレームバッファ用のRAM12に格納される。このようにして、仮想カメラにより所定の画角で撮影された画像に対応する第1画像データが、1フレームごとに、RAM12に格納される(S107)。
Here, for each frame, the coordinate data of a plurality of characters and the coordinate data of the ball are recognized by the
また、第1画像データがRAM12に格納されるときには、仮想カメラにより撮影された各フレームの画像の画角データが、RAM12に格納される(S108)。たとえば、リプレイ対象のプレイが、徐々にクローズアップ(ズーム)されるような場合、各フレームの画像の画角データの値は、フレームの進行に応じて、徐々に小さな値になる。この場合、1フレーム又は数フレームごとに異なる画角データが、RAM12に格納される。一方で、リプレイ対象のプレイが、クローズアップされずに一定の状態で再現される場合、各フレームの画像の画角データの値は、一定値になる。この場合、各フレームにおいて、一定値の画角データが、RAM12に格納される。
Further, when the first image data is stored in the
続いて、RAM12に格納された仮想カメラの画角に応じて、減光用の画像D2に対応する画像データ(第2画像データ)を調整する処理が、以下のように、CPU7により実行される。
Subsequently, processing for adjusting image data (second image data) corresponding to the dimming image D2 according to the angle of view of the virtual camera stored in the
まず、RAM12に格納された各フレームの第1画像データに基づいて、各フレームにおける仮想カメラの画角に対応する光量を評価する処理が、CPU7により実行される。たとえば、各フレームの第1画像データをグレースケールの画像データに変換する処理が、CPU7により実行される。そして、各フレームのグレースケールの画像データを1ピクセルのグレースケールの画像データに変換する処理が、CPU7により実行される(S109、図8を参照)。そして、各フレームの1ピクセルのグレースケールの画像データの階調を示す階調データKG1が、各フレームの仮想カメラの画角に対応する光量を評価するデータとしてCPU7に認識される(S110)。そして、各フレームの1ピクセルのグレースケールの画像データの階調を示す階調データKG1が、RAM12に格納される。
First, based on the first image data of each frame stored in the
これらの処理では、各フレームの第1画像データをグレースケールの画像データに変換することにより、グレースケールの画像の濃淡によって各フレームの画像の光量の強弱が評価される。そして、各フレームのグレースケールの画像データを1ピクセルのグレースケールの画像データに変換することにより、各フレームの画像の光量の強弱の平均が評価される。すなわち、各フレームの画像の光量の強弱の平均が、各フレームの1ピクセルのグレースケールの画像データの階調を示す階調データKG1により評価される。 In these processes, the first image data of each frame is converted into grayscale image data, whereby the intensity of the light amount of each frame image is evaluated based on the grayscale image density. Then, by converting the grayscale image data of each frame into 1-pixel grayscale image data, the average intensity of the light intensity of the image of each frame is evaluated. That is, the average intensity of the light intensity of the image of each frame is evaluated by the gradation data KG1 indicating the gradation of the gray scale image data of 1 pixel of each frame.
たとえば、図5に示すように、各フレームの階調を8ビットの256階調で表現した場合、各フレームの階調データKG1は、「0〜255」までの値をとる。この場合、階調データKG1が「0」であるときが「黒」に対応し、階調データKG1が「255」であるときが「白」に対応する。ここで、階調と光量との関係を考えると、階調データKG1の値が小さい画像は、光量が少ない画像に対応し、階調データKG1の値が大きい画像は、光量が多い画像に対応する。 For example, as shown in FIG. 5, when the gradation of each frame is expressed by 256 bits of 8-bit, the gradation data KG1 of each frame takes a value from “0 to 255”. In this case, when the gradation data KG1 is “0”, it corresponds to “black”, and when the gradation data KG1 is “255”, it corresponds to “white”. Here, considering the relationship between gradation and light amount, an image with a small value of gradation data KG1 corresponds to an image with a small amount of light, and an image with a large value of gradation data KG1 corresponds to an image with a large amount of light. To do.
なお、一般的に、画角が広い場合、空間の広い範囲から光を取り入れることができるので、光量は多くなる。一方で、画角が狭い場合、空間の狭い範囲からしか光を取り入れることができないので、光量は少なくなる。図5には、このような関係も同時に示されている。 In general, when the angle of view is wide, the amount of light increases because light can be taken in from a wide range of space. On the other hand, when the angle of view is narrow, light can be taken in only from a narrow space, so the amount of light decreases. FIG. 5 also shows such a relationship.
次に、各フレームの光量に応じて第2画像データを調整する処理が、CPU7により実行される。たとえば、各フレームの階調データKG1に応じて、画像の周辺部を減光する程度を規定するための各フレームの透明度データT1,T2,T3が、CPU7により設定される(S111)。そして、透明度データT1,T2,T3に基づいて第2画像データの濃淡を調整する処理が、CPU7により実行される(S112)。
Next, a process of adjusting the second image data according to the light amount of each frame is executed by the
具体的には、減光用の画像D2の重心位置Gの透明度データT1が、完全透明に対応する透明度データ(第1透明度データ)としてCPU7に認識される。なお、ここでは画像が矩形であるので、減光用の画像D2の重心位置Gは、画像の対角線の交点位置になる(図3を参照)。
Specifically, the transparency data T1 of the gravity center position G of the dimming image D2 is recognized by the
そして、減光用の画像D2の重心位置Gの透明度データT1(第1透明度データ)がCPU7に認識されると、減光用の画像D2の周辺部の透明度データT2が、各フレームの階調データKG1に対応する透明度データ(第2透明度データ)として、CPU7に認識される。
When the transparency data T1 (first transparency data) of the gravity center position G of the dimming image D2 is recognized by the
ここでは、減光用の画像D2の周辺部の透明度データT2は、次のようにしてCPU7により、設定される。たとえば、上述したように、階調データKG1の値が小さい画像は、光量が少ない画像に対応し、階調データKG1の値が大きい画像は、光量が多い画像に対応する(図5を参照)。このことから、階調データKG1の値が小さい場合、画像の光量が少ないことになるので、透明度の高い透明度データがCPU7に認識される。一方で、階調データKG1の値が大きい場合、画像の光量が多いことになるので、不透明度の高い透明度データがCPU7に認識される。このような透明度と光量との関係は、ゲームプログラムにおいて予め規定されている(図5を参照)。また、この対応テーブルは、RAM12に格納されており、CPU7により適宜参照される。
Here, the transparency data T2 of the peripheral portion of the dimming image D2 is set by the
続いて、第1透明度データT1および第2透明度データT2に基づいて、減光用の画像D2の重心位置Gと減光用の画像D2の周辺部との間の減光用の画像D2の透明度データT3が、第3透明度データとしてCPU7により設定される。この第3透明度データT3は、第1透明度データT1および第2透明度データT2を初期条件として、一次関数又は多次関数に基づいて、CPU7により算出される。すなわち、第3透明度データT3は、一次関数による線形補間、又は多次関数による多次補間を用いて、CPU7により算出される。なお、ここでは、一次関数による線形補間が用いられる。多次関数による多次補間が実行される場合、多次関数の3つ目以上の係数には、ゲームプログラムにおいて予め定義された値が用いられる。
Subsequently, based on the first transparency data T1 and the second transparency data T2, the transparency of the dimming image D2 between the gravity center position G of the dimming image D2 and the peripheral portion of the dimming image D2 Data T3 is set by the
たとえば、図6に示すように、第1透明度データT1が減光用の画像D2の重心位置Gに規定され、第2透明度データT2が減光用の画像D2の四隅Y1,Y2,Y3,Y4(減光用の画像D2の周辺部)に規定された場合、減光用の画像D2の重心位置Gと減光用の画像D2の1つの隅角部(四隅の中のいずれか1つ)とを結ぶ直線上の透明度データT3(第3透明度データ)が、第1透明度データT1および第2透明度データT2を初期条件として、CPU7により算出される。たとえば、図6では、減光用の画像D2の重心位置Gと減光用の画像D2の隅角部Y4とを結ぶ直線上の透明度データT3(第3透明度データ)が、第1透明度データT1および第2透明度データT2を初期条件として、CPU7により算出される。これにより、減光用の画像D2の重心位置Gから減光用の画像D2の1つの隅角部に至るまでの直線上の透明度データT3、すなわち減光用の画像D2の重心位置Gからの距離に応じた第3透明度データT3が、算出される。
For example, as shown in FIG. 6, the first transparency data T1 is defined at the center of gravity G of the dimming image D2, and the second transparency data T2 is the four corners Y1, Y2, Y3, Y4 of the dimming image D2. When defined as (peripheral portion of the dimming image D2), the gravity center position G of the dimming image D2 and one corner portion (any one of the four corners) of the dimming image D2 The
すると、減光用の画像D2の重心位置Gから減光用の画像D2の1つの隅角部Y4までの透明度データ(第1透明度データT1、第2透明度データT2、および第3透明度データT3)に基づいて、画像の周辺部を減光する減光用の画像D2に対応する画像データ(第2画像データ)の濃淡を調整する処理が、CPU7により実行される。
Then, transparency data (first transparency data T1, second transparency data T2, and third transparency data T3) from the center of gravity position G of the dimming image D2 to one corner Y4 of the dimming image D2. Based on the above, the
ここでは、減光用の画像D2の重心位置Gの第1透明度データT1が、完全透明に対応する透明度データであり、減光用の画像D2の周辺部の第2透明度データT2(減光用の画像D2の1つの隅角部の第2透明度データ)が、各フレームの階調データKG1に対応する透明度データである(図5の備考を参照)。このため、減光用の画像D2の重心位置Gと減光用の画像D2の周辺部との間の透明度(第3透明度データT3に対応する透明度)は、減光用の画像D2の重心位置Gから離れるにつれて低下する、又は、減光用の画像D2の重心位置Gと同じ透明度になる。 Here, the first transparency data T1 at the center of gravity G of the dimming image D2 is the transparency data corresponding to complete transparency, and the second transparency data T2 (the dimming data for the periphery of the dimming image D2). (Second transparency data at one corner of the image D2) is transparency data corresponding to the gradation data KG1 of each frame (see remarks in FIG. 5). For this reason, the transparency (transparency corresponding to the third transparency data T3) between the gravity center position G of the dimming image D2 and the peripheral portion of the dimming image D2 is the gravity center position of the dimming image D2. As the distance from G decreases, it decreases or becomes the same transparency as the gravity center position G of the dimming image D2.
このような性質を有する透明度データ(第1透明度データT1、第2透明度データT2、および第3透明度データT3)が示す透明度を第2画像データに反映することにより、撮影空間の内部のオブジェクトを撮影したときの画像の光量(第1画像データに対応する画像D1の光量)が考慮された第2画像データ(調整後の第2画像データ)が生成される。これらの処理は、1フレームごとに、CPU7により実行される。
By reflecting the transparency indicated by the transparency data (the first transparency data T1, the second transparency data T2, and the third transparency data T3) having such properties in the second image data, the object inside the imaging space is photographed. The second image data (adjusted second image data) in consideration of the light amount of the image at that time (the light amount of the image D1 corresponding to the first image data) is generated. These processes are executed by the
続いて、第1画像データに、調整後の第2画像データを重ね合わせる処理を、1フレームごとに、CPU7に実行させることにより、同心円状に周辺部が減光されたモニタ表示用の画像データが生成される(S113)。たとえば、第1画像データに対応する画像D1に、調整後の第2画像データに対応する画像D2を重ね合わせることにより(図7を参照)、同心円状に周辺部が減光されたモニタ表示用の画像が生成される。このようにして、仮想カメラにより撮影された画像の周辺部の光量が調整された、モニタ表示用の画像が生成される。すると、周辺部が減光された各フレームのモニタ表示用の画像データが、CPU7からの表示命令に基づいてテレビジョンモニタ20に供給される。すると、周辺減光の影響が再現された画像が、テレビジョンモニタ20に表示される(S114)。
Subsequently, the
続いて、リプレイ画像の再生が終了したか否かが、CPU7により判断される(S115)。すなわち、リプレイ画像用の全ての画像データがテレビジョンモニタ20に供給されたか否かが、CPU7により判断される。そして、リプレイ画像用の全ての画像データがテレビジョンモニタ20に供給されるまで(S115でYesになるまで)、ステップ114(S114)の処理が、繰り返しCPU7により実行される。一方で、リプレイ画像用の全ての画像データがテレビジョンモニタ20に供給された場合(S115でYes)、試合が終了したか否かが、CPU7により判断される(S116)。すなわち、試合を終了する命令が発行されたか否かが、CPU7により判断される。そして、試合を終了する命令が発行された場合(S116でYes)、各種のデータをRAM12に格納する処理が行われる(S117)。一方で、試合を終了する命令が発行されない限り(S116でNo)、ステップ105(S105)以降の処理が、CPU7により繰り返し実行される。
Subsequently, the
上記のように、本実施形態では、各フレームの画像データ(第1画像データ)が、グレースケールの画像データに変換される。そして、このグレースケールの画像データの階調を示す階調データKG1が、算出される。そして、この階調データKG1を用いて、各フレームにおける仮想カメラにより撮影された画像の光量、すなわち仮想カメラの所定の画角に対応する光量が、評価される。そして、この光量に応じて、減光用の画像データ(第2画像データ)が調整される。そして、各フレームの仮想カメラの光量に応じて調整された減光用の画像データ(第2画像データ)を、各フレームの仮想カメラにより撮影された画像データ(第1画像データ)に重ね合わせることにより、仮想カメラの画角に応じた周辺減光の影響を、仮想カメラにより撮影された画像に反映することができる。このため、実際のカメラにより撮影された画像と同様に、仮想カメラにより撮影された画像においても、リアリティのある周辺減光を再現することができる。 As described above, in the present embodiment, the image data (first image data) of each frame is converted into grayscale image data. Then, gradation data KG1 indicating the gradation of the grayscale image data is calculated. Then, using this gradation data KG1, the amount of light of the image captured by the virtual camera in each frame, that is, the amount of light corresponding to a predetermined angle of view of the virtual camera is evaluated. Then, the dimming image data (second image data) is adjusted in accordance with the amount of light. Then, the dimming image data (second image data) adjusted according to the amount of light of the virtual camera of each frame is superimposed on the image data (first image data) captured by the virtual camera of each frame. Thus, the influence of peripheral dimming according to the angle of view of the virtual camera can be reflected in the image taken by the virtual camera. For this reason, realistic peripheral dimming can be reproduced in an image taken by a virtual camera as well as an image taken by an actual camera.
〔他の実施形態〕
(a)前記実施形態では、ゲームプログラムを適用しうるコンピュータの一例としての家庭用ビデオゲーム装置を用いた場合の例を示したが、画像処理装置は、前記実施形態に限定されず、モニタが別体に構成された画像処理装置、モニタが一体に構成された画像処理装置、ゲームプログラムを実行することによって画像処理装置として機能するパーソナルコンピュータやワークステーションなどにも同様に適用することができる。
[Other Embodiments]
(A) In the above-described embodiment, an example in which a home video game apparatus as an example of a computer to which a game program can be applied is used. However, the image processing apparatus is not limited to the above-described embodiment, and a monitor is used. The present invention can be similarly applied to a separate image processing apparatus, an image processing apparatus in which a monitor is integrated, a personal computer or a workstation that functions as an image processing apparatus by executing a game program.
(b)本発明には、前述したようなゲームを実行するプログラムおよびこのプログラムを記録したコンピュータ読み取り可能な記録媒体も含まれる。この記録媒体としては、カートリッジ以外に、たとえば、コンピュータ読み取り可能なフレキシブルディスク、半導体メモリ、CD−ROM、DVD、MO、ROMカセット、その他のものが挙げられる。 (B) The present invention includes a program for executing the game as described above and a computer-readable recording medium on which the program is recorded. Examples of the recording medium include a computer-readable flexible disk, a semiconductor memory, a CD-ROM, a DVD, an MO, a ROM cassette, and the like in addition to the cartridge.
(c)前記実施形態では、第1画像データを1ピクセルのグレースケールの画像データに変換することにより、画像の光量の強弱が評価される場合の例を示したが、画像の光量の強弱の評価形態は、前記実施形態に限定されず、どのようにしても良い。たとえば、第1画像データをグレースケールの画像データに変換し、このグレースケールの画像データの階調を示す階調データを平均することにより、画像の光量の強弱を評価しても良い。この場合においても、前記実施形態の効果と同様の効果を得ることができる。 (C) In the above-described embodiment, an example in which the intensity of the light quantity of the image is evaluated by converting the first image data into 1-pixel grayscale image data has been described. The evaluation form is not limited to the above-described embodiment, and any method may be used. For example, the intensity of the light quantity of the image may be evaluated by converting the first image data into gray scale image data and averaging the gray scale data indicating the gray scale of the gray scale image data. Even in this case, the same effect as that of the above embodiment can be obtained.
1 制御部
2 記憶部
7 CPU
17 コントローラ
20 テレビジョンモニタ
50 カメラ設定手段
51 撮影空間規定手段
52 第1画像格納手段
53 第2画像格納手段
54 第2画像調整手段
54a 光量評価手段
54b 画像光量調整手段
55 モニタ画像生成手段
56 画像表示手段
D1 撮影空間の内部のオブジェクトを撮影したときの画像、第1画像データに対応する画像
D2 減光用の画像、第2画像データに対応する画像
G 減光用の画像の重心位置
Y1,Y2,Y3,Y4 減光用の画像の四隅、減光用の画像の周辺部
KG1 1ピクセルのグレースケールの画像の階調データ
T1,T2,T3 透明度データ、第1透明度データ、第2透明度データ、第3透明度データ
1
17
Claims (9)
仮想カメラにより所定の画角で撮影された画像に対応する第1画像データを、記憶部に格納する第1画像格納機能と、
前記画像の周辺部を減光する減光用の画像に対応する第2画像データを、記憶部に格納する第2画像格納機能と、
仮想カメラの画角に応じて、前記第2画像データを調整する処理を、制御部に実行させる第2画像調整機能と、
前記第1画像データに、調整後の前記第2画像データを重ね合わせる処理を、制御部に実行させることにより、周辺部が減光されたモニタ表示用の画像データを生成するモニタ画像生成機能と、
周辺部が減光された前記モニタ表示用の画像データを用いて、周辺減光の影響を再現した画像を、画像表示部に表示する画像表示機能と、
を実現させるための画像処理プログラム。 To a computer that can display the image that reproduces the influence of ambient light reduction on the image display unit,
A first image storage function for storing, in a storage unit, first image data corresponding to an image photographed at a predetermined angle of view by a virtual camera;
A second image storage function for storing, in a storage unit, second image data corresponding to an image for dimming for dimming a peripheral portion of the image;
A second image adjustment function for causing the control unit to execute a process of adjusting the second image data according to the angle of view of the virtual camera;
A monitor image generation function for generating monitor display image data whose peripheral portion is dimmed by causing the control unit to execute a process of superimposing the adjusted second image data on the first image data; ,
An image display function for displaying on the image display unit an image that reproduces the influence of the peripheral dimming using the monitor display image data in which the peripheral part is dimmed;
An image processing program for realizing
記憶部に格納された前記第1画像データに基づいて、仮想カメラの所定の前記画角に対応する光量を評価する処理を、制御部に実行させる光量評価機能と、
前記光量に応じて前記第2画像データを調整する処理を、制御部に実行させる画像光量調整機能と、を有する、
請求項1に記載の画像処理プログラム。 The second image adjustment function is:
A light amount evaluation function for causing the control unit to execute a process of evaluating the light amount corresponding to the predetermined angle of view of the virtual camera based on the first image data stored in the storage unit;
An image light amount adjustment function for causing a control unit to execute a process of adjusting the second image data according to the light amount;
The image processing program according to claim 1.
記憶部に格納された前記第1画像データをグレースケールの画像データに変換する処理が、制御部により実行され、
前記グレースケールの画像データの階調を示す階調データが、仮想カメラの所定の前記画角に対応する光量を評価するデータとして制御部に認識される、
請求項2に記載の画像処理プログラム。 In the light quantity evaluation function,
Processing for converting the first image data stored in the storage unit into grayscale image data is executed by the control unit,
The gradation data indicating the gradation of the grayscale image data is recognized by the control unit as data for evaluating the amount of light corresponding to the predetermined angle of view of the virtual camera.
The image processing program according to claim 2.
記憶部に格納された前記第1画像データをグレースケールの画像データに変換する処理が、制御部により実行され、
前記グレースケールの画像データを1ピクセルの前記グレースケールの画像データに変換する処理が、制御部により実行され、
1ピクセルの前記グレースケールの画像データの階調を示す階調データが、仮想カメラの所定の前記画角に対応する光量を評価するデータとして制御部に認識される、
請求項3に記載の画像処理プログラム。 In the light quantity evaluation function,
Processing for converting the first image data stored in the storage unit into grayscale image data is executed by the control unit,
Processing for converting the grayscale image data into the 1-pixel grayscale image data is executed by the control unit,
The gradation data indicating the gradation of the grayscale image data of one pixel is recognized by the control unit as data for evaluating the amount of light corresponding to the predetermined angle of view of the virtual camera.
The image processing program according to claim 3.
記憶部に格納された前記画像データをグレースケールの画像データに変換する処理が、制御部により実行され、
前記グレースケールの画像データの階調を示す階調データが、制御部に認識され、
前記階調データを平均化する処理が、制御部により実行され、
平均化された前記階調データが、仮想カメラの所定の前記画角に対応する光量を評価するデータとして制御部に認識される、
請求項3に記載の画像処理プログラム。 In the light quantity evaluation function,
Processing for converting the image data stored in the storage unit into grayscale image data is executed by the control unit,
Gradation data indicating the gradation of the grayscale image data is recognized by the control unit,
A process of averaging the gradation data is executed by the control unit,
The averaged gradation data is recognized by the control unit as data for evaluating the amount of light corresponding to the predetermined angle of view of the virtual camera.
The image processing program according to claim 3.
前記光量を評価した前記階調データに応じて、前記画像の周辺部を減光する程度を規定するための透明度データが、制御部により設定され、
前記透明度データに基づいて前記第2画像データの濃淡を調整する処理が、制御部により実行される、
請求項3から5のいずれかに記載の画像処理プログラム。 In the image light quantity adjustment function,
Transparency data for defining the degree to which the peripheral portion of the image is dimmed is set by the control unit in accordance with the gradation data evaluated for the light amount,
A process of adjusting the density of the second image data based on the transparency data is executed by the control unit.
The image processing program according to claim 3.
前記減光用の画像の重心位置の透明度データが、第1透明度データとして制御部に認識され、
前記減光用の画像の周辺部の透明度データが、前記光量を評価した前記階調データに応じて、第2透明度データとして制御部に認識され、
前記第1透明度データおよび前記第2透明度データに基づいて、減光用の画像の重心位置と減光用の画像の周辺部との間の減光用の画像の透明度データが、第3透明度データとして制御部により設定され、
前記第1透明度データ、前記第2透明度データ、および前記第3透明度データに基づいて、前記第2画像データの濃淡を調整する処理が、制御部により実行される、
請求項6に記載の画像処理プログラム。 In the image light quantity adjustment function,
Transparency data of the gravity center position of the dimming image is recognized by the control unit as first transparency data,
Transparency data of the peripheral portion of the dimming image is recognized by the control unit as second transparency data in accordance with the gradation data obtained by evaluating the light amount,
Based on the first transparency data and the second transparency data, the transparency data of the dimming image between the gravity center position of the dimming image and the peripheral portion of the dimming image is the third transparency data. Is set by the control unit as
A process for adjusting the density of the second image data based on the first transparency data, the second transparency data, and the third transparency data is executed by a control unit.
The image processing program according to claim 6.
仮想カメラにより所定の画角で撮影された画像に対応する第1画像データを、記憶部に格納する第1画像格納手段と、
前記画像の周辺部を減光する減光用の画像に対応する第2画像データを、記憶部に格納する第2画像格納手段と、
仮想カメラの画角に応じて、前記第2画像データを調整する処理を、制御部に実行させる第2画像調整手段と、
前記第1画像データに、調整後の前記第2画像データを重ね合わせる処理を、制御部に実行させることにより、周辺部が減光されたモニタ表示用の画像データを生成するモニタ画像生成手段と、
周辺部が減光された前記モニタ表示用の画像データを用いて、周辺減光の影響を再現した画像を、画像表示部に表示する画像表示手段と、
を備える画像処理装置。 An image processing apparatus capable of displaying on the image display unit an image that reproduces the influence of ambient light reduction,
First image storage means for storing first image data corresponding to an image photographed at a predetermined angle of view by a virtual camera in a storage unit;
Second image storage means for storing second image data corresponding to an image for dimming for dimming a peripheral portion of the image in a storage unit;
Second image adjusting means for causing the control unit to execute processing for adjusting the second image data in accordance with the angle of view of the virtual camera;
Monitor image generating means for generating monitor display image data in which the peripheral portion is dimmed by causing the control unit to execute a process of superimposing the adjusted second image data on the first image data; ,
Image display means for displaying on the image display unit an image that reproduces the influence of peripheral dimming using the monitor display image data in which the peripheral part is dimmed;
An image processing apparatus comprising:
仮想カメラにより所定の画角で撮影された画像に対応する第1画像データを、記憶部に格納する第1画像格納ステップと、
前記画像の周辺部を減光する減光用の画像に対応する第2画像データを、記憶部に格納する第2画像格納ステップと、
仮想カメラの画角に応じて、前記第2画像データを調整する処理を、制御部に実行させる第2画像調整ステップと、
前記第1画像データに、調整後の前記第2画像データを重ね合わせる処理を、制御部に実行させることにより、周辺部が減光されたモニタ表示用の画像データを生成するモニタ画像生成ステップと、
周辺部が減光された前記モニタ表示用の画像データを用いて、周辺減光の影響を再現した画像を、画像表示部に表示する画像表示ステップと、
を備える画像処理制御方法。 An image processing control method controlled by a computer capable of displaying an image that reproduces the influence of peripheral dimming on an image display unit,
A first image storing step of storing, in the storage unit, first image data corresponding to an image photographed at a predetermined angle of view by the virtual camera;
A second image storing step of storing, in a storage unit, second image data corresponding to a dimming image for dimming a peripheral portion of the image;
A second image adjustment step for causing the control unit to execute a process of adjusting the second image data according to the angle of view of the virtual camera;
A monitor image generation step of generating image data for monitor display in which peripheral portions are dimmed by causing the control unit to execute a process of superimposing the adjusted second image data on the first image data; ,
An image display step for displaying an image that reproduces the influence of the peripheral dimming on the image display unit using the monitor display image data in which the peripheral part is dimmed;
An image processing control method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008118247A JP4572245B2 (en) | 2008-04-30 | 2008-04-30 | Image processing program, image processing apparatus, and image processing control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008118247A JP4572245B2 (en) | 2008-04-30 | 2008-04-30 | Image processing program, image processing apparatus, and image processing control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009266159A JP2009266159A (en) | 2009-11-12 |
JP4572245B2 true JP4572245B2 (en) | 2010-11-04 |
Family
ID=41391881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008118247A Active JP4572245B2 (en) | 2008-04-30 | 2008-04-30 | Image processing program, image processing apparatus, and image processing control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4572245B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5237312B2 (en) * | 2010-01-29 | 2013-07-17 | 株式会社コナミデジタルエンタテインメント | GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD |
JP5570284B2 (en) * | 2010-04-16 | 2014-08-13 | キヤノン株式会社 | Image processing apparatus and method |
JP5524146B2 (en) * | 2011-08-11 | 2014-06-18 | 株式会社ファイン | Perspective diagram creation system, perspective diagram creation program, and perspective diagram creation method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002251629A (en) * | 2001-02-21 | 2002-09-06 | Konami Computer Entertainment Japan Inc | Method for expressing image and program used for the same |
JP2003035802A (en) * | 2001-07-23 | 2003-02-07 | Nikon Corp | Gradation filter, and its manufacturing method and manufacturing device |
JP2005032140A (en) * | 2003-07-10 | 2005-02-03 | Namco Ltd | Image generation system, program, and information storage medium |
JP2005215974A (en) * | 2004-01-29 | 2005-08-11 | Namco Ltd | Program, information storage medium, and game device |
-
2008
- 2008-04-30 JP JP2008118247A patent/JP4572245B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002251629A (en) * | 2001-02-21 | 2002-09-06 | Konami Computer Entertainment Japan Inc | Method for expressing image and program used for the same |
JP2003035802A (en) * | 2001-07-23 | 2003-02-07 | Nikon Corp | Gradation filter, and its manufacturing method and manufacturing device |
JP2005032140A (en) * | 2003-07-10 | 2005-02-03 | Namco Ltd | Image generation system, program, and information storage medium |
JP2005215974A (en) * | 2004-01-29 | 2005-08-11 | Namco Ltd | Program, information storage medium, and game device |
Also Published As
Publication number | Publication date |
---|---|
JP2009266159A (en) | 2009-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO1998035734A1 (en) | Device and method for image processing | |
KR19990014706A (en) | Image processing apparatus, game machine and image processing method and medium using the processing apparatus | |
JP4761528B2 (en) | GAME PROGRAM AND GAME DEVICE | |
JP3822222B1 (en) | GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD | |
JP2010029636A (en) | Game program and game apparatus | |
JP4536098B2 (en) | GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD | |
JP2009273865A (en) | Game program, game machine, and game control method | |
JP5237312B2 (en) | GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD | |
JP4521020B2 (en) | GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD | |
WO2013038979A1 (en) | Game program, game device, and recording medium having game program recorded therein | |
JP4572245B2 (en) | Image processing program, image processing apparatus, and image processing control method | |
JP2006346507A (en) | Game apparatus and image processing program | |
JP4374560B2 (en) | Image processing apparatus, game apparatus, and image processing method | |
JP4714763B2 (en) | Image processing program, image processing apparatus, and image control method | |
JP5149956B2 (en) | GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD | |
JP2005319188A (en) | Program, information storage medium and image generation system | |
JP4447000B2 (en) | Image generation system, program, and information storage medium | |
US6680734B2 (en) | Game system, imaging method in the game system, and computer readable storage medium having game program stored therein | |
JP2008237654A (en) | Game program, game apparatus and game control method | |
JP2007159817A (en) | Game program, game device and game method | |
JP4659071B2 (en) | Image processing program, image processing apparatus, and image control method | |
JP7462010B2 (en) | GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PROCESSING METHOD | |
JP7565993B2 (en) | GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PRO | |
JP4705145B2 (en) | Drawing processing program, drawing processing apparatus, and drawing processing method | |
JP7530949B2 (en) | GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PRO |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100730 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100810 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100816 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130820 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4572245 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130820 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140820 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |