JP4572245B2 - Image processing program, image processing apparatus, and image processing control method - Google Patents

Image processing program, image processing apparatus, and image processing control method Download PDF

Info

Publication number
JP4572245B2
JP4572245B2 JP2008118247A JP2008118247A JP4572245B2 JP 4572245 B2 JP4572245 B2 JP 4572245B2 JP 2008118247 A JP2008118247 A JP 2008118247A JP 2008118247 A JP2008118247 A JP 2008118247A JP 4572245 B2 JP4572245 B2 JP 4572245B2
Authority
JP
Japan
Prior art keywords
image
data
image data
dimming
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008118247A
Other languages
Japanese (ja)
Other versions
JP2009266159A (en
Inventor
茂樹 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2008118247A priority Critical patent/JP4572245B2/en
Publication of JP2009266159A publication Critical patent/JP2009266159A/en
Application granted granted Critical
Publication of JP4572245B2 publication Critical patent/JP4572245B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)

Description

本発明は、画像処理プログラム、特に、周辺減光の影響を再現した画像を画像表示部に表示可能な画像処理プログラムに関する。また、この画像処理プログラムによって実現される画像処理装置及び画像処理制御方法に関する。   The present invention relates to an image processing program, and more particularly to an image processing program capable of displaying an image in which the influence of peripheral dimming is reproduced on an image display unit. The present invention also relates to an image processing apparatus and an image processing control method realized by the image processing program.

従来から、仮想空間に配置されたオブジェクトが仮想カメラにより撮影された場合、ここで撮影された画像をモニタに表示する際には、様々な画像処理技術が施されてきた。   Conventionally, when an object placed in a virtual space is photographed by a virtual camera, various image processing techniques have been applied to display the photographed image on a monitor.

一般的には、物理的なレンズを有する実際のカメラでは、カメラの画角を大きくすると、カメラにより撮影された画像には、周辺減光が発生しやすくなる。一方で、仮想カメラは物理的なレンズを有していないため、仮想カメラでは画角が大きくなっても、仮想カメラにより撮影された画像には、周辺減光が発生することはなかった。   In general, in an actual camera having a physical lens, if the angle of view of the camera is increased, peripheral dimming tends to occur in an image taken by the camera. On the other hand, since the virtual camera does not have a physical lens, even if the angle of view of the virtual camera is increased, the peripheral dimming did not occur in the image taken by the virtual camera.

このように、実際のカメラにより撮影された画像と、仮想カメラにより撮影された画像との間には、周辺減光の有無に大きな違いがある。このため、仮想カメラにより撮影された画像を、実際のカメラにより撮影された画像と同じように、モニタに表示しようとした場合、仮想カメラにより撮影された画像に周辺減光の影響を反映させる必要が出る。そこで、従来では、仮想カメラにより撮影された画像に対して、周辺減光用のフィルタをかけることにより、周辺減光の影響が画像に反映されていた。   Thus, there is a great difference in the presence or absence of peripheral dimming between an image taken by an actual camera and an image taken by a virtual camera. For this reason, when an image taken by a virtual camera is displayed on a monitor in the same way as an image taken by an actual camera, it is necessary to reflect the influence of peripheral dimming on the image taken by the virtual camera. coming out. Therefore, conventionally, the influence of the peripheral light reduction is reflected in the image by applying a filter for peripheral light reduction to the image taken by the virtual camera.

たとえば、従来の野球ゲームでは、リプレイ画面等において、周辺減光の影響が反映されていた(非特許文献1を参照)。この野球ゲームにおいては、仮想カメラにより撮影された画像に対して、仮想カメラにより撮影された画像の周辺を暗くするフィルタをかけることにより、周辺減光の影響が画像に再現されていた。
プロ野球スピリッツ4,株式会社コナミデジタルエンタテインメント、PS3、2007年4月1日発売
For example, in a conventional baseball game, the influence of peripheral dimming is reflected on a replay screen or the like (see Non-Patent Document 1). In this baseball game, the image of the image taken by the virtual camera is subjected to a filter that darkens the periphery of the image taken by the virtual camera, thereby reproducing the influence of the peripheral dimming on the image.
Professional baseball spirits 4, Konami Digital Entertainment, PS3, released on April 1, 2007

従来の野球ゲームでは、仮想カメラにより撮影された画像に対して、仮想カメラにより撮影された画像の周辺を暗くするフィルタ(周辺減光用のフィルタ)をかけることにより、周辺減光の影響が画像において再現されていた。   In a conventional baseball game, a filter that darkens the periphery of the image captured by the virtual camera (peripheral dimming filter) is applied to the image captured by the virtual camera. It was reproduced in.

従来の周辺減光用のフィルタは、仮想カメラにより撮影された画像の周辺を、単に暗くするだけのものであった。このため、従来の周辺減光用のフィルタでは、画像の周辺を一定の割合でしか暗くすることができなかった。詳細には、周辺減光が発生する程度は、一般的に、カメラの画角すなわち光量に応じて変化する。しかしながら、従来の周辺減光用のフィルタでは、仮想カメラの画角すなわち光量が変化しても、画像の周辺を一定の割合でしか暗くすることができなかった。このため、仮想カメラにより撮影された画像に周辺減光用のフィルタをかけたとしても、実際のカメラにより撮影された画像と同じような周辺減光を、仮想カメラにより撮影された画像においてリアルに再現することが困難であった。   The conventional peripheral dimming filter simply darkens the periphery of the image taken by the virtual camera. For this reason, the conventional peripheral light reduction filter can darken the periphery of the image only at a certain rate. Specifically, the extent to which peripheral dimming generally varies depending on the angle of view of the camera, that is, the amount of light. However, the conventional peripheral light reduction filter can darken the periphery of an image only at a certain rate even when the angle of view of the virtual camera, that is, the amount of light changes. For this reason, even if an image captured by a virtual camera is filtered with a peripheral dimming filter, peripheral dimming similar to that of an image captured by an actual camera is realistic in an image captured by a virtual camera. It was difficult to reproduce.

本発明は、このような問題に鑑みてなされたものであり、本発明の目的は、仮想カメラにより撮影された画像において、リアリティのある周辺減光を再現することにある。   The present invention has been made in view of such problems, and an object of the present invention is to reproduce realistic peripheral dimming in an image taken by a virtual camera.

請求項1に係る画像処理プログラムは、周辺減光の影響を再現した画像を画像表示部に表示可能なコンピュータに、以下の機能を実現させるためのプログラムである。
(1)仮想カメラにより所定の画角で撮影された画像に対応する第1画像データを、記憶部に格納する第1画像格納機能。
(2)画像の周辺部を減光する減光用の画像に対応する第2画像データを、記憶部に格納する第2画像格納機能。
(3)仮想カメラの画角に応じて、第2画像データを調整する処理を、制御部に実行させる第2画像調整機能。
(4)第1画像データに、調整後の第2画像データを重ね合わせる処理を、制御部に実行させることにより、周辺部が減光されたモニタ表示用の画像データを生成するモニタ画像生成機能。
(5)周辺部が減光されたモニタ表示用の画像データを用いて、周辺減光の影響を再現した画像を、画像表示部に表示する画像表示機能。
An image processing program according to claim 1 is a program for causing a computer capable of displaying an image reproducing the influence of ambient light reduction on an image display unit to realize the following functions.
(1) A first image storage function for storing first image data corresponding to an image photographed at a predetermined angle of view by a virtual camera in a storage unit.
(2) A second image storage function for storing, in the storage unit, second image data corresponding to a dimming image for dimming the peripheral portion of the image.
(3) A second image adjustment function that causes the control unit to execute a process of adjusting the second image data in accordance with the angle of view of the virtual camera.
(4) A monitor image generation function for generating monitor display image data in which the peripheral portion is dimmed by causing the control unit to execute a process of superimposing the adjusted second image data on the first image data. .
(5) An image display function for displaying, on the image display unit, an image that reproduces the influence of peripheral dimming using monitor display image data whose peripheral portion is dimmed.

この画像処理プログラムでは、第1画像格納機能において、仮想カメラにより所定の画角で撮影された画像に対応する第1画像データが、記憶部に格納される。第2画像格納機能において、画像の周辺部を減光する減光用の画像に対応する第2画像データが、記憶部に格納される。第2画像調整機能においては、仮想カメラの画角に応じて、第2画像データを調整する処理が、制御部により実行される。モニタ画像生成機能においては、第1画像データに、調整後の第2画像データを重ね合わせる処理を、制御部に実行させることにより、周辺部が減光されたモニタ表示用の画像データが生成される。画像表示機能においては、周辺部が減光されたモニタ表示用の画像データを用いて、周辺減光の影響を再現した画像が、画像表示部に表示される。   In this image processing program, in the first image storage function, first image data corresponding to an image photographed at a predetermined angle of view by the virtual camera is stored in the storage unit. In the second image storage function, the second image data corresponding to the dimming image for dimming the peripheral portion of the image is stored in the storage unit. In the second image adjustment function, a process of adjusting the second image data according to the angle of view of the virtual camera is executed by the control unit. In the monitor image generation function, monitor display image data in which the peripheral portion is dimmed is generated by causing the control unit to execute a process of superimposing the adjusted second image data on the first image data. The In the image display function, an image that reproduces the influence of the peripheral dimming is displayed on the image display unit using the monitor display image data in which the peripheral part is dimmed.

この場合、ある画像が仮想カメラにより所定の画角で撮影されると、この画像に対応する第1画像データが記憶部に格納される。また、画像の周辺部を減光する減光用の画像に対応する第2画像データが、記憶部に格納される。そして、仮想カメラの画角に応じた調整が、第2画像データに対して制御部により実行される。そして、ここで調整された第2画像データ(調整後の第2画像データ)を、仮想カメラにより所定の画角で撮影された画像に対応する第1画像データに重ね合わせる処理が、制御部により実行される。このようにして、周辺部が減光されたモニタ表示用の画像データが生成され、この周辺部が減光されたモニタ表示用の画像データを用いて、周辺減光の影響を再現した画像が、画像表示部に表示される。   In this case, when a certain image is taken with a predetermined angle of view by the virtual camera, the first image data corresponding to this image is stored in the storage unit. In addition, second image data corresponding to a dimming image for dimming the peripheral portion of the image is stored in the storage unit. Then, adjustment according to the angle of view of the virtual camera is executed by the control unit on the second image data. Then, the process of superimposing the adjusted second image data (adjusted second image data) on the first image data corresponding to the image captured at a predetermined angle of view by the virtual camera is performed by the control unit. Executed. In this way, image data for monitor display with the peripheral portion dimmed is generated, and an image that reproduces the influence of the peripheral dimming is generated using the monitor display image data with the peripheral portion dimmed. Is displayed on the image display section.

このように、請求項1に係る発明では、仮想カメラの画角に応じて調整された減光用の画像データ(第2画像データ)を、仮想カメラにより撮影された画像データ(第1画像データ)に重ね合わせることにより、仮想カメラの画角に応じた周辺減光の影響を、仮想カメラにより撮影された画像に反映することができる。このため、実際のカメラにより撮影された画像と同様に、仮想カメラにより撮影された画像においても、リアリティのある周辺減光を再現することができる。   Thus, according to the first aspect of the present invention, the dimming image data (second image data) adjusted according to the angle of view of the virtual camera is used as the image data (first image data) captured by the virtual camera. ), The effect of peripheral dimming according to the angle of view of the virtual camera can be reflected in the image taken by the virtual camera. For this reason, realistic peripheral dimming can be reproduced in an image taken by a virtual camera as well as an image taken by an actual camera.

請求項2に係る画像処理プログラムでは、請求項1に記載の画像処理プログラムにおいて、記憶部に格納された第1画像データに基づいて、仮想カメラの所定の画角に対応する光量を評価する処理が、制御部により実行される。そして、光量に応じて第2画像データを調整する処理が、制御部により実行される。前者の機能は光量評価機能において実現され、後者の機能は画像光量調整機能において実現される。これら光量評価機能および画像光量調整機能は、第2画像調整機能に含まれている。   According to a second aspect of the present invention, there is provided the image processing program according to the first aspect, wherein the amount of light corresponding to a predetermined angle of view of the virtual camera is evaluated based on the first image data stored in the storage unit. Is executed by the control unit. And the process which adjusts 2nd image data according to a light quantity is performed by the control part. The former function is realized in the light quantity evaluation function, and the latter function is realized in the image light quantity adjustment function. These light quantity evaluation function and image light quantity adjustment function are included in the second image adjustment function.

この場合、仮想カメラにより撮影された画像データ(第1画像データ)に基づいて、仮想カメラにより撮影された画像の光量、すなわち仮想カメラの画角に対応する光量が、評価される。そして、この光量に応じて、減光用の画像データ(第2画像データ)が調整される。このため、請求項2に係る発明では、周辺減光の影響を、仮想カメラにより撮影された画像に対して正確に反映することができる。このため、実際のカメラにより撮影された画像と同様に、仮想カメラにより撮影された画像においても、リアリティのある周辺減光を正確に再現することができる。   In this case, based on the image data (first image data) photographed by the virtual camera, the light quantity of the image photographed by the virtual camera, that is, the light quantity corresponding to the angle of view of the virtual camera is evaluated. Then, the dimming image data (second image data) is adjusted in accordance with the amount of light. For this reason, in the invention which concerns on Claim 2, the influence of peripheral light reduction can be correctly reflected with respect to the image image | photographed with the virtual camera. For this reason, realistic peripheral dimming can be accurately reproduced in an image taken by a virtual camera as well as an image taken by an actual camera.

請求項3に係る画像処理プログラムでは、請求項2に記載の画像処理プログラムにおいて、記憶部に格納された第1画像データをグレースケールの画像データに変換する処理が、制御部により実行される。そして、グレースケールの画像データの階調を示す階調データが、仮想カメラの所定の画角に対応する光量を評価するデータとして、制御部に認識される。   According to a third aspect of the present invention, in the image processing program according to the second aspect, the process of converting the first image data stored in the storage unit into grayscale image data is executed by the control unit. Then, the gradation data indicating the gradation of the grayscale image data is recognized by the control unit as data for evaluating the amount of light corresponding to a predetermined angle of view of the virtual camera.

この場合、仮想カメラにより撮影された画像データ(第1画像データ)が、グレースケールの画像データに変換される。そして、このグレースケールの画像データの階調を示す階調データが算出され、この階調データを用いて、仮想カメラの所定の画角に対応する光量が評価される。このように、請求項3に係る発明では、仮想カメラにより撮影された画像データ(第1画像データ)さえあれば、仮想カメラにより撮影された画像の光量を評価することができる。このため、実際のカメラにより撮影された画像と同様に、仮想カメラにより撮影された画像においても、リアリティのある周辺減光を再現することができる。   In this case, the image data (first image data) captured by the virtual camera is converted into grayscale image data. Then, gradation data indicating the gradation of the grayscale image data is calculated, and the light amount corresponding to a predetermined angle of view of the virtual camera is evaluated using the gradation data. Thus, in the invention according to claim 3, as long as there is image data (first image data) captured by the virtual camera, the amount of light of the image captured by the virtual camera can be evaluated. For this reason, realistic peripheral dimming can be reproduced in an image taken by a virtual camera as well as an image taken by an actual camera.

請求項4に係る画像処理プログラムでは、請求項3に記載の画像処理プログラムにおいて、記憶部に格納された第1画像データをグレースケールの画像データに変換する処理が、制御部により実行される。そして、グレースケールの画像データを1ピクセルのグレースケールの画像データに変換する処理が、制御部により実行される。そして、1ピクセルのグレースケールの画像データの階調を示す階調データが、仮想カメラの所定の画角に対応する光量を評価するデータとして制御部に認識される。これらの機能は、光量評価機能において実現される。   According to a fourth aspect of the present invention, in the image processing program according to the third aspect, the process of converting the first image data stored in the storage unit into grayscale image data is executed by the control unit. Then, processing for converting the grayscale image data into 1-pixel grayscale image data is executed by the control unit. The gradation data indicating the gradation of the grayscale image data of one pixel is recognized by the control unit as data for evaluating the light amount corresponding to a predetermined angle of view of the virtual camera. These functions are realized in the light quantity evaluation function.

この場合、仮想カメラにより撮影された画像データ(第1画像データ)が、グレースケールの画像データに変換される。そして、グレースケールの画像データが、1ピクセルのグレースケールの画像データに変換される。そして、1ピクセルのグレースケールの画像データの階調を示す階調データが算出され、この階調データを用いて、仮想カメラの所定の画角に対応する光量が評価される。このように、請求項4に係る発明では、仮想カメラにより撮影された画像の光量を、1ピクセルのグレースケールの画像データの階調データに基づいて評価することができる。このため、実際のカメラにより撮影された画像と同様に、仮想カメラにより撮影された画像においても、リアリティのある周辺減光を再現することができる。   In this case, the image data (first image data) captured by the virtual camera is converted into grayscale image data. Then, the grayscale image data is converted into 1-pixel grayscale image data. Then, gradation data indicating the gradation of the grayscale image data of one pixel is calculated, and the light quantity corresponding to a predetermined angle of view of the virtual camera is evaluated using the gradation data. As described above, according to the fourth aspect of the present invention, it is possible to evaluate the light quantity of the image captured by the virtual camera based on the gradation data of the 1-pixel grayscale image data. For this reason, realistic peripheral dimming can be reproduced in an image taken by a virtual camera as well as an image taken by an actual camera.

請求項5に係る画像処理プログラムでは、請求項3に記載の画像処理プログラムにおいて、記憶部に格納された画像データをグレースケールの画像データに変換する処理が、制御部により実行される。そして、グレースケールの画像データの階調を示す階調データが、制御部に認識される。そして、階調データを平均化する処理が、制御部により実行される。そして、平均化された階調データが、仮想カメラの所定の画角に対応する光量を評価するデータとして制御部に認識される。これらの機能は、光量評価機能において実現される。   In an image processing program according to a fifth aspect, in the image processing program according to the third aspect, the process of converting the image data stored in the storage unit into grayscale image data is executed by the control unit. Then, gradation data indicating the gradation of grayscale image data is recognized by the control unit. And the process which averages gradation data is performed by the control part. Then, the averaged gradation data is recognized by the control unit as data for evaluating the amount of light corresponding to the predetermined angle of view of the virtual camera. These functions are realized in the light quantity evaluation function.

この場合、仮想カメラにより撮影された画像データ(第1画像データ)が、グレースケールの画像データに変換される。そして、グレースケールの画像データの階調を示す階調データが各ピクセルごとに算出され、各ピクセルの階調データを平均化される。そして、平均化された階調データを用いて、仮想カメラの所定の画角に対応する光量が評価される。このように、請求項5に係る発明では、仮想カメラにより撮影された画像の光量を、各ピクセルのグレースケールの画像データの階調データに基づいて評価することができる。このため、実際のカメラにより撮影された画像と同様に、仮想カメラにより撮影された画像においても、リアリティのある周辺減光を再現することができる。   In this case, the image data (first image data) captured by the virtual camera is converted into grayscale image data. Then, gradation data indicating the gradation of grayscale image data is calculated for each pixel, and the gradation data of each pixel is averaged. Then, the light amount corresponding to the predetermined angle of view of the virtual camera is evaluated using the averaged gradation data. Thus, according to the fifth aspect of the present invention, the amount of light of the image captured by the virtual camera can be evaluated based on the gradation data of the grayscale image data of each pixel. For this reason, realistic peripheral dimming can be reproduced in an image taken by a virtual camera as well as an image taken by an actual camera.

請求項6に係る画像処理プログラムでは、請求項3から5のいずれかに記載の画像処理プログラムにおいて、変換後の第1画像データの階調データに応じて、画像の周辺部を減光する程度を規定するための透明度データが、制御部により設定される。そして、この透明度データに基づいて、第2画像データの濃淡を調整する処理が、制御部により実行される。これらの機能は、画像光量調整機能において実現される。   The image processing program according to claim 6 is the image processing program according to any one of claims 3 to 5, wherein the peripheral portion of the image is dimmed in accordance with the gradation data of the first image data after conversion. Transparency data for prescribing is set by the control unit. Then, based on the transparency data, a process for adjusting the density of the second image data is executed by the control unit. These functions are realized in the image light quantity adjustment function.

この場合、グレースケールの画像データ(変換後の第1画像データ)の階調データに応じて、仮想カメラにより撮影された画像の周辺部を減光する程度を規定するための透明度データが、設定される。そして、この透明度データに基づいて、減光用の画像データ(第2画像データ)の濃淡が、調整される。このように、請求項6に係る発明では、仮想カメラにより撮影された画像の光量の大小、すなわちグレースケールの画像の階調の大小を、透明度データを介して、減光用の画像データ(第2画像データ)の濃淡に反映することができる。このため、仮想カメラにより撮影された画像データに、減光用の画像データを重ね合わせると、実際のカメラにより撮影された画像と同様に、仮想カメラにより撮影された画像においても、リアリティのある周辺減光を再現することができる。   In this case, transparency data for defining the degree to which the peripheral portion of the image taken by the virtual camera is dimmed according to the grayscale data of the grayscale image data (first image data after conversion) is set. Is done. Then, based on this transparency data, the density of the image data for dimming (second image data) is adjusted. Thus, according to the sixth aspect of the present invention, the amount of light of the image photographed by the virtual camera, that is, the gradation of the gray scale image is determined based on the image data for dimming (first number) via the transparency data. 2 image data). For this reason, if the image data for dimming is superimposed on the image data captured by the virtual camera, similar to the image captured by the actual camera, even in the image captured by the virtual camera, Dimming can be reproduced.

請求項7に係る画像処理プログラムでは、請求項6に記載の画像処理プログラムにおいて、減光用の画像の重心位置の透明度データが、第1透明度データとして制御部に認識される。そして、減光用の画像の周辺部の透明度データが、光量を評価した階調データに応じて、第2透明度データとして制御部に認識される。そして、第1透明度データおよび第2透明度データに基づいて、減光用の画像の重心位置と減光用の画像の周辺部との間の減光用の画像の透明度データが、第3透明度データとして制御部により設定される。そして、第1透明度データ、第2透明度データ、および第3透明度データに基づいて、第2画像データの濃淡を調整する処理が、制御部により実行される。これらの機能は、画像光量調整機能において実現される。   In an image processing program according to a seventh aspect, in the image processing program according to the sixth aspect, the transparency data of the gravity center position of the dimming image is recognized by the control unit as the first transparency data. Then, the transparency data of the peripheral part of the image for dimming is recognized by the control unit as the second transparency data according to the gradation data for which the light quantity is evaluated. Based on the first transparency data and the second transparency data, the transparency data of the light reduction image between the gravity center position of the light reduction image and the peripheral portion of the light reduction image is the third transparency data. Is set by the control unit. And the process which adjusts the light and shade of 2nd image data based on 1st transparency data, 2nd transparency data, and 3rd transparency data is performed by a control part. These functions are realized in the image light quantity adjustment function.

この場合、減光用の画像の重心位置の透明度データ(第1透明度データ)および減光用の画像の周辺部の透明度データ(第2透明度データ)に基づいて、減光用の画像の重心位置と減光用の画像の周辺部との間の減光用の画像の透明度データ(第3透明度データ)が、設定される。そして、これらの透明度データに基づいて、減光用の画像データ(第2画像データ)の濃淡が、調整される。このように、請求項7に係る発明では、仮想カメラにより撮影された画像の光量の大小、すなわちグレースケールの画像の階調の大小を、透明度データを介して、減光用の画像データ(第2画像データ)の濃淡に反映することができる。このため、仮想カメラにより撮影された画像データに、減光用の画像データを重ね合わせると、実際のカメラにより撮影された画像と同様に、仮想カメラにより撮影された画像においても、リアリティのある周辺減光を再現することができる。   In this case, based on the transparency data (first transparency data) of the center of gravity of the image for dimming and the transparency data (second transparency data) of the peripheral portion of the image for dimming (the second transparency data), The transparency data (third transparency data) of the light reduction image between the light and the peripheral portion of the light reduction image is set. Then, based on the transparency data, the density of the image data for dimming (second image data) is adjusted. In this way, in the invention according to claim 7, the light intensity of the image photographed by the virtual camera, that is, the gradation of the gray scale image is determined by the image data for dimming (first image) via the transparency data. 2 image data). For this reason, if the image data for dimming is superimposed on the image data captured by the virtual camera, similar to the image captured by the actual camera, even in the image captured by the virtual camera, Dimming can be reproduced.

請求項8に係る画像処理装置は、周辺減光の影響を再現した画像を画像表示部に表示可能な画像処理装置である。この画像処理装置は、仮想カメラにより所定の画角で撮影された画像に対応する第1画像データを、記憶部に格納する第1画像格納手段と、画像の周辺部を減光する減光用の画像に対応する第2画像データを、記憶部に格納する第2画像格納手段と、仮想カメラの画角に応じて、第2画像データを調整する処理を、制御部に実行させる第2画像調整手段と、第1画像データに、調整後の第2画像データを重ね合わせる処理を、制御部に実行させることにより、周辺部が減光されたモニタ表示用の画像データを生成するモニタ画像生成手段と、周辺部が減光されたモニタ表示用の画像データを用いて、周辺減光の影響を再現した画像を、画像表示部に表示する画像表示手段と、を備えている。   An image processing apparatus according to an eighth aspect of the present invention is an image processing apparatus capable of displaying on the image display unit an image that reproduces the influence of peripheral light reduction. The image processing apparatus includes first image storage means for storing first image data corresponding to an image photographed at a predetermined angle of view by a virtual camera in a storage unit, and dimming for dimming a peripheral portion of the image. A second image storage unit that stores second image data corresponding to the image in the storage unit, and a second image that causes the control unit to execute a process of adjusting the second image data according to the angle of view of the virtual camera. Monitor image generation for generating monitor display image data in which the peripheral portion is dimmed by causing the control unit to execute a process of superimposing the adjusted second image data on the first image data and the adjustment unit And image display means for displaying on the image display section an image that reproduces the influence of the peripheral dimming using image data for monitor display whose peripheral area is dimmed.

請求項9に係る画像処理制御方法は、周辺減光の影響を再現した画像を画像表示部に表示可能なコンピュータにより制御される画像処理制御方法である。この画像処理制御方法は、仮想カメラにより所定の画角で撮影された画像に対応する第1画像データを、記憶部に格納する第1画像格納ステップと、画像の周辺部を減光する減光用の画像に対応する第2画像データを、記憶部に格納する第2画像格納ステップと、仮想カメラの画角に応じて、第2画像データを調整する処理を、制御部に実行させる第2画像調整ステップと、第1画像データに、調整後の第2画像データを重ね合わせる処理を、制御部に実行させることにより、周辺部が減光されたモニタ表示用の画像データを生成するモニタ画像生成ステップと、周辺部が減光されたモニタ表示用の画像データを用いて、周辺減光の影響を再現した画像を、画像表示部に表示する画像表示ステップと、を備えている。   An image processing control method according to a ninth aspect is an image processing control method controlled by a computer capable of displaying an image reproducing the influence of peripheral light reduction on an image display unit. This image processing control method includes a first image storing step for storing first image data corresponding to an image photographed at a predetermined angle of view by a virtual camera in a storage unit, and dimming for dimming a peripheral portion of the image. A second image storing step for storing second image data corresponding to the image for use in the storage unit, and a process for adjusting the second image data in accordance with the angle of view of the virtual camera. A monitor image for generating image data for monitor display in which the peripheral portion is dimmed by causing the control unit to execute an image adjustment step and a process of superimposing the adjusted second image data on the first image data A generation step, and an image display step of displaying an image in which the influence of the peripheral light reduction is reproduced on the image display unit using the monitor display image data whose peripheral part is dimmed.

本発明では、仮想カメラの画角に応じて調整された減光用の画像データ(第2画像データ)を、仮想カメラにより撮影された画像データ(第1画像データ)に重ね合わせることにより、仮想カメラの画角に応じた周辺減光の影響を、仮想カメラにより撮影された画像に反映することができる。   In the present invention, the image data for dimming (second image data) adjusted according to the angle of view of the virtual camera is superimposed on the image data (first image data) photographed by the virtual camera, so that the virtual The influence of peripheral dimming according to the angle of view of the camera can be reflected in the image taken by the virtual camera.

詳細には、仮想カメラにより撮影された画像データ(第1画像データ)に基づいて、仮想カメラにより撮影された画像の光量、すなわち仮想カメラの画角に対応する光量が、評価される。そして、この光量に応じて、減光用の画像データ(第2画像データ)が調整される。そして、ここで調整された第2画像データ(調整後の第2画像データ)を、仮想カメラにより所定の画角で撮影された画像に対応する第1画像データに重ね合わせることにより、仮想カメラの画角に応じた周辺減光の影響を、仮想カメラにより撮影された画像に反映することができる。   Specifically, based on the image data (first image data) captured by the virtual camera, the light amount of the image captured by the virtual camera, that is, the light amount corresponding to the angle of view of the virtual camera is evaluated. Then, the dimming image data (second image data) is adjusted in accordance with the amount of light. Then, by superimposing the second image data adjusted here (second image data after adjustment) on the first image data corresponding to the image captured at a predetermined angle of view by the virtual camera, The effect of peripheral dimming according to the angle of view can be reflected in the image taken by the virtual camera.

これにより、仮想カメラにより撮影された画像において、実際のカメラにより撮影された画像と同様に、リアリティのある周辺減光を再現することができる。   Thereby, in the image photographed by the virtual camera, the realistic peripheral dimming can be reproduced in the same manner as the image photographed by the actual camera.

〔ゲーム装置の構成と動作〕
図1は、本発明の一実施形態によるゲーム装置の基本構成を示している。ここでは、ビデオゲーム装置の一例として、家庭用ビデオゲーム装置をとりあげて説明を行うこととする。家庭用ビデオゲーム装置は、家庭用ゲーム機本体および家庭用テレビジョンを備える。家庭用ゲーム機本体には、記録媒体10が装填可能となっており、記録媒体10からゲームデータが適宜読み出されてゲームが実行される。このようにして実行されるゲーム内容が家庭用テレビジョンに表示される。
[Configuration and operation of game device]
FIG. 1 shows a basic configuration of a game device according to an embodiment of the present invention. Here, a home video game device will be described as an example of the video game device. The home video game apparatus includes a home game machine body and a home television. The home game machine body can be loaded with a recording medium 10, and game data is read from the recording medium 10 as appropriate to execute the game. The contents of the game executed in this way are displayed on the home television.

家庭用ビデオゲーム装置のゲームシステムは、制御部1と、記憶部2と、画像表示部3と、音声出力部4と、操作入力部5とからなっており、それぞれがバス6を介して接続される。このバス6は、アドレスバス、データバス、およびコントロールバスなどを含んでいる。ここで、制御部1、記憶部2、音声出力部4および操作入力部5は、家庭用ビデオゲーム装置の家庭用ゲーム機本体に含まれており、画像表示部3は家庭用テレビジョンに含まれている。   The game system of the home video game apparatus includes a control unit 1, a storage unit 2, an image display unit 3, an audio output unit 4, and an operation input unit 5, which are connected via a bus 6. Is done. The bus 6 includes an address bus, a data bus, a control bus, and the like. Here, the control unit 1, the storage unit 2, the audio output unit 4, and the operation input unit 5 are included in the home game machine body of the home video game apparatus, and the image display unit 3 is included in the home television. It is.

制御部1は、主に、ゲームプログラムに基づいてゲーム全体の進行を制御するために設けられている。制御部1は、たとえば、CPU(Central Processing Unit)7と、信号処理プロセッサ8と、画像処理プロセッサ9とから構成されている。CPU7と信号処理プロセッサ8と画像処理プロセッサ9とは、それぞれがバス6を介して互いに接続されている。CPU7は、ゲームプログラムからの命令を解釈し、各種のデータ処理や制御を行う。たとえば、CPU7は、信号処理プロセッサ8に対して、画像データを画像処理プロセッサに供給するように命令する。信号処理プロセッサ8は、主に、3次元空間上における計算と、3次元空間上から擬似3次元空間上への位置変換計算と、光源計算処理と、画像および音声データの生成加工処理とを行っている。画像処理プロセッサ9は、主に、信号処理プロセッサ8の計算結果および処理結果に基づいて、描画すべき画像データをRAM12に書き込む処理を行っている。   The control unit 1 is provided mainly for controlling the progress of the entire game based on the game program. The control unit 1 includes, for example, a CPU (Central Processing Unit) 7, a signal processor 8, and an image processor 9. The CPU 7, the signal processor 8, and the image processor 9 are connected to each other via the bus 6. The CPU 7 interprets instructions from the game program and performs various data processing and control. For example, the CPU 7 instructs the signal processor 8 to supply image data to the image processor. The signal processor 8 mainly performs calculation in the three-dimensional space, position conversion calculation from the three-dimensional space to the pseudo three-dimensional space, light source calculation processing, and image and audio data generation processing. ing. The image processor 9 mainly performs a process of writing image data to be drawn into the RAM 12 based on the calculation result and the processing result of the signal processor 8.

記憶部2は、主に、プログラムデータや、プログラムデータで使用される各種データなどを格納しておくために設けられている。記憶部2は、たとえば、記録媒体10と、インターフェース回路11と、RAM(Random Access Memory)12とから構成されている。記録媒体10には、インターフェース回路11が接続されている。そして、インターフェース回路11とRAM12とはバス6を介して接続されている。記録媒体10は、オペレーションシステムのプログラムデータや、画像データ、音声データ並びに各種プログラムデータからなるゲームデータなどを記録するためのものである。この記録媒体10は、たとえば、ROM(Read Only Memory)カセット、光ディスク、およびフレキシブルディスクなどであり、オペレーティングシステムのプログラムデータやゲームデータなどが記憶される。なお、記録媒体10にはカード型メモリも含まれており、このカード型メモリは、主に、ゲームを中断するときに中断時点での各種ゲームパラメータを保存するために用いられる。RAM12は、記録媒体10から読み出された各種データを一時的に格納したり、制御部1からの処理結果を一時的に記録したりするために用いられる。このRAM12には、各種データとともに、各種データの記憶位置を示すアドレスデータが格納されており、任意のアドレスを指定して読み書きすることが可能になっている。   The storage unit 2 is provided mainly for storing program data and various data used in the program data. The storage unit 2 includes, for example, a recording medium 10, an interface circuit 11, and a RAM (Random Access Memory) 12. An interface circuit 11 is connected to the recording medium 10. The interface circuit 11 and the RAM 12 are connected via the bus 6. The recording medium 10 is for recording operation system program data, image data, audio data, game data including various program data, and the like. The recording medium 10 is, for example, a ROM (Read Only Memory) cassette, an optical disk, a flexible disk, or the like, and stores operating system program data, game data, and the like. The recording medium 10 also includes a card type memory, and this card type memory is mainly used for storing various game parameters at the time of interruption when the game is interrupted. The RAM 12 is used for temporarily storing various data read from the recording medium 10 and temporarily recording the processing results from the control unit 1. The RAM 12 stores various data and address data indicating the storage position of the various data, and can be read / written by designating an arbitrary address.

画像表示部3は、主に、画像処理プロセッサ9によってRAM12に書き込まれた画像データや、記録媒体10から読み出される画像データなどを画像として出力するために設けられている。この画像表示部3は、たとえば、テレビジョンモニタ20と、インターフェース回路21と、D/Aコンバータ(Digital-To-Analogコンバータ)22とから構成されている。テレビジョンモニタ20にはD/Aコンバータ22が接続されており、D/Aコンバータ22にはインターフェース回路21が接続されている。そして、インターフェース回路21にバス6が接続されている。ここでは、画像データが、インターフェース回路21を介してD/Aコンバータ22に供給され、ここでアナログ画像信号に変換される。そして、アナログ画像信号がテレビジョンモニタ20に画像として出力される。   The image display unit 3 is provided mainly for outputting image data written in the RAM 12 by the image processor 9 or image data read from the recording medium 10 as an image. The image display unit 3 includes, for example, a television monitor 20, an interface circuit 21, and a D / A converter (Digital-To-Analog converter) 22. A D / A converter 22 is connected to the television monitor 20, and an interface circuit 21 is connected to the D / A converter 22. The bus 6 is connected to the interface circuit 21. Here, the image data is supplied to the D / A converter 22 via the interface circuit 21, where it is converted into an analog image signal. The analog image signal is output as an image to the television monitor 20.

ここで、画像データには、たとえば、ポリゴンデータやテクスチャデータなどがある。ポリゴンデータはポリゴンを構成する頂点の座標データのことである。テクスチャデータは、ポリゴンにテクスチャを設定するためのものであり、テクスチャ指示データとテクスチャカラーデータとからなっている。テクスチャ指示データはポリゴンとテクスチャとを対応づけるためのデータであり、テクスチャカラーデータはテクスチャの色を指定するためのデータである。ここで、ポリゴンデータとテクスチャデータとには、各データの記憶位置を示すポリゴンアドレスデータとテクスチャアドレスデータとが対応づけられている。このような画像データでは、信号処理プロセッサ8により、ポリゴンアドレスデータの示す3次元空間上のポリゴンデータ(3次元ポリゴンデータ)が、画面自体(視点)の移動量データおよび回転量データに基づいて座標変換および透視投影変換されて、2次元空間上のポリゴンデータ(2次元ポリゴンデータ)に置換される。そして、複数の2次元ポリゴンデータでポリゴン外形を構成して、ポリゴンの内部領域にテクスチャアドレスデータが示すテクスチャデータを書き込む。このようにして、各ポリゴンにテクスチャが貼り付けられた物体つまり各種キャラクタを表現することができる。   Here, the image data includes, for example, polygon data and texture data. Polygon data is the coordinate data of vertices constituting a polygon. The texture data is for setting a texture on the polygon, and is composed of texture instruction data and texture color data. The texture instruction data is data for associating polygons and textures, and the texture color data is data for designating the texture color. Here, the polygon data and the texture data are associated with the polygon address data indicating the storage position of each data and the texture address data. In such image data, the signal processor 8 coordinates the polygon data in the three-dimensional space indicated by the polygon address data (three-dimensional polygon data) based on the movement amount data and the rotation amount data of the screen itself (viewpoint). Conversion and perspective projection conversion are performed, and the data is replaced with polygon data (two-dimensional polygon data) in a two-dimensional space. Then, a polygon outline is constituted by a plurality of two-dimensional polygon data, and texture data indicated by the texture address data is written in an internal area of the polygon. In this way, an object in which a texture is pasted on each polygon, that is, various characters can be expressed.

音声出力部4は、主に、記録媒体10から読み出される音声データを音声として出力するために設けられている。音声出力部4は、たとえば、スピーカー13と、増幅回路14と、D/Aコンバータ15と、インターフェース回路16とから構成されている。スピーカー13には増幅回路14が接続されており、増幅回路14にはD/Aコンバータ15が接続されており、D/Aコンバータ15にはインターフェース回路16が接続されている。そして、インターフェース回路16にバス6が接続されている。ここでは、音声データが、インターフェース回路16を介してD/Aコンバータ15に供給され、ここでアナログ音声信号に変換される。このアナログ音声信号が増幅回路14によって増幅され、スピーカー13から音声として出力される。音声データには、たとえば、ADPCM(Adaptive Differential Pulse Code Modulation)データやPCM(Pulse Code Modulation)データなどがある。ADPCMデータの場合、上述と同様の処理方法で音声をスピーカー13から出力することができる。PCMデータの場合、RAM12においてPCMデータをADPCMデータに変換しておくことで、上述と同様の処理方法で音声をスピーカー13から出力することができる。   The audio output unit 4 is provided mainly for outputting audio data read from the recording medium 10 as audio. The audio output unit 4 includes, for example, a speaker 13, an amplifier circuit 14, a D / A converter 15, and an interface circuit 16. An amplifier circuit 14 is connected to the speaker 13, a D / A converter 15 is connected to the amplifier circuit 14, and an interface circuit 16 is connected to the D / A converter 15. The bus 6 is connected to the interface circuit 16. Here, the audio data is supplied to the D / A converter 15 via the interface circuit 16, where it is converted into an analog audio signal. The analog audio signal is amplified by the amplifier circuit 14 and output from the speaker 13 as audio. The audio data includes, for example, ADPCM (Adaptive Differential Pulse Code Modulation) data and PCM (Pulse Code Modulation) data. In the case of ADPCM data, sound can be output from the speaker 13 by the same processing method as described above. In the case of PCM data, by converting the PCM data into ADPCM data in the RAM 12, the sound can be output from the speaker 13 by the same processing method as described above.

操作入力部5は、主に、コントローラ17と、操作情報インターフェース回路18と、インターフェース回路19とから構成されている。コントローラ17には、操作情報インターフェース回路18が接続されており、操作情報インターフェース回路18にはインターフェース回路19が接続されている。そして、インターフェース回路19にバス6が接続されている。   The operation input unit 5 mainly includes a controller 17, an operation information interface circuit 18, and an interface circuit 19. An operation information interface circuit 18 is connected to the controller 17, and an interface circuit 19 is connected to the operation information interface circuit 18. The bus 6 is connected to the interface circuit 19.

コントローラ17は、プレイヤが種々の操作命令を入力するために使用する操作装置であり、プレイヤの操作に応じた操作信号をCPU7に送出する。コントローラ17には、第1ボタン17a、第2ボタン17b、第3ボタン17c、第4ボタン17d、上方向キー17U、下方向キー17D、左方向キー17L、右方向キー17R、L1ボタン17L1、L2ボタン17L2、R1ボタン17R1、R2ボタン17R2、スタートボタン17e、セレクトボタン17f、左スティック17SL及び右スティック17SRが設けられている。   The controller 17 is an operation device used by the player to input various operation commands, and sends an operation signal according to the operation of the player to the CPU 7. The controller 17 includes a first button 17a, a second button 17b, a third button 17c, a fourth button 17d, an up key 17U, a down key 17D, a left key 17L, a right key 17R, and an L1 button 17L1, L2. A button 17L2, an R1 button 17R1, an R2 button 17R2, a start button 17e, a select button 17f, a left stick 17SL and a right stick 17SR are provided.

上方向キー17U、下方向キー17D、左方向キー17L及び右方向キー17Rは、例えば、キャラクタやカーソルをテレビジョンモニタ20の画面上で上下左右に移動させるコマンドをCPU7に与えるために使用される。   The up direction key 17U, the down direction key 17D, the left direction key 17L, and the right direction key 17R are used, for example, to give the CPU 7 a command for moving a character or cursor up, down, left, or right on the screen of the television monitor 20. .

スタートボタン17eは、記録媒体10からゲームプログラムをロードするようにCPU7に指示するときなどに使用される。   The start button 17e is used when instructing the CPU 7 to load a game program from the recording medium 10.

セレクトボタン17fは、記録媒体10からロードされたゲームプログラムに対して、各種選択をCPU7に指示するときなどに使用される。   The select button 17f is used when instructing the CPU 7 to make various selections for the game program loaded from the recording medium 10.

左スティック17SL及び右スティック17SRは、いわゆるジョイスティックとほぼ同一構成のスティック型コントローラである。このスティック型コントローラは、直立したスティックを有している。このスティックは、支点を中心として直立位置から前後左右を含む360°方向に亘って、傾倒可能な構成になっている。左スティック17SL及び右スティック17SRは、スティックの傾倒方向及び傾倒角度に応じて、直立位置を原点とするx座標及びy座標の値を、操作信号として操作情報インターフェース回路18とインターフェース回路19とを介してCPU7に送出する。   The left stick 17SL and the right stick 17SR are stick type controllers having substantially the same configuration as a so-called joystick. This stick type controller has an upright stick. The stick is configured to be tiltable from an upright position around the fulcrum in a 360 ° direction including front, rear, left and right. The left stick 17SL and the right stick 17SR pass through the operation information interface circuit 18 and the interface circuit 19 with the values of the x-coordinate and the y-coordinate having the upright position as the origin as operation signals according to the tilt direction and tilt angle of the stick. To the CPU 7.

第1ボタン17a、第2ボタン17b、第3ボタン17c、第4ボタン17d、L1ボタン17L1、L2ボタン17L2、R1ボタン17R1及びR2ボタン17R2には、記録媒体10からロードされるゲームプログラムに応じて種々の機能が割り振られている。   The first button 17a, the second button 17b, the third button 17c, the fourth button 17d, the L1 button 17L1, the L2 button 17L2, the R1 button 17R1, and the R2 button 17R2 correspond to the game program loaded from the recording medium 10. Various functions are allocated.

なお、左スティック17SL及び右スティック17SRを除くコントローラ17の各ボタン及び各キーは、外部からの押圧力によって中立位置から押圧されるとオンになり、押圧力が解除されると中立位置に復帰してオフになるオンオフスイッチになっている。   Each button and each key of the controller 17 except for the left stick 17SL and the right stick 17SR are turned on when pressed from the neutral position by an external pressing force, and return to the neutral position when the pressing force is released. It is an on / off switch that turns off.

以上のような構成からなる家庭用ビデオゲーム装置の概略動作を、以下に説明する。電源スイッチ(図示省略)がオンにされゲームシステム1に電源が投入されると、CPU7が、記録媒体10に記憶されているオペレーティングシステムに基づいて、記録媒体10から画像データ、音声データ、およびプログラムデータを読み出す。読み出された画像データ、音声データ、およびプログラムデータの一部若しくは全部は、RAM12に格納される。そして、CPU7が、RAM12に格納されたプログラムデータに基づいて、RAM12に格納された画像データや音声データにコマンドを発行する。   The schematic operation of the home video game apparatus having the above configuration will be described below. When a power switch (not shown) is turned on and the game system 1 is turned on, the CPU 7 reads image data, audio data, and a program from the recording medium 10 based on the operating system stored in the recording medium 10. Read data. Some or all of the read image data, audio data, and program data are stored in the RAM 12. Then, the CPU 7 issues a command to the image data and sound data stored in the RAM 12 based on the program data stored in the RAM 12.

画像データの場合、CPU7からのコマンドに基づいて、まず、信号処理プロセッサ8が、3次元空間上におけるキャラクタの位置計算および光源計算などを行う。次に、画像処理プロセッサ9が、信号処理プロセッサ8の計算結果に基づいて、描画すべき画像データのRAM12への書き込み処理などを行う。そして、RAM12に書き込まれた画像データが、インターフェース回路13を介してD/Aコンバータ17に供給される。ここで、画像データがD/Aコンバータ17でアナログ映像信号に変換される。そして、画像データはテレビジョンモニタ20に供給され画像として表示される。   In the case of image data, based on a command from the CPU 7, first, the signal processor 8 performs character position calculation and light source calculation in a three-dimensional space. Next, the image processor 9 performs a process of writing image data to be drawn into the RAM 12 based on the calculation result of the signal processor 8. Then, the image data written in the RAM 12 is supplied to the D / A converter 17 via the interface circuit 13. Here, the image data is converted into an analog video signal by the D / A converter 17. The image data is supplied to the television monitor 20 and displayed as an image.

音声データの場合、まず、信号処理プロセッサ8が、CPU7からのコマンドに基づいて音声データの生成および加工処理を行う。ここでは、音声データに対して、たとえば、ピッチの変換、ノイズの付加、エンベロープの設定、レベルの設定及びリバーブの付加などの処理が施される。次に、音声データは、信号処理プロセッサ8から出力されて、インターフェース回路16を介してD/Aコンバータ15に供給される。ここで、音声データがアナログ音声信号に変換される。そして、音声データは増幅回路14を介してスピーカー13から音声として出力される。   In the case of audio data, first, the signal processor 8 generates and processes audio data based on a command from the CPU 7. Here, processing such as pitch conversion, noise addition, envelope setting, level setting, and reverb addition is performed on the audio data, for example. Next, the audio data is output from the signal processor 8 and supplied to the D / A converter 15 via the interface circuit 16. Here, the audio data is converted into an analog audio signal. The audio data is output as audio from the speaker 13 via the amplifier circuit 14.

〔ゲーム装置における各種処理概要〕
本ゲーム機において実行されるゲームは、たとえば野球ゲームである。本ゲーム機では、周辺減光の影響を再現した画像が、テレビジョンモニタ20に表示される。図2は、本発明で主要な役割を果たす機能を説明するための機能ブロック図である。
[Outline of various processes in game devices]
The game executed in this game machine is, for example, a baseball game. In the present game machine, an image that reproduces the influence of the peripheral dimming is displayed on the television monitor 20. FIG. 2 is a functional block diagram for explaining functions that play a major role in the present invention.

カメラ設定手段50は、仮想ゲーム空間における仮想カメラの位置(視点)を規定するためのカメラ用の第1座標データ、仮想カメラの位置を基準とした仮想カメラの視線方向を規定するためのカメラ用の第2座標データ、仮想カメラの画角を規定するための画角データをCPU7に認識させることにより、仮想カメラを仮想ゲーム空間に設定する機能を備えている。   The camera setting means 50 is the first coordinate data for the camera for defining the position (viewpoint) of the virtual camera in the virtual game space, and for the camera for defining the viewing direction of the virtual camera with reference to the position of the virtual camera. The second coordinate data and the angle-of-view data for defining the angle of view of the virtual camera are recognized by the CPU 7, thereby setting the virtual camera in the virtual game space.

この手段では、仮想ゲーム空間における仮想カメラの位置を規定するためのカメラ用の第1座標データ、仮想カメラの位置を基準とした仮想カメラの視線方向を規定するためのカメラ用の第2座標データ、仮想カメラの画角を規定するための画角データをCPU7に認識させることにより、仮想カメラが仮想ゲーム空間に設定される。   In this means, the first coordinate data for the camera for defining the position of the virtual camera in the virtual game space, the second coordinate data for the camera for defining the viewing direction of the virtual camera with reference to the position of the virtual camera The virtual camera is set in the virtual game space by causing the CPU 7 to recognize the angle of view data for defining the angle of view of the virtual camera.

ここでは、ゲームが開始されたときに初期条件としてCPU7に認識される、カメラ用の第1座標データ、カメラ用の第2座標データ、および仮想カメラの画角データは、RAM12に格納されている。これらのデータは、ゲームプログラムが記録媒体10からRAM12にロードされたときにRAM12に格納される。また、カメラ用の第1座標データ、カメラ用の第2座標データ、および仮想カメラの画角データの少なくともいずれか1つが変更された場合は、変更後の各データがRAM12に格納される。そして、RAM12に格納された各データが、CPU7に認識される。   Here, the first coordinate data for the camera, the second coordinate data for the camera, and the view angle data of the virtual camera, which are recognized by the CPU 7 as initial conditions when the game is started, are stored in the RAM 12. . These data are stored in the RAM 12 when the game program is loaded from the recording medium 10 into the RAM 12. Further, when at least one of the first coordinate data for the camera, the second coordinate data for the camera, and the view angle data of the virtual camera is changed, each changed data is stored in the RAM 12. Then, each data stored in the RAM 12 is recognized by the CPU 7.

撮影空間規定手段51は、仮想ゲーム空間において、仮想カメラの撮影対象となる撮影空間を規定するための境界用のデータを、CPU7に認識させることにより、撮影空間を仮想ゲーム空間に規定する機能を備えている。   The shooting space defining means 51 has a function of defining the shooting space in the virtual game space by causing the CPU 7 to recognize boundary data for defining the shooting space to be shot by the virtual camera in the virtual game space. I have.

この手段では、仮想ゲーム空間において、仮想カメラの撮影対象となる撮影空間を規定するための境界用のデータを、CPU7に認識させることにより、撮影空間が仮想ゲーム空間に規定される。   In this means, in the virtual game space, the photographing space is defined as the virtual game space by causing the CPU 7 to recognize the boundary data for defining the photographing space to be photographed by the virtual camera.

ここでは、仮想カメラの視界に入る全ての空間(視界空間)の内部の所定の領域が、モニタ20に表示される空間すなわち撮影空間(視錐領域)として規定される。言い換えると、仮想カメラの画角に入る全ての空間(視界空間)の内部の所定の領域が、撮影空間として規定される。この撮影空間は、カメラ側の面(第1面)およびカメラから離反した側の面(第2面)を仮想ゲーム空間の所定の位置に設定することにより規定される。たとえば、仮想カメラの位置を基準とした所定の2つの位置座標データ(第1面用の境界用のデータおよび第2面用の境界用データ)をCPU7に認識させることにより、第1面および第2面が、仮想ゲーム空間に規定される。   Here, a predetermined area inside all spaces (view space) that enter the field of view of the virtual camera is defined as a space displayed on the monitor 20, that is, a shooting space (view cone area). In other words, a predetermined area inside all space (view space) that falls within the angle of view of the virtual camera is defined as a shooting space. This shooting space is defined by setting the camera-side surface (first surface) and the surface away from the camera (second surface) at predetermined positions in the virtual game space. For example, by causing the CPU 7 to recognize two predetermined position coordinate data (first surface boundary data and second surface boundary data) based on the position of the virtual camera, the first surface and the first surface Two sides are defined in the virtual game space.

なお、ここでは、撮影空間を規定するための第1面の位置および第2面の位置は、ゲームプログラムにおいて予め規定されているが、第1面の位置および第2面の位置を、ユーザが任意に設定することができるようにしても良い。   Here, the position of the first surface and the position of the second surface for defining the shooting space are defined in advance in the game program, but the user can specify the positions of the first surface and the second surface. It may be set arbitrarily.

第1画像格納手段52は、仮想カメラにより所定の画角で撮影された画像に対応する第1画像データを、RAM12に格納する機能を備えている。この手段では、仮想カメラにより所定の画角で撮影された画像に対応する第1画像データが、RAM12に格納される。   The first image storage means 52 has a function of storing, in the RAM 12, first image data corresponding to an image taken at a predetermined angle of view by the virtual camera. In this means, first image data corresponding to an image photographed at a predetermined angle of view by the virtual camera is stored in the RAM 12.

ここでは、撮影空間の内部のオブジェクトを仮想カメラにより撮影したときに、撮影空間の内部のオブジェクトを2次元平面に投影する処理が、制御部により実行される。この処理により、仮想カメラにより所定の画角で撮影された画像(第1画像データ)が、生成される。   Here, when an object inside the shooting space is shot by the virtual camera, a process of projecting the object inside the shooting space onto a two-dimensional plane is executed by the control unit. By this process, an image (first image data) captured with a predetermined angle of view by the virtual camera is generated.

具体的には、ここでは、撮影空間の内部のオブジェクトが仮想カメラにより撮影されたときに、仮想カメラの視点を基準とした、撮影空間の内部のオブジェクトが位置する深さを示す深度データが、Zバッファ用のRAM12に格納される。この処理が、撮影空間の内部のオブジェクトを2次元平面に投影する処理に対応する。そして、Zバッファ用のRAM12に格納された深度データに基づいて、撮影空間の内部のオブジェクトに対応する画像データ(第1画像データ)が、フレームバッファ用のRAM12に格納される。このようにして、仮想カメラにより所定の画角で撮影された画像に対応する第1画像データが、RAM12に格納される。   Specifically, here, when the object inside the shooting space is shot by the virtual camera, the depth data indicating the depth at which the object inside the shooting space is located with reference to the viewpoint of the virtual camera, It is stored in the Z buffer RAM 12. This process corresponds to a process of projecting an object inside the imaging space onto a two-dimensional plane. Based on the depth data stored in the Z buffer RAM 12, image data (first image data) corresponding to an object inside the shooting space is stored in the frame buffer RAM 12. In this way, the first image data corresponding to the image captured at a predetermined angle of view by the virtual camera is stored in the RAM 12.

第2画像格納手段53は、画像の周辺部を減光する減光用の画像に対応する第2画像データを、RAM12に格納する機能を備えている。この手段では、画像の周辺部を減光する減光用の画像に対応する第2画像データが、RAM12に格納される。   The second image storage means 53 has a function of storing, in the RAM 12, second image data corresponding to a dimming image for dimming the peripheral portion of the image. In this means, the second image data corresponding to the dimming image for dimming the peripheral portion of the image is stored in the RAM 12.

ここでは、初期条件としての第2画像データが、RAM12に格納される。この第2画像データに対応する画像は、画像の重心位置から同心円状に段階的に濃度が濃くなる画像になっている。具体的には、この第2画像データに対応する画像は、画像の重心位置が完全透明であり、画像の重心位置から同心円状に段階的に黒色の濃度が濃くなっている。この画像では、画像の重心位置から同心円状に段階的に階調を変化させることにより(グラデーション処理により)、画像の濃度を徐々に変化させている。なお、この初期条件としての画像に対応する第2画像データは、ゲームプログラムにより予め規定されており、RAM12に格納される。   Here, the second image data as the initial condition is stored in the RAM 12. The image corresponding to the second image data is an image in which the density gradually increases concentrically from the position of the center of gravity of the image. Specifically, the image corresponding to the second image data is completely transparent at the center of gravity of the image, and the density of black gradually increases concentrically from the center of gravity of the image. In this image, the density of the image is gradually changed by changing the gradation stepwise in a concentric manner from the position of the center of gravity of the image (by gradation processing). The second image data corresponding to the image as the initial condition is defined in advance by the game program and stored in the RAM 12.

第2画像調整手段54は、仮想カメラの画角に応じて、第2画像データを調整する処理を、CPU7に実行させる機能を備えている。   The second image adjustment unit 54 has a function of causing the CPU 7 to execute a process of adjusting the second image data in accordance with the angle of view of the virtual camera.

第2画像調整手段54は、光量評価手段54aと画像光量調整手段54bとを有している。光量評価手段54aは、RAM12に格納された第1画像データに基づいて、仮想カメラの所定の画角に対応する光量を評価する処理を、CPU7に実行させる機能を備えている。画像光量調整手段54bは、光量に応じて第2画像データを調整する処理を、CPU7に実行させる機能を備えている。   The second image adjustment unit 54 includes a light amount evaluation unit 54a and an image light amount adjustment unit 54b. The light quantity evaluation unit 54 a has a function of causing the CPU 7 to execute a process of evaluating the light quantity corresponding to a predetermined angle of view of the virtual camera based on the first image data stored in the RAM 12. The image light amount adjusting unit 54b has a function of causing the CPU 7 to execute a process of adjusting the second image data according to the light amount.

第2画像調整手段54では、仮想カメラの画角に応じて、第2画像データを調整する処理が、以下のように、CPU7により実行される。   In the second image adjustment unit 54, the CPU 7 executes a process for adjusting the second image data in accordance with the angle of view of the virtual camera as follows.

光量評価手段54aでは、RAM12に格納された第1画像データに基づいて、仮想カメラの所定の画角に対応する光量を評価する処理が、CPU7により実行される。   In the light quantity evaluation means 54a, the CPU 7 executes a process for evaluating the light quantity corresponding to a predetermined angle of view of the virtual camera based on the first image data stored in the RAM 12.

ここでは、光量評価手段54aでは、RAM12に格納された第1画像データをグレースケールの画像データに変換する処理が、CPU7により実行される。そして、グレースケールの画像データの階調を示す階調データが、仮想カメラの所定の画角に対応する光量を評価するデータとしてCPU7に認識される。   Here, in the light quantity evaluation unit 54a, the CPU 7 executes processing for converting the first image data stored in the RAM 12 into grayscale image data. Then, the gradation data indicating the gradation of the grayscale image data is recognized by the CPU 7 as data for evaluating the amount of light corresponding to a predetermined angle of view of the virtual camera.

具体的には、RAM12に格納された第1画像データをグレースケールの画像データに変換する処理が、CPU7により実行される。そして、グレースケールの画像データを1ピクセルのグレースケールの画像データに変換する処理が、CPU7により実行される。そして、1ピクセルのグレースケールの画像データの階調を示す階調データが、仮想カメラの所定の画角に対応する光量を評価するデータとしてCPU7に認識される。   Specifically, the CPU 7 executes processing for converting the first image data stored in the RAM 12 into grayscale image data. Then, the CPU 7 executes a process of converting the grayscale image data into 1-pixel grayscale image data. The gradation data indicating the gradation of the grayscale image data of one pixel is recognized by the CPU 7 as data for evaluating the amount of light corresponding to a predetermined angle of view of the virtual camera.

画像光量調整手段54bでは、光量に応じて第2画像データを調整する処理が、CPU7により実行される。   In the image light amount adjusting means 54b, the CPU 7 executes a process for adjusting the second image data in accordance with the light amount.

ここでは、光量を評価した階調データに応じて、画像の周辺部を減光する程度を規定するための透明度データが、CPU7により設定される。そして、透明度データに基づいて第2画像データの濃淡を調整する処理が、CPU7により実行される。   Here, transparency data for defining the degree to which the peripheral portion of the image is dimmed is set by the CPU 7 in accordance with the gradation data for which the amount of light has been evaluated. Then, a process for adjusting the density of the second image data based on the transparency data is executed by the CPU 7.

具体的には、減光用の画像の重心位置の透明度データが、第1透明度データとしてCPU7に認識される。そして、減光用の画像の周辺部の透明度データが、光量を評価した階調データに応じて、第2透明度データとしてCPU7に認識される。そして、第1透明度データおよび第2透明度データに基づいて、減光用の画像の重心位置と減光用の画像の周辺部との間の減光用の画像の透明度データが、第3透明度データとしてCPU7により設定される。この第3透明度データは、第1透明度データおよび第2透明度データを初期条件として、一次関数又は多次関数に基づいて、CPU7により算出される。すなわち、第3透明度データは、一次関数による線形補間、又は多次関数による多次補間を用いて、CPU7により算出される。すると、第1透明度データ、第2透明度データ、および第3透明度データに基づいて、第2画像データの濃淡を調整する処理が、CPU7により実行される。なお、ここで用いられる一次関数又は多次関数は、ゲームプログラムにおいて予め規定されており、RAM12に格納されている。   Specifically, the transparency data of the gravity center position of the dimming image is recognized by the CPU 7 as the first transparency data. Then, the transparency data of the peripheral portion of the dimming image is recognized by the CPU 7 as the second transparency data according to the gradation data for which the light quantity is evaluated. Based on the first transparency data and the second transparency data, the transparency data of the light reduction image between the gravity center position of the light reduction image and the peripheral portion of the light reduction image is the third transparency data. Is set by the CPU 7. The third transparency data is calculated by the CPU 7 based on a linear function or a multi-order function with the first transparency data and the second transparency data as initial conditions. That is, the third transparency data is calculated by the CPU 7 using linear interpolation using a linear function or multi-order interpolation using a multi-order function. Then, a process for adjusting the density of the second image data based on the first transparency data, the second transparency data, and the third transparency data is executed by the CPU 7. Note that the linear function or multi-order function used here is defined in advance in the game program and is stored in the RAM 12.

モニタ画像生成手段55は、第1画像データに、調整後の第2画像データを重ね合わせる処理を、CPU7に実行させることにより、周辺部が減光されたモニタ表示用の画像データを生成する機能を備えている。この手段では、第1画像データに、調整後の第2画像データを重ね合わせる処理を、CPU7に実行させることにより、周辺部が減光されたモニタ表示用の画像データが生成される。   The monitor image generating means 55 has a function of generating image data for monitor display whose peripheral portion is dimmed by causing the CPU 7 to execute a process of superimposing the adjusted second image data on the first image data. It has. In this means, the CPU 7 executes a process of superimposing the adjusted second image data on the first image data, thereby generating monitor display image data in which the peripheral portion is dimmed.

ここでは、第1画像データに、調整後の第2画像データを重ね合わせることにより、第1画像データと調整後の第2画像データとが合成され、周辺部が減光されたモニタ表示用の画像データが生成される。これにより、仮想カメラにより所定の画角で撮影された画像の周辺部の光量が調整され、周辺部が減光されたモニタ表示用の画像が生成される。   Here, by superimposing the adjusted second image data on the first image data, the first image data and the adjusted second image data are combined, and the peripheral display is dimmed. Image data is generated. Thereby, the light quantity of the peripheral part of the image image | photographed with the predetermined angle of view with the virtual camera is adjusted, and the monitor display image with the peripheral part dimmed is generated.

画像表示手段56は、周辺部が減光されたモニタ表示用の画像データを用いて、周辺減光の影響を再現した画像を、テレビジョンモニタ20に表示する機能を備えている。この手段では、周辺部が減光されたモニタ表示用の画像データを用いて、周辺減光の影響を再現した画像が、テレビジョンモニタ20に表示される。   The image display means 56 has a function of displaying on the television monitor 20 an image that reproduces the influence of the peripheral dimming using image data for monitor display whose peripheral portion is dimmed. With this means, an image that reproduces the influence of the peripheral dimming is displayed on the television monitor 20 using the monitor display image data whose peripheral portion is dimmed.

ここでは、周辺部が減光されたモニタ表示用の画像データが、CPU7からの表示命令に基づいてテレビジョンモニタ20に供給される。これにより、周辺減光の影響を再現した画像が、テレビジョンモニタ20に表示される。   Here, the monitor display image data whose peripheral portion is dimmed is supplied to the television monitor 20 based on a display command from the CPU 7. As a result, an image that reproduces the influence of the peripheral dimming is displayed on the television monitor 20.

〔野球ゲームにおける周辺減光再現システムの概要〕
次に、野球ゲームにおける周辺減光再現システムの具体的な内容について説明する。また、図9および図10に示すフローについても同時に説明する。なお、図9は野球ゲームの全体概要を説明するためのフローであり、図10は上記システムを説明するためのフローである。
[Outline of ambient light reproduction system in baseball game]
Next, specific contents of the peripheral light reduction reproduction system in the baseball game will be described. The flow shown in FIGS. 9 and 10 will also be described at the same time. FIG. 9 is a flow for explaining the general outline of the baseball game, and FIG. 10 is a flow for explaining the system.

まず、ゲーム機の電源が投入されゲーム機が起動されると、野球ゲームプログラムが、記録媒体10からRAM12にロードされ格納される。このときには、野球ゲームを実行する上で必要となる各種の基本ゲームデータも、同時に、記録媒体10からRAM12にロードされ格納される(S1)。   First, when the game machine is turned on and the game machine is activated, the baseball game program is loaded from the recording medium 10 into the RAM 12 and stored. At this time, various basic game data necessary for executing the baseball game are simultaneously loaded from the recording medium 10 into the RAM 12 and stored (S1).

たとえば、基本ゲームデータには、3次元ゲーム空間用の各種の画像に関するデータが含まれている。そして、この3次元ゲーム空間用の各種の画像に関するデータ、たとえば、スタジアム用の画像データ、選手キャラクタ用の画像データ、および各種のオブジェクトの画像データ等が、CPU7に認識される。また、基本ゲームデータには、3次元ゲーム空間用の各種の画像に関するデータを3次元ゲーム空間に配置するための位置座標データが含まれている。また、基本ゲームデータには、上記システムで用いられるデータも、含まれている。   For example, the basic game data includes data related to various images for a three-dimensional game space. The CPU 7 recognizes data related to various images for the three-dimensional game space, such as stadium image data, player character image data, and various object image data. Further, the basic game data includes position coordinate data for arranging data related to various images for the three-dimensional game space in the three-dimensional game space. The basic game data also includes data used in the above system.

続いて、RAM12に格納された野球ゲームプログラムが、基本ゲームデータに基づいて、CPU7により実行される(S2)。すると、野球ゲームの起動画面がテレビジョンモニタ20に表示される。すると、野球ゲームを実行するための各種の設定画面がテレビジョンモニタ20に表示される。ここでは、たとえば、野球ゲームのプレイモードを選択するためのモード選択画面が、テレビジョンモニタ20に表示される(図示しない)。このモード選択画面において、プレイヤがコントローラ17を操作することにより、プレイモードが決定される(S3)。プレイモードには、たとえば、12球団の中から好きなチームを選択して1試合の対戦を楽しむ対戦モード、12球団の中から好きなチームを選択してペナントレースを戦うペナントモード、プレイヤが監督の立場でチームの選手キャラクタを育成する育成モード、およりプレイヤがある1人の選手キャラクタの立場になって野球ゲームを体感する成長体感モード等が、用意されている。   Subsequently, the baseball game program stored in the RAM 12 is executed by the CPU 7 based on the basic game data (S2). Then, the start screen of the baseball game is displayed on the television monitor 20. Then, various setting screens for executing the baseball game are displayed on the television monitor 20. Here, for example, a mode selection screen for selecting a play mode of the baseball game is displayed on the television monitor 20 (not shown). In the mode selection screen, the player operates the controller 17 to determine the play mode (S3). The play mode includes, for example, a battle mode in which a favorite team is selected from 12 teams to enjoy a match, a pennant mode in which a favorite team is selected from the 12 teams and a pennant race is played, and the player supervises A training mode for training the player characters of the team from the standpoint of the player, a growth experience mode for experiencing the baseball game from the standpoint of one player character with the Oyori player, and the like are prepared.

続いて、モード選択画面で選択されたプレイモードにおいて、各種のイベントが、CPU7により実行される(S4)。ここで実行される各種のイベントには、たとえば、AIプログラム(Artificial Intelligence Program)に基づいてCPU7により自動制御されるイベントや、コントローラ17からの入力信号に基づいてプレイヤにより手動制御されるイベントのようなイベントがある。また、選手キャラクタの制御には、AIプログラムに基づいて選手キャラクタに命令を自動的に指示する自動制御や、コントローラ17からの入力信号に基づいて選手キャラクタに命令を直接的に指示する手動制御等がある。このように、本野球ゲームでは、コントローラ17からの指示やAIプログラムからの指示に応じて、イベントが制御されたり、選手キャラクタに命令が指示されたりするようになっている。   Subsequently, various events are executed by the CPU 7 in the play mode selected on the mode selection screen (S4). The various events executed here are, for example, events automatically controlled by the CPU 7 based on an AI program (Artificial Intelligence Program), and events manually controlled by the player based on an input signal from the controller 17. There is a special event. The player character is controlled by automatic control for automatically instructing the player character based on the AI program, manual control for directly instructing the player character based on an input signal from the controller 17, or the like. There is. Thus, in this baseball game, an event is controlled or an instruction is instructed to the player character in accordance with an instruction from the controller 17 or an instruction from the AI program.

続いて、選択されたプレイモードが終了したか否かが、CPU7により判断される(S5)。具体的には、プレイモードが終了したことを示す命令が発行されたか否かが、CPU7により判断される。そして、プレイモードが終了したことを示す命令が発行されたとCPU7により判断された場合(S5でYes)、ゲーム継続用のデータをRAM12に格納する処理が、CPU7により実行される。そして、ゲーム継続用のデータがRAM12に格納されると、この野球ゲームを終了するか否かを選択する選択画面が、テレビジョンモニタ20に表示される(S6)。そして、この選択画面において、プレイヤがコントローラ17を操作することにより、野球ゲームの終了を示す項目が選択されると(S6でYes)、野球ゲームを終了するための処理がCPU7により実行される(S7)。一方で、この選択画面において、プレイヤがコントローラ17を操作することにより、野球ゲームの継続を示す項目が選択されると(S6でNo)、ステップ3(S3)のモード選択画面が、テレビジョンモニタ20に再表示される。   Subsequently, the CPU 7 determines whether or not the selected play mode is finished (S5). Specifically, the CPU 7 determines whether or not a command indicating that the play mode has ended is issued. If the CPU 7 determines that an instruction indicating that the play mode has ended has been issued (Yes in S5), the CPU 7 executes a process of storing the game continuation data in the RAM 12. When the game continuation data is stored in the RAM 12, a selection screen for selecting whether or not to end the baseball game is displayed on the television monitor 20 (S6). When an item indicating the end of the baseball game is selected by operating the controller 17 on the selection screen (Yes in S6), the CPU 7 executes a process for ending the baseball game ( S7). On the other hand, when an item indicating continuation of the baseball game is selected by operating the controller 17 on the selection screen (No in S6), the mode selection screen in Step 3 (S3) is displayed on the television monitor. 20 is displayed again.

なお、プレイモードが終了するための命令が発行されたとCPU7に判断されない限り(S5でNo)、モード選択画面で選択されたプレイモードにおいて、各種のイベントがCPU7により実行される(S4)。   Unless the CPU 7 determines that an instruction for ending the play mode has been issued (No in S5), various events are executed by the CPU 7 in the play mode selected on the mode selection screen (S4).

次に、周辺減光再現システムの詳細を説明する。   Next, details of the peripheral dimming reproduction system will be described.

以下には、周辺減光再現システムが対戦モードにおいて機能する場合の例が示される。たとえば、モード選択画面において対戦モードが選択されたときに、周辺減光再現システムが機能する場合の例が示される。特に、以下では、周辺減光再現システムにおいて、リプレイ画像において、周辺減光が再現される場合の例が示される。   In the following, an example in which the peripheral dimming reproduction system functions in the battle mode is shown. For example, an example in which the peripheral dimming reproduction system functions when the battle mode is selected on the mode selection screen is shown. In particular, in the following, an example in which peripheral light reduction is reproduced in a replay image in the peripheral light reduction reproduction system will be shown.

本野球ゲームでは、対戦モードが開始される前に、画像の周辺部を減光する減光用の画像D2に対応する画像データ(第2画像データ)が、RAM12に格納される(S100)。ここでは、初期条件としての第2画像データが、RAM12に格納される。この第2画像データに対応する画像D2は、図3に示すように、画像の重心位置Gから同心円状に段階的に濃度が濃くなる画像になっている。具体的には、この第2画像データに対応する画像D2は、画像の重心位置Gから画像の四隅Y1,Y2,Y3,Y4に向けて、同心円状に段階的に黒色の濃度が濃くなっている。この画像では、画像の重心位置Gから同心円状に段階的に階調を変化させることにより(グラデーション処理により)、画像の濃度を徐々に変化させている。なお、ここでは、この第2画像データは、基本ゲームデータに含まれている。   In this baseball game, before the battle mode is started, image data (second image data) corresponding to the dimming image D2 for dimming the peripheral portion of the image is stored in the RAM 12 (S100). Here, the second image data as the initial condition is stored in the RAM 12. As shown in FIG. 3, the image D2 corresponding to the second image data is an image whose density increases stepwise in a concentric manner from the center of gravity G of the image. Specifically, in the image D2 corresponding to the second image data, the density of black gradually increases concentrically from the center of gravity position G of the image toward the four corners Y1, Y2, Y3, and Y4 of the image. Yes. In this image, the density of the image is gradually changed by changing the gradation stepwise in a concentric manner from the center of gravity position G of the image (by gradation processing). Here, the second image data is included in the basic game data.

そして、対戦モードが開始されると(S101)、図4に示すように、シーン再現用の仮想カメラの位置C1を3次元仮想ゲーム空間に規定するためのカメラ用の第1座標データ、シーン再現用の仮想カメラの位置C1を基準として仮想カメラの視線方向VDを規定するための位置C2を示すカメラ用の第2座標データ、シーン再現用の仮想カメラの画角を規定するための画角データGAが、CPU7に認識される。これにより、シーン再現用の仮想カメラが3次元仮想ゲーム空間に設定される(S102)。   Then, when the battle mode is started (S101), as shown in FIG. 4, the first coordinate data for the camera for defining the position C1 of the virtual camera for scene reproduction in the three-dimensional virtual game space, scene reproduction. Second coordinate data for the camera indicating the position C2 for defining the viewing direction VD of the virtual camera with reference to the position C1 of the virtual camera for viewing, and angle of view data for defining the angle of view of the virtual camera for scene reproduction GA is recognized by the CPU 7. Thereby, a virtual camera for scene reproduction is set in the three-dimensional virtual game space (S102).

なお、ここでは、3次元仮想空間の座標系が、図4に示すように定義されている。すなわち、ここでは、仮想カメラの視線方向VDを水平面に投影した方向をY方向、高さ方向をZ方向、Y方向とZ方向とに互いに直交する方向をX方向と、定義されている。また、図4の撮影空間の底面VBは、XY平面上に設けられている。そして、このXY平面上には、グランド面が定義されている。   Here, the coordinate system of the three-dimensional virtual space is defined as shown in FIG. That is, here, the direction in which the visual line direction VD of the virtual camera is projected on the horizontal plane is defined as the Y direction, the height direction is defined as the Z direction, and the directions orthogonal to the Y direction and the Z direction are defined as the X direction. Further, the bottom surface VB of the imaging space in FIG. 4 is provided on the XY plane. A ground plane is defined on the XY plane.

続いて、図4に示すように、シーン再現用の仮想カメラの画角に入る全ての空間SK(視界空間)の内部の所定の領域が、撮影空間SSとして規定される(S103)。ここでは、シーン再現用の仮想カメラの撮影対象となる撮影空間SSの奥行きを規定するための境界、たとえば、仮想カメラ側の面VS1(第1面)および仮想カメラから離反した側の面VS2(第2面)を、3次元仮想ゲーム空間の所定の位置に設定することにより、撮影空間SSが3次元仮想ゲーム空間に規定される。   Subsequently, as shown in FIG. 4, a predetermined area inside all the spaces SK (view space) that falls within the angle of view of the virtual camera for scene reproduction is defined as the imaging space SS (S103). Here, a boundary for defining the depth of the imaging space SS to be imaged by the virtual camera for scene reproduction, for example, a surface VS1 (first surface) on the virtual camera side and a surface VS2 on the side away from the virtual camera ( By setting the second surface) to a predetermined position in the three-dimensional virtual game space, the shooting space SS is defined as the three-dimensional virtual game space.

具体的には、仮想カメラの位置C1の第1座標データ(x1,y1,z1)のy座標に、仮想カメラの位置C1からの第1面VS1までの距離ys1を加算する処理を制御部に実行させることにより、第1面用の境界用のデータ(x1,y1+ys1,z1)が算出される。また、仮想カメラの位置C1の第1座標データ(x1,y1,z1)のy座標に、仮想カメラの位置C1からの第2面VS2までの距離ys2を加算する処理を制御部に実行させることにより、第2面用の境界用のデータ(x1,y1+ys2,z1)が算出される。なお、距離ys1,ys2は、ゲームプログラムにおいて予め規定されており、RAM12に格納されている。また、距離ys1と距離ys2との間には、「ys2>ys1」の関係が成立している。   Specifically, a process for adding the distance ys1 from the virtual camera position C1 to the first surface VS1 to the y coordinate of the first coordinate data (x1, y1, z1) of the virtual camera position C1 is performed in the control unit. By executing this, the boundary data (x1, y1 + ys1, z1) for the first surface is calculated. Further, the control unit is caused to execute a process of adding a distance ys2 from the virtual camera position C1 to the second surface VS2 to the y coordinate of the first coordinate data (x1, y1, z1) of the virtual camera position C1. Thus, the boundary data (x1, y1 + ys2, z1) for the second surface is calculated. Note that the distances ys1 and ys2 are defined in advance in the game program and stored in the RAM 12. Further, the relationship “ys2> ys1” is established between the distance ys1 and the distance ys2.

このようにして算出された、第1面用の境界用のデータ、および第2面用の境界用のデータを、第1面VS1の位置座標データおよび第2面VS2の位置座標データとして、CPU7に認識させることにより、第1面VS1および第2面VS2が3次元仮想ゲーム空間に決定され、撮影空間SSが3次元仮想ゲーム空間に規定される。   The CPU 7 uses the boundary data for the first surface and the boundary data for the second surface calculated as described above as the position coordinate data of the first surface VS1 and the position coordinate data of the second surface VS2. The first surface VS1 and the second surface VS2 are determined as a three-dimensional virtual game space and the shooting space SS is defined as a three-dimensional virtual game space.

なお、シーン再現用の仮想カメラの撮影対象となる撮影空間SSの幅方向の境界は、シーン再現用の仮想カメラの幅方向の第1画角データGAxyによって規定される(図4を参照)。また、シーン再現用の仮想カメラの撮影対象となる撮影空間SSの高さ方向の境界は、シーン再現用の仮想カメラの高さ方向の第2画角データGAyzによって規定される(図4を参照)。このように、ここでは、シーン再現用の仮想カメラの画角データGAは、幅方向の第1画角データGAxy、および高さ方向の第2画角データGAyzから構成されている。   Note that the boundary in the width direction of the shooting space SS to be shot by the virtual camera for scene reproduction is defined by the first angle-of-view data GAxy in the width direction of the virtual camera for scene reproduction (see FIG. 4). Also, the boundary in the height direction of the shooting space SS to be shot by the virtual camera for scene reproduction is defined by the second angle-of-view data GAyz in the height direction of the virtual camera for scene reproduction (see FIG. 4). ). Thus, here, the view angle data GA of the virtual camera for scene reproduction is composed of the first view angle data GAxy in the width direction and the second view angle data GAyz in the height direction.

続いて、試合イベントが開始されプレイが実行されると(S104)、実行されたプレイがリプレイ対象のプレイであるか否かが、CPU7により判別される(S105)。ここでは、リプレイ対象のプレイは、ゲームプログラムにおいて予め規定されている。以下では、3塁に走者キャラクタK1が存在していて打者キャラクタにより安打又は外野フライが放たれた場合のプレイが、リプレイ対象のプレイに規定されている場合の例が示される。   Subsequently, when a game event is started and a play is executed (S104), the CPU 7 determines whether or not the executed play is a replay target play (S105). Here, the play to be replayed is defined in advance in the game program. In the following, an example is shown in which the play when the runner character K1 is present on the third base and the hit or outfield fly is released by the batter character is defined as the play to be replayed.

具体的には、実行されたプレイが、ゲームプログラムにおいて予め規定されたリプレイ対象のプレイ、たとえば、3塁に走者キャラクタが存在していて打者キャラクタにより安打又は外野フライが放たれた場合のプレイであるか否かが、CPU7により判別される。   Specifically, the executed play is a replay target play prescribed in the game program, for example, when a runner character exists on the third base and a hit or an outfield fly is released by the batter character. The CPU 7 determines whether or not there is.

ここでは、たとえば、走者キャラクタが3塁に存在する場合、3塁における出塁状況を示すフラグの値として、数値「1」がCPU7により割り当てられる。また、走者キャラクタが3塁に存在しない場合、3塁における出塁状況を示すフラグの値として、数値「0」がCPU7により割り当てられる。このフラグの値をCPU7に認識させることにより、走者キャラクタが3塁に存在するか否かが、CPU7により判別される。   Here, for example, when the runner character is present on the third base, the CPU 7 assigns a numerical value “1” as the flag value indicating the output situation at the third base. Further, when there is no runner character in the third base, a numerical value “0” is assigned by the CPU 7 as a flag value indicating the output situation in the third base. By making the CPU 7 recognize the value of this flag, it is determined by the CPU 7 whether or not the runner character is present at 3 cm.

また、たとえば、打者キャラクタにより安打が放たれた場合、打撃結果を示す結果データの値として、ヒットに対応する数値「1」、2塁打に対応する数値「2」、3塁打に対応する数値「3」、およびホームランに対応する数値「4」のいずれか1つが、CPU7により割り当てられる。そして、打者キャラクタにより外野フライが放たれた場合、打撃結果を示す結果データの値として、外野フライに対応する数値「11」が、CPU7により割り当てられる。そして、上記以外の結果の場合、打撃結果を示す結果データの値として、数値「0」が、CPU7により割り当てられる。この結果データの値をCPU7に認識させることにより、打者キャラクタが安打又は外野フライを放ったか否かが、CPU7により判別される。   Also, for example, when a hit is released by the batter character, the value “1” corresponding to the hit, the value “2” corresponding to the second hit, the value “2” corresponding to the third hit, and the value “3” corresponding to the third hit Any one of “3” and a numerical value “4” corresponding to the home run is assigned by the CPU 7. Then, when the outfield fly is released by the batter character, the CPU 7 assigns a numerical value “11” corresponding to the outfield fly as the value of the result data indicating the hit result. In the case of a result other than the above, the numerical value “0” is assigned by the CPU 7 as the value of the result data indicating the hitting result. By causing the CPU 7 to recognize the value of the result data, the CPU 7 determines whether or not the batter character has hit or hit the outfield fly.

ここで、実行されたプレイがリプレイ対象のプレイであるとCPU7により判別された場合(S105でYes)、このリプレイ対象のプレイに関わるキャラクタの動作を再現するための座標データおよび画像データが、RAM12に格納される。たとえば、3塁に走者キャラクタが存在していて打者キャラクタにより安打又は外野フライが放たれた場合、リプレイ対象のプレイに関わるキャラクタは、走者キャラクタ、捕手キャラクタ、および主審キャラクタとなる。このため、この場合は、プレイ中の走者キャラクタ、プレイ中の捕手キャラクタ、およびプレイ中の主審キャラクタそれぞれの座標データおよび画像データが、RAM12に格納される。また、ここでは、プレイ中のボールの座標データおよび画像データも、RAM12に格納される(S106)。   Here, when the CPU 7 determines that the executed play is a replay target play (Yes in S105), coordinate data and image data for reproducing the motion of the character related to the replay target play are stored in the RAM 12. Stored in For example, when a runner character exists on the third base and a hit or outfield fly is released by the batter character, the characters related to the play to be replayed are a runner character, a catcher character, and a referee character. Therefore, in this case, the coordinate data and image data of the runner character being played, the catcher character being played, and the referee character being played are stored in the RAM 12. Here, the coordinate data and image data of the ball being played are also stored in the RAM 12 (S106).

なお、ボールの座標データは、ボールの軌道方程式に基づいて算出される。たとえば、ボールの軌道方程式は、位置と時間の関数になっている。このボールの軌道方程式において、ボールの送出位置の時間を基準として、時間を1/60(sec)づつ進行させることにより、所定のフレームにおけるボールの位置が算出される。なお、このボールの軌道方程式を構成するための変数および定数は、ゲームプログラムにおいて予め規定されている。   The coordinate data of the ball is calculated based on the ball trajectory equation. For example, the ball trajectory equation is a function of position and time. In this ball trajectory equation, the position of the ball in a predetermined frame is calculated by advancing the time by 1/60 (sec) with reference to the time of the ball delivery position. Note that variables and constants for configuring the ball trajectory equation are defined in advance in the game program.

続いて、ここでRAM12に格納されたデータの基づいて、リプレイ対象のプレイ(実行済みのプレイ)を3次元仮想ゲーム空間において再実行する処理が、CPU7により実行される。   Subsequently, based on the data stored in the RAM 12 here, the CPU 7 executes a process of re-executing the play to be replayed (play that has already been executed) in the three-dimensional virtual game space.

まず、3次元仮想ゲーム空間の内部に位置する複数のキャラクタそれぞれの座標データが、CPU7に認識される。たとえば、3塁に走者キャラクタが存在していて打者キャラクタが安打又は外野フライを放った場合、ホームベースに突入する走者キャラクタ、ボールを捕球する捕手キャラクタ、および主審キャラクタそれぞれの座標データが、1フレームごとに、CPU7に認識される。なお、ここでCPU7に認識される各キャラクタの座標データは、ステップ106(S106)でRAM12に格納されたデータである。   First, the CPU 7 recognizes coordinate data of each of a plurality of characters located inside the three-dimensional virtual game space. For example, when a runner character exists on the third base and the batter character hits or flies outfield, the coordinate data of the runner character that enters the home base, the catcher character that catches the ball, and the referee character is 1 The CPU 7 recognizes each frame. Here, the coordinate data of each character recognized by the CPU 7 is the data stored in the RAM 12 in step 106 (S106).

次に、3次元仮想ゲーム空間の内部を移動するボールの座標データが、CPU7に認識される。たとえば、3塁に走者キャラクタが存在していて打者キャラクタが安打又は外野フライを放った場合、ボールを捕球した野手キャラクタから捕手キャラクタへと送球されたボールの座標データが、1フレーム(1/60sec)ごとに、CPUに認識される。なお、ここでCPU7に認識されるボールの座標データは、ステップ106(S106)でRAM12に格納されたデータである。   Next, the CPU 7 recognizes the coordinate data of the ball moving within the three-dimensional virtual game space. For example, if a runner character exists on the 3rd base and the batter character hits or flies outfield, the coordinate data of the ball sent from the fielder character that caught the ball to the catcher character is 1 frame (1 / Every 60 sec). Here, the coordinate data of the ball recognized by the CPU 7 is the data stored in the RAM 12 in step 106 (S106).

ここでは、1フレームごとに、複数のキャラクタの座標データおよびボールの座標データがCPU7に認識され、仮想カメラの視点を基準とした、撮影空間の内部のオブジェクトが位置する深さを示す深度データが、Zバッファ用のRAM12に格納される。この処理が、撮影空間の内部のオブジェクトを2次元平面に投影する処理に対応する。そして、Zバッファ用のRAM12に格納された深度データに基づいて、撮影空間の内部のオブジェクトを撮影したときの画像データ(第1画像データ)が、フレームバッファ用のRAM12に格納される。このようにして、仮想カメラにより所定の画角で撮影された画像に対応する第1画像データが、1フレームごとに、RAM12に格納される(S107)。   Here, for each frame, the coordinate data of a plurality of characters and the coordinate data of the ball are recognized by the CPU 7, and depth data indicating the depth at which an object inside the shooting space is located with reference to the viewpoint of the virtual camera. Are stored in the RAM 12 for the Z buffer. This process corresponds to a process of projecting an object inside the imaging space onto a two-dimensional plane. Then, based on the depth data stored in the Z buffer RAM 12, image data (first image data) obtained by shooting an object inside the shooting space is stored in the frame buffer RAM 12. In this way, the first image data corresponding to the image shot at a predetermined angle of view by the virtual camera is stored in the RAM 12 for each frame (S107).

また、第1画像データがRAM12に格納されるときには、仮想カメラにより撮影された各フレームの画像の画角データが、RAM12に格納される(S108)。たとえば、リプレイ対象のプレイが、徐々にクローズアップ(ズーム)されるような場合、各フレームの画像の画角データの値は、フレームの進行に応じて、徐々に小さな値になる。この場合、1フレーム又は数フレームごとに異なる画角データが、RAM12に格納される。一方で、リプレイ対象のプレイが、クローズアップされずに一定の状態で再現される場合、各フレームの画像の画角データの値は、一定値になる。この場合、各フレームにおいて、一定値の画角データが、RAM12に格納される。   Further, when the first image data is stored in the RAM 12, the angle-of-view data of each frame image captured by the virtual camera is stored in the RAM 12 (S108). For example, when the play to be replayed is gradually closed up (zoomed), the value of the field angle data of the image of each frame gradually becomes a small value as the frame progresses. In this case, different angle of view data is stored in the RAM 12 for each frame or several frames. On the other hand, when the play to be replayed is reproduced in a fixed state without being closed up, the value of the angle of view data of the image of each frame becomes a constant value. In this case, constant angle of view data is stored in the RAM 12 in each frame.

続いて、RAM12に格納された仮想カメラの画角に応じて、減光用の画像D2に対応する画像データ(第2画像データ)を調整する処理が、以下のように、CPU7により実行される。   Subsequently, processing for adjusting image data (second image data) corresponding to the dimming image D2 according to the angle of view of the virtual camera stored in the RAM 12 is executed by the CPU 7 as follows. .

まず、RAM12に格納された各フレームの第1画像データに基づいて、各フレームにおける仮想カメラの画角に対応する光量を評価する処理が、CPU7により実行される。たとえば、各フレームの第1画像データをグレースケールの画像データに変換する処理が、CPU7により実行される。そして、各フレームのグレースケールの画像データを1ピクセルのグレースケールの画像データに変換する処理が、CPU7により実行される(S109、図8を参照)。そして、各フレームの1ピクセルのグレースケールの画像データの階調を示す階調データKG1が、各フレームの仮想カメラの画角に対応する光量を評価するデータとしてCPU7に認識される(S110)。そして、各フレームの1ピクセルのグレースケールの画像データの階調を示す階調データKG1が、RAM12に格納される。   First, based on the first image data of each frame stored in the RAM 12, the CPU 7 executes a process for evaluating the light amount corresponding to the angle of view of the virtual camera in each frame. For example, the CPU 7 executes a process of converting the first image data of each frame into grayscale image data. Then, processing for converting the grayscale image data of each frame into grayscale image data of 1 pixel is executed by the CPU 7 (see S109 and FIG. 8). Then, the gradation data KG1 indicating the gradation of the grayscale image data of 1 pixel of each frame is recognized by the CPU 7 as data for evaluating the amount of light corresponding to the angle of view of the virtual camera of each frame (S110). Then, gradation data KG1 indicating the gradation of grayscale image data of one pixel of each frame is stored in the RAM 12.

これらの処理では、各フレームの第1画像データをグレースケールの画像データに変換することにより、グレースケールの画像の濃淡によって各フレームの画像の光量の強弱が評価される。そして、各フレームのグレースケールの画像データを1ピクセルのグレースケールの画像データに変換することにより、各フレームの画像の光量の強弱の平均が評価される。すなわち、各フレームの画像の光量の強弱の平均が、各フレームの1ピクセルのグレースケールの画像データの階調を示す階調データKG1により評価される。   In these processes, the first image data of each frame is converted into grayscale image data, whereby the intensity of the light amount of each frame image is evaluated based on the grayscale image density. Then, by converting the grayscale image data of each frame into 1-pixel grayscale image data, the average intensity of the light intensity of the image of each frame is evaluated. That is, the average intensity of the light intensity of the image of each frame is evaluated by the gradation data KG1 indicating the gradation of the gray scale image data of 1 pixel of each frame.

たとえば、図5に示すように、各フレームの階調を8ビットの256階調で表現した場合、各フレームの階調データKG1は、「0〜255」までの値をとる。この場合、階調データKG1が「0」であるときが「黒」に対応し、階調データKG1が「255」であるときが「白」に対応する。ここで、階調と光量との関係を考えると、階調データKG1の値が小さい画像は、光量が少ない画像に対応し、階調データKG1の値が大きい画像は、光量が多い画像に対応する。   For example, as shown in FIG. 5, when the gradation of each frame is expressed by 256 bits of 8-bit, the gradation data KG1 of each frame takes a value from “0 to 255”. In this case, when the gradation data KG1 is “0”, it corresponds to “black”, and when the gradation data KG1 is “255”, it corresponds to “white”. Here, considering the relationship between gradation and light amount, an image with a small value of gradation data KG1 corresponds to an image with a small amount of light, and an image with a large value of gradation data KG1 corresponds to an image with a large amount of light. To do.

なお、一般的に、画角が広い場合、空間の広い範囲から光を取り入れることができるので、光量は多くなる。一方で、画角が狭い場合、空間の狭い範囲からしか光を取り入れることができないので、光量は少なくなる。図5には、このような関係も同時に示されている。   In general, when the angle of view is wide, the amount of light increases because light can be taken in from a wide range of space. On the other hand, when the angle of view is narrow, light can be taken in only from a narrow space, so the amount of light decreases. FIG. 5 also shows such a relationship.

次に、各フレームの光量に応じて第2画像データを調整する処理が、CPU7により実行される。たとえば、各フレームの階調データKG1に応じて、画像の周辺部を減光する程度を規定するための各フレームの透明度データT1,T2,T3が、CPU7により設定される(S111)。そして、透明度データT1,T2,T3に基づいて第2画像データの濃淡を調整する処理が、CPU7により実行される(S112)。   Next, a process of adjusting the second image data according to the light amount of each frame is executed by the CPU 7. For example, the CPU 7 sets the transparency data T1, T2, T3 of each frame for defining the degree to which the peripheral portion of the image is dimmed according to the gradation data KG1 of each frame (S111). Then, a process of adjusting the density of the second image data based on the transparency data T1, T2, T3 is executed by the CPU 7 (S112).

具体的には、減光用の画像D2の重心位置Gの透明度データT1が、完全透明に対応する透明度データ(第1透明度データ)としてCPU7に認識される。なお、ここでは画像が矩形であるので、減光用の画像D2の重心位置Gは、画像の対角線の交点位置になる(図3を参照)。   Specifically, the transparency data T1 of the gravity center position G of the dimming image D2 is recognized by the CPU 7 as transparency data (first transparency data) corresponding to complete transparency. Since the image is rectangular here, the gravity center position G of the dimming image D2 is the intersection position of the diagonal lines of the image (see FIG. 3).

そして、減光用の画像D2の重心位置Gの透明度データT1(第1透明度データ)がCPU7に認識されると、減光用の画像D2の周辺部の透明度データT2が、各フレームの階調データKG1に対応する透明度データ(第2透明度データ)として、CPU7に認識される。   When the transparency data T1 (first transparency data) of the gravity center position G of the dimming image D2 is recognized by the CPU 7, the transparency data T2 of the peripheral portion of the dimming image D2 is converted into the gradation of each frame. The CPU 7 recognizes the transparency data (second transparency data) corresponding to the data KG1.

ここでは、減光用の画像D2の周辺部の透明度データT2は、次のようにしてCPU7により、設定される。たとえば、上述したように、階調データKG1の値が小さい画像は、光量が少ない画像に対応し、階調データKG1の値が大きい画像は、光量が多い画像に対応する(図5を参照)。このことから、階調データKG1の値が小さい場合、画像の光量が少ないことになるので、透明度の高い透明度データがCPU7に認識される。一方で、階調データKG1の値が大きい場合、画像の光量が多いことになるので、不透明度の高い透明度データがCPU7に認識される。このような透明度と光量との関係は、ゲームプログラムにおいて予め規定されている(図5を参照)。また、この対応テーブルは、RAM12に格納されており、CPU7により適宜参照される。   Here, the transparency data T2 of the peripheral portion of the dimming image D2 is set by the CPU 7 as follows. For example, as described above, an image with a small value of the gradation data KG1 corresponds to an image with a small amount of light, and an image with a large value of the gradation data KG1 corresponds to an image with a large amount of light (see FIG. 5). . From this, when the value of the gradation data KG1 is small, the amount of light of the image is small, and thus transparency data with high transparency is recognized by the CPU 7. On the other hand, when the value of the gradation data KG1 is large, the amount of light of the image is large, and thus transparency data with high opacity is recognized by the CPU 7. Such a relationship between the transparency and the light amount is defined in advance in the game program (see FIG. 5). The correspondence table is stored in the RAM 12 and is referred to by the CPU 7 as appropriate.

続いて、第1透明度データT1および第2透明度データT2に基づいて、減光用の画像D2の重心位置Gと減光用の画像D2の周辺部との間の減光用の画像D2の透明度データT3が、第3透明度データとしてCPU7により設定される。この第3透明度データT3は、第1透明度データT1および第2透明度データT2を初期条件として、一次関数又は多次関数に基づいて、CPU7により算出される。すなわち、第3透明度データT3は、一次関数による線形補間、又は多次関数による多次補間を用いて、CPU7により算出される。なお、ここでは、一次関数による線形補間が用いられる。多次関数による多次補間が実行される場合、多次関数の3つ目以上の係数には、ゲームプログラムにおいて予め定義された値が用いられる。   Subsequently, based on the first transparency data T1 and the second transparency data T2, the transparency of the dimming image D2 between the gravity center position G of the dimming image D2 and the peripheral portion of the dimming image D2 Data T3 is set by the CPU 7 as third transparency data. The third transparency data T3 is calculated by the CPU 7 based on a linear function or a multi-order function with the first transparency data T1 and the second transparency data T2 as initial conditions. That is, the third transparency data T3 is calculated by the CPU 7 using linear interpolation using a linear function or multi-order interpolation using a multi-order function. Here, linear interpolation using a linear function is used. When multi-order interpolation using a multi-order function is executed, values defined in advance in the game program are used for the third and higher coefficients of the multi-order function.

たとえば、図6に示すように、第1透明度データT1が減光用の画像D2の重心位置Gに規定され、第2透明度データT2が減光用の画像D2の四隅Y1,Y2,Y3,Y4(減光用の画像D2の周辺部)に規定された場合、減光用の画像D2の重心位置Gと減光用の画像D2の1つの隅角部(四隅の中のいずれか1つ)とを結ぶ直線上の透明度データT3(第3透明度データ)が、第1透明度データT1および第2透明度データT2を初期条件として、CPU7により算出される。たとえば、図6では、減光用の画像D2の重心位置Gと減光用の画像D2の隅角部Y4とを結ぶ直線上の透明度データT3(第3透明度データ)が、第1透明度データT1および第2透明度データT2を初期条件として、CPU7により算出される。これにより、減光用の画像D2の重心位置Gから減光用の画像D2の1つの隅角部に至るまでの直線上の透明度データT3、すなわち減光用の画像D2の重心位置Gからの距離に応じた第3透明度データT3が、算出される。   For example, as shown in FIG. 6, the first transparency data T1 is defined at the center of gravity G of the dimming image D2, and the second transparency data T2 is the four corners Y1, Y2, Y3, Y4 of the dimming image D2. When defined as (peripheral portion of the dimming image D2), the gravity center position G of the dimming image D2 and one corner portion (any one of the four corners) of the dimming image D2 The CPU 7 calculates transparency data T3 (third transparency data) on a straight line connecting the first and second transparency data T1 and T2 as initial conditions. For example, in FIG. 6, transparency data T3 (third transparency data) on a straight line connecting the gravity center position G of the dimming image D2 and the corner Y4 of the dimming image D2 is the first transparency data T1. The CPU 7 calculates the second transparency data T2 as an initial condition. Thereby, the transparency data T3 on the straight line from the gravity center G of the dimming image D2 to one corner of the dimming image D2, that is, from the gravity center G of the dimming image D2 Third transparency data T3 corresponding to the distance is calculated.

すると、減光用の画像D2の重心位置Gから減光用の画像D2の1つの隅角部Y4までの透明度データ(第1透明度データT1、第2透明度データT2、および第3透明度データT3)に基づいて、画像の周辺部を減光する減光用の画像D2に対応する画像データ(第2画像データ)の濃淡を調整する処理が、CPU7により実行される。   Then, transparency data (first transparency data T1, second transparency data T2, and third transparency data T3) from the center of gravity position G of the dimming image D2 to one corner Y4 of the dimming image D2. Based on the above, the CPU 7 executes a process of adjusting the density of the image data (second image data) corresponding to the dimming image D2 for dimming the peripheral portion of the image.

ここでは、減光用の画像D2の重心位置Gの第1透明度データT1が、完全透明に対応する透明度データであり、減光用の画像D2の周辺部の第2透明度データT2(減光用の画像D2の1つの隅角部の第2透明度データ)が、各フレームの階調データKG1に対応する透明度データである(図5の備考を参照)。このため、減光用の画像D2の重心位置Gと減光用の画像D2の周辺部との間の透明度(第3透明度データT3に対応する透明度)は、減光用の画像D2の重心位置Gから離れるにつれて低下する、又は、減光用の画像D2の重心位置Gと同じ透明度になる。   Here, the first transparency data T1 at the center of gravity G of the dimming image D2 is the transparency data corresponding to complete transparency, and the second transparency data T2 (the dimming data for the periphery of the dimming image D2). (Second transparency data at one corner of the image D2) is transparency data corresponding to the gradation data KG1 of each frame (see remarks in FIG. 5). For this reason, the transparency (transparency corresponding to the third transparency data T3) between the gravity center position G of the dimming image D2 and the peripheral portion of the dimming image D2 is the gravity center position of the dimming image D2. As the distance from G decreases, it decreases or becomes the same transparency as the gravity center position G of the dimming image D2.

このような性質を有する透明度データ(第1透明度データT1、第2透明度データT2、および第3透明度データT3)が示す透明度を第2画像データに反映することにより、撮影空間の内部のオブジェクトを撮影したときの画像の光量(第1画像データに対応する画像D1の光量)が考慮された第2画像データ(調整後の第2画像データ)が生成される。これらの処理は、1フレームごとに、CPU7により実行される。   By reflecting the transparency indicated by the transparency data (the first transparency data T1, the second transparency data T2, and the third transparency data T3) having such properties in the second image data, the object inside the imaging space is photographed. The second image data (adjusted second image data) in consideration of the light amount of the image at that time (the light amount of the image D1 corresponding to the first image data) is generated. These processes are executed by the CPU 7 for each frame.

続いて、第1画像データに、調整後の第2画像データを重ね合わせる処理を、1フレームごとに、CPU7に実行させることにより、同心円状に周辺部が減光されたモニタ表示用の画像データが生成される(S113)。たとえば、第1画像データに対応する画像D1に、調整後の第2画像データに対応する画像D2を重ね合わせることにより(図7を参照)、同心円状に周辺部が減光されたモニタ表示用の画像が生成される。このようにして、仮想カメラにより撮影された画像の周辺部の光量が調整された、モニタ表示用の画像が生成される。すると、周辺部が減光された各フレームのモニタ表示用の画像データが、CPU7からの表示命令に基づいてテレビジョンモニタ20に供給される。すると、周辺減光の影響が再現された画像が、テレビジョンモニタ20に表示される(S114)。   Subsequently, the CPU 7 executes a process of superimposing the adjusted second image data on the first image data for each frame, whereby the monitor display image data whose peripheral portion is dimmed in a concentric manner is displayed. Is generated (S113). For example, for the monitor display in which the peripheral portion is dimmed concentrically by superimposing the image D2 corresponding to the adjusted second image data on the image D1 corresponding to the first image data (see FIG. 7). Images are generated. In this way, an image for monitor display is generated in which the amount of light at the periphery of the image taken by the virtual camera is adjusted. Then, image data for monitor display of each frame whose peripheral portion is dimmed is supplied to the television monitor 20 based on a display command from the CPU 7. Then, an image in which the influence of the peripheral dimming is reproduced is displayed on the television monitor 20 (S114).

続いて、リプレイ画像の再生が終了したか否かが、CPU7により判断される(S115)。すなわち、リプレイ画像用の全ての画像データがテレビジョンモニタ20に供給されたか否かが、CPU7により判断される。そして、リプレイ画像用の全ての画像データがテレビジョンモニタ20に供給されるまで(S115でYesになるまで)、ステップ114(S114)の処理が、繰り返しCPU7により実行される。一方で、リプレイ画像用の全ての画像データがテレビジョンモニタ20に供給された場合(S115でYes)、試合が終了したか否かが、CPU7により判断される(S116)。すなわち、試合を終了する命令が発行されたか否かが、CPU7により判断される。そして、試合を終了する命令が発行された場合(S116でYes)、各種のデータをRAM12に格納する処理が行われる(S117)。一方で、試合を終了する命令が発行されない限り(S116でNo)、ステップ105(S105)以降の処理が、CPU7により繰り返し実行される。   Subsequently, the CPU 7 determines whether or not the reproduction of the replay image is completed (S115). That is, the CPU 7 determines whether or not all image data for replay images has been supplied to the television monitor 20. Then, until all the image data for the replay image is supplied to the television monitor 20 (until Yes in S115), the process of step 114 (S114) is repeatedly executed by the CPU 7. On the other hand, when all the image data for the replay image is supplied to the television monitor 20 (Yes in S115), the CPU 7 determines whether or not the game is over (S116). That is, it is determined by the CPU 7 whether or not an instruction to end the game has been issued. And when the command which complete | finishes a game is issued (it is Yes at S116), the process which stores various data in RAM12 is performed (S117). On the other hand, unless an instruction to end the game is issued (No in S116), the processing after Step 105 (S105) is repeatedly executed by the CPU 7.

上記のように、本実施形態では、各フレームの画像データ(第1画像データ)が、グレースケールの画像データに変換される。そして、このグレースケールの画像データの階調を示す階調データKG1が、算出される。そして、この階調データKG1を用いて、各フレームにおける仮想カメラにより撮影された画像の光量、すなわち仮想カメラの所定の画角に対応する光量が、評価される。そして、この光量に応じて、減光用の画像データ(第2画像データ)が調整される。そして、各フレームの仮想カメラの光量に応じて調整された減光用の画像データ(第2画像データ)を、各フレームの仮想カメラにより撮影された画像データ(第1画像データ)に重ね合わせることにより、仮想カメラの画角に応じた周辺減光の影響を、仮想カメラにより撮影された画像に反映することができる。このため、実際のカメラにより撮影された画像と同様に、仮想カメラにより撮影された画像においても、リアリティのある周辺減光を再現することができる。   As described above, in the present embodiment, the image data (first image data) of each frame is converted into grayscale image data. Then, gradation data KG1 indicating the gradation of the grayscale image data is calculated. Then, using this gradation data KG1, the amount of light of the image captured by the virtual camera in each frame, that is, the amount of light corresponding to a predetermined angle of view of the virtual camera is evaluated. Then, the dimming image data (second image data) is adjusted in accordance with the amount of light. Then, the dimming image data (second image data) adjusted according to the amount of light of the virtual camera of each frame is superimposed on the image data (first image data) captured by the virtual camera of each frame. Thus, the influence of peripheral dimming according to the angle of view of the virtual camera can be reflected in the image taken by the virtual camera. For this reason, realistic peripheral dimming can be reproduced in an image taken by a virtual camera as well as an image taken by an actual camera.

〔他の実施形態〕
(a)前記実施形態では、ゲームプログラムを適用しうるコンピュータの一例としての家庭用ビデオゲーム装置を用いた場合の例を示したが、画像処理装置は、前記実施形態に限定されず、モニタが別体に構成された画像処理装置、モニタが一体に構成された画像処理装置、ゲームプログラムを実行することによって画像処理装置として機能するパーソナルコンピュータやワークステーションなどにも同様に適用することができる。
[Other Embodiments]
(A) In the above-described embodiment, an example in which a home video game apparatus as an example of a computer to which a game program can be applied is used. However, the image processing apparatus is not limited to the above-described embodiment, and a monitor is used. The present invention can be similarly applied to a separate image processing apparatus, an image processing apparatus in which a monitor is integrated, a personal computer or a workstation that functions as an image processing apparatus by executing a game program.

(b)本発明には、前述したようなゲームを実行するプログラムおよびこのプログラムを記録したコンピュータ読み取り可能な記録媒体も含まれる。この記録媒体としては、カートリッジ以外に、たとえば、コンピュータ読み取り可能なフレキシブルディスク、半導体メモリ、CD−ROM、DVD、MO、ROMカセット、その他のものが挙げられる。   (B) The present invention includes a program for executing the game as described above and a computer-readable recording medium on which the program is recorded. Examples of the recording medium include a computer-readable flexible disk, a semiconductor memory, a CD-ROM, a DVD, an MO, a ROM cassette, and the like in addition to the cartridge.

(c)前記実施形態では、第1画像データを1ピクセルのグレースケールの画像データに変換することにより、画像の光量の強弱が評価される場合の例を示したが、画像の光量の強弱の評価形態は、前記実施形態に限定されず、どのようにしても良い。たとえば、第1画像データをグレースケールの画像データに変換し、このグレースケールの画像データの階調を示す階調データを平均することにより、画像の光量の強弱を評価しても良い。この場合においても、前記実施形態の効果と同様の効果を得ることができる。   (C) In the above-described embodiment, an example in which the intensity of the light quantity of the image is evaluated by converting the first image data into 1-pixel grayscale image data has been described. The evaluation form is not limited to the above-described embodiment, and any method may be used. For example, the intensity of the light quantity of the image may be evaluated by converting the first image data into gray scale image data and averaging the gray scale data indicating the gray scale of the gray scale image data. Even in this case, the same effect as that of the above embodiment can be obtained.

本発明の一実施形態によるビデオゲーム装置の基本構成図。1 is a basic configuration diagram of a video game apparatus according to an embodiment of the present invention. 前記ビデオゲーム装置の一例としての機能ブロック図。The functional block diagram as an example of the said video game device. 第2画像データに対応する画像の濃度の分布状態を説明するための図。The figure for demonstrating the distribution state of the density | concentration of the image corresponding to 2nd image data. 3次元ゲーム空間に配置された、撮影空間を説明するための図。The figure for demonstrating the imaging | photography space arrange | positioned in the three-dimensional game space. 第1画像データに対応する画像の階調と、第2画像データを調整するための透明度との関係を示す図。The figure which shows the relationship between the gradation of the image corresponding to 1st image data, and the transparency for adjusting 2nd image data. 第2画像データに対応する画像の透明度の分布状態を説明するための図。The figure for demonstrating the distribution state of the transparency of the image corresponding to 2nd image data. 第1画像データに対応する画像と、調整後の第2画像データに対応する画像との重ね合わせの概念図。The conceptual diagram of the superimposition of the image corresponding to 1st image data, and the image corresponding to 2nd image data after adjustment. 多ピクセルのグレースケールの画像と、1ピクセルのグレースケールの画像との関係を示す図。The figure which shows the relationship between the multi-pixel grayscale image and the 1-pixel grayscale image. 野球ゲームの全体概要を示すフロー。Flow showing the overall outline of the baseball game. 周辺減光再現システムを説明するためのフローチャート。The flowchart for demonstrating a surrounding light reduction reproduction system. 周辺減光再現システムを説明するためのフローチャート。The flowchart for demonstrating a surrounding light reduction reproduction system.

符号の説明Explanation of symbols

1 制御部
2 記憶部
7 CPU
17 コントローラ
20 テレビジョンモニタ
50 カメラ設定手段
51 撮影空間規定手段
52 第1画像格納手段
53 第2画像格納手段
54 第2画像調整手段
54a 光量評価手段
54b 画像光量調整手段
55 モニタ画像生成手段
56 画像表示手段
D1 撮影空間の内部のオブジェクトを撮影したときの画像、第1画像データに対応する画像
D2 減光用の画像、第2画像データに対応する画像
G 減光用の画像の重心位置
Y1,Y2,Y3,Y4 減光用の画像の四隅、減光用の画像の周辺部
KG1 1ピクセルのグレースケールの画像の階調データ
T1,T2,T3 透明度データ、第1透明度データ、第2透明度データ、第3透明度データ
1 Control Unit 2 Storage Unit 7 CPU
17 controller 20 television monitor 50 camera setting means 51 photographing space defining means 52 first image storage means 53 second image storage means 54 second image adjustment means 54a light quantity evaluation means 54b image light quantity adjustment means 55 monitor image generation means 56 image display Means D1 Image when an object inside the imaging space is imaged, image corresponding to the first image data D2 image for dimming, image corresponding to the second image data G center of gravity position of the image for dimming Y1, Y2 , Y3, Y4 The four corners of the dimming image, the peripheral part of the dimming image KG1 The gradation data of the grayscale image of 1 pixel T1, T2, T3 Transparency data, first transparency data, second transparency data, Third transparency data

Claims (9)

周辺減光の影響を再現した画像を画像表示部に表示可能なコンピュータに、
仮想カメラにより所定の画角で撮影された画像に対応する第1画像データを、記憶部に格納する第1画像格納機能と、
前記画像の周辺部を減光する減光用の画像に対応する第2画像データを、記憶部に格納する第2画像格納機能と、
仮想カメラの画角に応じて、前記第2画像データを調整する処理を、制御部に実行させる第2画像調整機能と、
前記第1画像データに、調整後の前記第2画像データを重ね合わせる処理を、制御部に実行させることにより、周辺部が減光されたモニタ表示用の画像データを生成するモニタ画像生成機能と、
周辺部が減光された前記モニタ表示用の画像データを用いて、周辺減光の影響を再現した画像を、画像表示部に表示する画像表示機能と、
を実現させるための画像処理プログラム。
To a computer that can display the image that reproduces the influence of ambient light reduction on the image display unit,
A first image storage function for storing, in a storage unit, first image data corresponding to an image photographed at a predetermined angle of view by a virtual camera;
A second image storage function for storing, in a storage unit, second image data corresponding to an image for dimming for dimming a peripheral portion of the image;
A second image adjustment function for causing the control unit to execute a process of adjusting the second image data according to the angle of view of the virtual camera;
A monitor image generation function for generating monitor display image data whose peripheral portion is dimmed by causing the control unit to execute a process of superimposing the adjusted second image data on the first image data; ,
An image display function for displaying on the image display unit an image that reproduces the influence of the peripheral dimming using the monitor display image data in which the peripheral part is dimmed;
An image processing program for realizing
前記第2画像調整機能は、
記憶部に格納された前記第1画像データに基づいて、仮想カメラの所定の前記画角に対応する光量を評価する処理を、制御部に実行させる光量評価機能と、
前記光量に応じて前記第2画像データを調整する処理を、制御部に実行させる画像光量調整機能と、を有する、
請求項1に記載の画像処理プログラム。
The second image adjustment function is:
A light amount evaluation function for causing the control unit to execute a process of evaluating the light amount corresponding to the predetermined angle of view of the virtual camera based on the first image data stored in the storage unit;
An image light amount adjustment function for causing a control unit to execute a process of adjusting the second image data according to the light amount;
The image processing program according to claim 1.
前記光量評価機能では、
記憶部に格納された前記第1画像データをグレースケールの画像データに変換する処理が、制御部により実行され、
前記グレースケールの画像データの階調を示す階調データが、仮想カメラの所定の前記画角に対応する光量を評価するデータとして制御部に認識される、
請求項2に記載の画像処理プログラム。
In the light quantity evaluation function,
Processing for converting the first image data stored in the storage unit into grayscale image data is executed by the control unit,
The gradation data indicating the gradation of the grayscale image data is recognized by the control unit as data for evaluating the amount of light corresponding to the predetermined angle of view of the virtual camera.
The image processing program according to claim 2.
前記光量評価機能では、
記憶部に格納された前記第1画像データをグレースケールの画像データに変換する処理が、制御部により実行され、
前記グレースケールの画像データを1ピクセルの前記グレースケールの画像データに変換する処理が、制御部により実行され、
1ピクセルの前記グレースケールの画像データの階調を示す階調データが、仮想カメラの所定の前記画角に対応する光量を評価するデータとして制御部に認識される、
請求項3に記載の画像処理プログラム。
In the light quantity evaluation function,
Processing for converting the first image data stored in the storage unit into grayscale image data is executed by the control unit,
Processing for converting the grayscale image data into the 1-pixel grayscale image data is executed by the control unit,
The gradation data indicating the gradation of the grayscale image data of one pixel is recognized by the control unit as data for evaluating the amount of light corresponding to the predetermined angle of view of the virtual camera.
The image processing program according to claim 3.
前記光量評価機能では、
記憶部に格納された前記画像データをグレースケールの画像データに変換する処理が、制御部により実行され、
前記グレースケールの画像データの階調を示す階調データが、制御部に認識され、
前記階調データを平均化する処理が、制御部により実行され、
平均化された前記階調データが、仮想カメラの所定の前記画角に対応する光量を評価するデータとして制御部に認識される、
請求項3に記載の画像処理プログラム。
In the light quantity evaluation function,
Processing for converting the image data stored in the storage unit into grayscale image data is executed by the control unit,
Gradation data indicating the gradation of the grayscale image data is recognized by the control unit,
A process of averaging the gradation data is executed by the control unit,
The averaged gradation data is recognized by the control unit as data for evaluating the amount of light corresponding to the predetermined angle of view of the virtual camera.
The image processing program according to claim 3.
前記画像光量調整機能では、
前記光量を評価した前記階調データに応じて、前記画像の周辺部を減光する程度を規定するための透明度データが、制御部により設定され、
前記透明度データに基づいて前記第2画像データの濃淡を調整する処理が、制御部により実行される、
請求項3から5のいずれかに記載の画像処理プログラム。
In the image light quantity adjustment function,
Transparency data for defining the degree to which the peripheral portion of the image is dimmed is set by the control unit in accordance with the gradation data evaluated for the light amount,
A process of adjusting the density of the second image data based on the transparency data is executed by the control unit.
The image processing program according to claim 3.
前記画像光量調整機能では、
前記減光用の画像の重心位置の透明度データが、第1透明度データとして制御部に認識され、
前記減光用の画像の周辺部の透明度データが、前記光量を評価した前記階調データに応じて、第2透明度データとして制御部に認識され、
前記第1透明度データおよび前記第2透明度データに基づいて、減光用の画像の重心位置と減光用の画像の周辺部との間の減光用の画像の透明度データが、第3透明度データとして制御部により設定され、
前記第1透明度データ、前記第2透明度データ、および前記第3透明度データに基づいて、前記第2画像データの濃淡を調整する処理が、制御部により実行される、
請求項6に記載の画像処理プログラム。
In the image light quantity adjustment function,
Transparency data of the gravity center position of the dimming image is recognized by the control unit as first transparency data,
Transparency data of the peripheral portion of the dimming image is recognized by the control unit as second transparency data in accordance with the gradation data obtained by evaluating the light amount,
Based on the first transparency data and the second transparency data, the transparency data of the dimming image between the gravity center position of the dimming image and the peripheral portion of the dimming image is the third transparency data. Is set by the control unit as
A process for adjusting the density of the second image data based on the first transparency data, the second transparency data, and the third transparency data is executed by a control unit.
The image processing program according to claim 6.
周辺減光の影響を再現した画像を画像表示部に表示可能な画像処理装置であって、
仮想カメラにより所定の画角で撮影された画像に対応する第1画像データを、記憶部に格納する第1画像格納手段と、
前記画像の周辺部を減光する減光用の画像に対応する第2画像データを、記憶部に格納する第2画像格納手段と、
仮想カメラの画角に応じて、前記第2画像データを調整する処理を、制御部に実行させる第2画像調整手段と、
前記第1画像データに、調整後の前記第2画像データを重ね合わせる処理を、制御部に実行させることにより、周辺部が減光されたモニタ表示用の画像データを生成するモニタ画像生成手段と、
周辺部が減光された前記モニタ表示用の画像データを用いて、周辺減光の影響を再現した画像を、画像表示部に表示する画像表示手段と、
を備える画像処理装置。
An image processing apparatus capable of displaying on the image display unit an image that reproduces the influence of ambient light reduction,
First image storage means for storing first image data corresponding to an image photographed at a predetermined angle of view by a virtual camera in a storage unit;
Second image storage means for storing second image data corresponding to an image for dimming for dimming a peripheral portion of the image in a storage unit;
Second image adjusting means for causing the control unit to execute processing for adjusting the second image data in accordance with the angle of view of the virtual camera;
Monitor image generating means for generating monitor display image data in which the peripheral portion is dimmed by causing the control unit to execute a process of superimposing the adjusted second image data on the first image data; ,
Image display means for displaying on the image display unit an image that reproduces the influence of peripheral dimming using the monitor display image data in which the peripheral part is dimmed;
An image processing apparatus comprising:
周辺減光の影響を再現した画像を画像表示部に表示可能なコンピュータにより制御される画像処理制御方法であって、
仮想カメラにより所定の画角で撮影された画像に対応する第1画像データを、記憶部に格納する第1画像格納ステップと、
前記画像の周辺部を減光する減光用の画像に対応する第2画像データを、記憶部に格納する第2画像格納ステップと、
仮想カメラの画角に応じて、前記第2画像データを調整する処理を、制御部に実行させる第2画像調整ステップと、
前記第1画像データに、調整後の前記第2画像データを重ね合わせる処理を、制御部に実行させることにより、周辺部が減光されたモニタ表示用の画像データを生成するモニタ画像生成ステップと、
周辺部が減光された前記モニタ表示用の画像データを用いて、周辺減光の影響を再現した画像を、画像表示部に表示する画像表示ステップと、
を備える画像処理制御方法。
An image processing control method controlled by a computer capable of displaying an image that reproduces the influence of peripheral dimming on an image display unit,
A first image storing step of storing, in the storage unit, first image data corresponding to an image photographed at a predetermined angle of view by the virtual camera;
A second image storing step of storing, in a storage unit, second image data corresponding to a dimming image for dimming a peripheral portion of the image;
A second image adjustment step for causing the control unit to execute a process of adjusting the second image data according to the angle of view of the virtual camera;
A monitor image generation step of generating image data for monitor display in which peripheral portions are dimmed by causing the control unit to execute a process of superimposing the adjusted second image data on the first image data; ,
An image display step for displaying an image that reproduces the influence of the peripheral dimming on the image display unit using the monitor display image data in which the peripheral part is dimmed;
An image processing control method comprising:
JP2008118247A 2008-04-30 2008-04-30 Image processing program, image processing apparatus, and image processing control method Active JP4572245B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008118247A JP4572245B2 (en) 2008-04-30 2008-04-30 Image processing program, image processing apparatus, and image processing control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008118247A JP4572245B2 (en) 2008-04-30 2008-04-30 Image processing program, image processing apparatus, and image processing control method

Publications (2)

Publication Number Publication Date
JP2009266159A JP2009266159A (en) 2009-11-12
JP4572245B2 true JP4572245B2 (en) 2010-11-04

Family

ID=41391881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008118247A Active JP4572245B2 (en) 2008-04-30 2008-04-30 Image processing program, image processing apparatus, and image processing control method

Country Status (1)

Country Link
JP (1) JP4572245B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5237312B2 (en) * 2010-01-29 2013-07-17 株式会社コナミデジタルエンタテインメント GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD
JP5570284B2 (en) * 2010-04-16 2014-08-13 キヤノン株式会社 Image processing apparatus and method
JP5524146B2 (en) * 2011-08-11 2014-06-18 株式会社ファイン Perspective diagram creation system, perspective diagram creation program, and perspective diagram creation method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251629A (en) * 2001-02-21 2002-09-06 Konami Computer Entertainment Japan Inc Method for expressing image and program used for the same
JP2003035802A (en) * 2001-07-23 2003-02-07 Nikon Corp Gradation filter, and its manufacturing method and manufacturing device
JP2005032140A (en) * 2003-07-10 2005-02-03 Namco Ltd Image generation system, program, and information storage medium
JP2005215974A (en) * 2004-01-29 2005-08-11 Namco Ltd Program, information storage medium, and game device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251629A (en) * 2001-02-21 2002-09-06 Konami Computer Entertainment Japan Inc Method for expressing image and program used for the same
JP2003035802A (en) * 2001-07-23 2003-02-07 Nikon Corp Gradation filter, and its manufacturing method and manufacturing device
JP2005032140A (en) * 2003-07-10 2005-02-03 Namco Ltd Image generation system, program, and information storage medium
JP2005215974A (en) * 2004-01-29 2005-08-11 Namco Ltd Program, information storage medium, and game device

Also Published As

Publication number Publication date
JP2009266159A (en) 2009-11-12

Similar Documents

Publication Publication Date Title
WO1998035734A1 (en) Device and method for image processing
KR19990014706A (en) Image processing apparatus, game machine and image processing method and medium using the processing apparatus
JP4761528B2 (en) GAME PROGRAM AND GAME DEVICE
JP3822222B1 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP2010029636A (en) Game program and game apparatus
JP4536098B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP2009273865A (en) Game program, game machine, and game control method
JP5237312B2 (en) GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD
JP4521020B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
WO2013038979A1 (en) Game program, game device, and recording medium having game program recorded therein
JP4572245B2 (en) Image processing program, image processing apparatus, and image processing control method
JP2006346507A (en) Game apparatus and image processing program
JP4374560B2 (en) Image processing apparatus, game apparatus, and image processing method
JP4714763B2 (en) Image processing program, image processing apparatus, and image control method
JP5149956B2 (en) GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD
JP2005319188A (en) Program, information storage medium and image generation system
JP4447000B2 (en) Image generation system, program, and information storage medium
US6680734B2 (en) Game system, imaging method in the game system, and computer readable storage medium having game program stored therein
JP2008237654A (en) Game program, game apparatus and game control method
JP2007159817A (en) Game program, game device and game method
JP4659071B2 (en) Image processing program, image processing apparatus, and image control method
JP7462010B2 (en) GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PROCESSING METHOD
JP7565993B2 (en) GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PRO
JP4705145B2 (en) Drawing processing program, drawing processing apparatus, and drawing processing method
JP7530949B2 (en) GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PRO

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100810

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100816

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130820

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4572245

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130820

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140820

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250