JP2011156061A - Game program, game device, and game control method - Google Patents

Game program, game device, and game control method Download PDF

Info

Publication number
JP2011156061A
JP2011156061A JP2010018911A JP2010018911A JP2011156061A JP 2011156061 A JP2011156061 A JP 2011156061A JP 2010018911 A JP2010018911 A JP 2010018911A JP 2010018911 A JP2010018911 A JP 2010018911A JP 2011156061 A JP2011156061 A JP 2011156061A
Authority
JP
Japan
Prior art keywords
focus
setting
virtual camera
sub
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010018911A
Other languages
Japanese (ja)
Other versions
JP5237312B2 (en
Inventor
Shigeki Hayashi
茂樹 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2010018911A priority Critical patent/JP5237312B2/en
Publication of JP2011156061A publication Critical patent/JP2011156061A/en
Application granted granted Critical
Publication of JP5237312B2 publication Critical patent/JP5237312B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To display a realistic image that shows an accidental event such as out-of-focus by focusing on a main object M1 after focusing on an auxiliary object without directly focusing on the main object M1. <P>SOLUTION: The program is set as a main object M1. At least one of an object apart a predetermined distance or less from a virtual camera, and an object apart a predetermined distance or more from a virtual camera is selected, on the basis of the main object M1, as an auxiliary object. The at least one auxiliary object and the main object M1 are focused in this order so that the main object M1 is focused last. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ゲームプログラム、特に、仮想空間内のオブジェクトを仮想カメラによって撮影した状況を、表示可能なゲームプログラムに関する。また、このゲームプログラムを実行可能なゲーム装置、およびこのゲームプログラムに基づいてコンピュータにより制御されるゲーム制御方法に関する。   The present invention relates to a game program, and more particularly to a game program capable of displaying a situation in which an object in a virtual space is photographed by a virtual camera. The present invention also relates to a game apparatus that can execute the game program, and a game control method that is controlled by a computer based on the game program.

従来から、仮想空間の内部に配置されたオブジェクトを、仮想カメラによって撮影することによって、仮想空間の内部の状況を表示するゲームプログラムが、提案されている。このようなゲームプログラムは、たとえば、コンピュータやゲーム装置等のようなゲーム装置において、実行される。ゲーム装置は、たとえば、モニタと、モニタとは別体の装置本体と、装置本体とは別体の入力装置(ex. キーボード、マウス、およびコントローラ等)とを、有している。入力装置には、たとえば、複数の入力釦が配置されている。   Conventionally, there has been proposed a game program for displaying an internal situation of a virtual space by photographing an object arranged inside the virtual space with a virtual camera. Such a game program is executed in a game device such as a computer or a game device, for example. The game device includes, for example, a monitor, a device main body separate from the monitor, and an input device (ex. Keyboard, mouse, controller, etc.) separate from the device main body. For example, a plurality of input buttons are arranged in the input device.

このようなゲーム装置において上記のゲームプログラムを実行した場合、たとえば、仮想空間の内部に配置されたあるオブジェクト(第1オブジェクト)にピントを合わせた状態において、仮想空間の内部が仮想カメラによって撮影される。すると、この第1オブジェクトにピントが合った状態の画像が生成され、この画像がモニタに表示される。次の瞬間に、他のオブジェクト(第2オブジェクト)にピントが切り換えられた場合、第2オブジェクトにピントが合った状態の画像が生成され、この画像がモニタに表示される。たとえば、このゲームプログラムを野球ゲームに適用した場合、投手オブジェクトから打者オブジェクトへとピントが移動すると、打者オブジェクトにピントが合った画面から、投手オブジェクトにピントが合った画面へと切り換えられる(非特許文献1を参照)。   When the above game program is executed on such a game device, for example, the inside of the virtual space is photographed by the virtual camera in a state in which a certain object (first object) arranged inside the virtual space is in focus. The Then, an image in a state where the first object is in focus is generated, and this image is displayed on the monitor. When the focus is switched to another object (second object) at the next moment, an image in a state where the second object is in focus is generated, and this image is displayed on the monitor. For example, when this game program is applied to a baseball game, when the focus moves from the pitcher object to the batter object, the screen is switched from the screen focused on the batter object to the screen focused on the pitcher object (non-patent). Reference 1).

なお、仮想カメラで仮想空間の情景を映すときに、仮想カメラ自体が振動等の影響を受ける結果、映像にブレが生じることをゲームに反映したものは知られている。   It is known that when a scene of a virtual space is projected by a virtual camera, the virtual camera itself is affected by vibrations or the like, resulting in blurring in the video.

例えば、特許文献1には、移動体(自転車)に追従してその移動体(自転車)の動きを撮影する仮想カメラが開示されており、この仮想カメラは振動を受けた画像を表現することで、移動体(自転車)が凹凸のある道路を走行している臨場感を演出するものである。   For example, Patent Literature 1 discloses a virtual camera that follows a moving body (bicycle) and captures the movement of the moving body (bicycle), and this virtual camera expresses an image subjected to vibration. The moving body (bicycle) produces a sense of realism when traveling on an uneven road.

また、特許文献2には、コースに沿って走行する自動車を撮影する仮想カメラが開示されており、軸に沿って回転または移動することで自動車を追う画像が表現されるものであるが、仮想カメラに揺らぎが与えられることで、現実のカメラのような臨場感がもたらされることの開示がある。   Further, Patent Document 2 discloses a virtual camera that captures an automobile traveling along a course, and an image that follows an automobile is expressed by rotating or moving along an axis. There is a disclosure that a camera is shaken to give a sense of reality like a real camera.

特開平11−175766JP-A-11-175766 特開2000−331184JP 2000-331184 A

プロ野球スピリッツ6、コナミデジタルエンタテインメント、PS3版、2009年7月16日Professional Baseball Spirits 6, Konami Digital Entertainment, PS3 Edition, July 16, 2009

従来のゲームプログラム、たとえば非特許文献1のゲームプログラムを、ゲーム装置において実行した場合、ピントを合わせる対象であるオブジェクト(第1オブジェクトや第2オブジェクト等)に確実にピントが合った画像が、モニタに表示されていた。   When a conventional game program, for example, the game program of Non-Patent Document 1, is executed on a game device, an image that is surely focused on an object (first object, second object, etc.) to be focused is displayed on the monitor. It was displayed.

たとえば、野球ゲームにおいて、投手オブジェクトがモニタに表示されている状態で、打者オブジェクトがウェイティングサークルから打席に向かう場合、仮想カメラのピントが、投手オブジェクトから打者オブジェクトへと切り換えられる。すると、打者オブジェクトにピントが合った状態の画像が、モニタに表示される。すると、この後は、打者オブジェクトにピントが合った状態で、打者オブジェクトがウェイティングサークルから打席に向かう状況が、モニタに表示される。   For example, in a baseball game, when the batter object is displayed on the monitor and the batter object heads from the waiting circle to the batter, the focus of the virtual camera is switched from the pitcher object to the batter object. Then, an image in a state where the batter object is in focus is displayed on the monitor. Then, after that, the state where the batter object goes from the waiting circle to the batter in a state where the batter object is in focus is displayed on the monitor.

一方で、現実世界の野球では、たとえば、投手を表示した映像から、打者を表示する映像へと切り換えた場合、カメラマンの手ぶれ等によるミスや、オートフォーカスの誤作動・誤認識等によって、映像を切り換えた瞬間に、カメラのピントのブレが生じることがある。そして、このブレが発生した場合、最終的には、カメラマンが手動で対象にピントを合わせることによって、このブレは修正される。そして、対象たとえば打者にピントが合った状態の画像が、モニタに表示される。   On the other hand, in real-world baseball, for example, when switching from a video showing a pitcher to a video showing a batter, the video is displayed due to an error caused by a cameraman's camera shake, a malfunction / recognition of autofocus, etc. At the moment of switching, camera shake may occur. When this blur occurs, the blur is finally corrected by the cameraman manually focusing on the object. Then, an image in a state where the target, for example, the batter is in focus, is displayed on the monitor.

このように、野球ゲームのような仮想世界の映像と現実世界の映像とを比較すると、ピントを合わせた対象をモニタに確実に表示することは、従来の技術で再現できていた。しかしながら、対象を切り換えたときに発生する人為的なミスや誤認識等の事象、たとえば突発的に発生するピントブレのような事象をも含めて、仮想世界の映像を、現実世界の映像と同じように再現することは、従来の技術では困難であった。   As described above, when a virtual world image such as a baseball game is compared with a real world image, it has been possible to reproduce the focused object on the monitor with the conventional technique. However, the virtual world image is the same as the real world image, including events such as human error and misrecognition that occur when the target is switched, such as sudden blurring. It has been difficult to reproduce in the conventional technique.

なお、上記の特許文献1および特許文献2は、仮想空間内の仮想カメラ自体の振動を、単に映像のブレで表現し、カメラ映像に関するリアリティを追及するものではある。しかしながら、これらの文献は、前述のような、仮想カメラの対象を切り換えたときに発生する人為的なミスや誤認識等の事象、たとえば突発的に発生するピントブレのような事象に関するものではない。   Note that Patent Document 1 and Patent Document 2 described above express the vibration of the virtual camera itself in the virtual space simply by blurring the video, and pursue the reality regarding the camera video. However, these documents do not relate to an event such as a human error or a misrecognition that occurs when the target of the virtual camera is switched as described above, for example, an event such as an out-of-focus blur.

本発明は、上記のような議論に鑑みてなされたものであり、本発明の目的は、現実世界において突発的に発生する事象を、仮想世界の映像において再現することによって、リアリティのある映像を提供できるようにすることにある。   The present invention has been made in view of the above discussion, and the object of the present invention is to reproduce a realistic image by reproducing an event suddenly occurring in the real world in a virtual world image. It is to be able to provide.

請求項1に係るゲームプログラムは、仮想空間内のオブジェクトを仮想カメラによって撮影した状況を、表示可能なコンピュータの制御部に、以下の機能を実現させるためのプログラムである。
(1)オブジェクトの中から、仮想カメラのピントを最終的に合わせるオブジェクトを、主オブジェクトとして設定する主オブジェクト設定機能。
(2)主オブジェクトに仮想カメラのピントを合わせる際の仮想カメラの視野内において、主オブジェクトを基準として、仮想カメラ側に所定の距離以上近接した位置に存在するオブジェクト、および仮想カメラから所定の距離以上離反した位置に存在するオブジェクトの中の少なくとも1つのオブジェクトを、副オブジェクトとして選択する副オブジェクト選択機能。
(3)主オブジェクト、および少なくとも1つの副オブジェクトに対する、仮想カメラのピントを合わせるピント順序を、設定するピント順序設定機能。
A game program according to claim 1 is a program for causing a control unit of a computer capable of displaying a situation in which an object in a virtual space is photographed by a virtual camera to realize the following functions.
(1) A main object setting function for setting, as a main object, an object that finally adjusts the focus of the virtual camera from among the objects.
(2) Within the virtual camera field of view when the virtual camera is focused on the main object, the object existing at a position closer to the virtual camera side by a predetermined distance or more and a predetermined distance from the virtual camera with reference to the main object A sub-object selection function for selecting at least one object among the objects present at positions separated as described above as a sub-object.
(3) A focus order setting function for setting a focus order for focusing the virtual camera on the main object and at least one sub-object.

このゲームプログラムでは、主オブジェクト設定機能において、オブジェクトの中から、仮想カメラのピントを最終的に合わせるオブジェクトが、主オブジェクトとして設定される。副オブジェクト選択機能においては、主オブジェクトに仮想カメラのピントを合わせる際の仮想カメラの視野内において、主オブジェクトを基準として、仮想カメラ側に所定の距離以上近接した位置に存在するオブジェクト、および仮想カメラから所定の距離以上離反した位置に存在するオブジェクトの中の少なくとも1つのオブジェクトが、副オブジェクトとして選択される。ピント順序設定機能においては、主オブジェクトおよび副オブジェクトに仮想カメラのピントを合わせるピント順序が、設定される。また、ピント順序設定機能では、最終的にピントを合わせるオブジェクトが、主オブジェクトとなるように、副オブジェクト、主オブジェクトの順に、ピント順序が設定される。   In this game program, in the main object setting function, an object that finally adjusts the focus of the virtual camera is set as the main object from the objects. In the sub-object selection function, in the virtual camera field of view when the virtual camera is focused on the main object, an object that is present at a position closer to the virtual camera side by a predetermined distance or more with the main object as a reference, and the virtual camera At least one object among the objects existing at a position separated by a predetermined distance or more is selected as a sub-object. In the focus order setting function, a focus order for focusing the virtual camera on the main object and the sub-object is set. In the focus order setting function, the focus order is set in the order of the sub-object and the main object so that the object to be finally focused becomes the main object.

この場合、仮想カメラのピントを最終的に合わせる主オブジェクトが、設定されると、この主オブジェクトを基準として、仮想カメラに近接する側のオブジェクト、および仮想カメラから離反する側のオブジェクトが、副オブジェクトとして設定される。すると、最終的にピントを合わせるオブジェクトが、主オブジェクトとなるように、副オブジェクト、主オブジェクトの順に、ピント順序が設定される。   In this case, when the main object that finally adjusts the focus of the virtual camera is set, the object on the side close to the virtual camera and the object on the side away from the virtual camera are sub-objects based on the main object. Set as Then, the focus order is set in the order of the sub-object and the main object so that the object to be finally focused becomes the main object.

ここでは、まず、主オブジェクトを基準として、仮想カメラに近接する側の副オブジェクト、および仮想カメラから離反する側の副オブジェクトの少なくともいずれか一方の副オブジェクトにピントが合わせられ、次に、主オブジェクトにピントが合わせられる。このことを具体的に説明すると、主オブジェクトが、ある場面においてピントを合わせる対象である場合、ピント順序に基づいて、まず、仮想カメラ側に近づく側の副オブジェクト(or 仮想カメラ側から離れる側の副オブジェクト)にピントが合わせられる。次に、仮想カメラ側から離れる側の副オブジェクト(or 仮想カメラ側に近づく側の副オブジェクト)にピントが合わせられる。最後に、この場面でピントを合わせる対象である主オブジェクトに、ピントが合わせられる。   Here, based on the main object, first, at least one of the sub-object on the side close to the virtual camera and the sub-object on the side far from the virtual camera is focused, and then the main object The focus is adjusted. Specifically, when the main object is a target to be focused in a certain scene, based on the focus order, first, the sub-object closer to the virtual camera side (or the side away from the virtual camera side) The secondary object is focused. Next, the sub-object on the side farther from the virtual camera side (or the sub-object closer to the virtual camera side) is focused. Finally, the main object that is the subject to be focused in this scene is focused.

このように、主オブジェクトに対して、最初から直接的にピントを合わせるのではなく、まず、副オブジェクトにピントを合わせ、その後に、主オブジェクトにピントを合わせることにより、現実世界において突発的に発生する事象、たとえばカメラのピントブレのような事象を、映像上で再現することができる。これにより、リアリティのある映像を提供することができる。   In this way, instead of focusing directly on the main object from the beginning, first focus on the sub-object, then focus on the main object, and then suddenly occur in the real world An event to be performed, such as a camera's focus blur, can be reproduced on the video. Thereby, a realistic image can be provided.

なお、ここで用いる「オブジェクト」という文言は、仮想空間に配置される、たとえば、空、雲、太陽等のような自然に関するオブジェクト、建物、スタジアム、橋等のような建造物に関するオブジェクト、車、バイク、自転車等のような移動体に関するオブジェクト、および人間、鳥、犬、猫等のような動物に関するオブジェクトを総称する文言である。すなわち、「オブジェクト」という文言は、画像を表示するために用いられる全てのオブジェクトに対応する文言である。また、主オブジェクトおよび副オブジェクトは、この「オブジェクト」に含まれる。   As used herein, the term “object” refers to objects related to nature such as sky, clouds, sun, etc., objects related to structures such as buildings, stadiums, bridges, vehicles, The term is a general term for objects related to moving objects such as motorcycles and bicycles, and objects related to animals such as humans, birds, dogs and cats. That is, the word “object” is a word corresponding to all objects used to display an image. The main object and the sub-object are included in this “object”.

請求項2に係るゲームプログラムは、請求項1に記載のゲームプログラムにおいて、コンピュータの制御部に、以下の機能をさらに実現させるためのプログラムである。
(4)副オブジェクトにピントを設定するためのピント設定用のシート画像を、生成する設定画像生成機能。
(5)ピント設定用のシート画像を複数の小画像に分割し、複数の小画像それぞれのコントラスト情報を調査することによって、ピント設定用のシート画像のコントラストを設定する画像情報設定機能。
A game program according to claim 2 is a program for causing the control unit of the computer to further realize the following functions in the game program according to claim 1.
(4) A setting image generation function for generating a focus setting sheet image for setting the focus on the sub-object.
(5) An image information setting function for setting the contrast of the focus setting sheet image by dividing the focus setting sheet image into a plurality of small images and examining the contrast information of each of the plurality of small images.

このゲームプログラムでは、設定画像生成機能において、副オブジェクトにピントを設定するためのピント設定用のシート画像が、生成される。画像情報設定機能においては、ピント設定用のシート画像を複数の小画像に分割し、複数の小画像それぞれのコントラスト情報を調査することによって、ピント設定用のシート画像のコントラストが設定される。副オブジェクト選択機能においては、ピント設定用のシート画像のコントラストに基づいて、副オブジェクトが選択される。   In this game program, the setting image generation function generates a focus setting sheet image for setting the focus on the sub-object. In the image information setting function, the contrast of the focus setting sheet image is set by dividing the focus setting sheet image into a plurality of small images and examining the contrast information of each of the plurality of small images. In the sub-object selection function, a sub-object is selected based on the contrast of the focus setting sheet image.

この場合、副オブジェクトにピントを設定するためのピント設定用のシート画像が、複数の小画像に分割され、これら複数の小画像それぞれのコントラスト情報が調査される。これにより、ピント設定用のシート画像のコントラストが設定され、このコントラストに基づいて、副オブジェクトが選択される。このように、ピント設定用のシート画像のコントラストに基づいて副オブジェクトを選択することによって、コントラスト情報に基づいたピント設定を、副オブジェクトに対して行うことができる。このように、コントラスト情報に基づいたピント設定を、副オブジェクトに対して行うことによって、ピントブレが発生したときの画像、すなわち副オブジェクトにピントが合った画像を、よりリアリティのあるものにすることができる。   In this case, the focus setting sheet image for setting the focus on the sub-object is divided into a plurality of small images, and the contrast information of each of the plurality of small images is examined. Thus, the contrast of the focus setting sheet image is set, and the sub-object is selected based on this contrast. In this way, by selecting the sub object based on the contrast of the focus setting sheet image, the focus setting based on the contrast information can be performed on the sub object. In this way, by performing focus setting on the sub-object based on the contrast information, an image when focus blurring occurs, that is, an image in focus on the sub-object can be made more realistic. it can.

請求項3に係るゲームプログラムは、請求項2に記載のゲームプログラムにおいて、コンピュータの制御部に、以下の機能をさらに実現させるためのプログラムである。
(6)仮想空間にオブジェクトを配置するオブジェクト配置機能。
(7)仮想空間における仮想カメラの視野内の領域を、視錐領域として設定する視錐領域設定機能。
(8)仮想カメラの位置を基準として仮想カメラから離れる方向に、視錐領域を複数の区分領域に分割する視錐領域分割機能。
A game program according to claim 3 is a program for causing the control unit of the computer to further realize the following functions in the game program according to claim 2.
(6) Object placement function for placing objects in virtual space.
(7) A viewing frustum region setting function for setting a region in the field of view of the virtual camera in the virtual space as a viewing frustum region.
(8) A view frustum region dividing function for dividing the view frustum region into a plurality of divided regions in a direction away from the virtual camera with reference to the position of the virtual camera.

このゲームプログラムでは、オブジェクト配置機能において、仮想空間にオブジェクトが配置される。視錐領域設定機能においては、仮想空間における仮想カメラの視野内の領域が、視錐領域として設定される。視錐領域分割機能においては、視錐領域が、仮想カメラの位置を基準として仮想カメラから離れる方向に、複数の区分領域に分割される。主オブジェクト設定機能においては、複数の区分領域それぞれの内部に配置されたオブジェクトの中から、主オブジェクトが設定される。設定画像生成機能では、主オブジェクトを含む区分領域を除いた各区分領域の内部に配置されたオブジェクトを、視錐領域の仮想カメラ側の境界面に、投影することによって、ピント設定用のシート画像が生成される。   In this game program, an object is placed in a virtual space by the object placement function. In the view cone area setting function, an area in the field of view of the virtual camera in the virtual space is set as the view cone area. In the view cone area dividing function, the view cone area is divided into a plurality of divided areas in a direction away from the virtual camera with reference to the position of the virtual camera. In the main object setting function, a main object is set from among objects arranged inside each of the plurality of divided areas. In the setting image generation function, a sheet image for focus setting is projected by projecting the object arranged inside each partitioned area excluding the partitioned area including the main object onto the boundary surface on the virtual camera side of the viewing cone area. Is generated.

この場合、主オブジェクトを含む区分領域を除いた各区分領域の内部に配置されたオブジェクトを、視錐領域の仮想カメラ側の境界面に、投影することによって、ピント設定用のシート画像が生成される。たとえば、視錐領域が、仮想カメラから離れる方向に3つに分割され、各区分領域が、仮想カメラに近い方から、第1区分領域、第2区分領域、および第3区分領域であり、第2区分領域に主オブジェクトが含まれる場合、第1区分領域だけに含まれるオブジェクトが、視錐領域の仮想カメラ側の境界面に、投影される。また、第3区分領域だけに含まれるオブジェクトが、視錐領域の仮想カメラ側の境界面に、投影される。このようにして、第1区分領域に対応するシート画像(ピント設定用のシート画像)、および第3区分領域に対応するシート画像(ピント設定用のシート画像)が、生成される。   In this case, a sheet image for focus setting is generated by projecting the object arranged inside each segmented region excluding the segmented region including the main object onto the boundary surface on the virtual camera side of the viewing cone region. The For example, the view frustum region is divided into three in the direction away from the virtual camera, and each segmented region is a first segmented region, a second segmented region, and a third segmented region from the side closer to the virtual camera, When the main object is included in the two-segment area, the object included only in the first segment area is projected onto the boundary surface on the virtual camera side of the view cone area. In addition, an object included only in the third segment area is projected onto the boundary surface on the virtual camera side of the view cone area. In this manner, a sheet image corresponding to the first segment area (a sheet image for focus setting) and a sheet image corresponding to the third segment area (a sheet image for focus setting) are generated.

このように、各区分領域(ex. 第1区分領域又は第3区分領域)の内部に配置されるオブジェクトだけを用いて、シート画像を生成することによって、1つの区分領域内のオブジェクトだけを対象としたコントラストを、シート画像に反映することができる。そして、シート画像に反映されたコントラストに基づいて、副オブジェクトを選択することによって、ピントブレが発生したときにピントを合わせるオブジェクトすなわち副オブジェクトを、正確に特定することができる。   In this way, by generating a sheet image using only the objects arranged inside each divided area (ex. First divided area or third divided area), only objects in one divided area are targeted. This contrast can be reflected in the sheet image. Then, by selecting the sub-object based on the contrast reflected in the sheet image, it is possible to accurately specify the object to be focused, that is, the sub-object when the focus blur occurs.

請求項4に係るゲームプログラムでは、請求項2又は3に記載のゲームプログラムにおいて、複数の小画像それぞれにおいて、隣接する小画像のコントラスト値の差を計算し、コントラスト値の差の最大値が、ピント設定用のシート画像のコントラストとして設定される。この機能は、画像情報設定機能において実現される。   In the game program according to claim 4, in the game program according to claim 2 or 3, in each of the plurality of small images, a difference in contrast value between adjacent small images is calculated, and a maximum value of the difference in contrast value is It is set as the contrast of the focus setting sheet image. This function is realized in the image information setting function.

この場合、ピント設定用のシート画像において、隣接する小画像のコントラスト値の差の最大値が、ピント設定用のシート画像のコントラストとして設定される。このコントラストを用いて、副オブジェクトを選択することによって、ピントブレが発生したときに、主オブジェクトとは異なる副オブジェクトにピントを合わせたとしても、この副オブジェクトにピントを合わせた画像を、現実世界の画像と比較して違和感のない画像にすることができる。   In this case, in the focus setting sheet image, the maximum difference between the contrast values of adjacent small images is set as the contrast of the focus setting sheet image. By selecting a sub-object using this contrast, even if a sub-object different from the main object is in focus when focus blur occurs, an image that focuses on this sub-object is displayed in the real world. Compared with the image, the image can be made uncomfortable.

請求項5に係るゲームプログラムでは、請求項2又は3に記載のゲームプログラムにおいて、複数の小画像それぞれのコントラスト値を平均し、コントラスト値の平均の最大値が、ピント設定用のシート画像のコントラストとして設定される。この機能は、画像情報設定機能において実現される。   In the game program according to claim 5, in the game program according to claim 2 or 3, the contrast value of each of the plurality of small images is averaged, and the average maximum contrast value is the contrast of the focus setting sheet image. Set as This function is realized in the image information setting function.

この場合、ピント設定用のシート画像において、小画像のコントラスト値の平均の最大値が、ピント設定用のシート画像のコントラストとして設定される。このコントラストを用いて、副オブジェクトを選択することによって、ピントブレが発生したときに、主オブジェクトとは異なる副オブジェクトにピントを合わせたとしても、この副オブジェクトにピントを合わせた画像を、現実世界の画像と比較して違和感のない画像にすることができる。   In this case, in the focus setting sheet image, the average maximum value of the contrast values of the small images is set as the contrast of the focus setting sheet image. By selecting a sub-object using this contrast, even if a sub-object different from the main object is in focus when focus blur occurs, an image that focuses on this sub-object is displayed in the real world. Compared with the image, the image can be made uncomfortable.

請求項6に係るゲームプログラムでは、請求項2から5のいずれかに記載のゲームプログラムにおいて、ピント設定用のシート画像のコントラストが所定の範囲内である場合に、副オブジェクトが選択される。この機能は、副オブジェクト選択機能において実現される。   In the game program according to a sixth aspect, in the game program according to any one of the second to fifth aspects, the sub-object is selected when the contrast of the focus setting sheet image is within a predetermined range. This function is realized in the sub-object selection function.

この場合、ピント設定用のシート画像のコントラストが所定の範囲内である場合に、副オブジェクトが選択される。すなわち、ここでは、コントラストが所定の範囲内である場合には副オブジェクトが選択され、コントラストが所定の範囲外である場合には副オブジェクトは選択されない。これにより、たとえば、コントラストが高い場合にのみ、副オブジェクトを選択し、コントラストが低い場合は、副オブジェクトを選択しないように制御することができる。すなわち、コントラストが高い部分が存在する場合にのみ、ピントブレを発生させるための副オブジェクトを、選択することができる。   In this case, the sub-object is selected when the contrast of the focus setting sheet image is within a predetermined range. That is, here, the sub-object is selected when the contrast is within the predetermined range, and the sub-object is not selected when the contrast is outside the predetermined range. As a result, for example, it is possible to perform control so that the sub-object is selected only when the contrast is high, and is not selected when the contrast is low. That is, the sub-object for causing the focus blur can be selected only when there is a portion with high contrast.

請求項7に係るゲームプログラムでは、請求項2から6のいずれかに記載のゲームプログラムにおいて、ピント設定用のシート画像のコントラストに基づいて、ピント設定用のシート画像における複数の小画像の中から、副オブジェクトのピント位置を設定するためのピント用の小画像が、特定される。すると、視錐領域の仮想カメラ側の境界面上におけるピント用の小画像の位置が、特定される。そして、仮想カメラから、視錐領域の仮想カメラ側の境界面上におけるピント用の小画像の位置へと延びる直線が衝突するオブジェクトが、副オブジェクトとして選択される。   In the game program according to claim 7, in the game program according to any one of claims 2 to 6, the plurality of small images in the focus setting sheet image are selected based on the contrast of the focus setting sheet image. The small image for focus for setting the focus position of the sub-object is specified. Then, the position of the small image for focusing on the boundary surface on the virtual camera side of the viewing cone area is specified. Then, an object that collides with a straight line extending from the virtual camera to the position of the small image for focusing on the boundary surface on the virtual camera side of the viewing cone area is selected as the sub-object.

この場合、まず、仮想カメラから、視錐領域の仮想カメラ側の境界面上におけるピント用の小画像の位置へと延びる直線が、設定される。そして、各区分領域の内部において、この直線が衝突したオブジェクトが、副オブジェクトとして選択される。たとえば、隣接する小画像のコントラスト値の差の最大値や、小画像のコントラスト値の平均の最大値等が、ピント設定用のシート画像のコントラストとして設定された場合、この値を有する小画像を上記の直線が通過し衝突したオブジェクトが、副オブジェクトとして選択される。このように、コントラスト情報に基づいて、ピントを合わせるオブジェクトすなわち副オブジェクトを、確実に特定することができる。   In this case, first, a straight line extending from the virtual camera to the position of the small image for focusing on the boundary surface on the virtual camera side of the viewing cone area is set. Then, an object with which the straight line collides is selected as a sub-object within each divided area. For example, when the maximum difference between the contrast values of adjacent small images and the average maximum contrast value of the small images are set as the contrast of the focus setting sheet image, the small image having this value is selected. An object that has passed through the straight line and collided is selected as a sub-object. In this way, the object to be focused, that is, the sub-object, can be reliably identified based on the contrast information.

請求項8に係るゲームプログラムは、請求項1から7のいずれかに記載のゲームプログラムにおいて、コンピュータの制御部に、以下の機能をさらに実現させるためのプログラムである。
(8)ピント順序に基づいて、副オブジェクトおよび主オブジェクトのいずれか一方のオブジェクトを、対象オブジェクトとして設定するピント合わせ機能。
(9)対象オブジェクトにピントを合わせた状態で、表示用のシート画像を生成する表示画像生成機能。
(10)ピント順序に基づいて生成された表示用のシート画像を連続的に出力する命令を、発行することによって、仮想カメラによって撮影した状況を、表示する画像表示機能。
A game program according to an eighth aspect is the program according to any one of the first to seventh aspects, wherein the control unit of the computer further realizes the following functions.
(8) A focusing function for setting one of the sub-object and the main object as a target object based on the focus order.
(9) A display image generation function for generating a sheet image for display in a state where the target object is in focus.
(10) An image display function for displaying the situation photographed by the virtual camera by issuing a command for continuously outputting the sheet images for display generated based on the focus order.

このゲームプログラムでは、ピント合わせ機能において、ピント順序に基づいて、副オブジェクトおよび主オブジェクトのいずれか一方のオブジェクトが、対象オブジェクトとして設定される。表示画像生成機能においては、対象オブジェクトにピントを合わせた状態で、表示用のシート画像が生成される。画像表示機能においては、ピント順序に基づいて生成された表示用のシート画像を連続的に出力する命令を、発行することによって、仮想カメラによって撮影した状況が、表示される。   In this game program, in the focusing function, one of the secondary object and the main object is set as the target object based on the focusing order. In the display image generation function, a display sheet image is generated in a state where the target object is in focus. In the image display function, by issuing a command for continuously outputting sheet images for display generated based on the focus order, the situation taken by the virtual camera is displayed.

この場合、ピント順序に基づいて、対象オブジェクト(副オブジェクトおよび主オブジェクトのいずれか一方のオブジェクト)にピントを合わせ、この対象オブジェクトに対応する表示用のシート画像を生成することによって、対象を切り換えたときに発生する人為的なミスや誤認識等の事象、たとえば突発的に発生するピントブレのような事象を、リアリティのある映像で表示することができる。   In this case, the target is switched by focusing on the target object (one of the secondary object and the main object) based on the focus order and generating a display sheet image corresponding to the target object. Events such as human error and misrecognition that sometimes occur, such as sudden blurring, can be displayed in a realistic image.

請求項9に係るゲームプログラムは、請求項8に記載のゲームプログラムにおいて、コンピュータの制御部に、以下の機能をさらに実現させるためのプログラムである。
(11)仮想空間にオブジェクトを配置するオブジェクト配置機能。
(12)仮想空間における仮想カメラの視野内の領域を、視錐領域として設定する視錐領域設定機能。
(13)仮想カメラの位置を基準として仮想カメラから離れる方向に、視錐領域を複数の区分領域に分割する視錐領域分割機能。
A game program according to claim 9 is a program for causing the control unit of the computer to further realize the following functions in the game program according to claim 8.
(11) An object placement function for placing an object in the virtual space.
(12) A viewing frustum region setting function for setting a region in the visual field of the virtual camera in the virtual space as a viewing frustum region.
(13) A view frustum region dividing function for dividing the view frustum region into a plurality of divided regions in a direction away from the virtual camera with reference to the position of the virtual camera.

このゲームプログラムでは、オブジェクト配置機能において、仮想空間にオブジェクトが配置される。視錐領域設定機能においては、仮想空間における仮想カメラの視野内の領域が、視錐領域として設定される。視錐領域分割機能においては、視錐領域が、仮想カメラの位置を基準として仮想カメラから離れる方向に、複数の区分領域に分割される。主オブジェクト設定機能においては、複数の区分領域それぞれの内部に配置されたオブジェクトの中から、主オブジェクトが設定される。副オブジェクト選択機能においては、主オブジェクトを含む区分領域を除いた他の区分領域に含まれるオブジェクトが、副オブジェクトとして選択される。表示画像生成機能においては、対象オブジェクトにピントを合わせた状態で、視錐領域の内部に配置されたオブジェクトを、視錐領域の仮想カメラ側の境界面に、投影することによって、表示用のシート画像が生成される。   In this game program, an object is placed in a virtual space by the object placement function. In the view cone area setting function, an area in the field of view of the virtual camera in the virtual space is set as the view cone area. In the view cone area dividing function, the view cone area is divided into a plurality of divided areas in a direction away from the virtual camera with reference to the position of the virtual camera. In the main object setting function, a main object is set from among objects arranged inside each of the plurality of divided areas. In the sub-object selection function, an object included in another partitioned area excluding the partitioned area including the main object is selected as a secondary object. In the display image generation function, a sheet for display is projected by projecting an object arranged inside the viewing cone area onto the virtual camera side boundary surface of the viewing cone area with the target object in focus. An image is generated.

この場合、ある区分領域おいて主オブジェクトが設定され、この区分領域を除いた他の区分領域において副オブジェクトが設定される。そして、副オブジェクトおよび主オブジェクトのいずれか一方のオブジェクト(対象オブジェクト)にピントを合わせた状態で、視錐領域(全ての区分領域)の内部に配置されたオブジェクトが、視錐領域の仮想カメラ側の境界面に、投影される。これにより、副オブジェクトにピントを合わせた状態のシート画像(表示用の副シート画像)、および主オブジェクトにピントを合わせた状態のシート画像(表示用の主シート画像)が生成される。これらシート画像は、ピント位置が互いに異なるので、これらシート画像を、表示用の副シート画像、表示用の主シート画像の順に表示することによって、対象を切り換えたときに発生する人為的なミスや誤認識等の事象、たとえば突発的に発生するピントブレのような事象を、リアリティのある映像で表示することができる。   In this case, a main object is set in a certain divided area, and a sub-object is set in another divided area excluding this divided area. Then, the object placed inside the view cone area (all partitioned areas) in the state where one of the secondary object and the main object (target object) is in focus is the virtual camera side of the view cone area. Projected on the boundary surface. As a result, a sheet image in which the sub-object is in focus (display sub-sheet image) and a sheet image in which the main object is in focus (display main sheet image) are generated. Since these sheet images have different focus positions, by displaying these sheet images in the order of the sub-sheet image for display and the main sheet image for display, human error or Events such as misrecognition, for example, events such as sudden blurring that occur suddenly can be displayed in a realistic image.

請求項10に係るゲームプログラムは、請求項2から9のいずれかに記載のゲームプログラムにおいて、コンピュータの制御部に、以下の機能をさらに実現させるためのプログラムである。
(14)最も高いコントラストを、基準コントラストとして設定する基準コントラスト設定機能。
A game program according to claim 10 is a program for causing the control unit of the computer to further realize the following functions in the game program according to any one of claims 2 to 9.
(14) A reference contrast setting function for setting the highest contrast as the reference contrast.

このゲームプログラムでは、基準コントラスト設定機能において、最も高いコントラストが、基準コントラストとして設定される。ピント順序設定機能おいては、基準コントラストとピント設定用のシート画像のコントラストとの差が小さい順に、副オブジェクトに対するピント順序が設定され、最終的にピントを合わせるオブジェクトが主オブジェクトとなるように、主オブジェクトに対するピント順序が設定される。   In this game program, the highest contrast is set as the reference contrast in the reference contrast setting function. In the focus order setting function, the focus order for the sub-objects is set in ascending order of the difference between the reference contrast and the contrast of the focus setting sheet image, so that the object that is finally focused becomes the main object. The focus order for the main object is set.

この場合、基準コントラスト(最も高いコントラスト)とピント設定用のシート画像のコントラストとの差が小さい順に、副オブジェクトに対するピント順序が設定される。また、このピント順序では、最終的にピントを合わせるオブジェクトが主オブジェクトとなっている。これにより、副オブジェクトにピントを合わせた画像は、コントラストの高い順に表示され、主オブジェクトにピントを合わせた画像は、最後に表示される。これにより、対象を切り換えたときに発生する人為的なミスや誤認識等の事象、たとえば突発的に発生するピントブレのような事象を、現実世界におけるカメラが撮影した映像と比較して違和感のない映像で、表示することができる。   In this case, the focus order for the sub-objects is set in ascending order of difference between the reference contrast (the highest contrast) and the contrast of the focus setting sheet image. In this focus order, the object that is finally focused is the main object. Thereby, the image focused on the sub-object is displayed in the order of high contrast, and the image focused on the main object is displayed last. As a result, there is no sense of incongruity compared to images taken by cameras in the real world, such as human error and misrecognition events that occur when the target is switched, such as sudden focus blurring. Video can be displayed.

請求項11に係るゲームプログラムでは、請求項1に記載のゲームプログラムにおいて、仮想カメラと主オブジェクトとを結ぶラインの延長線に対して最も近いオブジェクト、および仮想カメラとオブジェクトとの間においてラインに最も近いオブジェクトの中の少なくともいずれか1つのオブジェクトが、副オブジェクトとして選択される。この機能は、副オブジェクト選択機能において実現される。   In the game program according to claim 11, in the game program according to claim 1, the object closest to the extension line of the line connecting the virtual camera and the main object, and the line between the virtual camera and the object are closest to the line. At least one of the close objects is selected as the sub-object. This function is realized in the sub-object selection function.

この場合、仮想カメラと主オブジェクトとを結ぶラインの延長線に最も近いオブジェクトを第1オブジェクト、仮想カメラとオブジェクトとの間においてラインに最も近いオブジェクトを第2オブジェクトとすると、これら第1オブジェクトおよび第2オブジェクトの中の少なくともいずれか1つのオブジェクトが、副オブジェクトとして選択される。これにより、仮想カメラの視線を基準として、この視線に近いオブジェクトを副オブジェクトとして選択することができるので、対象を切り換えたときに発生する人為的なミスや誤認識等の事象、たとえば突発的に発生するピントブレのような事象を、ピントが左右に大きく移動することのない映像で、表示することができる。   In this case, if the object closest to the extension line of the line connecting the virtual camera and the main object is the first object, and the object closest to the line between the virtual camera and the object is the second object, the first object and the first object At least one of the two objects is selected as a sub-object. As a result, since an object close to the line of sight can be selected as a sub-object based on the line of sight of the virtual camera, an event such as a human error or misrecognition that occurs when the target is switched, for example, suddenly An event such as a focus blur that occurs can be displayed as an image in which the focus does not move significantly left and right.

請求項12に係るゲーム装置は、仮想空間内のオブジェクトを仮想カメラによって撮影した状況を表示可能なゲーム装置である。このゲーム装置では、ゲーム装置の制御部が、オブジェクトの中から、仮想カメラのピントを最終的に合わせるオブジェクトを、主オブジェクトとして設定する主オブジェクト設定手段と、主オブジェクトに仮想カメラのピントを合わせる際の仮想カメラの視野内において、主オブジェクトを基準として、仮想カメラ側に所定の距離以上近接した位置に存在するオブジェクト、および仮想カメラから所定の距離以上離反した位置に存在するオブジェクトの中の少なくとも1つのオブジェクトを、副オブジェクトとして選択する副オブジェクト選択手段と、主オブジェクト、および少なくとも1つの副オブジェクトに対する、仮想カメラのピントを合わせるピント順序を、設定するピント順序設定手段と、を備えている。ここでは、ピント順序設定手段において、最終的にピントを合わせるオブジェクトが、主オブジェクトとなるように、少なくとも1つの副オブジェクト、主オブジェクトの順に、ピント順序が設定される。   A game device according to a twelfth aspect is a game device capable of displaying a situation in which an object in a virtual space is photographed by a virtual camera. In this game apparatus, when the control unit of the game apparatus sets a main object setting means for setting, as a main object, an object to be finally focused on the virtual camera from among the objects, and when focusing the virtual camera on the main object In the field of view of the virtual camera, at least one of an object existing at a position closer to the virtual camera by a predetermined distance or more than a predetermined distance from the virtual camera with respect to the main object as a reference Sub-object selection means for selecting one object as a sub-object, and focus order setting means for setting a focus order for focusing the virtual camera on the main object and at least one sub-object. Here, the focus order setting means sets the focus order in the order of at least one sub-object and the main object so that the object that is finally focused becomes the main object.

請求項13に係るゲーム制御方法は、仮想空間内のオブジェクトを仮想カメラによって撮影した状況を表示可能なコンピュータにより、制御可能なゲーム制御方法である。このゲーム制御方法では、コンピュータの制御部が、オブジェクトの中から、仮想カメラのピントを最終的に合わせるオブジェクトを、主オブジェクトとして設定する主オブジェクト設定ステップと、主オブジェクトに仮想カメラのピントを合わせる際の仮想カメラの視野内において、主オブジェクトを基準として、仮想カメラ側に所定の距離以上近接した位置に存在するオブジェクト、および仮想カメラから所定の距離以上離反した位置に存在するオブジェクトの中の少なくとも1つのオブジェクトを、副オブジェクトとして選択する副オブジェクト選択ステップと、主オブジェクト、および少なくとも1つの副オブジェクトに対する、仮想カメラのピントを合わせるピント順序を、設定するピント順序設定ステップと、を実行する。ここでは、ピント順序設定ステップにおいて、最終的にピントを合わせるオブジェクトが、主オブジェクトとなるように、少なくとも1つの副オブジェクト、主オブジェクトの順に、ピント順序が設定される。   A game control method according to a thirteenth aspect is a game control method that can be controlled by a computer capable of displaying a situation in which an object in a virtual space is photographed by a virtual camera. In this game control method, the control unit of the computer sets a main object setting step in which an object to be finally focused on the virtual camera is set as the main object from among the objects, and when the focus of the virtual camera is set on the main object. In the field of view of the virtual camera, at least one of an object existing at a position closer to the virtual camera by a predetermined distance or more than a predetermined distance from the virtual camera with respect to the main object as a reference A sub-object selection step of selecting one object as a sub-object, and a focus order setting step of setting a focus order for focusing the virtual camera on the main object and at least one sub-object are executed. Here, in the focus order setting step, the focus order is set in the order of at least one sub-object and the main object so that the object that is finally focused becomes the main object.

本発明では、主オブジェクトに直接的にピントを合わせるのではなく、副オブジェクトにピントを合わせた後に、主オブジェクトにピントを合わせることにより、現実世界において突発的に発生する事象、たとえばカメラのピントブレのような事象を、映像上で再現することができる。これにより、リアリティのある映像を提供することができる。   In the present invention, instead of focusing directly on the main object, focusing on the sub-object, and then focusing on the main object, an event that occurs suddenly in the real world, for example, camera focus blurring. Such an event can be reproduced on the video. Thereby, a realistic image can be provided.

本発明の一実施形態によるゲーム装置の基本構成図。1 is a basic configuration diagram of a game device according to an embodiment of the present invention. 前記ゲーム装置の一例としての機能ブロック図。The functional block diagram as an example of the said game device. 視錐領域を説明するための図。The figure for demonstrating a view cone area | region. 区分領域および主オブジェクトを説明するための図。The figure for demonstrating a division area and a main object. ピント設定用のシート画像を説明するための図。The figure for demonstrating the sheet image for a focus setting. コントラストの一設定形態を説明するための図。The figure for demonstrating the setting form of contrast. 副オブジェクトの一設定形態を説明するための図。The figure for demonstrating the setting form of a subobject. ピントブレが発生したときのモニタ画像を示す図。The figure which shows the monitor image when focus blurring generate | occur | produced. 他の実施形態を説明するための図。The figure for demonstrating other embodiment. 野球ゲームの全体概要を説明するためのフローFlow for explaining the overall outline of the baseball game 野球ゲームにおけるピントブレ再現システムを示すフロー。Flow showing the focus blur reproduction system in a baseball game.

〔ゲーム装置の構成および動作〕
以下では、ゲーム装置をゲーム装置として用いる場合の例を、一例として説明を行う。図1は、本発明の一実施形態によるゲーム装置の基本構成を示している。ここでは、ゲーム装置の一例として、家庭用ゲーム装置をとりあげて説明を行うこととする。家庭用ゲーム装置は、家庭用ゲーム機本体および家庭用テレビジョンを備える。家庭用ゲーム機本体には、記録媒体10が装填可能となっており、記録媒体10からゲームデータが適宜読み出されてゲームが実行される。このようにして実行されるゲーム内容が家庭用テレビジョンに表示される。
[Configuration and operation of game device]
Below, the example in the case of using a game device as a game device is demonstrated as an example. FIG. 1 shows a basic configuration of a game device according to an embodiment of the present invention. Here, a home game device will be described as an example of a game device. The home game device includes a home game machine body and a home television. The home game machine body can be loaded with a recording medium 10, and game data is read from the recording medium 10 as appropriate to execute the game. The contents of the game executed in this way are displayed on the home television.

家庭用ゲーム装置は、制御部1と、記憶部2と、画像表示部3と、音声出力部4と、操作入力部5とからなっており、それぞれがバス6を介して接続される。このバス6は、アドレスバス、データバス、およびコントロールバスなどを含んでいる。ここで、制御部1、記憶部2、音声出力部4および操作入力部5は、家庭用ゲーム装置の家庭用ゲーム機本体に含まれており、画像表示部3は家庭用テレビジョンに含まれている。   The home game apparatus includes a control unit 1, a storage unit 2, an image display unit 3, an audio output unit 4, and an operation input unit 5, which are connected via a bus 6. The bus 6 includes an address bus, a data bus, a control bus, and the like. Here, the control unit 1, the storage unit 2, the audio output unit 4, and the operation input unit 5 are included in the home game machine main body of the home game device, and the image display unit 3 is included in the home television. ing.

制御部1は、主に、ゲームプログラムに基づいてゲーム全体の進行を制御するために設けられている。制御部1は、たとえば、CPU(Central Processing Unit)7と、信号処理プロセッサ8と、画像処理プロセッサ9とから構成されている。CPU7と信号処理プロセッサ8と画像処理プロセッサ9とは、それぞれがバス6を介して互いに接続されている。CPU7は、ゲームプログラムからの命令を解釈し、各種のデータ処理や制御を行う。たとえば、CPU7は、信号処理プロセッサ8に対して、画像データを画像処理プロセッサに供給するように命令する。信号処理プロセッサ8は、主に、3次元空間上における計算と、3次元空間上から擬似3次元空間上への位置変換計算と、光源計算処理と、画像および音声データの生成加工処理とを行っている。画像処理プロセッサ9は、主に、信号処理プロセッサ8の計算結果および処理結果に基づいて、描画すべき画像データをRAM12に書き込む処理を行っている。   The control unit 1 is provided mainly for controlling the progress of the entire game based on the game program. The control unit 1 includes, for example, a CPU (Central Processing Unit) 7, a signal processor 8, and an image processor 9. The CPU 7, the signal processor 8, and the image processor 9 are connected to each other via the bus 6. The CPU 7 interprets instructions from the game program and performs various data processing and control. For example, the CPU 7 instructs the signal processor 8 to supply image data to the image processor. The signal processor 8 mainly performs calculation in the three-dimensional space, position conversion calculation from the three-dimensional space to the pseudo three-dimensional space, light source calculation processing, and image and audio data generation processing. ing. The image processor 9 mainly performs a process of writing image data to be drawn into the RAM 12 based on the calculation result and the processing result of the signal processor 8.

記憶部2は、主に、プログラムデータや、プログラムデータで使用される各種データなどを格納しておくために設けられている。記憶部2は、たとえば、記録媒体10と、インターフェース回路11と、RAM(Random Access Memory)12とから構成されている。記録媒体10には、インターフェース回路11が接続されている。そして、インターフェース回路11とRAM12とはバス6を介して接続されている。記録媒体10は、オペレーションシステムのプログラムデータや、画像データ、音声データ並びに各種プログラムデータからなるゲームデータなどを記録するためのものである。この記録媒体10は、たとえば、ROM(Read Only Memory)カセット、光ディスク、およびフレキシブルディスクなどであり、オペレーティングシステムのプログラムデータやゲームデータなどが記憶される。なお、記録媒体10にはカード型メモリも含まれており、このカード型メモリは、主に、ゲームを中断するときに中断時点での各種ゲームパラメータを保存するために用いられる。RAM12は、記録媒体10から読み出された各種データを一時的に格納したり、制御部1からの処理結果を一時的に記録したりするために用いられる。このRAM12には、各種データとともに、各種データの記憶位置を示すアドレスデータが格納されており、任意のアドレスを指定して読み書きすることが可能になっている。   The storage unit 2 is provided mainly for storing program data and various data used in the program data. The storage unit 2 includes, for example, a recording medium 10, an interface circuit 11, and a RAM (Random Access Memory) 12. An interface circuit 11 is connected to the recording medium 10. The interface circuit 11 and the RAM 12 are connected via the bus 6. The recording medium 10 is for recording operation system program data, image data, audio data, game data including various program data, and the like. The recording medium 10 is, for example, a ROM (Read Only Memory) cassette, an optical disk, a flexible disk, or the like, and stores operating system program data, game data, and the like. The recording medium 10 also includes a card type memory, and this card type memory is mainly used for storing various game parameters at the time of interruption when the game is interrupted. The RAM 12 is used for temporarily storing various data read from the recording medium 10 and temporarily recording the processing results from the control unit 1. The RAM 12 stores various data and address data indicating the storage position of the various data, and can be read / written by designating an arbitrary address.

画像表示部3は、主に、画像処理プロセッサ9によってRAM12に書き込まれた画像データや、記録媒体10から読み出される画像データなどを画像として出力するために設けられている。この画像表示部3は、たとえば、テレビジョンモニタ20と、インターフェース回路21と、D/Aコンバータ(Digital-To-Analogコンバータ)22とから構成されている。テレビジョンモニタ20にはD/Aコンバータ22が接続されており、D/Aコンバータ22にはインターフェース回路21が接続されている。そして、インターフェース回路21にバス6が接続されている。ここでは、画像データが、インターフェース回路21を介してD/Aコンバータ22に供給され、ここでアナログ画像信号に変換される。そして、アナログ画像信号がテレビジョンモニタ20に画像として出力される。   The image display unit 3 is provided mainly for outputting image data written in the RAM 12 by the image processor 9 or image data read from the recording medium 10 as an image. The image display unit 3 includes, for example, a television monitor 20, an interface circuit 21, and a D / A converter (Digital-To-Analog converter) 22. A D / A converter 22 is connected to the television monitor 20, and an interface circuit 21 is connected to the D / A converter 22. The bus 6 is connected to the interface circuit 21. Here, the image data is supplied to the D / A converter 22 via the interface circuit 21, where it is converted into an analog image signal. The analog image signal is output as an image to the television monitor 20.

ここで、画像データには、たとえば、ポリゴンデータやテクスチャデータなどがある。ポリゴンデータはポリゴンを構成する頂点の座標データのことである。テクスチャデータは、ポリゴンにテクスチャを設定するためのものであり、テクスチャ指示データとテクスチャカラーデータとからなっている。テクスチャ指示データはポリゴンとテクスチャとを対応づけるためのデータであり、テクスチャカラーデータはテクスチャの色を指定するためのデータである。ここで、ポリゴンデータとテクスチャデータとには、各データの記憶位置を示すポリゴンアドレスデータとテクスチャアドレスデータとが対応づけられている。このような画像データでは、信号処理プロセッサ8により、ポリゴンアドレスデータの示す3次元空間上のポリゴンデータ(3次元ポリゴンデータ)が、画面自体(視点)の移動量データおよび回転量データに基づいて座標変換および透視投影変換されて、2次元空間上のポリゴンデータ(2次元ポリゴンデータ)に置換される。そして、複数の2次元ポリゴンデータでポリゴン外形を構成して、ポリゴンの内部領域にテクスチャアドレスデータが示すテクスチャデータが書き込まれる。   Here, the image data includes, for example, polygon data and texture data. Polygon data is the coordinate data of vertices constituting a polygon. The texture data is for setting a texture on the polygon, and is composed of texture instruction data and texture color data. The texture instruction data is data for associating polygons and textures, and the texture color data is data for designating the texture color. Here, the polygon data and the texture data are associated with the polygon address data indicating the storage position of each data and the texture address data. In such image data, the signal processor 8 coordinates the polygon data in the three-dimensional space indicated by the polygon address data (three-dimensional polygon data) based on the movement amount data and the rotation amount data of the screen itself (viewpoint). Conversion and perspective projection conversion are performed, and the data is replaced with polygon data (two-dimensional polygon data) in a two-dimensional space. Then, a polygon outline is constituted by a plurality of two-dimensional polygon data, and texture data indicated by the texture address data is written in an internal area of the polygon.

音声出力部4は、主に、記録媒体10から読み出される音声データを音声として出力するために設けられている。音声出力部4は、たとえば、スピーカー13と、増幅回路14と、D/Aコンバータ15と、インターフェース回路16とから構成されている。スピーカー13には増幅回路14が接続されており、増幅回路14にはD/Aコンバータ15が接続されており、D/Aコンバータ15にはインターフェース回路16が接続されている。そして、インターフェース回路16にバス6が接続されている。ここでは、音声データが、インターフェース回路16を介してD/Aコンバータ15に供給され、ここでアナログ音声信号に変換される。このアナログ音声信号が増幅回路14によって増幅され、スピーカー13から音声として出力される。音声データには、たとえば、ADPCM(Adaptive Differential Pulse Code Modulation)データやPCM(Pulse Code Modulation)データなどがある。ADPCMデータの場合、上述と同様の処理方法で音声をスピーカー13から出力することができる。PCMデータの場合、RAM12においてPCMデータをADPCMデータに変換しておくことで、上述と同様の処理方法で音声をスピーカー13から出力することができる。   The audio output unit 4 is provided mainly for outputting audio data read from the recording medium 10 as audio. The audio output unit 4 includes, for example, a speaker 13, an amplifier circuit 14, a D / A converter 15, and an interface circuit 16. An amplifier circuit 14 is connected to the speaker 13, a D / A converter 15 is connected to the amplifier circuit 14, and an interface circuit 16 is connected to the D / A converter 15. The bus 6 is connected to the interface circuit 16. Here, the audio data is supplied to the D / A converter 15 via the interface circuit 16, where it is converted into an analog audio signal. The analog audio signal is amplified by the amplifier circuit 14 and output from the speaker 13 as audio. The audio data includes, for example, ADPCM (Adaptive Differential Pulse Code Modulation) data and PCM (Pulse Code Modulation) data. In the case of ADPCM data, sound can be output from the speaker 13 by the same processing method as described above. In the case of PCM data, by converting the PCM data into ADPCM data in the RAM 12, the sound can be output from the speaker 13 by the same processing method as described above.

操作入力部5は、主に、コントローラ17と、操作情報インターフェース回路18と、インターフェース回路19とから構成されている。コントローラ17には、操作情報インターフェース回路18が接続されており、操作情報インターフェース回路18にはインターフェース回路19が接続されている。そして、インターフェース回路19にバス6が接続されている。   The operation input unit 5 mainly includes a controller 17, an operation information interface circuit 18, and an interface circuit 19. An operation information interface circuit 18 is connected to the controller 17, and an interface circuit 19 is connected to the operation information interface circuit 18. The bus 6 is connected to the interface circuit 19.

コントローラ17は、プレイヤが種々の操作命令を入力するために使用する操作装置であり、プレイヤの操作に応じた操作信号をCPU7に送出する。コントローラ17には、第1ボタン17a、第2ボタン17b、第3ボタン17c、第4ボタン17d、上方向キー17U、下方向キー17D、左方向キー17L、右方向キー17R、L1ボタン17L1、L2ボタン17L2、R1ボタン17R1、R2ボタン17R2、スタートボタン17e、セレクトボタン17f、左スティック17SL及び右スティック17SRが設けられている。   The controller 17 is an operation device used by the player to input various operation commands, and sends an operation signal according to the operation of the player to the CPU 7. The controller 17 includes a first button 17a, a second button 17b, a third button 17c, a fourth button 17d, an up key 17U, a down key 17D, a left key 17L, a right key 17R, and an L1 button 17L1, L2. A button 17L2, an R1 button 17R1, an R2 button 17R2, a start button 17e, a select button 17f, a left stick 17SL and a right stick 17SR are provided.

上方向キー17U、下方向キー17D、左方向キー17L及び右方向キー17Rは、例えば、キャラクタやカーソルをテレビジョンモニタ20の画面上で上下左右に移動させるコマンドをCPU7に与えるために使用される。   The up direction key 17U, the down direction key 17D, the left direction key 17L, and the right direction key 17R are used, for example, to give the CPU 7 a command for moving a character or cursor up, down, left, or right on the screen of the television monitor 20. .

スタートボタン17eは、記録媒体10からゲームプログラムをロードするようにCPU7に指示するときや、実行中のゲームプログラムを一時停止するときなどに使用される。   The start button 17e is used when instructing the CPU 7 to load the game program from the recording medium 10, or when temporarily stopping the game program being executed.

セレクトボタン17fは、記録媒体10からロードされたゲームプログラムに対して、各種選択をCPU7に指示するときなどに使用される。   The select button 17f is used when instructing the CPU 7 to make various selections for the game program loaded from the recording medium 10.

左スティック17SL及び右スティック17SRは、いわゆるジョイスティックとほぼ同一構成のスティック型コントローラである。このスティック型コントローラは、直立したスティックを有している。このスティックは、支点を中心として直立位置から前後左右を含む360°方向に亘って、傾倒可能な構成になっている。左スティック17SL及び右スティック17SRは、スティックの傾倒方向及び傾倒角度に応じて、直立位置を原点とするx座標及びy座標の値を、操作信号として操作情報インターフェース回路18とインターフェース回路19とを介してCPU7に送出する。   The left stick 17SL and the right stick 17SR are stick type controllers having substantially the same configuration as a so-called joystick. This stick type controller has an upright stick. The stick is configured to be tiltable from an upright position around the fulcrum in a 360 ° direction including front, rear, left and right. The left stick 17SL and the right stick 17SR pass through the operation information interface circuit 18 and the interface circuit 19 with the values of the x-coordinate and y-coordinate with the upright position as the origin as operation signals according to the tilt direction and tilt angle of the stick. To the CPU 7.

第1ボタン17a、第2ボタン17b、第3ボタン17c、第4ボタン17d、L1ボタン17L1、L2ボタン17L2、R1ボタン17R1及びR2ボタン17R2には、記録媒体10からロードされるゲームプログラムに応じて種々の機能が割り振られている。   The first button 17a, the second button 17b, the third button 17c, the fourth button 17d, the L1 button 17L1, the L2 button 17L2, the R1 button 17R1, and the R2 button 17R2 correspond to the game program loaded from the recording medium 10. Various functions are allocated.

なお、左スティック17SL及び右スティック17SRを除くコントローラ17の各ボタン及び各キーは、外部からの押圧力によって中立位置から押圧されるとオンになり、押圧力が解除されると中立位置に復帰してオフになるオンオフスイッチになっている。   Each button and each key of the controller 17 except for the left stick 17SL and the right stick 17SR are turned on when pressed from the neutral position by an external pressing force, and return to the neutral position when the pressing force is released. It is an on / off switch that turns off.

通信部23は、通信制御回路24および通信インターフェース25を有している。通信制御回路24および通信インターフェース25は、ゲーム装置をサーバや他のゲーム装置等に接続するために用いられる。通信制御回路24および通信インターフェース25は、バス6を介してCPU7に接続されている。通信制御回路24および通信インターフェース25は、CPU7からの命令に応じて、ゲーム装置をインターネットに接続するための接続信号を制御し発信する。また、通信制御回路24および通信インターフェース25は、インターネットを介してゲーム装置をサーバや他のゲーム装置に接続するための接続信号を制御し発信する。   The communication unit 23 includes a communication control circuit 24 and a communication interface 25. The communication control circuit 24 and the communication interface 25 are used for connecting the game device to a server, another game device, or the like. The communication control circuit 24 and the communication interface 25 are connected to the CPU 7 via the bus 6. The communication control circuit 24 and the communication interface 25 control and transmit a connection signal for connecting the game device to the Internet in accordance with a command from the CPU 7. The communication control circuit 24 and the communication interface 25 control and transmit a connection signal for connecting the game device to a server or another game device via the Internet.

以上のような構成からなる家庭用ゲーム装置の概略動作を、以下に説明する。電源スイッチ(図示省略)がオンにされゲームシステムに電源が投入されると、CPU7が、記録媒体10に記憶されているオペレーティングシステムに基づいて、記録媒体10から画像データ、音声データ、およびプログラムデータを読み出す。読み出された画像データ、音声データ、およびプログラムデータの一部若しくは全部は、RAM12に格納される。そして、CPU7が、RAM12に格納されたプログラムデータに基づいて、RAM12に格納された画像データや音声データにコマンドを発行する。   The general operation of the consumer game device having the above configuration will be described below. When a power switch (not shown) is turned on and the game system is turned on, the CPU 7 reads image data, audio data, and program data from the recording medium 10 based on the operating system stored in the recording medium 10. Is read. Some or all of the read image data, audio data, and program data are stored in the RAM 12. Then, the CPU 7 issues a command to the image data and sound data stored in the RAM 12 based on the program data stored in the RAM 12.

画像データの場合、CPU7からのコマンドに基づいて、まず、信号処理プロセッサ8が、3次元空間上におけるキャラクタの位置計算および光源計算などを行う。次に、画像処理プロセッサ9が、信号処理プロセッサ8の計算結果に基づいて、描画すべき画像データのRAM12への書き込み処理などを行う。そして、RAM12に書き込まれた画像データが、インターフェース回路21を介してD/Aコンバータ22に供給される。ここで、画像データがD/Aコンバータ22でアナログ映像信号に変換される。そして、画像データはテレビジョンモニタ20に供給され画像として表示される。   In the case of image data, based on a command from the CPU 7, first, the signal processor 8 performs character position calculation and light source calculation in a three-dimensional space. Next, the image processor 9 performs a process of writing image data to be drawn into the RAM 12 based on the calculation result of the signal processor 8. Then, the image data written in the RAM 12 is supplied to the D / A converter 22 via the interface circuit 21. Here, the image data is converted into an analog video signal by the D / A converter 22. The image data is supplied to the television monitor 20 and displayed as an image.

音声データの場合、まず、信号処理プロセッサ8が、CPU7からのコマンドに基づいて音声データの生成および加工処理を行う。ここでは、音声データに対して、たとえば、ピッチの変換、ノイズの付加、エンベロープの設定、レベルの設定及びリバーブの付加などの処理が施される。次に、音声データは、信号処理プロセッサ8から出力されて、インターフェース回路16を介してD/Aコンバータ15に供給される。ここで、音声データがアナログ音声信号に変換される。そして、音声データは増幅回路14を介してスピーカー13から音声として出力される。   In the case of audio data, first, the signal processor 8 generates and processes audio data based on a command from the CPU 7. Here, processing such as pitch conversion, noise addition, envelope setting, level setting, and reverb addition is performed on the audio data, for example. Next, the audio data is output from the signal processor 8 and supplied to the D / A converter 15 via the interface circuit 16. Here, the audio data is converted into an analog audio signal. The audio data is output as audio from the speaker 13 via the amplifier circuit 14.

〔ゲーム装置における各種処理概要〕
本ゲーム装置において実行されるゲームは、たとえば、野球ゲームである。本ゲーム装置では、3次元ゲーム空間内のオブジェクトを仮想カメラによって撮影した状況が、表示可能になっている。図2は、以下に示す、本発明で主要な役割を果たす機能を、説明するための機能ブロック図である。なお、以下の各手段は、主に制御部1において制御される。
[Outline of various processes in game devices]
The game executed in this game device is, for example, a baseball game. In this game apparatus, a situation in which an object in the three-dimensional game space is photographed with a virtual camera can be displayed. FIG. 2 is a functional block diagram for explaining the following functions that play a major role in the present invention. The following units are mainly controlled by the control unit 1.

基準コントラスト設定手段50は、最も高いコントラストを、基準コントラストとして設定する機能を備えている。   The reference contrast setting means 50 has a function of setting the highest contrast as the reference contrast.

この手段では、最も高いコントラストを、基準コントラストとして設定する処理が、制御部1において実行される。たとえば、記憶部2に格納された所定のコントラスト値、すなわち最大コントラストを表現するコントラスト値が、基準コントラスト値として認識する処理が、制御部1において実行される。ここでは、グレースケールのコントラスト値が用いられ、このグレースケールのコントラスト値が、0以上256以下の範囲のコントラスト値で表現される。この場合、最大コントラストを表現するコントラスト値、すなわち基準コントラスト値は、128に設定される。このようなグレースケールのコントラスト値を規定する各種データは、記憶部2に格納されており、これらの各種データは、必要に応じて、記憶部2から読み出され、処理に利用される。   In this means, processing for setting the highest contrast as the reference contrast is executed in the control unit 1. For example, the control unit 1 executes processing for recognizing a predetermined contrast value stored in the storage unit 2, that is, a contrast value expressing the maximum contrast, as a reference contrast value. Here, a grayscale contrast value is used, and the grayscale contrast value is expressed by a contrast value in the range of 0 to 256. In this case, the contrast value expressing the maximum contrast, that is, the reference contrast value is set to 128. Various data defining such grayscale contrast values are stored in the storage unit 2, and these various data are read from the storage unit 2 as necessary and used for processing.

オブジェクト配置手段51は、3次元ゲーム空間にオブジェクトを配置する機能を備えている。   The object placement means 51 has a function of placing an object in the three-dimensional game space.

この手段では、3次元ゲーム空間にオブジェクトを配置する処理が、制御部1において実行される。たとえば、野球ゲームでテレビジョンモニタ20にされるオブジェクト、たとえば、スタジアム、選手、審判、観客、空、雲、太陽、月等のようなオブジェクトを、3次元ゲーム空間に配置する処理が、制御部1において実行される。より具体的には、各オブジェクトを、3次元ゲーム空間に配置するための位置座標データが、記憶部2から読み出され、この位置座標データが示す位置に、各オブジェクトを配置する処理が、制御部1において実行される。   In this means, processing for arranging objects in the three-dimensional game space is executed in the control unit 1. For example, the processing for arranging objects to be placed on the television monitor 20 in a baseball game, for example, objects such as stadiums, players, referees, spectators, sky, clouds, sun, moon, etc., in the three-dimensional game space 1 is executed. More specifically, position coordinate data for placing each object in the three-dimensional game space is read from the storage unit 2, and the process of placing each object at the position indicated by the position coordinate data is controlled by It is executed in part 1.

なお、ここでは、各ポリゴンにテクスチャが貼り付けられた3次元の物体を、オブジェクト(モデル)と定義している。このオブジェクトを定義するための各種データは、記憶部2に格納されており、これら各種データは、必要に応じて、記憶部2から読み出され、処理に利用される。また、各オブジェクトを3次元ゲーム空間に配置するための位置座標データも、記憶部2に格納されており、これら各種データも、必要に応じて、記憶部2から読み出され、処理に利用される。   Here, a three-dimensional object in which a texture is pasted on each polygon is defined as an object (model). Various data for defining this object are stored in the storage unit 2, and these various types of data are read from the storage unit 2 as necessary and used for processing. In addition, position coordinate data for arranging each object in the three-dimensional game space is also stored in the storage unit 2, and these various data are also read from the storage unit 2 as necessary and used for processing. The

視錐領域設定手段52は、3次元ゲーム空間における仮想カメラの視野内の領域を、視錐領域として設定する機能を備えている。   The view cone area setting means 52 has a function of setting an area in the field of view of the virtual camera in the three-dimensional game space as the view cone area.

この手段では、3次元ゲーム空間における仮想カメラの視野内の領域を、視錐領域として設定する処理が、制御部1において実行される。   In this means, the control unit 1 executes a process of setting an area in the field of view of the virtual camera in the three-dimensional game space as a view cone area.

たとえば、まず、仮想カメラを3次元ゲーム空間の所定の位置に配置する処理、すなわち仮想カメラの視点を設定する処理が、制御部1において実行される。次に、この仮想カメラの位置を基準として、仮想カメラの注視点を3次元ゲーム空間の所定の位置に配置する処理が、制御部1において実行される。続いて、仮想カメラの画角を設定する処理が、制御部1において実行される。続いて、カメラ視点側の面(ニアー面)およびカメラ視点から離反する側の面(ファー面)を設定する処理が、制御部1において実行される。これにより、ニアー面とファー面との間の領域が、視錐領域として、3次元ゲーム空間の内部に設定される。   For example, first, a process of placing the virtual camera at a predetermined position in the three-dimensional game space, that is, a process of setting the viewpoint of the virtual camera is executed in the control unit 1. Next, with the virtual camera position as a reference, the control unit 1 executes a process of placing the gazing point of the virtual camera at a predetermined position in the three-dimensional game space. Subsequently, processing for setting the angle of view of the virtual camera is executed in the control unit 1. Subsequently, a process of setting a surface on the camera viewpoint side (near surface) and a surface on the side away from the camera viewpoint (fur surface) is executed in the control unit 1. Thereby, the area between the near plane and the fur plane is set as the view cone area in the three-dimensional game space.

なお、仮想カメラの視点位置を規定するための位置座標データ、画角を規定するための画角データ、第1面および第2面を規定するための位置座標データは、記憶部2に格納されており、これら各種データは、必要に応じて、記憶部2から読み出され、処理に利用される。   Note that the position coordinate data for defining the viewpoint position of the virtual camera, the view angle data for defining the angle of view, and the position coordinate data for defining the first surface and the second surface are stored in the storage unit 2. These various data are read from the storage unit 2 as necessary and used for processing.

視錐領域分割手段53は、仮想カメラの位置を基準として仮想カメラから離れる方向に、視錐領域を複数の区分領域に分割する機能を備えている。   The view cone area dividing unit 53 has a function of dividing the view cone area into a plurality of divided areas in a direction away from the virtual camera with reference to the position of the virtual camera.

この手段では、仮想カメラの位置を基準として仮想カメラから離れる方向に、視錐領域を複数の区分領域に分割する処理が、制御部1において実行される。たとえば、視錐領域を仮想カメラから離れる方向に3つに分割する場合、まず、ニアー面とファー面との間において仮想カメラの視線方向に沿った距離を、3つに等分割する処理が、制御部1において実行される。次に、ニアー面を基準として、ニアー面からファー面に向かう方向へ所定の距離を隔てた位置に、第1面を設定する処理が、制御部1において実行される。続いて、この第1面を基準として、ニアー面からファー面に向かう方向へ所定の距離を隔てた位置に、第2面を設定する処理が、制御部1において実行される。これにより、視錐領域を仮想カメラから離れる方向に3つに分割することができる。ここでは、ニアー面と第1面との間の領域を、第1区分領域と表記し、第1面と第2面との間の領域を、第2区分領域と表記し、第2面とファー面との間の領域を、第3区分領域と表記する。すなわち、各区分領域を、仮想カメラに近い方から、第1区分領域、第2区分領域、および第3区分領域と表記する。   In this means, the control unit 1 executes a process of dividing the view cone area into a plurality of divided areas in a direction away from the virtual camera with reference to the position of the virtual camera. For example, when dividing the view frustum region into three in the direction away from the virtual camera, first, the process of equally dividing the distance along the visual line direction of the virtual camera between the near surface and the fur surface into three, It is executed in the control unit 1. Next, a process of setting the first surface at a position separated from the near surface by a predetermined distance in the direction from the near surface to the far surface with reference to the near surface is executed in the control unit 1. Subsequently, a process of setting the second surface at a position separated by a predetermined distance in the direction from the near surface to the far surface with the first surface as a reference is executed in the control unit 1. Thereby, the view frustum region can be divided into three in the direction away from the virtual camera. Here, a region between the near surface and the first surface is denoted as a first segmented region, a region between the first surface and the second surface is denoted as a second segmented region, and the second surface An area between the fur surface is referred to as a third divided area. That is, each segmented area is expressed as a first segmented area, a second segmented area, and a third segmented area from the side closer to the virtual camera.

主オブジェクト設定手段54は、オブジェクトの中から、仮想カメラのピントを最終的に合わせるオブジェクトを、主オブジェクトとして設定する機能を備えている。また、主オブジェクト設定手段54は、複数の区分領域それぞれの内部に配置されたオブジェクトの中から、主オブジェクトを設定する機能を備えている。   The main object setting means 54 has a function of setting, as a main object, an object that finally adjusts the focus of the virtual camera from among the objects. The main object setting means 54 has a function of setting a main object from among objects arranged in each of a plurality of divided areas.

この手段では、3次元ゲーム空間の視錐領域の内部に配置されたオブジェクトの中から、仮想カメラのピントを最終的に合わせるオブジェクトを、主オブジェクトとして設定する処理が、制御部1において実行される。たとえば、複数の区分領域から構成される視錐領域の内部に配置されたオブジェクトの中から、主オブジェクトを設定する処理が、制御部1において実行される。より具体的には、第1区分領域、第2区分領域、および第3区分領域から構成される視錐領域の内部に配置されたオブジェクトの中から、主オブジェクトを選択し、この主オブジェクトにおいてピントを合わせる位置を設定する処理が、制御部1において実行される。   In this means, the control unit 1 executes a process of setting, as a main object, an object that finally adjusts the focus of the virtual camera from among objects arranged inside the view cone area of the three-dimensional game space. . For example, the control unit 1 executes a process of setting a main object from among objects arranged inside a viewing cone area composed of a plurality of segmented areas. More specifically, a main object is selected from the objects arranged in the view cone area composed of the first segment area, the second segment area, and the third segment area, and the main object is focused. The control unit 1 executes a process for setting a position to match.

なお、主オブジェクトに対するピント位置は、ゲームプログラムにおいて予め規定されており、この位置を定義するための位置座標データは、記憶部2に格納されている。以下では、たとえば、第2区分領域の内部に配置された打者オブジェクトが、主オブジェクトとして設定された場合を、一例として、説明を行う。   Note that the focus position with respect to the main object is defined in advance in the game program, and position coordinate data for defining this position is stored in the storage unit 2. Hereinafter, for example, a case where a batter object arranged in the second segmented area is set as a main object will be described as an example.

設定画像生成手段55は、副オブジェクトにピントを設定するためのピント設定用のシート画像を、生成する機能を備えている。詳細には、設定画像生成手段55は、主オブジェクトを含む区分領域を除いた各区分領域の内部に配置されたオブジェクトを、視錐領域の仮想カメラ側の境界面に、投影することによって、ピント設定用のシート画像を生成する機能を備えている。   The setting image generating means 55 has a function of generating a focus setting sheet image for setting the focus on the sub-object. Specifically, the setting image generation means 55 focuses the object arranged inside each divided area excluding the divided area including the main object onto the boundary surface on the virtual camera side of the view cone area, thereby focusing. A function for generating a sheet image for setting is provided.

この手段では、主オブジェクトを含む区分領域を除いた各区分領域の内部に配置されたオブジェクトを、視錐領域の仮想カメラ側の境界面に投影する処理が、制御部1において実行される。たとえば、第1区分領域の内部に配置されたオブジェクトを、視錐領域の仮想カメラ側の境界面に投影する処理が、制御部1において実行される。これにより、副オブジェクトにピントを設定するためのピント設定用のシート画像(ピント設定用の第1シート画像)が、生成される。このピント設定用の第1シート画像は、主オブジェクトを基準として仮想カメラ側に配置された副オブジェクトに対して、ピントを設定するためのものである。また、第3区分領域の内部に配置されたオブジェクトを、視錐領域の仮想カメラ側の境界面に投影する処理が、制御部1において実行される。これにより、副オブジェクトにピントを設定するためのピント設定用のシート画像(ピント設定用の第2シート画像)が、生成される。このピント設定用の第2シート画像は、主オブジェクトを基準として仮想カメラから離反する側に配置された副オブジェクトに対してピントを設定するためのものである。   In this means, the control unit 1 executes a process of projecting an object arranged inside each partitioned area excluding the partitioned area including the main object onto the boundary surface on the virtual camera side of the view cone area. For example, the control unit 1 executes a process of projecting an object arranged inside the first segment area onto the boundary surface on the virtual camera side of the view cone area. Accordingly, a focus setting sheet image (first sheet image for focus setting) for setting the focus on the sub-object is generated. The first sheet image for focus setting is for setting the focus on the sub-object arranged on the virtual camera side with the main object as a reference. Further, the control unit 1 executes a process of projecting an object arranged inside the third segment area onto the boundary surface on the virtual camera side of the view cone area. Accordingly, a focus setting sheet image (second focus image for focus setting) for setting the focus on the sub-object is generated. The second sheet image for focus setting is for setting the focus on the sub-object arranged on the side away from the virtual camera with the main object as a reference.

画像情報設定手段56は、ピント設定用のシート画像を複数の小画像に分割し、複数の小画像それぞれのコントラスト情報を調査することによって、ピント設定用のシート画像のコントラストを設定する機能を備えている。詳細には、画像情報設定手段56は、複数の小画像それぞれにおいて、隣接する小画像のコントラスト値の差を計算し、コントラスト値の差の最大値を、ピント設定用のシート画像のコントラストとして設定する機能を備えている。   The image information setting means 56 has a function of setting the contrast of the focus setting sheet image by dividing the focus setting sheet image into a plurality of small images and examining the contrast information of each of the plurality of small images. ing. Specifically, the image information setting unit 56 calculates the difference between the contrast values of adjacent small images in each of the plurality of small images, and sets the maximum contrast value difference as the contrast of the focus setting sheet image. It has a function to do.

この手段では、複数の小画像それぞれにおいて、隣接する小画像のコントラスト値の差を計算し、コントラスト値の差の最大値を、ピント設定用のシート画像のコントラストとして設定する処理が、制御部1において実行される。具体的には、隣接する小画像のコントラスト値の差を計算し、この差に基づいて、ピント設定用のシート画像のコントラストを設定する処理が、制御部1において実行される。   In this means, the process of calculating the contrast value difference between adjacent small images in each of a plurality of small images and setting the maximum contrast value difference as the contrast of the focus setting sheet image is performed by the control unit 1. Executed in Specifically, the control unit 1 executes a process of calculating a contrast value difference between adjacent small images and setting the contrast of the focus setting sheet image based on the difference.

副オブジェクト選択手段57は、主オブジェクトに仮想カメラのピントを合わせる際の仮想カメラの視野内において、主オブジェクトを基準として、仮想カメラ側に所定の距離以上近接した位置に存在するオブジェクト、および仮想カメラから所定の距離以上離反した位置に存在するオブジェクトの中の少なくとも1つのオブジェクトを、副オブジェクトとして選択する機能を備えている。   The sub-object selection means 57 is an object that is present at a position closer to the virtual camera by a predetermined distance or more with respect to the main object in the field of view of the virtual camera when the virtual camera is focused on the main object, and the virtual camera A function of selecting at least one object among the objects existing at a position more than a predetermined distance from the sub-object as a sub-object.

この手段では、主オブジェクトに仮想カメラのピントを合わせる際の仮想カメラの視野内において、主オブジェクトを基準として、仮想カメラ側に所定の距離以上近接した位置に存在するオブジェクト、および仮想カメラから所定の距離以上離反した位置に存在するオブジェクトの中の少なくとも1つのオブジェクトが、副オブジェクトとして選択する処理が、制御部1において実行される。   With this means, within the visual field of the virtual camera when the virtual object is focused on the main object, the object existing at a position close to the virtual camera side by a predetermined distance or more and a predetermined distance from the virtual camera on the basis of the main object. The control unit 1 executes a process of selecting at least one object among objects existing at positions separated by a distance or more as a sub-object.

たとえば、主オブジェクトを含む第2区分領域をより仮想カメラ側に位置する第1区分領域に含まれるオブジェクトを、副オブジェクトとして選択する処理が、制御部1において実行される。また、第2区分領域を基準として、仮想カメラから離反する方向に位置する第3区分領域に含まれるオブジェクトを、副オブジェクトとして選択する処理が、制御部1において実行される。   For example, the control unit 1 executes a process of selecting, as a sub-object, an object included in the first segment area located on the virtual camera side of the second segment area including the main object. Further, the control unit 1 executes processing for selecting, as a sub-object, an object included in the third segment area located in the direction away from the virtual camera with the second segment area as a reference.

ここで、副オブジェクトを選択する処理は、ピント設定用のシート画像のコントラストに基づいて、制御部1において実行される。なお、ここで用いるピント設定用のシート画像は、上記の設定画像生成手段55において、既に生成されている。具体的には、ピント設定用のシート画像(ピント設定用の第1シート画像、ピント設定用の第2シート画像)のコントラストに基づいて、ピント設定用のシート画像における複数の小画像の中から、副オブジェクトのピント位置を設定するためのピント用の小画像(ピント設定用の第1小画像、ピント設定用の第2小画像)を、特定する処理が、制御部1において実行される。そして、視錐領域の仮想カメラ側の境界面上におけるピント用の小画像の位置を特定する処理が、制御部1において実行される。すると、仮想カメラから、境界面上におけるピント用の第1小画像の位置へと延びる直線が第1区分領域の内部で衝突するオブジェクトを、副オブジェクトとして選択する処理が、制御部1において実行される。同様に、仮想カメラから、境界面上におけるピント用の第2小画像の位置へと延びる直線が第3区分領域の内部で衝突するオブジェクトを、副オブジェクトとして選択する処理が、制御部1において実行される。   Here, the process of selecting the sub-object is executed in the control unit 1 based on the contrast of the focus setting sheet image. The focus setting sheet image used here has already been generated in the setting image generation means 55 described above. Specifically, based on the contrast of the focus setting sheet image (the first sheet image for focus setting and the second sheet image for focus setting), a plurality of small images in the focus setting sheet image are selected. The control unit 1 executes processing for specifying a small focus image (first small image for focus setting, second small image for focus setting) for setting the focus position of the sub-object. Then, the control unit 1 executes a process of specifying the position of the small image for focusing on the boundary surface on the virtual camera side of the viewing cone area. Then, a process of selecting, as a sub-object, an object in which a straight line extending from the virtual camera to the position of the first small image for focusing on the boundary surface collides inside the first divided area is executed in the control unit 1. The Similarly, the control unit 1 executes a process of selecting, as a sub-object, an object in which a straight line extending from the virtual camera to the position of the second small image for focusing on the boundary surface collides inside the third segmented area. Is done.

なお、ピント設定用のシート画像のコントラストが所定の範囲内である場合に、副オブジェクトを選択する処理が、制御部1において実行されるようにしても良い。   Note that, when the contrast of the focus setting sheet image is within a predetermined range, the process of selecting the sub-object may be executed in the control unit 1.

ピント順序設定手段58は、主オブジェクト、および少なくとも1つの副オブジェクトに対する、仮想カメラのピントを合わせるピント順序を、設定する機能を備えている。詳細には、ピント順序設定手段58は、最終的にピントを合わせるオブジェクトが、主オブジェクトとなるように、少なくとも1つの副オブジェクト、主オブジェクトの順に、ピント順序を設定する機能を備えている。   The focus order setting means 58 has a function of setting a focus order for focusing the virtual camera on the main object and at least one sub-object. Specifically, the focus order setting unit 58 has a function of setting the focus order in the order of at least one sub-object and the main object so that the object to be finally focused becomes the main object.

この手段では、最終的にピントを合わせるオブジェクトが、主オブジェクトとなるように、少なくとも1つの副オブジェクト、主オブジェクトの順に、ピント順序を設定する処理が、制御部1において実行される。ここでは、基準コントラストとピント設定用のシート画像のコントラストとの差が小さい順に、副オブジェクトに対するピント順序を設定する処理が、制御部1において実行される。また、最終的にピントを合わせるオブジェクトが主オブジェクトとなるように、ピント順序を設定する処理が、制御部1において実行される。   In this means, the control unit 1 executes a process for setting the focus order in the order of at least one sub-object and the main object so that the object to be finally focused becomes the main object. Here, the control unit 1 executes a process of setting the focus order for the sub-objects in ascending order of difference between the reference contrast and the contrast of the focus setting sheet image. In addition, the control unit 1 executes a process for setting the focus order so that the object to be finally focused becomes the main object.

ピント合わせ手段59は、ピント順序に基づいて、副オブジェクトおよび主オブジェクトのいずれか一方のオブジェクトを、対象オブジェクトとして設定する機能を備えている。   The focusing unit 59 has a function of setting one of the sub-object and the main object as a target object based on the focus order.

この手段では、上記のピント順序に基づいて、副オブジェクトおよび主オブジェクトのいずれか一方のオブジェクトを、対象オブジェクトとして設定する処理が、制御部1において実行される。具体的には、上記のピント順序を用いると、副オブジェクト、主オブジェクトの順に、各オブジェクトを対象オブジェクトとして設定する処理が、制御部1において実行される。また、副オブジェクトが複数存在する場合は、コントラストの高い順に副オブジェクトを対象オブジェクトとして設定し、最後に、主オブジェクトを対象オブジェクトとして設定する処理が、制御部1において実行される。なお、ここで対象オブジェクトを設定する処理では、対象オブジェクトに設定されたピント位置を認識する処理も、実行される。   In this means, processing for setting one of the sub-object and the main object as a target object based on the above-described focus order is executed in the control unit 1. Specifically, when the above-described focus order is used, processing for setting each object as a target object in the order of the sub-object and the main object is executed in the control unit 1. If there are a plurality of sub objects, the control unit 1 executes a process of setting the sub objects as target objects in descending order of contrast and finally setting the main object as the target object. In the process of setting the target object here, a process of recognizing the focus position set for the target object is also executed.

表示画像生成手段60は、対象オブジェクトにピントを合わせた状態で、表示用のシート画像を生成する機能を備えている。詳細には、表示画像生成手段60は、対象オブジェクトにピントを合わせた状態で、視錐領域の内部に配置されたオブジェクトを、視錐領域の仮想カメラ側の境界面に、投影することによって、表示用のシート画像を生成する機能を備えている。   The display image generation means 60 has a function of generating a display sheet image in a state where the target object is in focus. Specifically, the display image generation unit 60 projects an object arranged inside the viewing cone area on the virtual camera side boundary surface of the viewing cone area while focusing on the target object. A function of generating a sheet image for display is provided.

この手段では、対象オブジェクトにピントを合わせた状態で、視錐領域の内部に配置されたオブジェクトを、視錐領域の仮想カメラ側の境界面に投影する処理が、制御部1において実行される。具体的には、まず、副オブジェクトにピントを合わせた状態で、視錐領域の内部に配置された全オブジェクトを、視錐領域の仮想カメラ側の境界面に投影する処理が、制御部1において実行される。すると、副オブジェクトにピントを合わせた状態の表示用のシート画像が、生成される。すると、このシート画像は、記憶部2に格納される。次に、主オブジェクトにピントを合わせた状態で、視錐領域の内部に配置された全オブジェクトを、視錐領域の仮想カメラ側の境界面に投影する処理が、制御部1において実行される。すると、主オブジェクトにピントを合わせた状態の表示用のシート画像が、生成される。すると、このシート画像は、記憶部2に格納される。   In this means, the control unit 1 executes a process of projecting an object arranged inside the viewing cone area onto the virtual camera side boundary surface of the viewing cone area with the target object in focus. Specifically, first, the process of projecting all the objects arranged inside the viewing cone area onto the virtual camera side boundary surface of the viewing cone area in a state where the sub-object is in focus is performed in the control unit 1. Executed. Then, a display sheet image in a state in which the sub-object is in focus is generated. Then, this sheet image is stored in the storage unit 2. Next, in the state where the main object is in focus, the control unit 1 executes a process of projecting all the objects arranged inside the view cone area onto the virtual camera side boundary surface of the view cone area. Then, a display sheet image in a state where the main object is in focus is generated. Then, this sheet image is stored in the storage unit 2.

画像表示手段61は、ピント順序に基づいて生成された表示用のシート画像を連続的に出力する命令を、発行することによって、仮想カメラによって撮影した状況を、表示する機能を備えている。   The image display means 61 has a function of displaying the situation photographed by the virtual camera by issuing a command for continuously outputting the sheet images for display generated based on the focus order.

この手段では、ピント順序に基づいて生成された表示用のシート画像を連続的に出力する命令を、発行することによって、仮想カメラによって撮影した状況を表示する処理が、画像表示部3において実行される。具体的には、副オブジェクトにピントを合わせた状態の表示用のシート画像、主オブジェクトにピントを合わせた状態の表示用のシート画像を、連続的に出力する命令が、制御部1から発行されると、仮想カメラによって撮影した状況を表示する処理が、画像表示部3において実行される。   In this means, the image display unit 3 performs a process of displaying the situation photographed by the virtual camera by issuing a command for continuously outputting the sheet images for display generated based on the focus order. The Specifically, the control unit 1 issues a command for continuously outputting a display sheet image in a state in which the sub-object is in focus and a display sheet image in a state in which the main object is in focus. Then, a process for displaying the situation photographed by the virtual camera is executed in the image display unit 3.

〔野球ゲームにおけるピントブレ再現システムの概要〕
次に、野球ゲームにおけるピントブレ再現システムの具体的な内容について説明する。また、図10および図11に示すフローについても同時に説明する。なお、図10は野球ゲームの全体概要を説明するためのフローであり、図11は上記システムを説明するためのフローである。
[Outline of the focus blur reproduction system for baseball games]
Next, specific contents of the focus blur reproduction system in the baseball game will be described. The flow shown in FIGS. 10 and 11 will also be described at the same time. FIG. 10 is a flow for explaining the overall outline of the baseball game, and FIG. 11 is a flow for explaining the system.

まず、ゲーム装置の電源が投入され、ゲーム装置が起動されると、野球ゲームプログラムが、記録媒体10からRAM12にロードされ格納される。このときには、野球ゲームを実行する上で必要となる各種の基本ゲームデータも、同時に、記録媒体10からRAM12にロードされ格納される(S1)。   First, when the game apparatus is turned on and the game apparatus is activated, a baseball game program is loaded from the recording medium 10 into the RAM 12 and stored. At this time, various basic game data necessary for executing the baseball game are simultaneously loaded from the recording medium 10 into the RAM 12 and stored (S1).

たとえば、基本ゲームデータには、3次元ゲーム空間用の各種の画像に関するデータが含まれている。3次元ゲーム空間用の各種の画像に関するデータには、たとえば、各種のオブジェクトのモデルデータ、たとえば、スタジアム用のモデルデータ、選手キャラクタ用のモデルデータ、および観客用のモデルデータ等が、含まれている。また、基本ゲームデータには、3次元ゲーム空間用のモデルデータを3次元ゲーム空間に配置するための位置座標データが、含まれている。また、基本ゲームデータには、3次元ゲーム空間に配置されたモデル(オブジェクト)を、テレビジョンモニタ20に表示するための画像データが、含まれている。画像データは、3次元ゲーム空間に配置されたモデルを、仮想カメラにより撮影することにより、生成される。さらに、基本ゲームデータには、上記システムで用いられる各種のデータも、含まれている。   For example, the basic game data includes data related to various images for a three-dimensional game space. The data relating to various images for the three-dimensional game space includes, for example, model data of various objects, for example, model data for stadiums, model data for player characters, and model data for spectators. Yes. Further, the basic game data includes position coordinate data for arranging model data for the three-dimensional game space in the three-dimensional game space. Further, the basic game data includes image data for displaying the model (object) arranged in the three-dimensional game space on the television monitor 20. The image data is generated by photographing a model arranged in the three-dimensional game space with a virtual camera. Further, the basic game data includes various data used in the above system.

なお、各モデルは、各モデルに対して固有に設定される識別データを用いて、CPU7により管理される。言い換えると、この識別データをCPU7に認識させることによって、モデル(オブジェクト)を特定したり、モデル用の画像データを、RAM12から読み出したりすることができる。   Each model is managed by the CPU 7 using identification data set uniquely for each model. In other words, by making the CPU 7 recognize this identification data, a model (object) can be specified, and model image data can be read from the RAM 12.

続いて、RAM12に格納された野球ゲームプログラムが、基本ゲームデータに基づいて、CPU7により実行される(S2)。すると、野球ゲームの起動画面がテレビジョンモニタ20に表示される。すると、野球ゲームを実行するための各種の設定画面がテレビジョンモニタ20に表示される。ここでは、たとえば、野球ゲームのプレイモードを選択するためのモード選択画面が、テレビジョンモニタ20に表示される(図示しない)。このモード選択画面において、プレイヤがコントローラ17を操作することにより、プレイモードが決定される(S3)。プレイモードには、たとえば、12球団の中からチームを選択して1試合の対戦を楽しむ対戦モード、12球団の中からチームを選択してペナントレースを戦うペナントモード、プレイヤが監督の立場でチームの選手キャラクタを育成する育成モード、プレイヤがある1人の選手キャラクタの立場になって野球ゲームを体感する成長体感モード等が、用意されている。   Subsequently, the baseball game program stored in the RAM 12 is executed by the CPU 7 based on the basic game data (S2). Then, the start screen of the baseball game is displayed on the television monitor 20. Then, various setting screens for executing the baseball game are displayed on the television monitor 20. Here, for example, a mode selection screen for selecting a play mode of the baseball game is displayed on the television monitor 20 (not shown). In the mode selection screen, the player operates the controller 17 to determine the play mode (S3). The play mode includes, for example, a battle mode in which a team is selected from 12 teams to enjoy a match of one team, a pennant mode in which a team is selected from 12 teams to play a pennant race, and the team is played by the player as a manager. A training mode for training a player character, a growth experience mode for experiencing a baseball game in the position of a player character with a player, and the like are prepared.

続いて、モード選択画面で選択されたプレイモードにおいて、各種のイベントが、CPU7により実行される(S4)。ここで実行される各種のイベントには、たとえば、自動制御プログラム(AIプログラム、Artificial Intelligence Program)に基づいてCPU7により自動制御されるイベントや、コントローラ17からの入力信号に基づいてプレイヤにより手動制御されるイベントがある。また、選手キャラクタの制御には、自動制御プログラムに基づいて選手キャラクタに命令を自動的に指示する自動制御や、コントローラ17からの入力信号に基づいて選手キャラクタに命令を直接的に指示する手動制御等がある。このように、本野球ゲームでは、コントローラ17からの指示や自動制御プログラムからの指示に応じて、イベントが制御されたり、選手キャラクタに命令が指示されたりするようになっている。   Subsequently, various events are executed by the CPU 7 in the play mode selected on the mode selection screen (S4). The various events executed here are, for example, events automatically controlled by the CPU 7 based on an automatic control program (AI program, Artificial Intelligence Program), or manually controlled by the player based on an input signal from the controller 17. There are events. In addition, the player character is controlled by automatic control for automatically instructing the player character based on an automatic control program or manual control for directly instructing the player character based on an input signal from the controller 17. Etc. Thus, in this baseball game, an event is controlled or an instruction is instructed to the player character in accordance with an instruction from the controller 17 or an instruction from the automatic control program.

なお、ここに示す自動制御プログラムとは、プレイヤに代わって、イベントに関する命令および選手キャラクタに対する命令を自動的に制御するためのプログラムである。この自動制御プログラムは、ゲームプログラムにおいて予め用意されている。   Note that the automatic control program shown here is a program for automatically controlling a command for an event and a command for a player character on behalf of a player. This automatic control program is prepared in advance in the game program.

続いて、選択されたプレイモードが終了したか否かが、CPU7により判断される(S5)。具体的には、プレイモードが終了したことを示す命令が発行されたか否かが、CPU7により判断される。そして、プレイモードが終了したことを示す命令が発行されたとCPU7により判断された場合(S5でYes)、ゲーム継続用のデータをRAM12に格納する処理が、CPU7により実行される。そして、ゲーム継続用のデータがRAM12に格納されると、この野球ゲームを終了するか否かを選択する選択画面が、テレビジョンモニタ20に表示される(S6)。そして、この選択画面において、プレイヤがコントローラ17を操作することにより、野球ゲームの終了を示す項目が選択されると(S6でYes)、野球ゲームを終了するための処理がCPU7により実行される(S7)。一方で、この選択画面において、プレイヤがコントローラ17を操作することにより、野球ゲームの継続を示す項目が選択されると(S6でNo)、ステップ3(S3)のモード選択画面が、テレビジョンモニタ20に再表示される。   Subsequently, the CPU 7 determines whether or not the selected play mode is finished (S5). Specifically, the CPU 7 determines whether or not a command indicating that the play mode has ended is issued. If the CPU 7 determines that an instruction indicating that the play mode has ended has been issued (Yes in S5), the CPU 7 executes a process of storing the game continuation data in the RAM 12. When the game continuation data is stored in the RAM 12, a selection screen for selecting whether or not to end the baseball game is displayed on the television monitor 20 (S6). When an item indicating the end of the baseball game is selected by operating the controller 17 on the selection screen (Yes in S6), the CPU 7 executes a process for ending the baseball game ( S7). On the other hand, when an item indicating continuation of the baseball game is selected by operating the controller 17 on the selection screen (No in S6), the mode selection screen in Step 3 (S3) is displayed on the television monitor. 20 is displayed again.

なお、プレイモードが終了するための命令が発行されたとCPU7に判断されない限り(S5でNo)、モード選択画面で選択されたプレイモードにおいて、各種のイベントがCPU7により実行される(S4)。   Unless the CPU 7 determines that an instruction for ending the play mode has been issued (No in S5), various events are executed by the CPU 7 in the play mode selected on the mode selection screen (S4).

次に、野球ゲームにおけるピントブレ再現システムの具体的な内容について説明する。   Next, specific contents of the focus blur reproduction system in the baseball game will be described.

ここでは、試合中の各種イベントの実行中に、本システムが実行される場合の例が、示される。   Here, an example in which the present system is executed during the execution of various events during the game is shown.

モード選択画面で選択されたプレイモードにおいて、試合が開始されると(S401)、まず、基準コントラストが、設定される(S402)。基準コントラストは、基本ゲームデータに含まれている。ここでは、最も高いコントラストが、基準コントラストとして設定される。たとえば、所定のコントラスト値、すなわち最大コントラストを表現するコントラスト値が、RAM12から読み出され、このコントラスト値が、基準コントラスト値として、CPU7に認識される。所定のコントラスト値は、256階調のグレースケール用のコントラスト値であり、128に設定されている。このコントラスト値は、予めRAM12に格納されており、必要に応じて、RAM12から読み出され、CPU7に認識される。   When a game is started in the play mode selected on the mode selection screen (S401), first, a reference contrast is set (S402). The reference contrast is included in the basic game data. Here, the highest contrast is set as the reference contrast. For example, a predetermined contrast value, that is, a contrast value expressing the maximum contrast is read from the RAM 12, and this contrast value is recognized by the CPU 7 as a reference contrast value. The predetermined contrast value is a contrast value for 256 gray scales, and is set to 128. This contrast value is stored in the RAM 12 in advance, and is read from the RAM 12 and recognized by the CPU 7 as necessary.

続いて、3次元ゲーム空間GSにオブジェクトを配置する命令が、CPU7から発行される(S403)。すると、野球ゲームでテレビジョンモニタ20に表示されるオブジェクト、たとえば、スタジアム、選手、審判、観客、空、雲、月等のようなオブジェクトが、3次元ゲーム空間GSに配置される。具体的には、各オブジェクト用の画像データ、および各オブジェクトを3次元ゲーム空間GSに配置するための位置座標データを、RAM12から読み出し、この位置座標データをCPU7に認識させることにより、各オブジェクトが、3次元ゲーム空間GSにおける上記の位置座標データが示す位置に配置される。   Subsequently, a command for placing an object in the three-dimensional game space GS is issued from the CPU 7 (S403). Then, objects displayed on the television monitor 20 in the baseball game, for example, objects such as a stadium, a player, a referee, a spectator, the sky, clouds, and the moon are arranged in the three-dimensional game space GS. Specifically, the image data for each object and the position coordinate data for arranging each object in the three-dimensional game space GS are read from the RAM 12, and the CPU 7 recognizes the position coordinate data so that each object can be recognized. The three-dimensional game space GS is arranged at the position indicated by the position coordinate data.

なお、各オブジェクトの画像データ、および各オブジェクトの初期位置を示す位置座標データは、基本ゲームデータに含まれており、RAM12に格納されている。また、たとえば、オブジェクトが移動した場合は、移動後のオブジェクトの位置を示す位置座標データが計算され、この移動後の位置座標データが、RAM12に格納される。そして、この移動後の位置座標データを用いて、各オブジェクトが、3次元ゲーム空間GSに配置される。   The image data of each object and the position coordinate data indicating the initial position of each object are included in the basic game data and are stored in the RAM 12. For example, when the object moves, position coordinate data indicating the position of the moved object is calculated, and the moved position coordinate data is stored in the RAM 12. And each object is arrange | positioned in the three-dimensional game space GS using the position coordinate data after this movement.

続いて、図3に示すように、3次元ゲーム空間GSにおける仮想カメラの視野内の領域、すなわち視錐領域Vsが、設定される(S404)。ここでは、仮想カメラが、3次元ゲーム空間GSの所定の位置Pcに配置される。すなわち、仮想カメラの視点位置Pcが、設定される。たとえば、仮想カメラの視点位置Pcを示す位置座標データを、RAM12から読み出し、この位置座標データをCPU7に認識させることにより、仮想カメラが、3次元ゲーム空間GSにおける上記の位置座標データが示す位置Pcに配置される。なお、仮想カメラの初期の視点位置Pcを示す位置座標データは、基本ゲームデータに含まれており、RAM12に格納されている。また、仮想カメラを移動する命令がCPU7から発行された場合は、移動後の位置座標データがCPU7に認識され、この位置座標データが示す位置が、仮想カメラの視点位置Pcとして設定される。   Subsequently, as shown in FIG. 3, a region in the visual field of the virtual camera in the three-dimensional game space GS, that is, a view cone region Vs is set (S404). Here, the virtual camera is arranged at a predetermined position Pc in the three-dimensional game space GS. That is, the viewpoint position Pc of the virtual camera is set. For example, the position coordinate data indicating the viewpoint position Pc of the virtual camera is read from the RAM 12 and the CPU 7 recognizes the position coordinate data so that the virtual camera can indicate the position Pc indicated by the position coordinate data in the three-dimensional game space GS. Placed in. Note that the position coordinate data indicating the initial viewpoint position Pc of the virtual camera is included in the basic game data and stored in the RAM 12. When a command for moving the virtual camera is issued from the CPU 7, the position coordinate data after the movement is recognized by the CPU 7, and the position indicated by the position coordinate data is set as the viewpoint position Pc of the virtual camera.

なお、ここでは、3次元ゲーム空間GSにおける水平面が、X軸およびY軸によって定義され、3次元ゲーム空間GSにおける垂直上方が、Z軸が向く方向に定義されている。また、原点、X軸が向く方向、およびY軸が向く方向は、ゲームプログラムにおいて予め規定されている。   Here, the horizontal plane in the three-dimensional game space GS is defined by the X axis and the Y axis, and the vertically upward direction in the three-dimensional game space GS is defined in the direction in which the Z axis faces. Further, the origin, the direction in which the X axis faces, and the direction in which the Y axis faces are defined in advance in the game program.

次に、仮想カメラの視点位置Pcを基準として、仮想カメラの注視点Pfが、3次元ゲーム空間GSの所定の位置に配置される。たとえば、仮想カメラの視点位置Pcから所定の距離を隔てた位置に、仮想カメラの注視点Pfが配置される。言い換えると、仮想カメラの視点位置Pcから所定の距離を隔てた位置を規定するための位置座標データを、RAM12から読み出し、この位置座標データをCPU7に認識させることにより、仮想カメラの注視点Pfが、3次元ゲーム空間GSにおける上記の位置座標データが示す位置に配置される。なお、仮想カメラの初期の注視点Pfを示す位置座標データは、基本ゲームデータに含まれており、RAM12に格納されている。   Next, with the viewpoint position Pc of the virtual camera as a reference, the gazing point Pf of the virtual camera is arranged at a predetermined position in the three-dimensional game space GS. For example, the gazing point Pf of the virtual camera is arranged at a position spaced a predetermined distance from the viewpoint position Pc of the virtual camera. In other words, the position coordinate data for defining a position that is separated from the viewpoint position Pc of the virtual camera by a predetermined distance is read from the RAM 12, and the CPU 7 recognizes the position coordinate data so that the gazing point Pf of the virtual camera is determined. The three-dimensional game space GS is arranged at the position indicated by the position coordinate data. The position coordinate data indicating the initial gazing point Pf of the virtual camera is included in the basic game data and stored in the RAM 12.

このようにして、仮想カメラの注視点Pfが設定されると、仮想カメラの視点位置Pcとカメラの注視点Pfとを結ぶ直線(基準線)を基準として、仮想カメラの画角αが、設定される。たとえば、仮想カメラの画角αは、基準線を中心とした水平方向の画角αxyと、基準線を中心とした垂直方向の画角αyzとから構成されている。これらの画角αxy,αyzに対応する角度データを、RAM12から読み出し、この角度データをCPU7に認識させることにより、画角αが設定される。すると、仮想カメラの画角内の領域(画角内領域)が、決定される。なお、仮想カメラの画角に対応する角度データは、基本ゲームデータに含まれており、RAM12に格納されている。   When the gazing point Pf of the virtual camera is set in this way, the angle of view α of the virtual camera is set with reference to a straight line (reference line) connecting the viewpoint position Pc of the virtual camera and the gazing point Pf of the camera. Is done. For example, the field angle α of the virtual camera is composed of a horizontal field angle αxy centered on the reference line and a vertical field angle αyz centered on the reference line. The angle data corresponding to these angle of view αxy and αyz is read from the RAM 12, and the angle data is set by causing the CPU 7 to recognize the angle data. Then, an area within the angle of view of the virtual camera (area within the angle of view) is determined. Note that the angle data corresponding to the angle of view of the virtual camera is included in the basic game data and stored in the RAM 12.

続いて、画角内領域において、カメラ視点側の面(ニアー面)S1およびカメラ視点から離反する側の面(ファー面)S2が、設定される。これにより、ニアー面S1とファー面S2との間の領域が、視錐領域Vsとして、3次元ゲーム空間GSに設定される。たとえば、基準線上において仮想カメラの位置Pcから所定の第1距離を隔てた位置の位置座標データを、CPU7に認識させることにより、ニアー面S1が設定される。また、基準線上において仮想カメラの位置Pcから所定の第2距離を隔てた位置の位置座標データを、CPU7に認識させることにより、ファー面S2が設定される。すると、画角内領域におけるニアー面S1とファー面S2との間の領域が、視錐領域Vsとして定義される。   Subsequently, a camera viewpoint side surface (near surface) S1 and a surface (far surface) S2 far from the camera viewpoint are set in the in-view angle region. Thereby, a region between the near surface S1 and the fur surface S2 is set as the view cone region Vs in the three-dimensional game space GS. For example, the near plane S1 is set by causing the CPU 7 to recognize position coordinate data at a position separated from the virtual camera position Pc by a predetermined first distance on the reference line. Further, the fur surface S2 is set by causing the CPU 7 to recognize position coordinate data at a position that is a predetermined second distance from the position Pc of the virtual camera on the reference line. Then, a region between the near surface S1 and the fur surface S2 in the in-view angle region is defined as a viewing cone region Vs.

なお、ここでは、第1距離とこの第1距離より長い第2距離とは、ゲームプログラムにおいて予め規定されている。そして、この第1距離および第2距離に基づいて、第1位置の位置座標データおよび第2位置の位置座標データが、CPU7により算出され、RAM12に格納される。これにより、ニアー面S1およびファー面S2が設定される。   Here, the first distance and the second distance longer than the first distance are defined in advance in the game program. Based on the first distance and the second distance, the position coordinate data of the first position and the position coordinate data of the second position are calculated by the CPU 7 and stored in the RAM 12. Thereby, the near surface S1 and the fur surface S2 are set.

このようにして、視錐領域Vsが設定されると、この視錐空間Vsの8つの隅角部v1,v2,v3,v4,v5,v6,v7,v8の位置を示す位置座標データが、CPU7に認識され、RAM12に格納される。ここでは、これら隅角部v1,v2,v3,v4,v5,v6,v7,v8の位置を示す位置座標データを、CPU7に認識させることによって、3次元ゲーム空間GSにおける視錐空間Vsの位置および範囲が、定義される。   When the viewing cone area Vs is set in this way, the position coordinate data indicating the positions of the eight corners v1, v2, v3, v4, v5, v6, v7, v8 of the viewing cone space Vs are Recognized by the CPU 7 and stored in the RAM 12. Here, the position coordinate data indicating the positions of the corner portions v1, v2, v3, v4, v5, v6, v7, v8 is recognized by the CPU 7, thereby the position of the view cone space Vs in the three-dimensional game space GS. And ranges are defined.

続いて、図4に示すように、仮想カメラの視点位置Pcを基準として仮想カメラから離れる方向に、視錐領域Vsが、複数の区分領域Vk1,Vk2,Vk3に分割される(S405)。ここでは、たとえば、視錐領域Vsが、仮想カメラから離れる方向に3つに分割される。この場合、まず、ニアー面S1とファー面S2との間における基準線の長さを等間隔で3分割する処理が、CPU7により実行される。次に、ニアー面S1を基準として、ニアー面S1からファー面S2に向かう方向へ所定の距離を隔てた位置(3分割された1分割目の位置)に対応する位置座標データを、CPU7に認識させることにより、第1区分領域Vk1を定義するための第1面d1が、設定される。そして、この第1面d1を基準として、ニアー面S1からファー面S2に向かう方向へ所定の距離を隔てた位置(3分割された2分割目の位置)に、第2区分領域Vk2を定義するための第2面d2が、設定される。すると、視錐領域Vsを、仮想カメラから離れる方向に3つに分割した区分領域、すなわち第1区分領域Vk1、第2区分領域Vk2、および第3区分領域Vk3が、形成される。   Subsequently, as shown in FIG. 4, the view frustum region Vs is divided into a plurality of divided regions Vk1, Vk2, and Vk3 in a direction away from the virtual camera with reference to the viewpoint position Pc of the virtual camera (S405). Here, for example, the view frustum region Vs is divided into three in a direction away from the virtual camera. In this case, first, the CPU 7 executes a process of dividing the length of the reference line between the near surface S1 and the fur surface S2 into three at equal intervals. Next, the CPU 7 recognizes the position coordinate data corresponding to a position (a position of the first divided portion) that is separated from the near surface S1 by a predetermined distance in the direction from the near surface S1 toward the far surface S2. By doing so, the first surface d1 for defining the first segmented region Vk1 is set. Then, with this first surface d1 as a reference, a second partitioned region Vk2 is defined at a position (position of the second divided third) that is a predetermined distance away from the near surface S1 toward the far surface S2. A second surface d2 is set. As a result, a divided area obtained by dividing the view frustum area Vs into three in the direction away from the virtual camera, that is, a first divided area Vk1, a second divided area Vk2, and a third divided area Vk3 are formed.

なお、各区分領域Vk1,Vk2,Vk3は、上述した視錐領域Vsと同様に、各区分領域Vk1,Vk2,Vk3の8つの隅角部の位置を示す位置座標データを、CPU7に認識させることにより、3次元ゲーム空間GSにおける各区分領域Vk1,Vk2,Vk3の位置および範囲が、定義される。   Each segmented region Vk1, Vk2, Vk3 causes the CPU 7 to recognize position coordinate data indicating the positions of the eight corners of each segmented region Vk1, Vk2, Vk3, similar to the aforementioned view frustum region Vs. Thus, the positions and ranges of the respective divided areas Vk1, Vk2, and Vk3 in the three-dimensional game space GS are defined.

続いて、図4に示すように、仮想カメラのピントを最終的に合わせる主オブジェクトM1が、設定される(S406)。たとえば、3次元ゲーム空間GSの視錐領域Vsの内部に配置されたオブジェクトの中から、仮想カメラのピントを最終的に合わせるオブジェクトが、主オブジェクトM1として設定される。また、ここでは、主オブジェクトM1にピントを合わせるためのピント位置P1が、設定される。たとえば、主オブジェクトM1の所定の位置にピントを合わせるための位置座標データを、RAM12から読み出し、この位置座標データをCPU7に認識させることにより、主オブジェクトM1のピント位置P1が、設定される。なお、主オブジェクトM1、および主オブジェクトM1のピント位置P1は、場面ごとに、ゲームプログラムにおいて予め規定される。   Subsequently, as shown in FIG. 4, a main object M1 for finally adjusting the focus of the virtual camera is set (S406). For example, an object that finally adjusts the focus of the virtual camera is set as the main object M1 among the objects arranged inside the view cone region Vs of the three-dimensional game space GS. Here, a focus position P1 for setting the focus on the main object M1 is set. For example, position coordinate data for focusing on a predetermined position of the main object M1 is read from the RAM 12, and the CPU 7 recognizes this position coordinate data, thereby setting the focus position P1 of the main object M1. The main object M1 and the focus position P1 of the main object M1 are defined in advance in the game program for each scene.

上記のように、視錐領域Vsが設定され、主オブジェクトM1にピントが設定されると、副オブジェクトにピントを設定するためのピント設定用のシート画像SP1,SP2が、生成される(S407)。詳細には、図5に示すように、主オブジェクトM1を含む区分領域(第2区分領域Vk2)を除いた他の区分領域(第1区分領域Vk1、第3区分領域Vk3)の内部に配置されたオブジェクトを、視錐領域Vsの仮想カメラ側の境界面S1(投影面)に、投影することによって、ピント設定用のシート画像SG1,SG2が、生成される。この場合、まず、第1区分領域Vk1の内部(図5(a)の斜線部)に配置された全てのオブジェクトを、投影面S1に投影する処理を、CPU7に実行させることにより、ピント設定用の第1シート画像SG1が、生成される。すると、このピント設定用の第1シート画像SG1が、RAM12に格納される。次に、第3区分領域Vk3の内部(図5(b)の斜線部)に配置された全てのオブジェクトを、投影面S1に投影する処理を、CPU7に実行させることにより、ピント設定用の第2シート画像SG2が、生成される。すると、このピント設定用の第2シート画像SG2が、RAM12に格納される。   As described above, when the view cone region Vs is set and the focus is set on the main object M1, the focus setting sheet images SP1 and SP2 for setting the focus on the sub-object are generated (S407). . In detail, as shown in FIG. 5, it is arranged inside other partitioned areas (first partitioned area Vk1, third partitioned area Vk3) excluding the partitioned area (second partitioned area Vk2) including the main object M1. By projecting the object onto the boundary surface S1 (projection plane) on the virtual camera side of the viewing cone area Vs, sheet images SG1 and SG2 for focus setting are generated. In this case, first, the CPU 7 executes a process of projecting all the objects arranged in the first segmented region Vk1 (the hatched portion in FIG. 5A) onto the projection plane S1, thereby setting the focus. The first sheet image SG1 is generated. Then, the first sheet image SG1 for focus setting is stored in the RAM 12. Next, by causing the CPU 7 to execute a process of projecting all the objects arranged inside the third segmented region Vk3 (the shaded area in FIG. 5B) onto the projection plane S1, the focus setting second A two-sheet image SG2 is generated. Then, the second sheet image SG2 for focus setting is stored in the RAM 12.

ここでRAM12に格納されたピント設定用のシート画像(ピント設定用の第1シート画像SG1、ピント設定用の第2シート画像SG2)は、主オブジェクトM1を基準として、仮想カメラ側および仮想カメラから離反する側に配置された副オブジェクトに対して、ピントを設定するためのものである。   Here, the focus setting sheet images (first focus image SG1 for focus setting and second sheet image SG2 for focus setting) stored in the RAM 12 are obtained from the virtual camera side and the virtual camera on the basis of the main object M1. This is for setting the focus on the sub-objects arranged on the side away from each other.

続いて、ピント設定用のシート画像を複数の小画像に分割し(S408)、複数の小画像それぞれのコントラスト情報を調査することによって、ピント設定用のシート画像のコントラストCpが設定される(S409)。この場合、まず、ピント設定用の第1シート画像SG1およびピント設定用の第2シート画像SG2それぞれのカラーの色情報を、グレースケールの色情報に変換する処理が、CPU7により実行される。これにより、ピント設定用の第1シート画像SG1およびピント設定用の第2シート画像SG2それぞれが、RGB階調の画像から、256階調のグレースケールの画像へと変換される。   Subsequently, the focus setting sheet image is divided into a plurality of small images (S408), and the contrast information of each of the plurality of small images is examined to set the contrast Cp of the focus setting sheet image (S409). ). In this case, first, the CPU 7 executes processing for converting the color information of the colors of the first sheet image SG1 for focus setting and the second sheet image SG2 for focus setting into color information of gray scale. Thus, the focus setting first sheet image SG1 and the focus setting second sheet image SG2 are each converted from an RGB gradation image into a 256 gradation gray scale image.

次に、図6(a)に示すように、ピント設定用の第1シート画像SG1およびピント設定用の第2シート画像SG2それぞれを、所定数の小画像に区分する処理が、CPU7により実行される。たとえば、図6(b)に示すように、ピント設定用の第1シート画像SG1およびピント設定用の第2シート画像SG2それぞれの各小画像が、「2ピクセル×2ピクセル」から構成されるように、各ピント設定用のシート画像は区分される。ここでは、「1ピクセル×1ピクセル」に対して、0以上256以下の値を有するグレースケールの色情報データが割り当てられている。このため、1つの小画像は、4つのグレースケールの色情報データを有する(図6(b)を参照)。ここでは、1つの小画像に含まれる4つのグレースケールの色情報データを平均する処理が、CPU7により実行される。そして、この平均値が、この小画像のコントラスト値C(i,j)として設定される。   Next, as shown in FIG. 6A, the CPU 7 executes a process for dividing the first sheet image SG1 for focus setting and the second sheet image SG2 for focus setting into a predetermined number of small images. The For example, as shown in FIG. 6B, each small image of the first sheet image SG1 for focus setting and the second sheet image SG2 for focus setting is composed of “2 pixels × 2 pixels”. Further, each focus setting sheet image is divided. Here, gray-scale color information data having a value of 0 to 256 is assigned to “1 pixel × 1 pixel”. For this reason, one small image has four gray scale color information data (see FIG. 6B). Here, the CPU 7 executes a process of averaging four gray scale color information data included in one small image. This average value is set as the contrast value C (i, j) of this small image.

なお、図6は、説明を容易にするために、1つ1つの小画像を拡大して、描いている。図6(a)では、横方向iに9分割、縦方向jに8分割された図を、描いている。   In FIG. 6, each small image is enlarged and drawn for easy explanation. FIG. 6A illustrates a diagram in which the horizontal direction i is divided into nine and the vertical direction j is divided into eight.

続いて、複数の小画像それぞれにおいて、隣接する小画像のコントラスト値C(i,j)の差を計算する処理が、全ての隣接する1組の小画像に対して実行される。ここでは、たとえば、隣接する小画像のコントラスト値の差が、「dC(j)=C(m+1,j)−C(m,j);mは、1から8までの自然数」と表記される。図6(c)では、j=4におけるコントラスト値C(i,4)が、示されている。この場合、隣接する小画像のコントラスト値の差dC(4)は、「C(m+1,4)−C(m,4);mは、1から8までの自然数」となる。   Subsequently, in each of the plurality of small images, the process of calculating the difference between the contrast values C (i, j) of the adjacent small images is performed on all the adjacent sets of small images. Here, for example, the difference between the contrast values of adjacent small images is expressed as “dC (j) = C (m + 1, j) −C (m, j); m is a natural number from 1 to 8”. . In FIG. 6C, the contrast value C (i, 4) at j = 4 is shown. In this case, the contrast value difference dC (4) between adjacent small images is “C (m + 1,4) −C (m, 4); m is a natural number from 1 to 8.”

そして、全てのコントラスト値C(i,j)の差の絶対値|dC(j)|の中から最大値|dC(j)|maxを検出する処理が、CPU7により実行される。そして、この最大値を有する1組の小画像の2つのコントラスト値C(m+1,j),C(m,j)の中で、値が小さい方のコントラスト値が、CPU7に認識される。すると、このコントラスト値が、ピント設定用のシート画像のコントラストCpとして設定される。たとえば、図6(c)では、隣接する2つのコントラスト値の差の絶対値の最大は、「|dC(4)|max=|C(7,4)−C(6,4)|」である。このため、この場合は、コントラストC(7,4)(<C(6,4))が、CPU7に認識され、ピント設定用のシート画像のコントラストCpとして設定される。   Then, the CPU 7 executes a process of detecting the maximum value | dC (j) | max from the absolute values | dC (j) | of the differences between all the contrast values C (i, j). The CPU 7 recognizes the smaller contrast value of the two contrast values C (m + 1, j) and C (m, j) of the set of small images having the maximum value. Then, this contrast value is set as the contrast Cp of the sheet image for focus setting. For example, in FIG. 6C, the maximum absolute value of the difference between two adjacent contrast values is “| dC (4) | max = | C (7,4) −C (6,4) |”. is there. Therefore, in this case, the contrast C (7, 4) (<C (6, 4)) is recognized by the CPU 7 and set as the contrast Cp of the focus setting sheet image.

なお、説明を容易にするために、図6(c)では、「j=4」の場合だけを用いて、ピント設定用のシート画像のコントラストCpを設定する場合の例を示したが、実際には、「j=1〜8」全てに対して上記の処理を実行し、これらの最大値|dC(j)|maxに基づいて、ピント設定用のシート画像のコントラストCpが設定される。   For ease of explanation, FIG. 6C shows an example of setting the contrast Cp of the sheet image for focus setting using only the case of “j = 4”. The above processing is executed for all “j = 1 to 8”, and the contrast Cp of the sheet image for focus setting is set based on these maximum values | dC (j) | max.

具体的には、隣接する2つの小画像におけるコントラスト値の落差の値|dC(j)|が、最も大きいものが、ピント設定用のシート画像のコントラストCpとして設定される。この処理は、ピント設定用の第1シート画像SG1およびピント設定用の第2シート画像SG2それぞれに対して実行され、ピント設定用の第1シート画像SG1およびピント設定用の第2シート画像SG2それぞれに対して、コントラストが設定される。なお、以下では、コントラスト値の落差|dC(j)|が最も大きい2つの小画像の中で、コントラスト値C(i,j)が小さい方の小画像を、ピント用の小画像と呼ぶ。   Specifically, the largest contrast value drop value | dC (j) | between two adjacent small images is set as the contrast Cp of the sheet image for focus setting. This process is executed for each of the first sheet image SG1 for focus setting and the second sheet image SG2 for focus setting, and each of the first sheet image SG1 for focus setting and the second sheet image SG2 for focus setting. Contrast is set. Hereinafter, among the two small images having the largest contrast value difference | dC (j) |, the small image having the smaller contrast value C (i, j) is referred to as a small image for focus.

ここでは、水平方向に隣接する小画像のコントラスト値C(i,j)の差の絶対値|dC(j)|を計算することによって、ピント設定用のシート画像のコントラストCpが設定される。なお、ここでは、水平方向に隣接する小画像のコントラスト値C(i,j)の差dC(j)を用いる場合の例を示しているが、垂直方向に隣接する小画像のコントラスト値C(i,j)の差dC(i)を用いたり、水平方向に隣接する小画像のコントラスト値の差dC(j)と、垂直方向に隣接する小画像のコントラスト値C(i,j)の差dC(i)との両方を同時に用いたりしても良い。   Here, the contrast Cp of the sheet image for focus setting is set by calculating the absolute value | dC (j) | of the difference between the contrast values C (i, j) of the small images adjacent in the horizontal direction. Here, an example in which the difference dC (j) between the contrast values C (i, j) of small images adjacent in the horizontal direction is used, but the contrast value C ( i, j) difference dC (i) or the difference between contrast values dC (j) of small images adjacent in the horizontal direction and the difference between contrast values C (i, j) of small images adjacent in the vertical direction Both dC (i) may be used at the same time.

また、ここでは、隣接する2つの小画像におけるコントラスト値の落差|dC(i)|が、最も大きいものを、ピント設定用のシート画像のコントラストCpとして用いる場合の例が示されるが、ピント設定用のシート画像のコントラストCpの設定形態は、この実施形態に限定されず、どのようにしても良い。たとえば、複数の小画像に対する複数のコントラスト値C(i,j)の中の最大コントラスト値C(i,j)_maxを、ピント設定用のシート画像のコントラストCpに設定するようにしても良い。   In addition, here, an example in which the largest contrast value drop | dC (i) | between two adjacent small images is used as the contrast Cp of the sheet image for focus setting is shown. The setting form of the contrast Cp of the sheet image for use is not limited to this embodiment, and any method may be used. For example, the maximum contrast value C (i, j) _max among the plurality of contrast values C (i, j) for a plurality of small images may be set as the contrast Cp of the focus setting sheet image.

続いて、ピント設定用のシート画像のコントラストCp、たとえば上記のコントラスト値の差の最大絶対値|dC(j)|maxが、所定の範囲内であるか否かが、CPU7により判断される(S410)。この判断処理は、ピント設定用の第1シート画像SG1およびピント設定用の第2シート画像SG2それぞれに対して、実行される。具体的には、ピント設定用の第1シート画像SG1およびピント設定用の第2シート画像SG2それぞれの最大絶対値|dC(j)|maxが、この範囲の下限値以上且つ上限値以下であるか否かが、CPU7により判断される。この判断で用いられる所定の範囲は、ゲームプログラムにおいて予め規定されている。すなわち、範囲の下限値および上限値が、RAM12に格納されており、判断処理時には、RAM12から読み出される。   Subsequently, the CPU 7 determines whether or not the contrast Cp of the sheet image for focus setting, for example, the maximum absolute value | dC (j) | max of the difference between the contrast values is within a predetermined range ( S410). This determination process is executed for each of the first sheet image SG1 for focus setting and the second sheet image SG2 for focus setting. Specifically, the maximum absolute value | dC (j) | max of each of the first sheet image SG1 for focus setting and the second sheet image SG2 for focus setting is not less than the lower limit value and not more than the upper limit value of this range. Is determined by the CPU 7. The predetermined range used in this determination is defined in advance in the game program. That is, the lower limit value and the upper limit value of the range are stored in the RAM 12, and are read from the RAM 12 during the determination process.

このような判別処理を行うことによって、コントラストが高い部分が存在する場合にのみ、ピントブレを発生させることができる。また、この判別処理は、ピントブレを発生させるか否かの判別にも用いることができる。たとえば、この判別処理において、ピント設定用の第1シート画像SG1のコントラスト、およびピント設定用の第2シート画像SG2のコントラストが、所定の範囲内である場合は、ピントブレを発生させる。一方で、両者のコントラストが、所定の範囲外である場合は、ピントブレを発生させない。このように処理することによって、ピントブレの発生の有無を、自動制御することができる。   By performing such discrimination processing, it is possible to generate focus blur only when a portion with high contrast exists. This determination process can also be used to determine whether or not to cause focus blur. For example, in this determination processing, when the contrast of the first sheet image SG1 for focus setting and the contrast of the second sheet image SG2 for focus setting are within a predetermined range, a focus blur is generated. On the other hand, when the contrast between the two is out of the predetermined range, no focus blur occurs. By processing in this way, it is possible to automatically control whether or not focus blur has occurred.

続いて、ピント設定用の第1シート画像SG1のコントラストCp1(第1シート画像SG1のコントラスト値の差の最大絶対値|dC1(j)|max)、およびピント設定用の第2シート画像SG2のコントラストCp2(第2シート画像SG2のコントラスト値の差の最大絶対値|dC2(j)|max)の少なくともいずれか一方が、所定の範囲内であった場合(S410でYes)、ピントズレが発生したときにピントを合わせる対象、すなわち副オブジェクトH1,H2が、設定される(S411)。ここでは、主オブジェクトM1を基準として、仮想カメラ側に所定の距離以上近接した位置に存在するオブジェクト、および仮想カメラから所定の距離以上離反した位置に存在するオブジェクトの中の少なくとも1つのオブジェクトが、副オブジェクトH1,H2として選択される。以下では、仮想カメラ側の副オブジェクトを「H1」と表記し、仮想カメラ側から離反する側の副オブジェクトを「H2」と表記する。   Subsequently, the contrast Cp1 of the first sheet image SG1 for focus setting (the maximum absolute value | dC1 (j) | max of the difference in contrast value of the first sheet image SG1) and the second sheet image SG2 for focus setting When at least one of the contrast Cp2 (maximum absolute value | dC2 (j) | max of the difference in contrast value of the second sheet image SG2) is within a predetermined range (Yes in S410), a focus shift has occurred. Objects to be focused at times, that is, sub-objects H1 and H2 are set (S411). Here, on the basis of the main object M1, at least one object among the object existing at a position closer to the virtual camera side by a predetermined distance and the object existing at a position more than the predetermined distance from the virtual camera is: Selected as sub-objects H1, H2. In the following, the sub-object on the virtual camera side is denoted as “H1”, and the sub-object on the side away from the virtual camera side is denoted as “H2”.

なお、ここでは、主オブジェクトM1から、仮想カメラ側に存在するオブジェクトまでの所定の距離は、主オブジェクトM1から第1面d1までの距離であり、主オブジェクトM1から、仮想カメラから離反する側のオブジェクトまでの所定の距離は、主オブジェクトM1から第2面d2までの距離である。   Here, the predetermined distance from the main object M1 to the object existing on the virtual camera side is the distance from the main object M1 to the first surface d1, and is on the side away from the virtual camera from the main object M1. The predetermined distance to the object is a distance from the main object M1 to the second surface d2.

たとえば、ピント設定用の第1シート画像SG1のコントラストCp1が、所定の範囲内であった場合、ピント設定用の第1シート画像SG1のコントラストCp1を規定したときに用いられた小画像が、CPU7に再認識され、この小画像の位置座標データが、CPU7に認識される。これにより、ピント用の第1小画像の位置PS1が設定される。このピント用の第1小画像の位置PS1を規定するための上記の位置座標データは、視錐領域Vsの仮想カメラ側の境界面S1上(投影面上)に定義される。また、ピント用の第1小画像の位置PS1は、小画像の重心に定義される。   For example, when the contrast Cp1 of the first sheet image SG1 for focus setting is within a predetermined range, the small image used when the contrast Cp1 of the first sheet image SG1 for focus setting is defined is the CPU 7. The position coordinate data of the small image is recognized by the CPU 7. Thereby, the position PS1 of the first small image for focus is set. The position coordinate data for defining the position PS1 of the first small image for focusing is defined on the boundary surface S1 (on the projection surface) on the virtual camera side of the view cone region Vs. Further, the position PS1 of the first small image for focusing is defined at the center of gravity of the small image.

同様に、ピント設定用の第2シート画像SG2のコントラストCp2が、所定の範囲内であった場合、ピント設定用の第2シート画像SG2のコントラストCp2を規定したときに用いられた小画像が、CPU7に再認識され、この小画像の位置座標データが、CPU7に認識される。これにより、ピント用の第2小画像の位置PS2が設定される。このピント用の第2小画像の位置PS2を規定するための上記の位置座標データは、視錐領域Vsの仮想カメラ側の境界面S1上(投影面上)に定義される。また、ピント用の第2小画像の位置PS2は、小画像の重心に定義される。   Similarly, when the contrast Cp2 of the second sheet image SG2 for focus setting is within a predetermined range, the small image used when the contrast Cp2 of the second sheet image SG2 for focus setting is defined, Re-recognized by the CPU 7, the position coordinate data of this small image is recognized by the CPU 7. Thereby, the position PS2 of the second small image for focus is set. The position coordinate data for defining the position PS2 of the second small image for focusing is defined on the boundary surface S1 (on the projection surface) on the virtual camera side of the view cone region Vs. Further, the position PS2 of the second small image for focusing is defined at the center of gravity of the small image.

次に、図7に示すように、仮想カメラの位置から、境界面S1上におけるピント用の第1小画像の位置PS1へと延びる直線CL1が、3次元ゲーム空間GSに設定される。この直線CL1は、仮想カメラの位置座標データおよびピント用の小画像の位置座標データに基づいて、定義される。そして、この直線CL1が第1区分領域Vk1の内部で衝突するオブジェクトの位置座標データが、CPU7に認識される。また、この位置座標データは、RAM12に格納され、ピントズレが発生したときのピント位置P2の位置座標データとして用いられる。さらに、この位置座標データに基づいて、直線CL1が衝突したオブジェクトが特定され、このオブジェクトの識別データが、CPU7に認識される。このようにして、ピントズレが発生したときのピント位置P2、および主オブジェクトM1を基準として仮想カメラ側に位置する副オブジェクトH1が、設定される。以下では、このピントズレ用のピント位置P2を、第1区分領域内のピント位置P2と呼び、この副オブジェクトを、第1区分領域内の副オブジェクトH1と呼ぶ。   Next, as shown in FIG. 7, a straight line CL1 extending from the position of the virtual camera to the position PS1 of the first small image for focusing on the boundary surface S1 is set in the three-dimensional game space GS. The straight line CL1 is defined based on the position coordinate data of the virtual camera and the position coordinate data of the small image for focus. Then, the CPU 7 recognizes the position coordinate data of the object with which the straight line CL1 collides inside the first segmented region Vk1. The position coordinate data is stored in the RAM 12 and used as position coordinate data of the focus position P2 when a focus shift occurs. Further, based on the position coordinate data, the object with which the straight line CL1 collided is specified, and the identification data of this object is recognized by the CPU 7. In this way, the focus position P2 when the focus shift occurs and the sub-object H1 positioned on the virtual camera side with the main object M1 as a reference are set. Hereinafter, the focus position P2 for defocusing is referred to as a focus position P2 in the first segmented area, and this sub-object is referred to as a sub-object H1 in the first segmented area.

また、以下では、第3区分領域Vk3におけるピントズレ用のピント位置P3を、第3区分領域内のピント位置P3と呼び、このピントズレ用のピント位置P3が設定されるオブジェクトを、第3区分領域内の副オブジェクトH2と呼ぶ。すると、図7に示すように、第3区分領域内のピント位置P3、および第3区分領域内の副オブジェクトH2も、第1区分領域内の副オブジェクトH1と同様の形態で、設定される。たとえば、仮想カメラの位置Pcから、境界面S1上におけるピント用の第2小画像の位置PS2へと延びる直線CL2が、第3区分領域Vk3の内部で衝突するオブジェクトの位置が、第3区分領域内のピント位置P3として設定される。また、ここで直線CL2が衝突したオブジェクトが、第3区分領域内の副オブジェクトH2として設定される。詳細については、第1区分領域内の副オブジェクトH1の設定と同じであるので、ここでは省略する。なお、第3区分領域内の副オブジェクトH2は、主オブジェクトM1を基準として仮想カメラから離反する側に位置するオブジェクトである。   In the following, the focus position P3 for defocusing in the third segmented area Vk3 is referred to as the focus position P3 in the third segmented area, and the object for which the focus position P3 for focus is set is defined in the third segmented area Vk3. Is called the sub-object H2. Then, as shown in FIG. 7, the focus position P3 in the third partitioned area and the secondary object H2 in the third partitioned area are also set in the same form as the secondary object H1 in the first partitioned area. For example, the position of an object in which a straight line CL2 extending from the virtual camera position Pc to the focus second small image position PS2 on the boundary surface S1 collides within the third divided area Vk3 is the third divided area. Is set as the focus position P3. Here, the object with which the straight line CL2 collides is set as the sub-object H2 in the third segmented area. The details are the same as the setting of the sub-object H1 in the first segment area, and are omitted here. Note that the sub-object H2 in the third segment area is an object located on the side away from the virtual camera with the main object M1 as a reference.

なお、ピント設定用の第1シート画像SG1のコントラストCp1(第1シート画像SG1のコントラスト値の差の最大絶対値|dC1(j)|max)、およびピント設定用の第2シート画像SG2のコントラストCp2(第2シート画像SG2のコントラスト値の差の最大絶対値|dC2(j)|max)が、所定の範囲外であった場合(S410でNo)、副オブジェクトH1,H2は設定されず、ピントブレは発生しない。この場合は、ピントがブレることのない画像が、テレビジョンモニタ20に表示され、ステップ403(S403)の処理が、CPU7により実行される。   Note that the contrast Cp1 of the first sheet image SG1 for focus setting (the maximum absolute value | dC1 (j) | max of the difference in contrast value of the first sheet image SG1) and the contrast of the second sheet image SG2 for focus setting If Cp2 (maximum absolute value | dC2 (j) | max of difference in contrast value of the second sheet image SG2) is outside the predetermined range (No in S410), the sub-objects H1 and H2 are not set, There is no focus blur. In this case, an unfocused image is displayed on the television monitor 20, and the process of step 403 (S403) is executed by the CPU 7.

続いて、上記のように副オブジェクトH1,H2が設定された場合、主オブジェクトM1、および少なくとも1つの副オブジェクトH1,H2に対する、仮想カメラのピントを合わせるピント順序PJが、設定される(S412)。詳細には、最終的にピントを合わせるオブジェクトが、主オブジェクトM1となるように、少なくとも1つの副オブジェクトH1,H2、主オブジェクトM1の順に、ピント順序PJが設定される。   Subsequently, when the sub objects H1 and H2 are set as described above, the focus order PJ for focusing the virtual camera on the main object M1 and at least one sub object H1 and H2 is set (S412). . Specifically, the focus order PJ is set in the order of at least one of the sub-objects H1, H2 and the main object M1 so that the object to be finally focused becomes the main object M1.

たとえば、第1区分領域内の副オブジェクトH1が存在する場合、基準コントラストと、ピント設定用の第1シート画像SG1のコントラストCp1との差の絶対値を計算する処理が、CPU7により実行される。また、第3区分領域内の副オブジェクトH2が存在する場合、基準コントラストと、ピント設定用の第2シート画像SG2のコントラストCp2との差の絶対値を計算する処理が、CPU7により実行される。そして、前者の計算結果と後者の計算結果とを比較することにより、上記の差の絶対値が小さい順に、ピントを合わせる順序が上位になるように、ピント順序PJが設定される。   For example, when the sub object H1 exists in the first segmented area, the CPU 7 executes a process of calculating the absolute value of the difference between the reference contrast and the contrast Cp1 of the first sheet image SG1 for focus setting. When the sub-object H2 exists in the third segmented area, the CPU 7 executes a process for calculating the absolute value of the difference between the reference contrast and the contrast Cp2 of the focus setting second sheet image SG2. Then, by comparing the former calculation result and the latter calculation result, the focus order PJ is set so that the order of focusing is higher in the order in which the absolute value of the difference is smaller.

たとえば、前者の計算結果が後者の計算結果より小さい場合、第1区分領域内の副オブジェクトH1にピントを合わせる順序は、第3区分領域内の副オブジェクトH2にピントを合わせる順序より、上位になる。一方で、前者の計算結果が後者の計算結果より大きい場合、第1区分領域内の副オブジェクトH1にピントを合わせる順序は、第3区分領域内の副オブジェクトH2にピントを合わせる順序より、下位になる。このようにして、各副オブジェクトH1,H2に対するピント順序PJが設定されると、主オブジェクトM1にピントを合わせる順序が最下位になるように、ピント順序PJが設定される。このようにして、最終的にピントを合わせるオブジェクトが主オブジェクトM1となるように、ピント順序PJが設定される。   For example, when the former calculation result is smaller than the latter calculation result, the order of focusing on the sub-object H1 in the first division area is higher than the order of focusing on the sub-object H2 in the third division area. . On the other hand, when the former calculation result is larger than the latter calculation result, the order of focusing on the sub-object H1 in the first division area is lower than the order of focusing on the sub-object H2 in the third division area. Become. In this way, when the focus order PJ for each of the sub-objects H1 and H2 is set, the focus order PJ is set so that the order of focusing on the main object M1 is the lowest. In this way, the focus order PJ is set so that the object that is finally focused becomes the main object M1.

なお、ここでは、第1区分領域内の副オブジェクトH1、および第3区分領域内の副オブジェクトH2が存在する場合の例を示したが、第1区分領域内の副オブジェクトH1、および第3区分領域内の副オブジェクトH2のいずれか一方だけが存在する場合は、ピント順序PJは、第1区分領域内の副オブジェクトH1および第3区分領域内の副オブジェクトH2のいずれか一方、主オブジェクトM1の順になる。   In addition, although the example in case the subobject H1 in a 1st division area and the subobject H2 in a 3rd division area exist here was shown here, the subobject H1 in a 1st division area, and a 3rd division When only one of the secondary objects H2 in the area exists, the focus order PJ is determined based on either the secondary object H1 in the first partitioned area or the secondary object H2 in the third partitioned area, or the primary object M1. In order.

続いて、このピント順序PJに基づいて、副オブジェクトH1,H2および主オブジェクトM1のいずれか一方のオブジェクトが、対象オブジェクトTJとして設定される(S413)。そして、この対象オブジェクトTJのピント位置に対して、仮想カメラのピントが設定される。なお、仮想カメラのピントが設定される対象オブジェクトのピント位置は、主オブジェクトのピント位置P1、および副オブジェクトH1,H2のピント位置P2,P3のいずれか1つのピント位置である。   Subsequently, based on the focus order PJ, one of the sub-objects H1, H2 and the main object M1 is set as the target object TJ (S413). Then, the focus of the virtual camera is set with respect to the focus position of the target object TJ. Note that the focus position of the target object for which the focus of the virtual camera is set is any one of the focus position P1 of the main object and the focus positions P2 and P3 of the sub-objects H1 and H2.

この場合、まず、第1区分領域内の副オブジェクトH1、および第3区分領域内の副オブジェクトH2のいずれか一方の副オブジェクトが、対象オブジェクトTJに設定される。そして、この対象オブジェクトTJのピント位置P2(P3)に対して、仮想カメラのピントが設定される。次に、第1区分領域内の副オブジェクトH1、および第3区分領域内の副オブジェクトH2のいずれか他方の副オブジェクトが、対象オブジェクトTJに設定される。そして、この対象オブジェクトTJのピント位置P3(P2)に対して、仮想カメラのピントが設定される。最後に、主オブジェクトM1のピント位置P1に対して、仮想カメラのピントが設定される。   In this case, first, one of the sub objects H1 in the first segment area and the sub object H2 in the third segment area is set as the target object TJ. Then, the focus of the virtual camera is set with respect to the focus position P2 (P3) of the target object TJ. Next, the other sub-object of the sub-object H1 in the first segment area and the sub-object H2 in the third segment area is set as the target object TJ. Then, the focus of the virtual camera is set with respect to the focus position P3 (P2) of the target object TJ. Finally, the focus of the virtual camera is set with respect to the focus position P1 of the main object M1.

このように、ピント順序PJに基づいて仮想カメラのピントを各オブジェクトH1,H2,M1に設定することによって、副オブジェクトH1,H2については、コントラストの高い順に、仮想カメラのピントが合わせられる。そして、最後に、主オブジェクトM1に対して、仮想カメラのピントが設定される。そして、最後に、主オブジェクトM1に対して、仮想カメラのピントが合わせられる。   Thus, by setting the focus of the virtual camera to each of the objects H1, H2, and M1 based on the focus order PJ, the virtual cameras are focused on the sub objects H1 and H2 in the order of high contrast. Finally, the focus of the virtual camera is set for the main object M1. Finally, the virtual camera is focused on the main object M1.

なお、ここでは、第1区分領域内の副オブジェクトH1、および第3区分領域内の副オブジェクトH2が存在する場合の例を示したが、第1区分領域内の副オブジェクトH1、および第3区分領域内の副オブジェクトH2のいずれか一方だけが存在する場合は、第1区分領域内の副オブジェクトH1および第3区分領域内の副オブジェクトH2のいずれか一方のピント位置に対してのみ、仮想カメラのピントが設定される。   In addition, although the example in case the subobject H1 in a 1st division area and the subobject H2 in a 3rd division area exist here was shown here, the subobject H1 in a 1st division area, and a 3rd division When only one of the secondary objects H2 in the area exists, the virtual camera is only used for the focus position of either the secondary object H1 in the first partitioned area or the secondary object H2 in the third partitioned area. The focus is set.

続いて、対象オブジェクトTJにピントを合わせた状態で、表示用のシート画像が生成される(S414)。詳細には、対象オブジェクトTJにピントを合わせた状態で、視錐領域Vsの内部に配置された全てのオブジェクトを、視錐領域Vsの仮想カメラ側の境界面S1(投影面)に、投影することによって、表示用のシート画像が生成される。   Subsequently, a display sheet image is generated in a state where the target object TJ is in focus (S414). Specifically, in a state where the target object TJ is in focus, all the objects arranged inside the view cone area Vs are projected onto the virtual camera side boundary surface S1 (projection plane) of the view cone area Vs. As a result, a sheet image for display is generated.

この場合、対象オブジェクトTJにピントを合わせた状態で、視錐領域Vsの内部に配置された全てのオブジェクトを、視錐領域Vsの仮想カメラ側の境界面S1に投影する処理が、CPU7において実行される。   In this case, the CPU 7 executes a process of projecting all the objects arranged inside the view cone region Vs onto the boundary surface S1 on the virtual camera side of the view cone region Vs with the target object TJ in focus. Is done.

具体的には、まず、第1区分領域内の副オブジェクトH1にピントを合わせた状態で、視錐領域Vsの内部に配置された全オブジェクトを、視錐領域Vsの仮想カメラ側の境界面S1(投影面)に投影する処理が、CPU7により実行される。すると、副オブジェクトH1にピントを合わせた状態の表示用の第1シート画像が、生成される。すると、このシート画像が、RAM12に格納される。同様に、第3区分領域内の副オブジェクトH2にピントを合わせた状態で、視錐領域Vsの内部に配置された全オブジェクトを、投影面S1に投影する処理が、CPU7により実行される。すると、副オブジェクトH2にピントを合わせた状態の表示用の第2シート画像SG2が、生成される。すると、このシート画像が、RAM12に格納される。   Specifically, first, in a state where the sub-object H1 in the first segmented area is in focus, all the objects arranged inside the view cone area Vs are bound to the boundary surface S1 on the virtual camera side of the view cone area Vs. The process of projecting onto (projection plane) is executed by the CPU 7. Then, a first sheet image for display in a state in which the sub object H1 is in focus is generated. Then, this sheet image is stored in the RAM 12. Similarly, the CPU 7 executes a process of projecting all the objects arranged in the view cone area Vs onto the projection plane S1 while focusing on the sub-object H2 in the third segment area. Then, the second sheet image SG2 for display in a state in which the sub object H2 is in focus is generated. Then, this sheet image is stored in the RAM 12.

なお、ここでは、第1区分領域内の副オブジェクトH1、および第3区分領域内の副オブジェクトH2が存在する場合の例を示したが、第1区分領域内の副オブジェクトH1、および第3区分領域内の副オブジェクトH2のいずれか一方だけが存在する場合は、第1区分領域内の副オブジェクトH1および第3区分領域内の副オブジェクトH2のいずれか一方のピントを合わせた表示用のシート画像が、生成される。   In addition, although the example in case the subobject H1 in a 1st division area and the subobject H2 in a 3rd division area exist here was shown here, the subobject H1 in a 1st division area, and a 3rd division When only one of the secondary objects H2 in the area exists, a sheet image for display in which one of the secondary object H1 in the first partitioned area and the secondary object H2 in the third partitioned area is focused Is generated.

次に、主オブジェクトM1にピントを合わせた状態で、視錐領域Vsの内部に配置された全オブジェクトを、視錐領域Vsの仮想カメラ側の境界面S1に投影する処理が、CPU7により実行される。すると、主オブジェクトM1にピントを合わせた状態の表示用の第2シート画像SG2が、生成される。すると、このシート画像が、RAM12に格納される。   Next, the CPU 7 executes a process of projecting all the objects arranged inside the view cone area Vs onto the boundary surface S1 on the virtual camera side of the view cone area Vs in a state where the main object M1 is in focus. The Then, a second sheet image SG2 for display in a state in which the main object M1 is in focus is generated. Then, this sheet image is stored in the RAM 12.

続いて、ピント順序PJに基づいて生成された表示用のシート画像を連続的に出力する命令が、CPU7から発行されると、表示用のシート画像が、RAM12から読み出され、テレビジョンモニタ20に供給される。具体的には、副オブジェクトH1,H2にピントを合わせた状態の表示用のシート画像、主オブジェクトM1にピントを合わせた状態の表示用のシート画像が、RAM12から読み出され、テレビジョンモニタ20に供給される。これにより、図8に示すように、ピントブレを再現した画像が、テレビジョンモニタ20に表示される(S415)。   Subsequently, when an instruction for continuously outputting the sheet images for display generated based on the focus order PJ is issued from the CPU 7, the sheet image for display is read from the RAM 12, and the television monitor 20 is read. To be supplied. Specifically, a display sheet image in a state in which the sub-objects H1 and H2 are in focus, and a display sheet image in a state in which the main object M1 is in focus are read from the RAM 12, and the television monitor 20 is read out. To be supplied. Thereby, as shown in FIG. 8, the image which reproduced the focus blur is displayed on the television monitor 20 (S415).

図8では、ピントが合った画像は実線で示し、ピントが合っていない画像は破線で示している。図8では、第1区分領域内の副オブジェクトH1が、ベンチの選手オブジェクトであり、第2区分領域Vk2の主オブジェクトM1が、打者オブジェクトであり、第3区分領域内の副オブジェクトH2が、観客席の観客オブジェクトである場合の例が、示されている。また、図8では、観客席の観客オブジェクトH2については、簡略化して1つだけ表示されている。たとえば、図8では、3次元ゲーム空間GSに配置された、ベンチの選手オブジェクトH1(第1区分領域内の副オブジェクト)、観客席の観客オブジェクトH2(第3区分領域内の副オブジェクト)、打者オブジェクトM1(第2区分領域Vk2の主オブジェクト)の順に、仮想カメラのピントを合わせることにより、ピントブレが再現されている。すなわち、ここでは、ピントが打者オブジェクトを基準として、この打者オブジェクトの前後にブレた後に、ピントを合わせる対象である打者オブジェクトにピントが合う状態が、テレビジョンモニタ20に表示される。   In FIG. 8, an in-focus image is indicated by a solid line, and an out-of-focus image is indicated by a broken line. In FIG. 8, the sub-object H1 in the first segment area is the bench player object, the main object M1 in the second segment area Vk2 is the batter object, and the sub-object H2 in the third segment area is the audience. An example of a seat audience object is shown. Also, in FIG. 8, only one audience object H2 in the audience seat is displayed in a simplified manner. For example, in FIG. 8, a bench player object H1 (a sub-object in the first division area), a spectator seat audience object H2 (a sub-object in the third division area), a batter placed in the three-dimensional game space GS, The focus blur is reproduced by focusing the virtual camera in the order of the object M1 (the main object of the second divided region Vk2). That is, here, the television monitor 20 displays a state in which the batter object that is the object of focus is in focus after the batter object is blurred before and after the batter object as a reference.

なお、図8では、ベンチの選手オブジェクト(第1区分領域内の副オブジェクト)に対応する画像、観客席の観客オブジェクト(第3区分領域内の副オブジェクト)に対応する画像、および打者オブジェクト(第2区分領域Vk2の主オブジェクト)に対応する画像それぞれに対して、記号「H1」、記号「H2」、記号「M1」を付している。これは、図8の説明を容易に行うためのものである。このため、実際には、これら記号H1,H2,M1が示すオブジェクトは、3次元ゲーム空間GSに定義されている。   In FIG. 8, the image corresponding to the player object on the bench (sub-object in the first section area), the image corresponding to the spectator object in the spectator seat (sub-object in the third section area), and the batter object (first object) A symbol “H1”, a symbol “H2”, and a symbol “M1” are attached to each of the images corresponding to the main object of the two-segment region Vk2. This is to facilitate the explanation of FIG. Therefore, actually, the objects indicated by these symbols H1, H2, and M1 are defined in the three-dimensional game space GS.

上記のように、本実施形態では、副オブジェクトH1,H2にピントを設定するためのピント設定用のシート画像SG1,SG2が、複数の小画像に分割され、これら複数の小画像それぞれのコントラスト情報C(i,j)が調査される。これにより、ピント設定用のシート画像SG1,SG2のコントラストCpが設定され、このコントラストCpに基づいて、副オブジェクトH1,H2が選択される。このように、ピント設定用のシート画像SG1,SG2のコントラストCpに基づいて副オブジェクトH1,H2を選択することによって、コントラスト情報に基づいたピント設定を、副オブジェクトH1,H2に対して行うことができる。   As described above, in the present embodiment, the focus setting sheet images SG1 and SG2 for setting the focus on the sub-objects H1 and H2 are divided into a plurality of small images, and the contrast information of each of the plurality of small images. C (i, j) is examined. As a result, the contrast Cp of the focus setting sheet images SG1, SG2 is set, and the sub objects H1, H2 are selected based on the contrast Cp. Thus, by selecting the sub objects H1 and H2 based on the contrast Cp of the focus setting sheet images SG1 and SG2, the focus setting based on the contrast information can be performed on the sub objects H1 and H2. it can.

また、主オブジェクトM1が、ある場面においてピントを合わせる対象である場合、ピント順序PJに基づいて、まず、仮想カメラ側の副オブジェクトH1(or 仮想カメラ側から離れる側の副オブジェクトH2)にピントが合わせられる。次に、仮想カメラ側から離れる側の副オブジェクトH2(or 仮想カメラ側の副オブジェクトH1)にピントが合わせられる。最後に、この場面でピントを合わせる対象である主オブジェクトM1に、ピントが合わせられる。   Further, when the main object M1 is a target to be focused in a certain scene, first, the sub-object H1 on the virtual camera side (or the sub-object H2 on the side away from the virtual camera side) is focused based on the focus order PJ. Adapted. Next, the sub-object H2 on the side away from the virtual camera side (or the sub-object H1 on the virtual camera side) is focused. Finally, the main object M1, which is the object to be focused in this scene, is focused.

このように、主オブジェクトM1に直接的にピントを合わせるのではなく、まず、コントラスト情報に基づいて選択された副オブジェクトH1,H2にピントを合わせ、その後に、主オブジェクトM1にピントを合わせることにより、突発的に発生する事象、たとえばピントブレのような事象を、映像上で再現することができ、リアリティのある映像を提供することができる。   In this way, the focus is not directly focused on the main object M1, but first, the sub-objects H1 and H2 selected based on the contrast information are focused, and then the main object M1 is focused. An event that occurs suddenly, for example, an event such as a focus blur can be reproduced on the video, and a realistic video can be provided.

〔他の実施形態〕
(a)前記実施形態では、ピント設定用のシート画像のコントラストCpに基づいて、副オブジェクトH1,H2が選択される場合の例が示されたが、副オブジェクトH1,H2の選択形態は、前記実施形態に限定されず、どのようにしても良い。たとえば、図9に示すように、仮想カメラと主オブジェクトM1とを結ぶ直線CL3の延長線に対して最も近いオブジェクト、および仮想カメラとオブジェクトとの間において上記の直線CL3に最も近いオブジェクトの中の少なくともいずれか1つのオブジェクトを、副オブジェクトH1,H2として選択するようにしても良い。
[Other Embodiments]
(A) In the above-described embodiment, an example in which the sub objects H1 and H2 are selected based on the contrast Cp of the focus setting sheet image has been shown. The present invention is not limited to the embodiment, and any method may be used. For example, as shown in FIG. 9, among the objects closest to the extension line of the straight line CL3 connecting the virtual camera and the main object M1, and among the objects closest to the straight line CL3 between the virtual camera and the object, At least one of the objects may be selected as the sub objects H1 and H2.

この場合、まず、仮想カメラの位置座標データと、主オブジェクトM1のピント位置P1の位置座標データとに基づいて、仮想カメラから主オブジェクトM1のピント位置P1へと延びる直線CL3が、CPU7により算出される。そして、この直線CL3と、第1区分領域内の全てのオブジェクトそれぞれとの距離を計算する処理が、CPU7により実行される。そして、この計算結果に基づいて、この直線に最も近い位置に位置するオブジェクトが、第1区分領域内の副オブジェクトH1’として選択される。同様に、上記の直線と、第3区分領域内の全てのオブジェクトそれぞれとの距離を計算する処理が、CPU7により実行される。そして、この計算結果に基づいて、この直線に最も近い位置のオブジェクトが、第3区分領域内の副オブジェクトH2’として選択される。   In this case, first, the CPU 7 calculates a straight line CL3 extending from the virtual camera to the focus position P1 of the main object M1 based on the position coordinate data of the virtual camera and the position coordinate data of the focus position P1 of the main object M1. The Then, the CPU 7 executes a process for calculating the distance between the straight line CL3 and each of all the objects in the first segment area. Based on the calculation result, the object located closest to the straight line is selected as the sub-object H1 'in the first segmented area. Similarly, the CPU 7 executes a process of calculating the distance between the straight line and each of all objects in the third segment area. Based on the calculation result, the object closest to the straight line is selected as the sub-object H2 'in the third segment area.

なお、各オブジェクトには、オブジェクトの位置を定義するための位置座標データが割り当てられており、この位置座標データを用いて、上記の直線と各オブジェクトとの間の距離たとえば垂直距離が、算出される。
(b)前記実施形態では、ゲームプログラムを適用しうるコンピュータの一例としての開発用のゲーム装置を用いた場合の例を示したが、コンピュータは、前記実施形態に限定されず、モニタが別体に構成されたゲーム装置、モニタが一体に構成されたゲーム装置、ゲームプログラムを実行することによってゲーム装置として機能するパーソナルコンピュータやワークステーションなどにも同様に適用することができる。
(c)本発明には、前述したようなゲームを実行するプログラムおよびこのプログラムを記録したコンピュータ読み取り可能な記録媒体も含まれる。この記録媒体としては、カートリッジ以外に、たとえば、コンピュータ読み取り可能なフレキシブルディスク、半導体メモリ、CD−ROM、DVD、MO、ROMカセット、その他のものが挙げられる。
Each object is assigned position coordinate data for defining the position of the object, and using this position coordinate data, a distance between the straight line and each object, for example, a vertical distance is calculated. The
(B) In the above-described embodiment, an example in which a development game device is used as an example of a computer to which a game program can be applied has been described. The present invention can be similarly applied to a game device configured as described above, a game device in which a monitor is integrated, a personal computer functioning as a game device by executing a game program, a workstation, and the like.
(C) The present invention includes a program for executing the above-described game and a computer-readable recording medium on which the program is recorded. Examples of the recording medium include a computer-readable flexible disk, a semiconductor memory, a CD-ROM, a DVD, an MO, a ROM cassette, and the like in addition to the cartridge.

本発明は、仮想空間内のオブジェクトを仮想カメラによって撮影した状況を表示可能なゲームプログラム、ゲーム装置、およびゲーム制御方法において、利用可能である。   The present invention can be used in a game program, a game device, and a game control method capable of displaying a situation in which an object in a virtual space is photographed by a virtual camera.

1 制御部
3 画像表示部
5 操作入力部
7 CPU
12 RAM
17 コントローラ
20 テレビジョンモニタ
50 基準コントラスト設定手段
51 オブジェクト配置手段
52 視錐領域設定手段
53 視錐領域分割手段
54 主オブジェクトM1設定手段
55 設定画像生成手段
56 画像情報設定手段
57 副オブジェクト選択手段
58 ピント順序設定手段
59 ピント合わせ手段
60 表示画像生成手段
61 画像表示手段
M1 主オブジェクト
H1,H2 副オブジェクト
Vs 視錐領域
Vk1,Vk2,Vk3 区分領域
Pc 仮想カメラの視点位置
P1,P2,P3 ピント位置
SG1,SG2 ピント設定用のシート画像
Cp コントラスト
C(i,j) コントラスト値
dC(j) コントラスト値の差
DESCRIPTION OF SYMBOLS 1 Control part 3 Image display part 5 Operation input part 7 CPU
12 RAM
17 controller 20 television monitor 50 reference contrast setting means 51 object placement means 52 view cone area setting means 53 view cone area dividing means 54 main object M1 setting means 55 setting image generation means 56 image information setting means 57 sub object selection means 58 focus Order setting means 59 Focusing means 60 Display image generating means 61 Image display means M1 Main object H1, H2 Sub-object Vs View cone area Vk1, Vk2, Vk3 Segmented area Pc Virtual camera viewpoint position P1, P2, P3 Focus position SG1, SG2 Sheet image for focus setting Cp Contrast C (i, j) Contrast value dC (j) Contrast value difference

Claims (13)

仮想空間内のオブジェクトを仮想カメラによって撮影した状況を、表示可能なコンピュータの制御部に、
前記オブジェクトの中から、前記仮想カメラのピントを最終的に合わせるオブジェクトを、主オブジェクトとして設定する主オブジェクト設定機能と、
前記主オブジェクトに前記仮想カメラのピントを合わせる際の前記仮想カメラの視野内において、前記主オブジェクトを基準として、前記仮想カメラ側に所定の距離以上近接した位置に存在するオブジェクト、および前記仮想カメラから所定の距離以上離反した位置に存在するオブジェクトの中の少なくとも1つのオブジェクトを、副オブジェクトとして選択する副オブジェクト選択機能と、
前記主オブジェクト、および前記少なくとも1つの副オブジェクトに対する、前記仮想カメラのピントを合わせるピント順序を、設定するピント順序設定機能と、
を実現させ、
前記ピント順序設定機能では、最終的にピントを合わせるオブジェクトが、前記主オブジェクトとなるように、前記少なくとも1つの副オブジェクト、前記主オブジェクトの順に、前記ピント順序が設定される、
ゲームプログラム。
In the control part of the computer that can display the situation where the object in the virtual space is photographed by the virtual camera,
A main object setting function for setting, as a main object, an object that finally adjusts the focus of the virtual camera from among the objects,
From the virtual camera in the visual field of the virtual camera when the virtual object is focused on the main object, the object existing at a position close to the virtual camera side by a predetermined distance or more with reference to the main object A sub-object selection function for selecting at least one object among objects existing at a position separated by a predetermined distance or more as a sub-object;
A focus order setting function for setting a focus order for focusing the virtual camera on the main object and the at least one sub-object;
Realized,
In the focus order setting function, the focus order is set in the order of the at least one sub-object and the main object so that an object to be finally focused becomes the main object.
Game program.
前記コンピュータの制御部に、
前記副オブジェクトにピントを設定するためのピント設定用のシート画像を、生成する設定画像生成機能と、
前記ピント設定用のシート画像を複数の小画像に分割し、複数の前記小画像それぞれのコントラスト情報を調査することによって、前記ピント設定用のシート画像のコントラストを設定する画像情報設定機能と、
をさらに実現させ、
前記副オブジェクト選択機能では、前記ピント設定用のシート画像のコントラストに基づいて、前記副オブジェクトが選択される、
請求項1に記載のゲームプログラム。
In the control part of the computer,
A setting image generation function for generating a focus setting sheet image for setting the focus on the sub-object;
An image information setting function for setting the contrast of the focus setting sheet image by dividing the focus setting sheet image into a plurality of small images and examining the contrast information of each of the plurality of small images;
Further realized,
In the sub-object selection function, the sub-object is selected based on the contrast of the focus setting sheet image.
The game program according to claim 1.
前記コンピュータの制御部に、
前記仮想空間に前記オブジェクトを配置するオブジェクト配置機能と、
前記仮想空間における前記仮想カメラの視野内の領域を、視錐領域として設定する視錐領域設定機能と、
前記仮想カメラの位置を基準として前記仮想カメラから離れる方向に、前記視錐領域を複数の区分領域に分割する視錐領域分割機能と、
を実現させ、
前記主オブジェクト設定機能では、複数の前記区分領域それぞれの内部に配置された前記オブジェクトの中から、前記主オブジェクトが設定され、
前記設定画像生成機能では、前記主オブジェクトを含む前記区分領域を除いた各区分領域の内部に配置されたオブジェクトを、前記視錐領域の仮想カメラ側の境界面に、投影することによって、前記ピント設定用のシート画像が生成される、
請求項2に記載のゲームプログラム。
In the control part of the computer,
An object placement function for placing the object in the virtual space;
A view frustum region setting function for setting a region in the field of view of the virtual camera in the virtual space as a view frustum region;
A view frustum region dividing function for dividing the view frustum region into a plurality of divided regions in a direction away from the virtual camera with reference to the position of the virtual camera;
Realized,
In the main object setting function, the main object is set from among the objects arranged inside each of the plurality of divided areas,
In the setting image generation function, the object arranged inside each segmented region excluding the segmented region including the main object is projected onto the virtual camera side boundary surface of the viewing cone region, thereby focusing the image. A sheet image for setting is generated.
The game program according to claim 2.
前記画像情報設定機能では、複数の前記小画像それぞれにおいて、隣接する前記小画像のコントラスト値の差を計算し、前記コントラスト値の差の最大値が、前記ピント設定用のシート画像のコントラストとして設定される、
請求項2又は3に記載のゲームプログラム。
In the image information setting function, a contrast value difference between the adjacent small images is calculated for each of the plurality of small images, and the maximum contrast value difference is set as the contrast of the focus setting sheet image. To be
The game program according to claim 2 or 3.
前記画像情報設定機能では、複数の前記小画像それぞれのコントラスト値を平均し、前記コントラスト値の平均の最大値が、前記ピント設定用のシート画像のコントラストとして設定される、
請求項2又は3に記載のゲームプログラム。
In the image information setting function, the contrast values of each of the plurality of small images are averaged, and the average maximum value of the contrast values is set as the contrast of the focus setting sheet image.
The game program according to claim 2 or 3.
前記副オブジェクト選択機能では、前記ピント設定用のシート画像のコントラストが所定の範囲内である場合に、前記副オブジェクトが選択される、
請求項2から5のいずれかに記載のゲームプログラム。
The sub-object selection function selects the sub-object when the contrast of the focus setting sheet image is within a predetermined range.
The game program according to any one of claims 2 to 5.
前記副オブジェクト選択機能では、前記ピント設定用のシート画像のコントラストに基づいて、前記ピント設定用のシート画像における複数の前記小画像の中から、前記副オブジェクトのピント位置を設定するためのピント用の小画像が、特定され、前記視錐領域の仮想カメラ側の境界面上における前記ピント用の小画像の位置が、特定され、仮想カメラから、前記境界面上における前記ピント用の小画像の位置へと延びる直線が衝突するオブジェクトが、前記副オブジェクトとして選択される、
請求項2から6のいずれかに記載のゲームプログラム。
In the sub-object selection function, a focus object for setting a focus position of the sub-object from among the plurality of small images in the focus setting sheet image based on the contrast of the focus setting sheet image. And a position of the small image for focusing on the boundary surface on the virtual camera side of the viewing cone region is specified, and the position of the small image for focusing on the boundary surface is determined from the virtual camera. An object that collides with a straight line extending to a position is selected as the sub-object;
The game program according to claim 2.
前記コンピュータの制御部に、
前記ピント順序に基づいて、前記副オブジェクトおよび前記主オブジェクトのいずれか一方のオブジェクトを、対象オブジェクトとして設定するピント合わせ機能と、
前記対象オブジェクトにピントを合わせた状態で、表示用のシート画像を生成する表示画像生成機能と、
前記ピント順序に基づいて生成された前記表示用のシート画像を連続的に出力する命令を、発行することによって、仮想カメラによって撮影した状況を、表示する画像表示機能と、
をさらに実現させるための請求項1から7のいずれかに記載のゲームプログラム。
In the control part of the computer,
A focusing function for setting one of the sub-object and the main object as a target object based on the focus order;
A display image generation function for generating a sheet image for display in a state where the target object is in focus;
An image display function for displaying a situation photographed by a virtual camera by issuing a command to continuously output the display sheet image generated based on the focus order; and
The game program according to claim 1, for further realizing the above.
前記コンピュータの制御部に、
前記仮想空間に前記オブジェクトを配置するオブジェクト配置機能と、
前記仮想空間における前記仮想カメラの視野内の領域を、視錐領域として設定する視錐領域設定機能と、
前記仮想カメラの位置を基準として前記仮想カメラから離れる方向に、前記視錐領域を複数の区分領域に分割する視錐領域分割機能と、
をさらに実現させ、
前記主オブジェクト設定機能では、複数の前記区分領域それぞれの内部に配置された前記オブジェクトの中から、前記主オブジェクトが設定され、
前記副オブジェクト選択機能では、前記主オブジェクトを含む前記区分領域を除いた他の前記区分領域に含まれる前記オブジェクトが、前記副オブジェクトとして選択され、
前記表示画像生成機能では、前記対象オブジェクトにピントを合わせた状態で、前記視錐領域の内部に配置されたオブジェクトを、前記視錐領域の仮想カメラ側の境界面に、投影することによって、前記表示用のシート画像が生成される、
請求項8に記載のゲームプログラム。
In the control part of the computer,
An object placement function for placing the object in the virtual space;
A view frustum region setting function for setting a region in the field of view of the virtual camera in the virtual space as a view frustum region;
A view frustum region dividing function for dividing the view frustum region into a plurality of divided regions in a direction away from the virtual camera with reference to the position of the virtual camera;
Further realized,
In the main object setting function, the main object is set from among the objects arranged inside each of the plurality of divided areas,
In the sub-object selection function, the object included in the other partitioned area excluding the partitioned area including the main object is selected as the secondary object,
In the display image generation function, by projecting an object arranged inside the viewing cone area on a virtual camera side boundary surface of the viewing cone area in a state where the target object is in focus, A sheet image for display is generated,
The game program according to claim 8.
前記コンピュータの制御部に、
最も高いコントラストを、基準コントラストとして設定する基準コントラスト設定機能と、
をさらに実現させ、
前記ピント順序設定機能では、前記基準コントラストと前記ピント設定用のシート画像のコントラストとの差が小さい順に、前記副オブジェクトに対する前記ピント順序が設定され、最終的にピントを合わせるオブジェクトが前記主オブジェクトとなるように、前記主オブジェクトに対する前記ピント順序が設定される、
請求項2から9のいずれかに記載のゲームプログラム。
In the control part of the computer,
A reference contrast setting function for setting the highest contrast as a reference contrast;
Further realized,
In the focus order setting function, the focus order for the sub-objects is set in ascending order of the difference between the reference contrast and the contrast of the focus setting sheet image, and the object to be finally focused is the main object. The focus order for the main object is set so that
The game program according to claim 2.
前記副オブジェクト選択機能では、前記仮想カメラと前記主オブジェクトとを結ぶラインの延長線に対して最も近いオブジェクト、および前記仮想カメラと前記オブジェクトとの間において前記ラインに最も近いオブジェクトの中の少なくともいずれか1つのオブジェクトが、前記副オブジェクトとして選択される、
請求項1から3のいずれかに記載のゲームプログラム。
In the sub-object selection function, at least one of an object closest to an extension line of a line connecting the virtual camera and the main object, and an object closest to the line between the virtual camera and the object Or one object is selected as the sub-object,
The game program according to any one of claims 1 to 3.
仮想空間内のオブジェクトを仮想カメラによって撮影した状況を表示可能なゲーム装置であって、
前記ゲーム装置の制御部が、
前記オブジェクトの中から、前記仮想カメラのピントを最終的に合わせるオブジェクトを、主オブジェクトとして設定する主オブジェクト設定手段と、
前記主オブジェクトに前記仮想カメラのピントを合わせる際の前記仮想カメラの視野内において、前記主オブジェクトを基準として、前記仮想カメラ側に所定の距離以上近接した位置に存在するオブジェクト、および前記仮想カメラから所定の距離以上離反した位置に存在するオブジェクトの中の少なくとも1つのオブジェクトを、副オブジェクトとして選択する副オブジェクト選択手段と、
前記主オブジェクト、および前記少なくとも1つの副オブジェクトに対する、前記仮想カメラのピントを合わせるピント順序を、設定するピント順序設定手段と、
を備え、
前記ピント順序設定手段では、最終的にピントを合わせるオブジェクトが、前記主オブジェクトとなるように、前記少なくとも1つの副オブジェクト、前記主オブジェクトの順に、前記ピント順序が設定される、
ゲーム装置。
A game device capable of displaying a situation in which an object in a virtual space is photographed by a virtual camera,
A control unit of the game device,
A main object setting means for setting, as a main object, an object that finally adjusts the focus of the virtual camera among the objects;
From the virtual camera in the visual field of the virtual camera when the virtual object is focused on the main object, the object existing at a position close to the virtual camera side by a predetermined distance or more with reference to the main object Sub-object selecting means for selecting at least one object among the objects existing at positions separated by a predetermined distance or more as a sub-object;
A focus order setting means for setting a focus order for focusing the virtual camera on the main object and the at least one sub-object;
With
In the focus order setting means, the focus order is set in the order of the at least one sub-object and the main object so that the object to be finally focused becomes the main object.
Game device.
仮想空間内のオブジェクトを仮想カメラによって撮影した状況を表示可能なコンピュータにより、制御可能なゲーム制御方法であって、
前記コンピュータの制御部が、
前記オブジェクトの中から、前記仮想カメラのピントを最終的に合わせるオブジェクトを、主オブジェクトとして設定する主オブジェクト設定ステップと、
前記主オブジェクトに前記仮想カメラのピントを合わせる際の前記仮想カメラの視野内において、前記主オブジェクトを基準として、前記仮想カメラ側に所定の距離以上近接した位置に存在するオブジェクト、および前記仮想カメラから所定の距離以上離反した位置に存在するオブジェクトの中の少なくとも1つのオブジェクトを、副オブジェクトとして選択する副オブジェクト選択ステップと、
前記主オブジェクト、および前記少なくとも1つの副オブジェクトに対する、前記仮想カメラのピントを合わせるピント順序を、設定するピント順序設定ステップと、
を実行し、
前記ピント順序設定ステップでは、最終的にピントを合わせるオブジェクトが、前記主オブジェクトとなるように、前記少なくとも1つの副オブジェクト、前記主オブジェクトの順に、前記ピント順序が設定される、
ゲーム制御方法。
A game control method that can be controlled by a computer capable of displaying a situation where an object in a virtual space is photographed by a virtual camera,
A control unit of the computer,
A main object setting step of setting, as a main object, an object that finally adjusts the focus of the virtual camera from among the objects;
From the virtual camera in the visual field of the virtual camera when the virtual object is focused on the main object, the object existing at a position close to the virtual camera side by a predetermined distance or more with reference to the main object A sub-object selection step of selecting at least one object among the objects existing at positions separated by a predetermined distance or more as a sub-object;
A focus order setting step for setting a focus order for focusing the virtual camera on the main object and the at least one sub-object;
Run
In the focus order setting step, the focus order is set in the order of the at least one sub-object and the main object so that an object to be finally focused becomes the main object.
Game control method.
JP2010018911A 2010-01-29 2010-01-29 GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD Active JP5237312B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010018911A JP5237312B2 (en) 2010-01-29 2010-01-29 GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010018911A JP5237312B2 (en) 2010-01-29 2010-01-29 GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD

Publications (2)

Publication Number Publication Date
JP2011156061A true JP2011156061A (en) 2011-08-18
JP5237312B2 JP5237312B2 (en) 2013-07-17

Family

ID=44588599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010018911A Active JP5237312B2 (en) 2010-01-29 2010-01-29 GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP5237312B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017051570A1 (en) * 2015-09-24 2017-03-30 ソニー株式会社 Information processing device, information processing method, and program
CN113082707A (en) * 2021-03-31 2021-07-09 网易(杭州)网络有限公司 Virtual object prompting method and device, storage medium and computer equipment
WO2023084783A1 (en) * 2021-11-15 2023-05-19 涼平 山中 Projection program, projection method, projection system, and computer-readable medium
JP7437734B2 (en) 2019-12-26 2024-02-26 株式会社サンセイアールアンドディ gaming machine

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143681A (en) * 1996-11-12 1998-05-29 S N K:Kk Image processing method and its device
JPH10340332A (en) * 1997-06-09 1998-12-22 Seiko Epson Corp Image processor, image processing method and medium recording image processing control program
JPH11161814A (en) * 1997-11-25 1999-06-18 Namco Ltd Image generation device, simulation device and information storage medium
JPH11328437A (en) * 1998-03-16 1999-11-30 Snk:Kk Game machine and image processing method of game machine
JP2001283246A (en) * 2000-03-30 2001-10-12 Konami Co Ltd Three-dimensional image compositing device, its method, information storage medium program distributing device and its method
JP2008237654A (en) * 2007-03-28 2008-10-09 Konami Digital Entertainment:Kk Game program, game apparatus and game control method
JP2009266159A (en) * 2008-04-30 2009-11-12 Konami Digital Entertainment Co Ltd Image processing program, image forming apparatus and image processing control method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143681A (en) * 1996-11-12 1998-05-29 S N K:Kk Image processing method and its device
JPH10340332A (en) * 1997-06-09 1998-12-22 Seiko Epson Corp Image processor, image processing method and medium recording image processing control program
JPH11161814A (en) * 1997-11-25 1999-06-18 Namco Ltd Image generation device, simulation device and information storage medium
JPH11328437A (en) * 1998-03-16 1999-11-30 Snk:Kk Game machine and image processing method of game machine
JP2001283246A (en) * 2000-03-30 2001-10-12 Konami Co Ltd Three-dimensional image compositing device, its method, information storage medium program distributing device and its method
JP2008237654A (en) * 2007-03-28 2008-10-09 Konami Digital Entertainment:Kk Game program, game apparatus and game control method
JP2009266159A (en) * 2008-04-30 2009-11-12 Konami Digital Entertainment Co Ltd Image processing program, image forming apparatus and image processing control method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017051570A1 (en) * 2015-09-24 2017-03-30 ソニー株式会社 Information processing device, information processing method, and program
US10855925B2 (en) 2015-09-24 2020-12-01 Sony Corporation Information processing device, information processing method, and program
JP7437734B2 (en) 2019-12-26 2024-02-26 株式会社サンセイアールアンドディ gaming machine
CN113082707A (en) * 2021-03-31 2021-07-09 网易(杭州)网络有限公司 Virtual object prompting method and device, storage medium and computer equipment
CN113082707B (en) * 2021-03-31 2024-03-12 网易(杭州)网络有限公司 Virtual object prompting method and device, storage medium and computer equipment
WO2023084783A1 (en) * 2021-11-15 2023-05-19 涼平 山中 Projection program, projection method, projection system, and computer-readable medium

Also Published As

Publication number Publication date
JP5237312B2 (en) 2013-07-17

Similar Documents

Publication Publication Date Title
US11094106B2 (en) Simulation system, processing method, and information storage medium for changing a display object in response to a movement of a field of view
JP3786132B2 (en) Game image processing program and storage medium
JP5148660B2 (en) Program, information storage medium, and image generation system
JP6714791B2 (en) Simulation system and program
JP3877077B2 (en) Game device and image processing program
KR20000064948A (en) Image processing apparatus and image processing method
US8072458B2 (en) Storage medium having game program stored thereon and game apparatus
US20190247751A1 (en) Simulation system, processing method, and information storage medium
JP2007159725A (en) Game program and game apparatus
JP4343207B2 (en) Game device and image processing program
JP5237312B2 (en) GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD
JP4521020B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP4463289B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP2018085084A (en) Image processing method and computer readable medium
WO2013038979A1 (en) Game program, game device, and recording medium having game program recorded therein
JP4714763B2 (en) Image processing program, image processing apparatus, and image control method
JP4572245B2 (en) Image processing program, image processing apparatus, and image processing control method
JP2006061717A (en) Game image display control program, game device, and storage medium
JP5007633B2 (en) Image processing program, computer-readable recording medium storing the program, image processing apparatus, and image processing method
JP5149956B2 (en) GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD
WO2007069373A1 (en) Game program, game machine, and game method
JP4659071B2 (en) Image processing program, image processing apparatus, and image control method
JP4824738B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP4705145B2 (en) Drawing processing program, drawing processing apparatus, and drawing processing method
JP5315274B2 (en) GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130328

R150 Certificate of patent or registration of utility model

Ref document number: 5237312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250