JP2012101026A - Program, information storage medium, game device, and server system - Google Patents

Program, information storage medium, game device, and server system Download PDF

Info

Publication number
JP2012101026A
JP2012101026A JP2010294498A JP2010294498A JP2012101026A JP 2012101026 A JP2012101026 A JP 2012101026A JP 2010294498 A JP2010294498 A JP 2010294498A JP 2010294498 A JP2010294498 A JP 2010294498A JP 2012101026 A JP2012101026 A JP 2012101026A
Authority
JP
Japan
Prior art keywords
virtual camera
ball
player
moving
destination target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010294498A
Other languages
Japanese (ja)
Inventor
Norio Egashira
規雄 江頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2010294498A priority Critical patent/JP2012101026A/en
Publication of JP2012101026A publication Critical patent/JP2012101026A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a program, an information storage medium, a game device, a server system or the like, which generate, with an appropriate viewpoint, an image when a moving body is moved to a destination target.SOLUTION: The game device includes an operation information acquiring section, a virtual camera control section, a moving body calculation section, and an image generation section. The operation information acquiring section acquires motion detection information from a motion sensor as operation information, and the virtual camera control section controls so that a direction of a line of sight of the virtual camera is directed to a destination target side of a moving body based on the motion detection information. The moving body calculation section performs process in which the moving body is moved to the destination target having come in sight of the virtual camera by directing a line of sight of the virtual camera.

Description

本発明は、プログラム、情報記憶媒体、ゲーム装置及びサーバシステム等に関する。   The present invention relates to a program, an information storage medium, a game device, a server system, and the like.

従来より、球技ゲームを仮想的にプレイすることができるゲーム装置が知られている。野球ゲームを例にとれば、守備側のプレーヤ(又はコンピュータ)が投手キャラクタを操作して、ボールを投げる。そして攻撃側のプレーヤ(又はコンピュータ)が打者キャラクタを操作して、投げられたボールを打ち、守備側のプレーヤが野手キャラクタを操作して、打たれたボールを捕球することで、野球ゲームを楽しむ。このような野球ゲームの従来技術としては例えば特許文献1に開示される技術がある。   2. Description of the Related Art Conventionally, game devices that can virtually play a ball game are known. Taking a baseball game as an example, a defensive player (or computer) operates a pitcher character to throw a ball. The attacking player (or computer) operates the batter character, hits the thrown ball, and the defensive player operates the fielder character to catch the hit ball, thereby playing the baseball game. have fun. As a conventional technique of such a baseball game, there is a technique disclosed in Patent Document 1, for example.

しかしながら、例えば野球ゲームでは、特にプレーヤが守備側である場合に、守備キャラクタの視点ではなく、バックネット付近やホームベース付近に設定された視点での画像が生成されるゲームが殆どであった。このため、打者が打ったボールを捕球して、一塁に投げてアウトにするというような場面を、野手側の視点から見た画像で表現することができなかった。このため、現実の野球をプレイしているような仮想現実感を、プレーヤに与えることが難しかった。   However, in baseball games, for example, when the player is on the defensive side, most of the games generate images with a viewpoint set near the back net or near the home base, not the viewpoint of the defensive character. For this reason, it was not possible to represent a scene in which the ball hit by the batter was caught and thrown out to the outside and displayed with an image viewed from the viewpoint of the fielder. For this reason, it is difficult to give the player a virtual reality feeling as if playing a real baseball game.

特開2001−137554号公報JP 2001-137554 A

本発明の幾つかの態様によれば、送り先ターゲットに移動体を移動させる場面の画像を適切な視点で生成できるプログラム、情報記憶媒体、ゲーム装置及びサーバシステム等を提供できる。   According to some aspects of the present invention, it is possible to provide a program, an information storage medium, a game device, a server system, and the like that can generate an image of a scene in which a moving object is moved to a destination target from an appropriate viewpoint.

本発明の一態様は、プレーヤの操作情報を取得する操作情報取得部と、取得された前記操作情報に基づいて、仮想カメラの制御を行う仮想カメラ制御部と、移動体の移動演算処理を行う移動体演算部と、オブジェクト空間内において前記仮想カメラから見える画像を生成する画像生成部を含み、前記操作情報取得部は、モーションセンサからのモーション検出情報を前記操作情報として取得し、前記仮想カメラ制御部は、前記モーション検出情報に基づいて、前記仮想カメラの視線方向を、前記移動体の送り先ターゲット側に向ける制御を行い、前記移動体演算部は、前記仮想カメラの視線方向が向けられることで前記仮想カメラの視野範囲に入った前記送り先ターゲットに対して、前記移動体を移動させる処理を行うゲーム装置に関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   One embodiment of the present invention performs an operation information acquisition unit that acquires operation information of a player, a virtual camera control unit that controls a virtual camera based on the acquired operation information, and a moving object movement calculation process A moving body calculation unit; and an image generation unit that generates an image that can be seen from the virtual camera in an object space, wherein the operation information acquisition unit acquires motion detection information from a motion sensor as the operation information, and The control unit performs control to direct the visual line direction of the virtual camera toward the destination target side of the moving body based on the motion detection information, and the moving body calculation unit is directed to the visual line direction of the virtual camera. This relates to a game device that performs a process of moving the moving body with respect to the destination target that falls within the visual field range of the virtual camera.The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、モーションセンサからのモーション検出情報が操作情報として取得される。そして、このモーション検出情報に基づいて、仮想カメラの視線方向を移動体の送り先ターゲット側に向ける制御が行われ、これにより仮想カメラの視野範囲に入った送り先ターゲットに対して、移動体を移動させる移動処理が行われる。従って、送り先ターゲットに移動体を移動させる場面の画像を、適切な視点で生成することが可能になり、モーションセンサで検出されたモーションに連動した視点の画像の生成が可能になる。   According to one aspect of the present invention, motion detection information from a motion sensor is acquired as operation information. Then, based on this motion detection information, control is performed to direct the line-of-sight direction of the virtual camera toward the destination target side of the moving body, thereby moving the moving body relative to the destination target that has entered the visual field range of the virtual camera. A move process is performed. Accordingly, it is possible to generate an image of a scene in which the moving body is moved to the destination target from an appropriate viewpoint, and it is possible to generate an image of a viewpoint that is linked to the motion detected by the motion sensor.

また本発明の一態様では、前記モーションセンサは、携帯型ゲーム装置又はゲームコントローラに設けられるセンサであり、前記操作情報取得部は、前記プレーヤが前記携帯型ゲーム装置又は前記ゲームコントローラを動かすことで得られた前記モーション検出情報を、前記モーションセンサから取得し、前記仮想カメラ制御部は、前記携帯型ゲーム装置又は前記ゲームコントローラが動かされた方向側に、前記仮想カメラの視線方向を変化させる制御を行い、前記移動体演算部は、前記携帯型ゲーム装置又は前記ゲームコントローラが動かされた方向側に前記仮想カメラの視線方向が変化することで前記仮想カメラの視野範囲に入った前記送り先ターゲットに対して、前記移動体を移動させる処理を行ってもよい。   In one embodiment of the present invention, the motion sensor is a sensor provided in a portable game device or a game controller, and the operation information acquisition unit is configured so that the player moves the portable game device or the game controller. The obtained motion detection information is acquired from the motion sensor, and the virtual camera control unit is configured to change the line-of-sight direction of the virtual camera toward the direction in which the portable game device or the game controller is moved. The moving body computing unit applies the destination target that has entered the visual field range of the virtual camera by changing the line-of-sight direction of the virtual camera toward the direction in which the portable game device or the game controller is moved. On the other hand, you may perform the process which moves the said mobile body.

このようにすれば、プレーヤが携帯型ゲーム装置又はゲームコントローラを動かすと、その動かされた方向側に、仮想カメラの視線方向が変化し、これにより仮想カメラの視野範囲に入った送り先ターゲットに対して、移動体を移動させる移動処理が行われる。従って、プレーヤが携帯型ゲーム装置又はゲームコントローラを動かすことで、その動きに連動した視点の画像を生成できるようになる。   In this way, when the player moves the portable game device or the game controller, the direction of the line of sight of the virtual camera changes to the moved direction side, and thereby the destination target that has entered the visual field range of the virtual camera is changed. Thus, a moving process for moving the moving body is performed. Therefore, when the player moves the portable game device or the game controller, it is possible to generate a viewpoint image that is linked to the movement.

また本発明の一態様では、水平方向に沿った軸をX軸とし、鉛直方向に沿った軸をY軸とした場合に、前記仮想カメラ制御部は、前記携帯型ゲーム装置又は前記ゲームコントローラを前記Y軸回りで回転させる操作が行われた場合に、前記仮想カメラの視線方向を、前記Y軸に対応するカメラ座標系のYC軸回りで回転させる制御を行い、前記移動体演算部は、前記仮想カメラの視線方向が前記YC軸回りで回転することで前記仮想カメラの視野範囲に入った前記送り先ターゲットに対して、前記移動体を移動させる処理を行ってもよい。   In one aspect of the present invention, when the axis along the horizontal direction is the X axis and the axis along the vertical direction is the Y axis, the virtual camera control unit is configured to connect the portable game device or the game controller. When the operation of rotating around the Y axis is performed, the control unit performs the control of rotating the visual line direction of the virtual camera around the YC axis of the camera coordinate system corresponding to the Y axis. You may perform the process which moves the said moving body with respect to the said destination target which entered into the visual field range of the said virtual camera because the visual line direction of the said virtual camera rotates around the said YC axis | shaft.

このようにすれば、プレーヤが、携帯型ゲーム装置又はゲームコントローラを、鉛直方向に沿ったY軸回りで回転させる操作が行われると、仮想カメラの視線方向がYC軸回りで回転し、これにより仮想カメラの視野範囲に入った送り先ターゲットに対して、移動体を移動させる処理が行われる。従って、プレーヤが携帯型ゲーム装置又はゲームコントローラをY軸回りで回転させることで、その回転の動きに連動した視点の画像を生成できるようになる。   In this way, when the player performs an operation of rotating the portable game device or the game controller about the Y axis along the vertical direction, the visual line direction of the virtual camera rotates about the YC axis. A process of moving the moving object is performed on the destination target that has entered the visual field range of the virtual camera. Therefore, when the player rotates the portable game device or the game controller around the Y axis, it is possible to generate a viewpoint image that is linked to the rotation movement.

また本発明の一態様では、前記移動体のキャッチに成功したか否かを判定する判定部を含み(判定部としてコンピュータを機能させ)、前記仮想カメラ制御部は、前記携帯型ゲーム装置又は前記ゲームコントローラを前記X軸回りで回転させる操作が行われた場合に、前記仮想カメラの視線方向を、前記X軸に対応するカメラ座標系のXC軸回りで回転させる制御を行い、前記判定部は、前記XC軸回りで視線方向が回転する前記仮想カメラにより前記移動体が捕捉される捕捉条件が満たされており、前記移動体のキャッチ条件が満たされた場合に、前記移動体のキャッチに成功したと判定し、前記移動体演算部は、前記移動体のキャッチに成功したと判定され、所与の送り条件が満たされた場合に、キャッチされた前記移動体を前記送り先ターゲットに移動させる処理を行ってもよい。   Further, according to one aspect of the present invention, a determination unit that determines whether or not the mobile object has been successfully caught is included (a computer functions as the determination unit), and the virtual camera control unit includes the portable game device or the When an operation to rotate the game controller around the X axis is performed, the control unit performs control to rotate the line-of-sight direction of the virtual camera around the XC axis of the camera coordinate system corresponding to the X axis. If the capturing condition for capturing the moving object is satisfied by the virtual camera whose visual line direction rotates about the XC axis, and the catching condition for the moving object is satisfied, the moving object is successfully caught. The mobile body computing unit determines that the mobile body has been successfully caught, and when a given feed condition is satisfied, the mobile body that has been caught is sent to the destination. The process of moving to the Getto may be performed.

このようにすれば、プレーヤが携帯型ゲーム装置又はゲームコントローラをX軸回りで回転させると、それに応じて仮想カメラの視線方向がXC軸回りで回転し、仮想カメラにより移動体が捕捉される捕捉条件が満たされたかどうかが判断される。そして、捕捉条件が満たされて、キャッチ条件が満たされると、移動体のキャッチに成功したと判断され、更に所与の送り条件が満たされると、キャッチされた移動体を送り先ターゲットに移動させる移動処理が行われる。従って、実際に移動体を目で追ってキャッチするというような操作感覚をプレーヤに与えることが可能になり、仮想現実感の高いキャッチ操作等を実現することが可能になる。   In this way, when the player rotates the portable game device or game controller around the X axis, the line-of-sight direction of the virtual camera rotates around the XC axis, and the moving body is captured by the virtual camera. It is determined whether the condition is met. When the catch condition is satisfied and the catch condition is satisfied, it is determined that the mobile object has been successfully caught. When the given feed condition is satisfied, the movement that moves the caught mobile object to the destination target. Processing is performed. Therefore, it is possible to give the player a sense of operation such as actually catching the moving body with the eyes, and it is possible to realize a catch operation with a high virtual reality.

また本発明の一態様では、前記携帯型ゲーム装置又は前記ゲームコントローラの前記Y軸回りでの回転角度の変化量ΔθYに対する、前記仮想カメラの視線方向の前記YC軸回りでの回転角度の変化量ΔθYCを調整する調整部を含んでもよい(調整部としてコンピュータを機能させてもよい)。   In one aspect of the present invention, the amount of change in the rotation angle around the YC axis in the line-of-sight direction of the virtual camera with respect to the amount of change ΔθY around the Y axis of the portable game device or the game controller. An adjustment unit that adjusts ΔθYC may be included (a computer may function as the adjustment unit).

このようにすれば、携帯型ゲーム装置又はゲームコントローラの回転角度の変化量と仮想カメラの視線方向の回転角度の変化量の対応関係を調整できるようになり、プレーヤのゲーム操作性等の向上を図れる。   In this way, it becomes possible to adjust the correspondence between the change amount of the rotation angle of the portable game device or the game controller and the change amount of the rotation angle of the virtual camera in the line-of-sight direction, thereby improving the player's game operability and the like. I can plan.

また本発明の一態様では、前記調整部は、前記変化量ΔθYに対する前記変化量ΔθYCの調整処理を、プレーヤの操作情報又はゲーム状況に基づいて行ってもよい。   In the aspect of the invention, the adjustment unit may perform the adjustment process of the change amount ΔθYC with respect to the change amount ΔθY based on operation information of the player or a game situation.

このようにすれば、携帯型ゲーム装置又はゲームコントローラの回転角度の変化量と仮想カメラの視線方向の回転角度の変化量の対応関係を、プレーヤの操作情報やゲーム状況に応じて調整できるようになり、プレーヤのゲーム操作性等の向上を図れる。   In this way, it is possible to adjust the correspondence between the change amount of the rotation angle of the portable game device or the game controller and the change amount of the rotation angle in the visual line direction of the virtual camera according to the player operation information and the game situation. Thus, the game operability of the player can be improved.

また本発明の一態様では、前記移動体演算部は、前記移動体のキャッチに成功したと判定され、所与の送り条件が満たされた場合に、キャッチされた前記移動体を前記送り先ターゲットに移動させる処理を行ってもよい。   Moreover, in one aspect of the present invention, the moving body calculation unit determines that the moving body has been successfully caught, and when the given feeding condition is satisfied, the caught moving body is used as the destination target. You may perform the process to move.

このようにすれば、移動体のキャッチに成功した後、所与の送り条件が満たされると、そのキャッチされた移動体が送り先ターゲットに移動するようになり、キャッチに成功した移動体を送り先ターゲットに対して適正に移動させることが可能になる。   In this way, after a mobile object is successfully caught, if the given feed condition is satisfied, the caught mobile object will move to the destination target, and the mobile object that has been successfully caught will be moved to the destination target. It becomes possible to move appropriately.

また本発明の一態様では、前記移動体演算部は、前記移動体のキャッチに成功したと判定され、プレーヤが送り指示操作を行った場合に、キャッチされた前記移動体を前記送り先ターゲットに移動させる処理を行ってもよい。   In one aspect of the present invention, the moving body computing unit moves the caught moving body to the destination target when it is determined that the moving body has been successfully caught and the player performs a feed instruction operation. You may perform the process to make.

このようにすれば、移動体のキャッチに成功した後、プレーヤの送り指示操作をトリガーとして、キャッチされた移動体を送り先ターゲットに移動させることが可能になる。   In this way, after the moving body is successfully caught, it is possible to move the caught moving body to the destination target using the player's feed instruction operation as a trigger.

また本発明の一態様では、前記移動体演算部は、前記移動体のキャッチに成功したと判定され、プレーヤが前記仮想カメラの視線方向を前記送り先ターゲット側に向ける操作を行った場合に、キャッチされた前記移動体を前記送り先ターゲットに移動させる処理を行ってもよい。   Further, in one aspect of the present invention, the moving body calculation unit determines that the moving body has been successfully caught, and when the player performs an operation to turn the sight line direction of the virtual camera toward the destination target side, You may perform the process which moves the made said moving body to the said destination target.

このようにすれば、移動体のキャッチに成功した後、仮想カメラの視線方向を送り先ターゲット側に向ける操作をトリガーとして、キャッチされた移動体を送り先ターゲットに移動させることが可能になる。   If it does in this way, after succeeding in the catch of a moving body, it becomes possible to move the caught moving body to a destination target by using the operation which turns the line-of-sight direction of a virtual camera to the destination target side as a trigger.

また本発明の一態様では、移動体演算部は、前記移動体のキャッチに成功したと判定され、プレーヤが前記仮想カメラの視線方向を前記送り先ターゲット側に向ける操作を行い、前記プレーヤが操作部を用いて送り指示操作を行った場合に、キャッチされた前記移動体を前記送り先ターゲットに移動させる処理を行ってもよい。   In one aspect of the present invention, the moving body computing unit determines that the moving body has been successfully caught, and the player performs an operation of directing the line-of-sight direction of the virtual camera toward the destination target side. When the feed instruction operation is performed using the, the process of moving the caught moving body to the destination target may be performed.

このようにすれば、移動体のキャッチに成功した後、プレーヤが、仮想カメラの視線方向を送り先ターゲット側に向ける操作を行い、その後に操作部を用いて送り指示操作を行うと、キャッチされた移動体が送り先ターゲットに移動するようになる。   In this way, after the player successfully catches the moving body, the player performs an operation to turn the line-of-sight direction of the virtual camera toward the destination target side, and then performs a feed instruction operation using the operation unit. The moving object moves to the destination target.

また本発明の一態様では、前記移動体演算部は、前記移動体を第1の送り先ターゲットに移動させる処理を行い、前記移動体が前記第1の送り先ターゲットに到達した後、到達した前記移動体を第2の送り先ターゲットに移動させる処理を行ってもよい。   In one embodiment of the present invention, the moving body computing unit performs a process of moving the moving body to a first destination target, and the movement that has reached after the moving body has reached the first destination target. A process of moving the body to the second destination target may be performed.

このようにすれば、第1の送り先ターゲットに移動させた移動体を、更に第2の送り先ターゲットに移動させることが可能になり、多様なゲーム画像の生成が可能になる。   In this way, the moving body moved to the first destination target can be further moved to the second destination target, and various game images can be generated.

また本発明の一態様では、前記移動体演算部は、前記移動体が前記第1の送り先ターゲットに到達した後、到達した前記移動体を、ゲーム状況に基づき選択された前記第2の送り先ターゲットに移動させる処理を行ってもよい。   In one aspect of the present invention, the moving body computing unit may select the second destination target selected based on a game situation after the moving body has reached the first destination target. You may perform the process to move to.

このようにすれば、第1の送り先ターゲットに到達した移動体を、ゲーム状況に応じた第2の送り先ターゲットに移動させることが可能になり、ゲーム状況を反映させた移動体の移動処理を実現できる。   In this way, it is possible to move the moving body that has reached the first destination target to the second destination target according to the game situation, and realize the moving process of the moving body that reflects the game situation. it can.

また本発明の一態様では、前記移動体演算部は、前記移動体が前記第1の送り先ターゲットに到達した後、到達した前記移動体を、プレーヤの指示操作により指示された前記第2の送り先ターゲットに移動させる処理を行ってもよい。   In the aspect of the invention, the moving body calculation unit may be configured such that after the moving body reaches the first destination target, the moving body that has reached the second destination that is instructed by a player's instruction operation is displayed. You may perform the process moved to a target.

このようにすれば、第1の送り先ターゲットに到達した移動体を、プレーヤの操作により指示された第2の送り先ターゲットに移動させることが可能になり、プレーヤの操作指示を反映させた移動体の移動処理を実現できる。   In this way, it is possible to move the mobile body that has reached the first destination target to the second destination target that is instructed by the player's operation, and the mobile body that reflects the player's operation instruction can be moved. Move processing can be realized.

また本発明の一態様では、前記仮想カメラ制御部は、前記移動体が前記第1の送り先ターゲットに移動した場合に、前記仮想カメラの視点位置を、前記第1の送り先ターゲットに対応する位置に設定し、前記仮想カメラの視線方向を、前記第2の送り先ターゲット側に向ける制御を行い、前記移動体演算部は、前記仮想カメラの視線方向が向けられることで前記仮想カメラの視野範囲に入った前記第2の送り先ターゲットに対して、前記移動体を移動させる処理を行ってもよい。   In one aspect of the present invention, the virtual camera control unit sets the viewpoint position of the virtual camera to a position corresponding to the first destination target when the moving body moves to the first destination target. And controlling the direction of the line of sight of the virtual camera toward the second destination target side, and the moving body computing unit enters the visual field range of the virtual camera when the line of sight of the virtual camera is directed In addition, a process of moving the moving body may be performed on the second destination target.

このようにすれば、移動体が第1の送り先ターゲットに移動すると、仮想カメラの視点位置や視線方向が切り替わるようになり、よりリアルな画像等の生成が可能になる。   In this way, when the moving body moves to the first destination target, the viewpoint position and the line-of-sight direction of the virtual camera are switched, and a more realistic image or the like can be generated.

また本発明の一態様では、前記仮想カメラ制御部は、前記移動体が前記第1の送り先ターゲットに到達するまで、前記仮想カメラの視線方向を、前記移動体の送り元側に向ける制御を行ってもよい。   In one aspect of the present invention, the virtual camera control unit performs control to direct the line-of-sight direction of the virtual camera toward the source side of the moving object until the moving object reaches the first destination target. May be.

このようにすれば、移動体が第1の送り先ターゲットに到達するまでの間は、移動体の送り元側が映るような画像が生成されるようになり、よりリアルな画像等の生成が可能になる。   In this way, until the moving object reaches the first destination target, an image that reflects the source side of the moving object is generated, and a more realistic image or the like can be generated. Become.

また本発明の一態様では、前記仮想カメラ制御部は、所与の基準方向を基準として、前記モーション検出情報に基づき前記仮想カメラの視線方向を前記移動体の送り先ターゲット側に向ける制御を行ってもよい。   In one aspect of the present invention, the virtual camera control unit performs control to direct the line-of-sight direction of the virtual camera toward the destination target side of the moving body based on the motion detection information with a given reference direction as a reference. Also good.

このようにすれば、基準方向を基準として、仮想カメラの視線方向をモーション検出情報に基づき変化させて、送り先ターゲット側に向けることが可能になる。   In this way, it becomes possible to change the line-of-sight direction of the virtual camera based on the motion detection information with the reference direction as a reference, and direct it toward the destination target.

また本発明の一態様では、前記仮想カメラ制御部は、前記仮想カメラの視点位置からゲームフィールド上の所定位置へと向かう方向を、前記基準方向に設定してもよい。   In the aspect of the invention, the virtual camera control unit may set a direction from the viewpoint position of the virtual camera to a predetermined position on the game field as the reference direction.

このようにすれば、ゲームフィールド上の所定位置へと向かう方向を、基準方向に設定して、仮想カメラの視線方向をモーション検出情報に基づき変化させることが可能になる。   In this way, the direction toward the predetermined position on the game field can be set as the reference direction, and the line-of-sight direction of the virtual camera can be changed based on the motion detection information.

また本発明の一態様では、前記仮想カメラ制御部は、複数の候補基準方向の中から選択された方向を、前記基準方向に設定してもよい。   In the aspect of the invention, the virtual camera control unit may set a direction selected from a plurality of candidate reference directions as the reference direction.

このようにすれば、複数の候補基準方向の中から、例えばプレーヤが所望する方向を基準方向として設定して、仮想カメラの視線方向をモーション検出情報に基づき変化させることが可能になる。   In this way, it is possible to set, for example, a direction desired by the player as a reference direction from among a plurality of candidate reference directions, and change the line-of-sight direction of the virtual camera based on the motion detection information.

また本発明の一態様では、前記仮想カメラ制御部は、プレーヤが基準方向の設定の操作を行ったときの前記仮想カメラの視線方向を、前記基準方向に設定してもよい。   In one aspect of the present invention, the virtual camera control unit may set the line-of-sight direction of the virtual camera when the player performs an operation for setting a reference direction to the reference direction.

このようにすれば、プレーヤの基準方向の設定操作により基準方向を設定することが可能になり、プレーヤのゲーム操作性等を向上できる。   In this way, the reference direction can be set by the player's reference direction setting operation, and the game operability of the player can be improved.

また本発明の一態様では、前記移動体演算部は、プレーヤの操作情報に基づいてプレーヤキャラクタを移動させる処理を行い、前記仮想カメラ制御部は、前記プレーヤキャラクタの移動方向に対応する方向を、前記基準方向に設定してもよい。   In the aspect of the invention, the moving body calculation unit performs a process of moving the player character based on the operation information of the player, and the virtual camera control unit sets a direction corresponding to the moving direction of the player character. The reference direction may be set.

このようにすれば、プレーヤキャラクタが移動している方向が基準方向に設定されるようになり、例えば移動方向から振り向くような動きが行われると、それを検出して、仮想カメラの視線方向を変化させることなどが可能になる。   In this way, the direction in which the player character is moving is set as the reference direction. For example, when a movement that turns from the moving direction is performed, this is detected and the line-of-sight direction of the virtual camera is changed. It can be changed.

また本発明の他の態様は、プレーヤの操作情報を取得する操作情報取得部と、取得された前記操作情報に基づいて、仮想カメラの制御を行う仮想カメラ制御部と、移動体の移動演算処理を行う移動体演算部と、オブジェクト空間内において前記仮想カメラから見える画像を生成するための画像生成用データを生成する画像生成用データ生成部とを含み、前記操作情報取得部は、モーションセンサからのモーション検出情報を前記操作情報として取得し、前記仮想カメラ制御部は、前記モーション検出情報に基づいて、前記仮想カメラの視線方向を、前記移動体の送り先ターゲット側に向ける制御を行い、前記移動体演算部は、前記仮想カメラの視線方向が向けられることで前記仮想カメラの視野範囲に入った前記送り先ターゲットに対して、前記移動体を移動させる処理を行うサーバシステムに関係する。   According to another aspect of the present invention, an operation information acquisition unit that acquires operation information of a player, a virtual camera control unit that controls a virtual camera based on the acquired operation information, and a movement calculation process of a moving object A moving body calculation unit that performs image generation, and an image generation data generation unit that generates image generation data for generating an image that can be viewed from the virtual camera in an object space. The motion detection information is acquired as the operation information, and based on the motion detection information, the virtual camera control unit performs control to direct the line-of-sight direction of the virtual camera toward the destination target side of the moving object, and the movement The body calculation unit is directed to the destination target that has entered the visual field range of the virtual camera by directing the line-of-sight direction of the virtual camera. It related to the server system which performs a process of moving the serial mobile.

本実施形態のゲーム装置の構成例。The structural example of the game device of this embodiment. 図2(A)、図2(B)は本実施形態が適用される携帯型ゲーム装置の構成例。2A and 2B are configuration examples of a portable game device to which the present embodiment is applied. 図3(A)〜図3(C)はモーションセンサを用いた仮想カメラの視線方向の制御手法の説明図。FIG. 3A to FIG. 3C are explanatory diagrams of a method for controlling the viewing direction of a virtual camera using a motion sensor. 図4(A)、図4(B)は本実施形態の手法の説明図。FIG. 4A and FIG. 4B are explanatory diagrams of the method of this embodiment. 図5(A)、図5(B)も本実施形態の手法の説明図。FIG. 5A and FIG. 5B are also explanatory diagrams of the method of this embodiment. 図6(A)、図6(B)はボールの捕球処理の説明図。6A and 6B are explanatory diagrams of the ball catching process. 図7(A)、図7(B)もボールの捕球処理の説明図。FIGS. 7A and 7B are also explanatory diagrams of the ball catching process. 図8(A)、図8(B)は内野ゴロ時に本実施形態により生成される画像の例。FIG. 8A and FIG. 8B are examples of images generated by the present embodiment at the time of infield. 内野ゴロの捕球後の送球時に本実施形態により生成される画像の例。The example of the image produced | generated by this embodiment at the time of pitching after catching infield Goro. 図10(A)、図10(B)は外野フライ時に本実施形態により生成される画像の例。FIG. 10A and FIG. 10B are examples of images generated by this embodiment during outfield fly. 図11(A)〜図11(C)は野球ゲーム以外の球技ゲームへの本実施形態の手法の適用例。11A to 11C show application examples of the method of the present embodiment to a ball game other than the baseball game. 図12(A)、図12(B)は仮想カメラの視線方向の回転角度の調整手法の説明図。12A and 12B are explanatory diagrams of a method for adjusting the rotation angle in the line-of-sight direction of the virtual camera. 図13(A)、図13(B)も仮想カメラの視線方向の回転角度の調整手法の説明図。FIGS. 13A and 13B are also explanatory diagrams of a method for adjusting the rotation angle in the viewing direction of the virtual camera. 図14(A)、図14(B)は第1の送り先ターゲットから第2の送り先ターゲットに移動体を移動させる手法の説明図。FIGS. 14A and 14B are explanatory diagrams of a method for moving a moving body from a first destination target to a second destination target. 図15(A)、図15(B)も第1の送り先ターゲットから第2の送り先ターゲットに移動体を移動させる手法の説明図。FIGS. 15A and 15B are also explanatory diagrams of a method for moving the moving body from the first destination target to the second destination target. プレーヤの指示操作により第2の送り先ターゲットを選択する手法の説明図。Explanatory drawing of the method of selecting the 2nd destination target by instruction | indication operation of a player. 図17(A)、図17(B)は基準方向を基準として送り先ターゲットに移動体を移動させる手法の説明図。FIGS. 17A and 17B are explanatory diagrams of a method for moving a moving body to a destination target with reference to a reference direction. 図18(A)、図18(B)は複数の候補基準方向の中から選択された方向を基準方向に設定する手法の説明図。18A and 18B are explanatory diagrams of a method for setting a direction selected from a plurality of candidate reference directions as a reference direction. 図19(A)、図19(B)はプレーヤの基準方向の設定操作により基準方向を設定する手法の説明図。19A and 19B are explanatory diagrams of a method for setting a reference direction by a player's reference direction setting operation. 図20(A)、図20(B)はプレーヤキャラクタの移動方向に対応する方向を基準方向に設定する手法の説明図。20A and 20B are explanatory diagrams of a method for setting a direction corresponding to the moving direction of the player character as a reference direction. 図21(A)〜図21(C)はヒットボリュームを用いた第1の判定手法の説明図。FIGS. 21A to 21C are explanatory diagrams of a first determination method using a hit volume. 図22(A)、図22(B)もヒットボリュームを用いた第1の判定手法の説明図。22A and 22B are also explanatory diagrams of the first determination method using the hit volume. 図23(A)、図23(B)はヒットボリュームの設定手法の変形例の説明図。FIG. 23A and FIG. 23B are explanatory diagrams of modified examples of the hit volume setting method. 図24(A)〜図24(C)は仮想カメラの視野範囲に対応して設定された補足判定範囲を用いた第2の判定手法の説明図。FIGS. 24A to 24C are explanatory diagrams of a second determination method using a supplemental determination range set corresponding to the visual field range of the virtual camera. 図25(A)〜図25(C)は仮想カメラの視点位置の移動の制御手法の説明図。FIG. 25A to FIG. 25C are explanatory diagrams of a method for controlling the movement of the viewpoint position of the virtual camera. 本実施形態の詳細な処理を説明するフローチャート。The flowchart explaining the detailed process of this embodiment. 本実施形態の詳細な処理を説明するフローチャート。The flowchart explaining the detailed process of this embodiment. 本実施形態の詳細な処理を説明するフローチャート。The flowchart explaining the detailed process of this embodiment. 本実施形態のサーバシステムの構成例。The structural example of the server system of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態のゲーム装置(画像生成システム、ゲームシステム)のブロック図の例を示す。なお、本実施形態のゲーム装置の構成は図1に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Configuration FIG. 1 shows an example of a block diagram of a game apparatus (image generation system, game system) of the present embodiment. Note that the configuration of the game device of the present embodiment is not limited to that shown in FIG. 1, and various modifications such as omitting some of the components (each part) or adding other components are possible.

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、方向指示キー、操作ボタン、アナログスティック、レバー、各種センサ(角速度センサ、加速度センサ等)、マイク、或いはタッチパネル型ディスプレイなどにより実現できる。   The operation unit 160 is for a player to input operation data, and functions thereof are direction instruction keys, operation buttons, analog sticks, levers, various sensors (such as an angular velocity sensor and an acceleration sensor), a microphone, or a touch panel type. This can be realized with a display.

操作部160のモーションセンサは、ゲームコントローラや携帯型ゲーム装置などの機器の動きを検出するものであり、このような機器の動きを検出することでプレーヤの操作モーションなどを検出できる。このモーションセンサは、例えば加速度センサ、角速度センサ(ジャイロセンサ)や、カメラの画像センサなどの種々のセンサにより実現できる。加速度センサは直交3軸方向の各加速度情報を検出する。具体的には互いに直交する座標軸をX軸、Y軸、Z軸とした場合に、X軸方向に沿った第1の加速度情報、Y軸方向に沿った第2の加速度情報、Z軸方向に沿った第3の加速度情報を検出して、センサ検出情報として出力する。この加速度センサは、例えばMEMS構造のピエゾ抵抗型や静電容量型のセンサなどにより実現できる。また角速度センサは、所定の回転軸回りの角速度情報を検出するセンサである。具体的に角速度センサは、直交3軸での角速度情報を検出するセンサであり、X軸、Y軸、Z軸回りでの角速度情報を検出する。例えばX軸回りの回転角度をα、Y軸回りの回転角度をβ、Z軸回りの回転角度をγとすると、これらのα、β、γについての角速度を検出して、センサ検出情報として出力する。この角速度センサは例えばMEMS構造の多軸角速度センシングジャイロスコープなどにより実現できる。モーションセンサとして画像センサ(CCD、CMOSセンサ等)を用いた場合には、画像センサにより撮像された撮像画像の画素の動き情報などにより、ゲームコントローラや携帯型ゲーム装置などの機器の動きを検出すればよい。   The motion sensor of the operation unit 160 detects the movement of a device such as a game controller or a portable game device, and the operation motion of the player can be detected by detecting the movement of such a device. This motion sensor can be realized by various sensors such as an acceleration sensor, an angular velocity sensor (gyro sensor), and an image sensor of a camera. The acceleration sensor detects each piece of acceleration information in three orthogonal directions. Specifically, when the coordinate axes orthogonal to each other are the X axis, the Y axis, and the Z axis, the first acceleration information along the X axis direction, the second acceleration information along the Y axis direction, and the Z axis direction The third acceleration information along is detected and output as sensor detection information. This acceleration sensor can be realized by, for example, a piezoresistive or capacitive sensor having a MEMS structure. The angular velocity sensor is a sensor that detects angular velocity information about a predetermined rotation axis. Specifically, the angular velocity sensor is a sensor that detects angular velocity information about three orthogonal axes, and detects angular velocity information about the X, Y, and Z axes. For example, if the rotation angle around the X axis is α, the rotation angle around the Y axis is β, and the rotation angle around the Z axis is γ, the angular velocities for these α, β, and γ are detected and output as sensor detection information. To do. This angular velocity sensor can be realized by, for example, a multi-axis angular velocity sensing gyroscope having a MEMS structure. When an image sensor (CCD, CMOS sensor, etc.) is used as a motion sensor, the movement of a device such as a game controller or a portable game device can be detected based on pixel movement information of a captured image captured by the image sensor. That's fine.

なおモーションセンサは、ゲーム装置に内蔵されるものであってもよいし、ゲーム装置のオプションの外付け部品として用意されるものであってもよい。   The motion sensor may be built in the game device or may be prepared as an optional external part of the game device.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(DRAM、VRAM)などにより実現できる。そしてゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (DRAM, VRAM) or the like. Then, the game program and game data necessary for executing the game program are held in the storage unit 170.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリ(ROM等)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and functions as an optical disk (DVD, CD, etc.), HDD (hard disk drive), memory (ROM, etc.), etc. Can be realized. The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、有機ELディスプレイ、CRT、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by an LCD, an organic EL display, a CRT, a touch panel display, an HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

補助記憶装置194(補助メモリ、2次メモリ)は、記憶部170の容量を補うために使用される記憶装置であり、SDメモリーカード、マルチメディアカードなどのメモリーカードなどにより実現できる。   The auxiliary storage device 194 (auxiliary memory, secondary memory) is a storage device used to supplement the capacity of the storage unit 170, and can be realized by a memory card such as an SD memory card or a multimedia card.

通信部196は、有線や無線のネットワークを介して外部(例えば他のゲーム装置、サーバ、ホスト装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with the outside (for example, another game device, a server, or a host device) via a wired or wireless network, and functions as a communication ASIC or a communication processor. It can be realized by hardware or communication firmware.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170、補助記憶装置194)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is obtained from an information storage medium of a server (host device) via an information storage medium 180 (or storage unit 170, auxiliary storage) via a network and communication unit 196. May be distributed to the device 194). Use of an information storage medium by such a server (host device) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などを行う。処理部100は記憶部170をワーク領域として各種処理を行う。この処理部100の機能は、各種プロセッサ(CPU、GPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs game processing, image generation processing, sound generation processing, and the like based on operation data from the operation unit 160, a program, and the like. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, GPU, etc.), ASIC (gate array, etc.), and programs.

処理部100は、操作情報取得部102、ゲーム演算部104、オブジェクト空間設定部106、仮想カメラ制御部108、調整部109、移動体演算部110、判定部112、難易度設定部114、画像生成部120、音生成部130を含む。なおこれらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The processing unit 100 includes an operation information acquisition unit 102, a game calculation unit 104, an object space setting unit 106, a virtual camera control unit 108, an adjustment unit 109, a moving body calculation unit 110, a determination unit 112, a difficulty level setting unit 114, and image generation. Unit 120 and sound generator 130. Various modifications may be made such as omitting some of these components or adding other components.

操作情報取得部102は、プレーヤの操作情報を取得する。例えばプレーヤが操作部160を用いて各種操作を行うと、その操作情報を取得する。またプレーヤが、操作部であるゲームコントローラを動かすと、ゲームコントローラに内蔵されたモーションセンサからのモーション検出情報を、操作情報として取得する。或いは、携帯型ゲーム装置にモーションセンサが内蔵されている場合には、プレーヤが携帯型ゲーム装置を動かすと、携帯型ゲーム装置に内蔵されたモーションセンサが、その動きを検出する。そして操作情報取得部102は、モーションセンサからのモーション検出情報を、操作情報として取得する。取得された操作情報は記憶部170に一時的に保存される。   The operation information acquisition unit 102 acquires operation information of the player. For example, when the player performs various operations using the operation unit 160, the operation information is acquired. When the player moves the game controller as the operation unit, the motion detection information from the motion sensor built in the game controller is acquired as the operation information. Alternatively, in the case where a motion sensor is built in the portable game device, when the player moves the portable game device, the motion sensor built in the portable game device detects the movement. Then, the operation information acquisition unit 102 acquires motion detection information from the motion sensor as operation information. The acquired operation information is temporarily stored in the storage unit 170.

ゲーム演算部104はゲーム演算処理を行う。ここでゲーム演算としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The game calculation unit 104 performs a game calculation process. Here, as a game calculation, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for calculating a game result, or a process for ending a game when a game end condition is satisfied and so on.

オブジェクト空間設定部106は、複数のオブジェクトが配置されるオブジェクト空間の設定処理を行う。例えば、キャラクタ(人、動物、ロボット、車、船舶、飛行機等)、ボール、マップ(地形)、建物、コース(道路)、樹木、壁などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクトデータ記憶部172には、オブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等のデータであるオブジェクトデータがオブジェクト番号に対応づけて記憶される。オブジェクト空間設定部106は、例えば各フレーム毎にこのオブジェクトデータを更新する処理などを行う。   The object space setting unit 106 performs an object space setting process in which a plurality of objects are arranged. For example, various objects (polygon, free-form surface or sub) representing display objects such as characters (people, animals, robots, cars, ships, airplanes, etc.), balls, maps (terrain), buildings, courses (roads), trees, walls, etc. The object is configured to place and set objects (objects composed of primitive surfaces such as division surfaces) in the object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects. Specifically, the object data storage unit 172 of the storage unit 170 stores object data such as the position, rotation angle, moving speed, moving direction, etc. of the object (part object) in association with the object number. . The object space setting unit 106 performs a process of updating the object data for each frame, for example.

仮想カメラ制御部108は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。   The virtual camera control unit 108 performs control processing of a virtual camera (viewpoint, reference virtual camera) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do.

調整部109は、携帯型ゲーム装置又はゲームコントローラの回転角度の変化量に対する仮想カメラの視線方向の回転角度の変化量の調整処理を行う。調整部109の詳細は後述する。   The adjustment unit 109 performs an adjustment process of the change amount of the rotation angle in the visual line direction of the virtual camera with respect to the change amount of the rotation angle of the portable game device or the game controller. Details of the adjustment unit 109 will be described later.

移動体演算部110は、キャラクタやボール等の移動体を移動させるための演算を行う。また移動体(移動体オブジェクト)を動作させるための演算も行う。即ち操作部160によりプレーヤが入力した操作情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(オブジェクト、モデルオブジェクト)をオブジェクト空間内で移動させたり、移動体を動作(モーション、アニメーション)させる処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The moving object calculation unit 110 performs an operation for moving a moving object such as a character or a ball. Also, a calculation for operating the moving object (moving object) is performed. That is, based on operation information input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), etc., a moving object (object, model object) is moved in the object space, Performs processing to move the moving body (motion, animation). Specifically, a simulation process for sequentially obtaining movement information (position, rotation angle, speed, or acceleration) and motion information (part object position or rotation angle) of a moving body for each frame (1/60 second). I do. A frame is a unit of time for performing a moving / movement process (simulation process) and an image generation process of a moving object.

判定部112は、各種の判定処理を行う。例えばボールの捕捉条件が満たされたかどうかを判定する処理や、ボールの捕球が成功したかを判定する処理などを行う。判定部112の詳細は後述する。   The determination unit 112 performs various determination processes. For example, processing for determining whether or not a ball capturing condition is satisfied, processing for determining whether or not the ball has been successfully captured, and the like are performed. Details of the determination unit 112 will be described later.

難易度設定部114は、ゲームの難易度(ハンディ)の設定処理を行う。例えば初級レベル、中級レベル、上級レベルなどの難易度を設定する。難易度の設定は、オプション画面などを用いてプレーヤが入力した情報に基づいて行ってもよいし、得点やゲーム場面などのゲーム状況等に応じてコンピュータが自動的に設定してもよい。   The difficulty level setting unit 114 performs a game difficulty level (handy) setting process. For example, difficulty levels such as an elementary level, an intermediate level, and an advanced level are set. The difficulty level may be set based on information input by the player using an option screen or the like, or the computer may automatically set it according to a game situation such as a score or a game scene.

画像生成部120は、処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、描画処理は頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。   The image generation unit 120 performs drawing processing based on the results of various processing (game processing and simulation processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 178 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. Note that the rendering process can be realized by a vertex shader process, a pixel shader process, or the like.

なお、画像生成部120が、いわゆる立体視用の画像を生成するようにしてもよい。この場合には、基準となる仮想カメラの位置とカメラ間距離を用いて、左眼用仮想カメラ(第1の視点用仮想カメラ)と右眼用仮想カメラ(第2の視点用仮想カメラ)を配置設定する。そして画像生成部120が、オブジェクト空間内において左眼用仮想カメラから見える左眼用画像(第1視点画像)と、オブジェクト空間内において右眼用仮想カメラから見える右眼用画像(第2視点画像)を生成する。そしてこれらの左眼用画像、右眼用画像を用いて、眼分離眼鏡方式や、レンチキュラなどを用いた裸眼方式などにより、立体視を実現すればよい。   Note that the image generation unit 120 may generate a so-called stereoscopic image. In this case, the left-eye virtual camera (first viewpoint virtual camera) and the right-eye virtual camera (second viewpoint virtual camera) are determined using the position of the reference virtual camera and the inter-camera distance. Set the placement. The image generation unit 120 then displays a left-eye image (first viewpoint image) seen from the left-eye virtual camera in the object space, and a right-eye image (second viewpoint image) seen from the right-eye virtual camera in the object space. ) Is generated. Then, using these left-eye image and right-eye image, stereoscopic vision may be realized by an eye separation spectacle method, a naked eye method using a lenticular, or the like.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

そして本実施形態では、操作情報取得部102がプレーヤの操作情報を取得する。具体的にはモーションセンサからのモーション検出情報(加速度情報、角速度情報、画像情報等)を操作情報として取得する。またプレーヤが操作部160を操作することで得られる操作情報を取得する。   In this embodiment, the operation information acquisition unit 102 acquires the operation information of the player. Specifically, motion detection information (acceleration information, angular velocity information, image information, etc.) from the motion sensor is acquired as operation information. Further, operation information obtained by the player operating the operation unit 160 is acquired.

そして仮想カメラ制御部108は、取得された操作情報に基づいて、仮想カメラの制御を行う。例えば仮想カメラの視線方向や視点位置の制御を行う。具体的には、モーションセンサからのモーション検出情報に基づいて、仮想カメラ(プレーヤキャラクタ)の視線方向を、移動体の送り先ターゲット側に向ける制御を行う。或いは、仮想カメラ制御部108は、プレーヤの操作情報にしたがって、仮想カメラの視線方向を変化させたり、仮想カメラの視点位置を移動させる制御を行う。この操作情報に基づく仮想カメラの視線方向や視点位置の制御は、操作情報にしたがってプレーヤキャラクタを移動させ、そのプレーヤキャラクタの移動等にしたがって仮想カメラの視線方向や視点位置を制御する場合を含む。   The virtual camera control unit 108 controls the virtual camera based on the acquired operation information. For example, the visual line direction and viewpoint position of the virtual camera are controlled. Specifically, based on the motion detection information from the motion sensor, control is performed to direct the line-of-sight direction of the virtual camera (player character) toward the destination target side of the moving object. Alternatively, the virtual camera control unit 108 performs control to change the viewing direction of the virtual camera or move the viewpoint position of the virtual camera according to the operation information of the player. Control of the viewing direction and viewpoint position of the virtual camera based on the operation information includes a case where the player character is moved according to the operation information and the viewing direction and viewpoint position of the virtual camera are controlled according to the movement of the player character.

なおプレーヤキャラクタは、その全部又は一部の部位がゲーム画像に実際に表示されるキャラクタであってもよいし、ゲーム画像に表示されない仮想的なキャラクタであってもよい。   Note that the player character may be a character whose whole or a part is actually displayed in the game image, or may be a virtual character that is not displayed in the game image.

移動体演算部110は、プレイ対象であるボールの移動演算処理を行う。例えば仮想カメラの視線方向が向けられることで仮想カメラの視野範囲に入った送り先ターゲットに対して、移動体を移動させる処理を行う。また移動体演算部110は、例えばボールが、バットやキャラクタの部位などの被ヒット体でヒットされた場合に、そのボールの軌道(移動軌道)を、所与のアルゴリズムやテーブルデータなどに基づき求める演算処理を行う。   The moving body calculation unit 110 performs a movement calculation process for a ball that is a play target. For example, a process of moving the moving body is performed with respect to the destination target that has entered the visual field range of the virtual camera when the line-of-sight direction of the virtual camera is directed. In addition, for example, when the ball is hit by a hit body such as a bat or a character part, the moving body calculation unit 110 obtains the trajectory (movement trajectory) of the ball based on a given algorithm or table data. Perform arithmetic processing.

以上のように本実施形態では、モーションセンサからのモーション検出情報に基づいて仮想カメラの視線方向を送り先ターゲット側に向ける制御が行われると共に、仮想カメラの視線方向が向けられることで仮想カメラの視野範囲に入った送り先ターゲットに対して、移動体を移動させる処理が行われる。このようにすることで、送り先ターゲットに移動体を移動させる場面を、適切な視点の画像で生成して表示部190に表示できるようになる。   As described above, in the present embodiment, control is performed so that the viewing direction of the virtual camera is directed toward the destination target based on the motion detection information from the motion sensor, and the viewing direction of the virtual camera is directed by directing the viewing direction of the virtual camera. A process of moving the moving object is performed on the destination target that has entered the range. By doing in this way, the scene which moves a moving body to a destination target can be produced | generated with the image of a suitable viewpoint, and can be displayed on the display part 190 now.

ここで移動体は、例えば球技ゲームにおけるボールである。なお移動体は、球技ゲームにおけるボールには限定されず、送り先ターゲットが決められて送り先ターゲットに移動されるオブジェクトであれば、種々のオブジェクトに適用できる。また送り先ターゲットは、例えば球技ゲームにおける送球ターゲットである。この送球ターゲットは、例えば野球ゲームでは、送球を受ける野手(塁)などであり、サッカーゲームやアメリカンフットボールなどでは、送球のパスを受ける選手や送球のシュートが打ち込まれるゴールなどである。またテニスゲームでは、ラケットにより打ち返されて送球されたボールが飛んで行く場所などである。但し、送り先ターゲットは球技ゲームにおける送球ターゲットには限定されず、球技ゲーム以外のゲームにおける送り先ターゲットであってもよい。また、モーション検出情報に基づいて仮想カメラの視線方向を送り先ターゲット側に向ける場合に、送り先ターゲットの方向に視線方向を完全に向けない場合であってもよい。また送り先ターゲットが仮想カメラの視野範囲に入ったという条件が満たされた場合に、送り先ターゲットに移動体を移動させてもよいし、プレーヤにより移動体の送り指示操作が行われた場合に、送り先ターゲットに移動体を移動させてもよい。   Here, the moving body is, for example, a ball in a ball game. The moving body is not limited to the ball in the ball game, and can be applied to various objects as long as the destination target is determined and the object is moved to the destination target. The destination target is, for example, a ball sending target in a ball game. For example, in a baseball game, the pitching target is a fielder (塁) who receives a pitching, and in a soccer game or American football, a player who receives a pitching pass or a goal in which a pitching shot is shot. In a tennis game, it is a place where a ball thrown back by a racket flies. However, the destination target is not limited to the ball target in the ball game, and may be a destination target in a game other than the ball game. Further, when the visual line direction of the virtual camera is directed to the destination target side based on the motion detection information, the line-of-sight direction may not be completely directed to the destination target direction. In addition, when the condition that the destination target is within the visual field range of the virtual camera is satisfied, the moving body may be moved to the destination target, or when the moving body is instructed to be sent by the player, the destination is The moving body may be moved to the target.

またモーションセンサは、例えば携帯型ゲーム装置又はゲームコントローラに設けられるセンサである。そして操作情報取得部102は、プレーヤが携帯型ゲーム装置又はゲームコントローラを動かすことで得られたモーション検出情報を、モーションセンサから取得する。そして仮想カメラ制御部108は、携帯型ゲーム装置又はゲームコントローラが動かされた方向側に、仮想カメラの視線方向を変化させる制御を行う。そして移動体演算部110は、携帯型ゲーム装置又はゲームコントローラが動かされた方向側に仮想カメラの視線方向が変化することで仮想カメラの視野範囲に入った送り先ターゲットに対して、移動体を移動させる処理を行う。   The motion sensor is a sensor provided in a portable game device or a game controller, for example. The operation information acquisition unit 102 acquires motion detection information obtained by the player moving the portable game device or the game controller from the motion sensor. The virtual camera control unit 108 performs control to change the line-of-sight direction of the virtual camera toward the direction in which the portable game device or the game controller is moved. Then, the moving object calculation unit 110 moves the moving object with respect to the destination target that has entered the visual field range of the virtual camera when the line-of-sight direction of the virtual camera changes to the direction in which the portable game device or game controller is moved. To perform the process.

例えば水平方向に沿った軸をX軸(第1の座標軸)とし、鉛直方向に沿った軸をY軸(第2の座標軸)とする。すると仮想カメラ制御部108は、携帯型ゲーム装置又はゲームコントローラをY軸回りで回転させる操作(ロールさせる操作)が行われた場合に、仮想カメラの視線方向を、Y軸に対応するカメラ座標系のYC軸回りで回転させる制御(ロールさせる制御)を行う。そして移動体演算部110は、仮想カメラの視線方向がYC軸回りで回転することで仮想カメラの視野範囲に入った送り先ターゲットに対して、移動体を移動させる処理を行う。例えばプレーヤが携帯型ゲーム装置又はゲームコントローラを、鉛直方向に沿った軸であるY軸回りでロールさせる操作を行ったとする。この場合には、仮想カメラの視線方向を、実空間でのY軸に対応するカメラ座標系のYC軸回りでロールさせる制御を行う。例えばプレーヤが、携帯型ゲーム装置又はゲームコントローラを実空間において左方向又は右方向に回転(ロール)させる操作を行うと、仮想カメラの視線方向がオブジェクト空間において左方向又は右方向に変化する。そして、このようにして視線方向が変化する仮想カメラの視野範囲内に映る送り先ターゲットに対して、移動体を移動させる。   For example, an axis along the horizontal direction is defined as an X axis (first coordinate axis), and an axis along the vertical direction is defined as a Y axis (second coordinate axis). Then, when an operation for rotating the portable game device or the game controller around the Y axis (an operation for rolling) is performed, the virtual camera control unit 108 changes the line-of-sight direction of the virtual camera to the camera coordinate system corresponding to the Y axis. Control to rotate around the YC axis (control to roll). Then, the moving object calculation unit 110 performs a process of moving the moving object with respect to the destination target that has entered the visual field range of the virtual camera by rotating the viewing direction of the virtual camera around the YC axis. For example, it is assumed that the player performs an operation of rolling the portable game device or the game controller about the Y axis that is an axis along the vertical direction. In this case, control is performed to roll the visual line direction of the virtual camera around the YC axis of the camera coordinate system corresponding to the Y axis in real space. For example, when the player performs an operation of rotating (rolling) the portable game device or the game controller leftward or rightward in real space, the visual line direction of the virtual camera changes leftward or rightward in the object space. And a moving body is moved with respect to the destination target reflected in the visual field range of the virtual camera from which a gaze direction changes in this way.

また判定部112は、移動体のキャッチに成功したか否かを判定する。移動体がボールである場合にはボールの捕球に成功したか否かを判定する。そして仮想カメラ制御部108は、携帯型ゲーム装置又はゲームコントローラをX軸回りで回転させる操作が行われた場合に、仮想カメラの視線方向を、実空間でのX軸に対応するカメラ座標系のXC軸回りで回転させる制御を行う。例えばプレーヤが、携帯型ゲーム装置又はゲームコントローラを実空間において上方向又は下方向に回転(ロール)させる操作を行うと、仮想カメラの視線方向がオブジェクト空間において上方向又は下方向に変化する。また判定部112は、XC軸回りで視線方向が回転する仮想カメラにより移動体が捕捉される捕捉条件が満たされており、移動体のキャッチ条件(捕球条件)が満たされた場合に、移動体のキャッチ(捕球)に成功したと判定する。そして移動体演算部110は、移動体のキャッチに成功したと判定され、所与の送り条件(送球条件)が満たされた場合に、キャッチされた移動体を送り先ターゲット(送球先ターゲット)に移動させる処理を行う。   Further, the determination unit 112 determines whether or not the moving object has been successfully caught. When the moving body is a ball, it is determined whether or not the ball has been successfully caught. Then, when an operation of rotating the portable game device or the game controller around the X axis is performed, the virtual camera control unit 108 changes the line-of-sight direction of the virtual camera in the camera coordinate system corresponding to the X axis in real space. Control to rotate around the XC axis. For example, when the player performs an operation of rotating (rolling) the portable game device or the game controller upward or downward in real space, the visual line direction of the virtual camera changes upward or downward in the object space. In addition, the determination unit 112 moves when the capturing condition for capturing the moving object is satisfied by the virtual camera whose line-of-sight direction rotates around the XC axis, and the catching condition (catching condition) for the moving object is satisfied. It is determined that the body has been successfully caught. Then, the moving object calculation unit 110 determines that the moving object has been successfully caught, and moves the caught moving object to the destination target (ball destination target) when a given feeding condition (ball sending condition) is satisfied. To perform the process.

また調整部109は、携帯型ゲーム装置又はゲームコントローラのY軸回りでの回転角度の変化量ΔθYに対する、仮想カメラの視線方向のYC軸回りでの回転角度の変化量ΔθYCを調整する。例えば変化量ΔθYに対する変化量ΔθYCの割合(比率情報)を調整する。具体的には調整部109は、変化量ΔθYに対する変化量ΔθYCの調整処理を、プレーヤの操作情報又はゲーム状況に基づいて行う。例えばプレーヤが、ゲーム設定のためのオプション画面等において操作部160を用いて入力した情報に基づいて、変化量ΔθYに対する変化量ΔθYCの調整処理を行う。或いは、仮想カメラと送り先ターゲットとの位置関係情報、ゲームの得点状況、ゲーム場面、又は難易度の設定状態などのゲーム状況に応じて、変化量ΔθYに対する変化量ΔθYCの調整処理を行う。   Further, the adjustment unit 109 adjusts the amount of change ΔθYC in the rotation angle around the YC axis in the viewing direction of the virtual camera with respect to the amount of change ΔθY in the direction of the virtual camera around the Y axis of the portable game device or game controller. For example, the ratio (ratio information) of the change amount ΔθYC with respect to the change amount ΔθY is adjusted. Specifically, the adjustment unit 109 performs adjustment processing of the change amount ΔθYC with respect to the change amount ΔθY based on the operation information of the player or the game situation. For example, the player performs adjustment processing of the change amount ΔθYC with respect to the change amount ΔθY based on information input using the operation unit 160 on an option screen for game setting or the like. Alternatively, the amount of change ΔθYC is adjusted with respect to the amount of change ΔθY according to the game situation such as the positional relationship information between the virtual camera and the destination target, the game scoring situation, the game scene, or the difficulty setting state.

また移動体演算部110は、移動体(ボール)のキャッチ(捕球)に成功したと判定され、所与の送り条件(送球条件)が満たされた場合に、キャッチされた移動体を送り先ターゲットに移動させる処理を行う。   In addition, the moving object calculation unit 110 determines that the moving object (ball) has been successfully caught (catch), and when the given sending condition (sending condition) is satisfied, the caught moving object is sent to the destination target. Process to move to.

具体的には移動体演算部110は、移動体のキャッチに成功したと判定され、プレーヤが送り指示操作(送球指示操作)を行った場合に、キャッチされた移動体を送り先ターゲット(送球ターゲット)に移動(送球)させる処理を行う。ここで、送り指示操作は、例えば送り指示に対応する操作ボタン等の操作部材を操作することなどで実現される。   Specifically, the moving object calculation unit 110 determines that the moving object has been successfully caught, and when the player performs a feed instruction operation (ball throwing instruction operation), the caught moving object is sent to the destination target (ball throwing target). To move (send ball) to Here, the feed instruction operation is realized by operating an operation member such as an operation button corresponding to the feed instruction, for example.

或いは、移動体演算部110は、移動体のキャッチに成功したと判定され、プレーヤが仮想カメラの視線方向を送り先ターゲット側に向ける操作を行った場合に、キャッチされた移動体を送り先ターゲットに移動させる処理を行う。例えばキャッチに成功したプレーヤが、モーションセンサを内蔵する携帯型ゲーム装置又はゲームコントローラを、左側に位置する送り先ターゲット側に向ける操作を行った場合に、左側の送り先ターゲットに移動体を移動させる処理を行う。一方、携帯型ゲーム装置又はゲームコントローラを、右側に位置する送り先ターゲット側に向ける操作を行った場合に、右側の送り先ターゲットに移動体を移動させる処理を行う。   Alternatively, the moving object calculation unit 110 determines that the moving object has been successfully caught, and moves the caught moving object to the destination target when the player performs an operation of directing the viewing direction of the virtual camera toward the destination target side. To perform the process. For example, when a player who has succeeded in catching performs an operation of directing a portable game device or game controller with a built-in motion sensor toward a destination target located on the left side, a process of moving the moving body to the destination target on the left side is performed. Do. On the other hand, when the portable game device or the game controller is directed to the destination target located on the right side, a process of moving the moving body to the right destination target is performed.

また、移動体演算部110は、移動体のキャッチに成功したと判定され、プレーヤが仮想カメラの視線方向を送り先ターゲット側に向ける操作を行い、プレーヤが操作部を用いて送り指示操作を行った場合に、キャッチされた移動体を送り先ターゲットに移動させる処理を行う。例えばキャッチに成功したプレーヤが、モーションセンサを内蔵する携帯型ゲーム装置又はゲームコントローラを、送り先ターゲット側に向ける操作を行うことで、仮想カメラの視線方向が送り先ターゲット側に向けられる。そして例えばその後に、プレーヤが操作部160を用いて送り指示操作を行った場合(例えば送り指示の操作ボタンを押した場合)に、視線方向が向けられた送り先ターゲットに対して移動体を移動させる処理を行う。   In addition, the moving object calculation unit 110 determines that the moving object has been successfully caught, and the player performs an operation to turn the line-of-sight direction of the virtual camera toward the destination target, and the player performs a sending instruction operation using the operation unit. In this case, a process of moving the caught moving body to the destination target is performed. For example, the player who succeeds in the catching operation performs an operation of directing the portable game device or game controller incorporating the motion sensor toward the destination target side, so that the line-of-sight direction of the virtual camera is directed toward the destination target side. Then, for example, when the player performs a feed instruction operation using the operation unit 160 (for example, when the operation button for the feed instruction is pressed), the moving body is moved with respect to the destination target to which the line-of-sight direction is directed. Process.

また移動体演算部110は、移動体を第1の送り先ターゲットに移動させる処理を行い、移動体が第1の送り先ターゲットに到達した後、到達した移動体を第2の送り先ターゲットに移動させる処理を行ってもよい。野球ゲームを例にとれば、ダブルプレイ(ゲッツー)の状況の時に、第1の送り先ターゲットである二塁にボールを送球する処理を行い、二塁に送球された後、ボールを第2の送り先ターゲットである一塁に送球する処理を行う。   In addition, the moving object calculation unit 110 performs a process of moving the moving object to the first destination target, and after the moving object reaches the first destination target, the process of moving the reached moving object to the second destination target. May be performed. Taking a baseball game as an example, in a double play (getz) situation, the ball is sent to the second destination, which is the first destination target. After being sent to the second base, the ball is sent to the second destination target. A process of sending a ball to a certain base is performed.

具体的には移動体演算部110は、移動体が第1の送り先ターゲットに到達した後、到達した移動体を、ゲーム状況に基づき選択された第2の送り先ターゲットに移動させる処理を行う。例えば送り先ターゲットの候補が複数存在する場合に、これらの複数の送り先ターゲットの中からゲーム状況により自動的に選択された送り先ターゲットを、第2の送り先ターゲットとして、移動体を移動させる処理を行う。野球ゲームを例にとれば、一塁にランナーがいるときにゴロ等が打たれたというゲーム状況では、ボールを二塁に送球する処理を行った後、自動的に一塁を選択してボールを送球する処理を行う。   Specifically, the moving body computing unit 110 performs a process of moving the reached moving body to the second destination target selected based on the game situation after the moving body has reached the first destination target. For example, when there are a plurality of destination target candidates, a process of moving the moving body is performed with the destination target automatically selected from the plurality of destination targets as the second destination target. Taking a baseball game as an example, in a game situation where a runner is hit with a runner at a glance, the ball is thrown to a second base, and then the ball is automatically selected and the ball is sent. Process.

或いは移動体演算部110は、移動体が第1の送り先ターゲットに到達した後、到達した移動体を、プレーヤの指示操作により指示された第2の送り先ターゲットに移動させる処理を行ってよい。例えば送り先ターゲットの候補が複数存在する場合に、これらの複数の送り先ターゲットの中から、操作部160を用いたプレーヤの指示操作により選択された送り先ターゲットを、第2の送り先ターゲットとして、移動体を移動させる処理を行う。   Alternatively, the moving body computing unit 110 may perform a process of moving the reached moving body to the second destination target instructed by the player's instruction operation after the moving body has reached the first destination target. For example, when there are a plurality of destination target candidates, the destination is selected from the plurality of destination targets by the player's instruction operation using the operation unit 160 as the second destination target. Process to move.

また仮想カメラ制御部108は、移動体が第1の送り先ターゲットに移動した場合に、仮想カメラの視点位置を、第1の送り先ターゲットに対応する位置に設定し、仮想カメラの視線方向を、第2の送り先ターゲット側に向ける制御を行ってもよい。そして移動体演算部110は、仮想カメラの視線方向が向けられることで仮想カメラの視野範囲に入った第2の送り先ターゲットに対して、移動体を移動させる処理を行う。例えば移動体が第1の送り先ターゲットに到達した後、視点位置が第1の送り先ターゲットに対応する位置に設定され、視線方向が第2の送り先ターゲット側に向けられた画像が生成される。野球ゲームを例にとれば、二塁にボールが送球された後、二塁手の視点で一塁側を見た画像が生成される。これにより、よりリアルな画像の生成が可能になる。   In addition, when the moving body moves to the first destination target, the virtual camera control unit 108 sets the viewpoint position of the virtual camera to a position corresponding to the first destination target, and sets the viewing direction of the virtual camera to the first destination target. You may perform control which turns to the 2 destination target side. Then, the moving body computing unit 110 performs a process of moving the moving body with respect to the second destination target that has entered the visual field range of the virtual camera when the line-of-sight direction of the virtual camera is directed. For example, after the moving body reaches the first destination target, the viewpoint position is set to a position corresponding to the first destination target, and an image in which the line-of-sight direction is directed to the second destination target side is generated. Taking a baseball game as an example, after the ball has been sent to the second baseball, an image of the first base side viewed from the second baseball's viewpoint is generated. As a result, a more realistic image can be generated.

この場合に仮想カメラ制御部108は、移動体が第1の送り先ターゲットに到達するまで、仮想カメラの視線方向を、移動体の送り元側に向ける制御を行ってもよい。このようにすれば、移動体が第1の送り先ターゲットに到達するまでの間は、送り元側の方向を見た画像が生成されるようになり、更にリアルな画像の生成が可能になる。   In this case, the virtual camera control unit 108 may perform control so that the line-of-sight direction of the virtual camera is directed toward the moving source side until the moving body reaches the first destination target. In this way, until the moving body reaches the first destination target, an image viewed from the direction of the source side is generated, and a more realistic image can be generated.

また仮想カメラ制御部108は、所与の基準方向を基準として、モーション検出情報に基づき仮想カメラの視線方向を移動体の送り先ターゲット側に向ける制御を行ってもよい。即ちモーション検出情報に基づき仮想カメラの視線方向を変化させる場合に、基準方向を基準にして視線方向を変化させる。例えば携帯型ゲーム装置又はゲームコントローラのY軸回りでの回転角度がΔθYだけ変化したことがモーション検出情報により検出され、仮想カメラの視線方向をYC軸回りでの回転角度でΔθYCだけ変化させる場合を想定する。この場合には、基準方向に対してΔθYCだけ仮想カメラの視線方向を回転させる。   Further, the virtual camera control unit 108 may perform control for directing the line-of-sight direction of the virtual camera toward the destination target side of the moving object based on the motion detection information with a given reference direction as a reference. That is, when changing the visual line direction of the virtual camera based on the motion detection information, the visual line direction is changed with reference to the reference direction. For example, a case where the rotation angle around the Y axis of the portable game device or game controller is changed by ΔθY is detected from the motion detection information, and the visual line direction of the virtual camera is changed by ΔθYC at the rotation angle around the YC axis. Suppose. In this case, the viewing direction of the virtual camera is rotated by ΔθYC with respect to the reference direction.

このとき仮想カメラ制御部108は、仮想カメラの視点位置(プレーヤキャラクタの位置)からゲームフィールド上の所定位置へと向かう方向を、基準方向に設定してもよい。野球ゲームを例にとれば、ホームベースの位置に向かう方向を基準方向に設定する。サッカーゲーム等を例にとれば、ゴールの位置に向かう方向を基準方向に設定する。   At this time, the virtual camera control unit 108 may set the direction from the viewpoint position (player character position) of the virtual camera to a predetermined position on the game field as the reference direction. Taking a baseball game as an example, the direction toward the home base position is set as the reference direction. Taking a soccer game or the like as an example, the direction toward the goal position is set as the reference direction.

また仮想カメラ制御部108は、複数の候補基準方向の中から選択された方向を、基準方向に設定してもよい。例えば複数の候補基準方向の中から、操作部160を用いたプレーヤの指示操作により選択された方向を、基準方向に設定する。   The virtual camera control unit 108 may set a direction selected from a plurality of candidate reference directions as the reference direction. For example, a direction selected by a player's instruction operation using the operation unit 160 from among a plurality of candidate reference directions is set as the reference direction.

また仮想カメラ制御部108は、プレーヤが基準方向の設定の操作を行ったときの仮想カメラの視線方向を、基準方向に設定してもよい。即ちプレーヤが基準方向の設定操作を行うと、その時の仮想カメラの視線方向が基準方向に設定される。そして、その基準方向の設定操作時から、プレーヤが携帯型ゲーム装置又はゲームコントローラを例えばY軸回りで回転させると、基準方向を基準として、仮想カメラの視線方向をYC軸回りで回転させる。   Further, the virtual camera control unit 108 may set the visual line direction of the virtual camera when the player performs an operation for setting the reference direction as the reference direction. That is, when the player performs the reference direction setting operation, the visual line direction of the virtual camera at that time is set as the reference direction. When the player rotates the portable game device or the game controller, for example, around the Y axis from the setting operation of the reference direction, the visual line direction of the virtual camera is rotated around the YC axis with reference to the reference direction.

或いは移動体演算部110が、プレーヤの操作情報に基づいてプレーヤキャラクタを移動させる処理を行う場合に、仮想カメラ制御部108は、プレーヤキャラクタの移動方向に対応する方向を、基準方向に設定してもよい。例えばプレーヤの操作によりプレーヤキャラクタが走る場合に、その走っている方向に対応する方向を基準方向に設定する。そして、その状態でプレーヤが携帯型ゲーム装置又はゲームコントローラを例えばY軸回りで回転させると、プレーヤの走っている方向を基準方向として、仮想カメラの視線方向をYC軸回りで回転させる。   Alternatively, when the moving body calculation unit 110 performs processing for moving the player character based on the operation information of the player, the virtual camera control unit 108 sets the direction corresponding to the moving direction of the player character as the reference direction. Also good. For example, when a player character runs by a player operation, a direction corresponding to the running direction is set as the reference direction. In this state, when the player rotates the portable game device or the game controller, for example, about the Y axis, the viewing direction of the virtual camera is rotated about the YC axis with the direction in which the player is running as a reference direction.

また判定部112は、移動体のキャッチが成功したかについての判定処理を行う。例えば操作情報に基づき仮想カメラの視線方向が変化する場合に、視線方向が変化する仮想カメラによる移動体の捕捉条件が満たされており、移動体のキャッチ条件が満たされた場合に、移動体のキャッチが成功したと判定する。例えば移動体の捕捉条件及びキャッチ条件が満たされた場合(捕捉条件を満たしながら移動体がキャッチされた場合)に、移動体のキャッチが成功したと判定する。そして画像生成部120は、オブジェクト空間内において仮想カメラから見える画像を生成する。例えば操作情報に基づき視線方向が変化する仮想カメラの視点で画像を生成し、キャッチが成功した場合には、そのキャッチの成功を表す画像を生成して表示部190に表示する。   Moreover, the determination part 112 performs the determination process about whether the catch of the moving body was successful. For example, when the line-of-sight direction of the virtual camera changes based on the operation information, the condition for capturing the moving object by the virtual camera whose line-of-sight direction changes is satisfied, and when the condition for catching the moving object is satisfied, Judge that the catch was successful. For example, when the capturing condition and the catching condition of the moving object are satisfied (when the moving object is caught while satisfying the capturing condition), it is determined that the capturing of the moving object is successful. Then, the image generation unit 120 generates an image that can be seen from the virtual camera in the object space. For example, an image is generated from the viewpoint of the virtual camera whose line-of-sight direction changes based on the operation information, and when the catch is successful, an image indicating the success of the catch is generated and displayed on the display unit 190.

ここで捕捉条件は、操作情報に応じて視線方向が変化する仮想カメラが移動体を捕捉しているという条件であり、仮想カメラにより移動体が捕捉状態にあると判定された場合(捕捉判定範囲に移動体が存在すると判定された場合)に満たされる条件である。またキャッチ条件は、プレーヤキャラクタにより移動体が実際にキャッチされたと判定された場合に満たされる条件であり、例えばグラブ、足や手などの部位、或いはラケットなどの被キャッチ体(被キャッチ体に対応するヒットボリューム)にボール等の移動体が接触した場合に、キャッチ条件が満たされたと判定できる。   Here, the capture condition is a condition that the virtual camera whose line-of-sight direction changes according to the operation information captures the moving object. When the virtual camera determines that the moving object is in the capture state (capture determination range) In the case where it is determined that there is a moving object. The catch condition is a condition that is satisfied when it is determined that the moving object is actually caught by the player character. For example, a catched object such as a grab, a foot or a hand, or a racket (corresponding to the caught object) It is possible to determine that the catch condition is satisfied when a moving body such as a ball contacts the hit volume.

更に具体的には、判定部112は、仮想カメラ(又はプレーヤが操作するプレーヤキャラクタ)に追従するヒットボリューム(ヒットボックス、ヒットエリア、ヒット範囲)を設定する。そして設定されたヒットボリュームに移動体がヒット(接触)したと判定された場合に、移動体の捕捉条件及びキャッチ条件が満たされたと判定する。例えば操作情報に基づき仮想カメラの視線方向や視点位置が変化すると、その視線方向や視線位置の変化に追従するようにヒットボリュームの位置、方向又は形状等が設定され、そのヒットボリュームに移動体がヒットしたと判定されると、移動体の捕捉条件及びキャッチ条件が満たされたと判定する。   More specifically, the determination unit 112 sets a hit volume (hit box, hit area, hit range) that follows the virtual camera (or a player character operated by the player). If it is determined that the moving object hits (contacts) the set hit volume, it is determined that the capturing condition and the catching condition of the moving object are satisfied. For example, when the line-of-sight direction and viewpoint position of the virtual camera change based on the operation information, the position, direction, shape, etc. of the hit volume are set so as to follow the change in the line-of-sight direction and line-of-sight position. If it is determined that the hit has occurred, it is determined that the capturing condition and the catching condition of the moving object are satisfied.

例えば判定部112は、ヒットボリュームの形状、ヒット有効範囲、位置及び方向(向いている方向)の少なくとも1つを可変に制御する。具体的には、移動体の軌道に応じて、ヒットボリュームの形状、ヒット有効範囲、位置及び方向の少なくとも1つを変化させる。例えば移動体の軌道が低い軌道なのか高い軌道なのかに応じて、ヒットボリュームの形状、ヒット有効範囲、位置又は方向などを変化させる。なおヒット有効範囲は、ヒットチェックが有効となる範囲であり、同じ形状のヒットボリュームであっても、ヒット有効範囲の設定を異ならせることで、移動体とのヒットチェックが行われる範囲を可変に制御できるようになる。   For example, the determination unit 112 variably controls at least one of the shape of the hit volume, the hit effective range, the position, and the direction (the direction in which it faces). Specifically, at least one of the shape of the hit volume, the hit effective range, the position, and the direction is changed according to the trajectory of the moving body. For example, depending on whether the trajectory of the moving body is a low trajectory or a high trajectory, the shape of the hit volume, the hit effective range, the position, or the direction is changed. The hit effective range is the range where the hit check is effective, and even if the hit volume has the same shape, the range in which the hit check with the moving object can be made variable by changing the setting of the hit effective range. You will be able to control.

また判定部112は、移動体のキャッチ時(キャッチタイミング、キャッチ期間)にプレーヤが指示した方向に応じて、ヒットボリュームを変形させる処理又はヒット有効範囲を変化させる処理を行う。例えばプレーヤの指示方向にヒットボリュームを引き伸ばす変形処理やヒット有効範囲の変化処理などを行う。或いは、判定部112は、ゲーム条件の設定に応じて、ヒットボリュームの形状、ヒット有効範囲、位置及び方向の少なくとも1つを変化させる。具体的には、難易度設定部114によりゲームの難易度が設定された場合に、ゲームの難易度の設定に応じて、ヒットボリュームの形状、ヒット有効範囲、位置及び方向の少なくとも1つを変化させる。例えばゲーム難易度が第1の難易度(例えば初級)である場合と第2の難易度(例えば上級)である場合とで、ヒットボリュームの形状、ヒット有効範囲、位置又は方向等を異ならせる。なお、ヒットボリュームの形状等を変化させるゲーム条件は、ゲームの難易度には限定されず、例えばプレーヤキャラクタ(プレーヤ)の所持アイテム数、経験値又は体力値などのステータス情報であってもよい。   Further, the determination unit 112 performs a process of deforming the hit volume or a process of changing the hit effective range according to the direction instructed by the player when the moving object is caught (catch timing, catch period). For example, a deformation process for extending the hit volume in the direction indicated by the player, a process for changing the hit effective range, and the like are performed. Alternatively, the determination unit 112 changes at least one of the shape of the hit volume, the hit effective range, the position, and the direction according to the game condition setting. Specifically, when the difficulty level of the game is set by the difficulty level setting unit 114, at least one of the shape of the hit volume, the hit effective range, the position, and the direction is changed according to the setting of the difficulty level of the game. Let For example, the shape of the hit volume, the hit effective range, the position, the direction, or the like is different depending on whether the game difficulty level is the first difficulty level (for example, beginner level) or the second difficulty level (for example, advanced level). The game condition for changing the shape of the hit volume or the like is not limited to the difficulty level of the game, and may be status information such as the number of items possessed by the player character (player), experience value, or physical strength value.

また判定部112は、仮想カメラの視野範囲に対応して設定された捕捉判定範囲内に移動体が入っている場合に、仮想カメラが移動体を捕捉する捕捉条件が満たされていると判定し、捕捉条件が満たされた状態で移動体のキャッチ条件が満たされた場合に、移動体のキャッチが成功したと判定してもよい。例えば、キャッチタイミングの前の所与の期間において、仮想カメラの視野範囲に対応する捕捉判定範囲内に移動体が入っており、仮想カメラによる移動体の捕捉条件が満たされた状態で、キャッチ条件が満たされると、キャッチに成功したと判定する。この場合のキャッチ条件は、例えばプレーヤキャラクタやその部位に設定されたヒットボリュームを用いたヒットチェック処理により実現できる。また視野範囲や捕捉判定範囲は、エリアのような範囲であってもよいし、視線方向や画角により特定される角度範囲であってもよい。また捕捉判定範囲は、視野範囲そのものであってもよいし、視野範囲に内包される範囲であってもよい。また視野範囲は、仮想カメラの視線方向と画角により規定される厳密な視野範囲よりも若干広い範囲であってもよい。   The determination unit 112 determines that the capture condition for capturing the moving object by the virtual camera is satisfied when the moving object is within the capture determination range set corresponding to the visual field range of the virtual camera. When the catching condition of the moving object is satisfied in a state where the capturing condition is satisfied, it may be determined that the catching of the moving object is successful. For example, in a given period before the catch timing, the moving object is in the capture determination range corresponding to the visual field range of the virtual camera, and the catch condition is satisfied while the capture condition of the moving object by the virtual camera is satisfied. When is satisfied, it is determined that the catch is successful. The catch condition in this case can be realized, for example, by hit check processing using a player character or a hit volume set for the part. Further, the visual field range and the capture determination range may be a range such as an area, or may be an angle range specified by the line-of-sight direction and the angle of view. Further, the capture determination range may be the visual field range itself or a range included in the visual field range. The visual field range may be slightly wider than the strict visual field range defined by the viewing direction and the angle of view of the virtual camera.

また判定部112は、捕捉判定範囲を可変に制御してもよい。具体的には、ゲームの難易度などのゲーム条件の設定に応じて、捕捉判定範囲を変化させる。例えばゲーム難易度が第1の難易度(例えば初級)である場合と第2の難易度(例えば上級)である場合とで、捕捉判定範囲の大きさ、形状又は位置等を異ならせる。   The determination unit 112 may variably control the capture determination range. Specifically, the capture determination range is changed in accordance with the setting of game conditions such as the difficulty level of the game. For example, the size, shape, or position of the capture determination range is different depending on whether the game difficulty level is the first difficulty level (for example, beginner level) or the second difficulty level (for example, advanced level).

また判定部112は、移動体に追従する移動体用ヒットボリュームを設定し、移動体用ヒットボリュームを用いて、移動体のキャッチ条件が満たされているかを判定してもよい。例えば移動体を内包するような比較的大きなサイズの移動体用ヒットボリュームを設定する。そして移動体用ヒットボリュームとプレーヤキャラクタや仮想カメラの位置とのヒットチェックを行い、ヒットしたと判定された場合には、キャッチ条件が満たされたと判定する。なお移動体用ヒットボリュームを用いて捕捉条件を判断することも可能である。また移動体の軌道の高低や、軌道の方向(横方向での軌道の方向)や、ゲーム難易度などのゲーム条件に応じて、移動体用ヒットボリュームの形状又はヒット有効範囲等を変化させてもよい。   The determination unit 112 may set a moving object hit volume that follows the moving object, and may determine whether the moving object catch condition is satisfied using the moving object hit volume. For example, a relatively large size hit volume for a moving body that includes the moving body is set. A hit check is performed between the moving body hit volume and the position of the player character or virtual camera. If it is determined that the hit has occurred, it is determined that the catch condition is satisfied. It is also possible to determine the capture condition using the mobile hit volume. In addition, depending on the game conditions such as the trajectory of the moving object, the direction of the trajectory (the direction of the trajectory in the horizontal direction), and the game difficulty level, the shape or effective range of the hit volume for the moving object is changed. Also good.

また判定部112は、移動体が第1の軌道で移動する場合には、仮想カメラの視線方向範囲(視線方向を含む範囲)が第1の視線方向範囲である場合に、捕捉条件が満たされていると判定する。一方、移動体が第1の軌道とは異なる第2の軌道(第1の軌道よりも高い軌道。第1の軌道とは方向が異なる軌道)で移動する場合には、仮想カメラの視線方向範囲が、第1の視線方向範囲とは異なる第2の視線方向範囲(第1の視線方向範囲よりも高い視線方向範囲。第1の視線方向範囲とは視線が向く方向が異なる視線方向範囲)である場合に、捕捉条件が満たされていると判定する。例えば、移動体が低い軌道で移動する場合には、仮想カメラの視線方向が低い場所を見る視線方向である場合に捕捉条件が満たされたと判定する。一方、移動体が高い軌道で移動する場合には、仮想カメラの視線方向が高い場所を見る視線方向である場合に捕捉条件が満たされたと判定する。或いは移動体が左方向の軌道で移動する場合には、仮想カメラの視線方向が左方向を見る視線方向である場合に捕捉条件が満たされたと判定する。一方、移動体が右方向の軌道で移動する場合には、仮想カメラの視線方向が右方向を見る視線方向である場合に捕捉条件が満たされたと判定する。   In addition, when the moving body moves in the first trajectory, the determination unit 112 satisfies the capture condition when the line-of-sight direction range (the range including the line-of-sight direction) of the virtual camera is the first line-of-sight direction range. It is determined that On the other hand, when the moving body moves in a second trajectory different from the first trajectory (a trajectory higher than the first trajectory; a trajectory having a direction different from the first trajectory), the visual line direction range of the virtual camera However, in a second gaze direction range (a gaze direction range higher than the first gaze direction range. A gaze direction range in which the gaze direction is different from the first gaze direction range). In some cases, it is determined that the capture condition is satisfied. For example, when the moving body moves in a low trajectory, it is determined that the capturing condition is satisfied when the moving camera is in the line-of-sight direction when viewing a place where the line-of-sight direction of the virtual camera is low. On the other hand, when the moving body moves in a high trajectory, it is determined that the capture condition is satisfied when the moving camera is in the line-of-sight direction when viewing a place where the line-of-sight direction of the virtual camera is high. Alternatively, when the moving body moves in a leftward trajectory, it is determined that the capture condition is satisfied when the line-of-sight direction of the virtual camera is the line-of-sight direction when viewing the left direction. On the other hand, when the moving body moves in a rightward trajectory, it is determined that the capture condition is satisfied when the line-of-sight direction of the virtual camera is the line-of-sight direction when viewing the right direction.

また操作情報取得部102は、操作情報として、プレーヤが入力した第1の操作情報と第2の操作情報を取得してもよい。例えばモーションセンサからのモーション検出情報を第1の操作情報として取得し、操作部160の方向指示部(方向指示キー、アナログティック)からの方向指示情報を第2の操作情報として取得する。そして仮想カメラ制御部108は、第1の操作情報に基づいて、仮想カメラの視線方向を制御し、第2の操作情報に基づいて、仮想カメラの視点位置の移動又はプレーヤキャラクタの移動を制御する。例えば第1の操作情報であるモーション検出情報に基づいて、仮想カメラの視線方向を制御し、第2の操作情報である方向指示情報に基づいて、仮想カメラの視点位置の移動又はプレーヤキャラクタの移動を制御する。この場合の第1の操作情報に基づく仮想カメラの視線方向の制御は、第1の操作情報に基づきプレーヤキャラクタの向く方向(視線方向)を制御し、プレーヤキャラクタの向く方向に追従するように仮想カメラの視線方向を制御する場合を含む。また第2の操作情報に基づく仮想カメラの視点位置の移動の制御は、第2の操作情報に基づいてプレーヤキャラクタの移動を制御し、プレーヤキャラクタの移動に追従するように仮想カメラの視点位置の移動を制御する場合を含む。また、逆に、第1の操作情報が方向指示情報であり、第2の操作情報がモーション検出情報であってもよい。この場合には、方向指示情報に基づいて、仮想カメラの視線方向が制御され、モーション検出情報に基づいて、仮想カメラの視点位置の移動又はプレーヤキャラクタの移動が制御されることになる。   The operation information acquisition unit 102 may acquire first operation information and second operation information input by the player as operation information. For example, motion detection information from a motion sensor is acquired as first operation information, and direction instruction information from a direction instruction unit (direction instruction key, analog tick) of the operation unit 160 is acquired as second operation information. The virtual camera control unit 108 controls the visual line direction of the virtual camera based on the first operation information, and controls the movement of the viewpoint position of the virtual camera or the movement of the player character based on the second operation information. . For example, the line-of-sight direction of the virtual camera is controlled based on the motion detection information that is the first operation information, and the viewpoint position of the virtual camera or the player character is moved based on the direction instruction information that is the second operation information. To control. In this case, the control of the line-of-sight direction of the virtual camera based on the first operation information controls the direction (line-of-sight direction) that the player character faces based on the first operation information, and the virtual camera follows the direction that the player character faces. This includes the case of controlling the viewing direction of the camera. Further, the movement of the viewpoint position of the virtual camera based on the second operation information is controlled by controlling the movement of the player character based on the second operation information and following the movement of the player character. Including the case of controlling movement. Conversely, the first operation information may be direction instruction information, and the second operation information may be motion detection information. In this case, the visual line direction of the virtual camera is controlled based on the direction instruction information, and the movement of the viewpoint position of the virtual camera or the movement of the player character is controlled based on the motion detection information.

また操作情報取得部102が、モーションセンサからのモーション検出情報を操作情報として取得した場合には、仮想カメラ制御部108は、モーション検出情報に基づいて、仮想カメラ(プレーヤキャラクタ)の視線方向を制御する。そして判定部112は、モーション検出情報に基づき仮想カメラの視線方向が変化する場合に、視線方向が変化する仮想カメラが移動体を捕捉する捕捉条件が満たされているかを判定する。具体的には、モーションセンサは携帯型ゲーム装置又はゲームコントローラに設けられるセンサであり、操作情報取得部102は、プレーヤが携帯型ゲーム装置又はゲームコントローラを動かすことで得られたモーション検出情報を、モーションセンサから取得する。そして仮想カメラ制御部108は、携帯型ゲーム装置の動きに応じて仮想カメラの視線方向が変化するように仮想カメラを制御する。例えばプレーヤが携帯型ゲーム装置又はゲームコントローラを、水平方向に沿った軸であるX軸回りでロールさせる操作を行った場合には、仮想カメラの視線方向を上下方向に変化させる。また携帯型ゲーム装置又はゲームコントローラを、鉛直方向に沿った軸であるY軸回りでロールさせる操作を行った場合には、仮想カメラの視線方向を左右方向に変化させる。そして判定部112は、携帯型ゲーム装置の動きに応じて仮想カメラの視線方向が変化する場合に、視線方向が変化する仮想カメラが移動体を捕捉する捕捉条件が満たされているかを判定する。   When the operation information acquisition unit 102 acquires motion detection information from the motion sensor as operation information, the virtual camera control unit 108 controls the line-of-sight direction of the virtual camera (player character) based on the motion detection information. To do. Then, the determination unit 112 determines whether a capture condition for capturing the moving object by the virtual camera whose line-of-sight direction changes is satisfied when the line-of-sight direction of the virtual camera changes based on the motion detection information. Specifically, the motion sensor is a sensor provided in the portable game device or game controller, and the operation information acquisition unit 102 uses the motion detection information obtained by the player moving the portable game device or game controller, Obtain from motion sensor. Then, the virtual camera control unit 108 controls the virtual camera so that the visual line direction of the virtual camera changes according to the movement of the portable game device. For example, when the player performs an operation of rolling the portable game device or the game controller around the X axis that is an axis along the horizontal direction, the line-of-sight direction of the virtual camera is changed in the vertical direction. When the portable game device or the game controller is operated to roll around the Y axis that is an axis along the vertical direction, the line-of-sight direction of the virtual camera is changed in the left-right direction. Then, the determination unit 112 determines whether the capture condition for capturing the moving object by the virtual camera whose line-of-sight direction changes is satisfied when the line-of-sight direction of the virtual camera changes according to the movement of the portable game device.

なお本実施形態の手法はサーバシステムにより実現してもよい。図29にサーバシステムにより実現する場合の構成例を示す。   Note that the method of this embodiment may be realized by a server system. FIG. 29 shows a configuration example when realized by a server system.

サーバシステム500は、端末装置TM1〜TMnとネットワーク510を介して通信接続される。例えばサーバシステム500はホストであり、端末装置TM1〜TMnはクライアントである。サーバシステム500は例えば1又は複数のサーバ(認証サーバ、ゲームサーバ、通信サーバ、課金サーバ等)により実現できる。ネットワーク510(配信網、通信回線)は、例えばインターネットや無線LAN等を利用した通信路であり、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網や無線LAN等の通信網を含むことができる。また通信方法については有線/無線を問わない。   Server system 500 is communicatively connected to terminal apparatuses TM1 to TMn via network 510. For example, the server system 500 is a host, and the terminal devices TM1 to TMn are clients. The server system 500 can be realized by, for example, one or a plurality of servers (authentication server, game server, communication server, billing server, etc.). The network 510 (distribution network, communication line) is a communication path using, for example, the Internet or a wireless LAN. In addition to a LAN using a dedicated line (dedicated cable) or Ethernet (registered trademark) for direct connection, telephone communication is also possible. A communication network such as a network, a cable network, or a wireless LAN can be included. The communication method may be wired / wireless.

端末装置TM1〜TMnは、例えば携帯型ゲーム装置、据え置き型の家庭用ゲーム装置、或いは業務用ゲーム装置等により実現される。携帯型ゲーム装置は専用のゲーム装置であってもよいし、携帯電話機や携帯型情報端末などのゲームプログラムの実行が可能な汎用の装置であってもよい。   The terminal devices TM1 to TMn are realized by, for example, a portable game device, a stationary home game device, an arcade game device, or the like. The portable game device may be a dedicated game device or a general-purpose device capable of executing a game program such as a mobile phone or a portable information terminal.

サーバシステム500は、処理部600、記憶部670、情報記憶媒体680、通信部696を含む。処理部600は、操作情報取得部602、ゲーム演算部604、オブジェクト空間設定部606、仮想カメラ制御部608、調整部609、移動体演算部610、判定部612、難易度設定部614、画像生成用データ生成部620、音生成用データ生成部630を含む。なおこれらの各部(各ブロック)の機能、動作等は、図1の各部(各ブロック)と同様である。   The server system 500 includes a processing unit 600, a storage unit 670, an information storage medium 680, and a communication unit 696. The processing unit 600 includes an operation information acquisition unit 602, a game calculation unit 604, an object space setting unit 606, a virtual camera control unit 608, an adjustment unit 609, a moving body calculation unit 610, a determination unit 612, a difficulty level setting unit 614, and an image generation. Data generator 620 and sound generator 630 for sound generation. The functions, operations, etc. of these units (blocks) are the same as those of the units (blocks) in FIG.

例えばサーバシステム500の操作情報取得部602は、プレーヤの操作情報を取得し、仮想カメラ制御部608は、取得された操作情報に基づいて、仮想カメラの制御を行う。また移動体演算部610は、移動体の移動演算処理を行い、画像生成用データ生成部620は、オブジェクト空間内におい仮想カメラから見える画像を生成するための画像生成用データを生成する。   For example, the operation information acquisition unit 602 of the server system 500 acquires player operation information, and the virtual camera control unit 608 controls the virtual camera based on the acquired operation information. In addition, the moving object calculation unit 610 performs a moving object movement calculation process, and the image generation data generation unit 620 generates image generation data for generating an image that can be seen from the virtual camera in the object space.

そして本実施形態では操作情報取得部602は、モーションセンサからのモーション検出情報を操作情報として取得し、仮想カメラ制御部608は、モーション検出情報に基づいて、仮想カメラの視線方向を、移動体の送り先ターゲット側に向ける制御を行う。そして移動体演算部610は、仮想カメラの視線方向が向けられることで仮想カメラの視野範囲に入った送り先ターゲットに対して、移動体を移動させる処理を行う。   In this embodiment, the operation information acquisition unit 602 acquires motion detection information from the motion sensor as operation information, and the virtual camera control unit 608 determines the visual line direction of the virtual camera based on the motion detection information. Controls to the destination target side. Then, the moving body computing unit 610 performs a process of moving the moving body with respect to the destination target that has entered the visual field range of the virtual camera when the line-of-sight direction of the virtual camera is directed.

なお、画像を生成するための画像生成用データとは、本実施形態の手法により生成された画像をTM1〜TMnの各端末装置において表示するためのデータであり、画像データそのものであってもよいし、各端末装置が画像を生成するために使用する各種データ(オブジェクトデータ、制御結果データ、判定結果データ又は表示画面の設定データ等)であってもよい。例えばサーバシステム500が、各端末装置の操作部からの操作情報を取得し、各種の制御処理や各種の判定処理を行い、画像を生成して、TM1〜TMnの各端末装置に配信(ストリーム配信等)する場合には、上述の画像生成用データは画像データそのものになる。一方、サーバシステム500が、各端末装置の操作部からの操作情報を取得し、各種の制御処理や各種の判定処理を行い、その制御結果や判定結果に基づいてTM1〜TMnの各端末装置が画像を生成する場合には、上述の画像生成用データは、制御結果データや判定結果データやオブジェクトデータなどになる。音生成用データ生成部630が生成する音生成用データについても同様である。   Note that the image generation data for generating the image is data for displaying the image generated by the method of the present embodiment on each of the terminal devices TM1 to TMn, and may be the image data itself. In addition, various data (object data, control result data, determination result data, display screen setting data, etc.) used by each terminal device to generate an image may be used. For example, the server system 500 acquires operation information from the operation unit of each terminal device, performs various control processes and various determination processes, generates images, and distributes them to the terminal devices TM1 to TMn (stream distribution) Etc.), the image generation data described above is the image data itself. On the other hand, the server system 500 acquires operation information from the operation unit of each terminal device, performs various control processes and various determination processes, and the terminal devices TM1 to TMn are based on the control results and determination results. When an image is generated, the above-described image generation data is control result data, determination result data, object data, or the like. The same applies to the sound generation data generated by the sound generation data generation unit 630.

なお操作情報取得部602、ゲーム演算部604、オブジェクト空間設定部606、仮想カメラ制御部608、調整部609、移動体演算部610、判定部612、難易度設定部614、画像生成用データ生成部620、記憶部670、情報記憶媒体680、通信部696等の詳細な機能、動作は図1で上述に説明したものと同様であるため、詳細な説明は省略する。   The operation information acquisition unit 602, the game calculation unit 604, the object space setting unit 606, the virtual camera control unit 608, the adjustment unit 609, the moving body calculation unit 610, the determination unit 612, the difficulty level setting unit 614, and the image generation data generation unit Detailed functions and operations of the storage unit 620, the storage unit 670, the information storage medium 680, the communication unit 696, and the like are the same as those described above with reference to FIG.

2.本実施形態の手法
次に本実施形態の手法について具体的に説明する。なお、以下では本実施形態の手法を野球ゲームに適用した場合について主に説明するが、本実施形態の手法が適用されるゲームは野球ゲームに限定されず、例えばサッカー、アメリカンフットボール、バレーボール、テニス、バトミントンなどの種々の球技ゲームや、球技ゲーム以外の種々のゲーム(アクションゲーム、ロールプレイングゲーム、音楽ゲーム等)にも適用できる。
2. Next, the method of this embodiment will be described in detail. In the following, the case where the method of the present embodiment is applied to a baseball game will be mainly described. However, the game to which the method of the present embodiment is applied is not limited to a baseball game. For example, soccer, American football, volleyball, tennis It can also be applied to various ball games such as badminton, and various games other than ball games (action games, role-playing games, music games, etc.).

2.1 送り先ターゲットへの移動体の移動処理
従来の野球ゲームでは、プレーヤが守備側である場合に、バックネット付近やホームベース付近に設定された視点での画像が生成されるゲームが殆どであった。このため、打者が打ったボールを捕球し、送球ターゲットである一塁等に視線を向けて、ボールを送球するというような操作感覚を、プレーヤに与えることが難しいという課題があった。
2.1 Moving process of moving object to destination target In conventional baseball games, when the player is on the defensive side, most of the games generate images from the viewpoint set near the back net or near the home base. there were. For this reason, there has been a problem that it is difficult to give the player an operation feeling of catching the ball hit by the batter, turning the line of sight to the first target, etc., and throwing the ball.

このような課題を解決するために本実施形態では以下に説明する手法を採用する。例えば本実施形態では、プレーヤが守備側である場合(守備モード時)に、仮想カメラの視点を、バックネット付近やホームベース付近ではなく、守備を行う野手の視点位置に設定する。また、バッターがボールを打つ前は、仮想カメラの視線方向を、実際の野球のように、バッターが居るホームベースを向く方向に設定する。そしてプレーヤは、守備を行う野手をプレーヤキャラクタとして操作する。   In order to solve such a problem, the present embodiment adopts the method described below. For example, in this embodiment, when the player is on the defensive side (in the defensive mode), the viewpoint of the virtual camera is set not to the vicinity of the back net or the home base but to the position of the fielder performing the defensive. Further, before the batter hits the ball, the direction of the line of sight of the virtual camera is set to the direction facing the home base where the batter is located, as in actual baseball. Then, the player operates the fielder performing the defense as a player character.

そして本実施形態では、ボール(広義には移動体)がヒットされて、ボールの捕球(広義にはキャッチ)に成功した場合に、プレーヤは、携帯型ゲーム装置を、送球ターゲット(広義には送り先ターゲット)である一塁側に向ける操作を行う。具体的には、携帯型ゲーム装置をY軸回りで左側に回転させる操作を行う。すると、この回転操作に連動して、オブジェクト空間内の仮想カメラの視線方向もY軸回りで左側に回転し、これにより一塁が視野範囲内に入るようになる。そして、このように送球ターゲットである一塁が視野範囲に入った状態で、プレーヤが送球操作を行うと、ボールが一塁に送球される。そしてバッターである走者が一塁に到達する前にボールが一塁に送球されると、走者はアウトになる。   In this embodiment, when the ball (moving body in a broad sense) is hit and the ball is successfully captured (catch in a broad sense), the player moves the portable game device to the pitching target (in a broad sense). The operation is directed to the first side, which is the destination target. Specifically, an operation of rotating the portable game device to the left around the Y axis is performed. Then, in conjunction with this rotation operation, the line-of-sight direction of the virtual camera in the object space is also rotated to the left around the Y axis, so that a glance comes into the visual field range. Then, when the player performs a pitching operation in a state where the first pitch as a pitching target is in the field of view in this way, the ball is pitched all at once. If the ball is thrown into the baseball before the runner who is the batter reaches the base, the runner goes out.

このようにすることで、プレーヤは、野手側の視点でボールを捕球し、自身の顔を向けるように携帯型ゲーム装置を左側に向けることで、一塁の方を向いて、ボールを送球できるようになる。従って、あたかも実際の野球のようにボールを捕球して一塁に送球しているかのような操作感覚をプレーヤに与えることができ、従来の手法に比べてプレーヤの仮想現実感を大幅に向上できるようになる。   By doing this, the player can catch the ball from the viewpoint of the fielder side, and turn the portable game device to the left side so that his / her face is directed, so that the player can send the ball toward the first glance. It becomes like this. Therefore, it is possible to give the player a sense of operation as if they were catching a ball and sending it all at once as in real baseball, and the virtual reality of the player can be greatly improved compared to the conventional method. It becomes like this.

次に本実施形態の判定手法について更に具体的に説明する。以下では、仮想カメラの視線方向等を制御する手法として、携帯型ゲーム装置に設けられたモーションセンサを用いる手法を例にとり説明する。なお、ゲームコントローラに設けられたモーションセンサを用いて仮想カメラの視線方向等を制御してもよい。   Next, the determination method of the present embodiment will be described more specifically. In the following, a method using a motion sensor provided in a portable game device will be described as an example of a method for controlling the viewing direction of the virtual camera. Note that the visual line direction of the virtual camera may be controlled using a motion sensor provided in the game controller.

図2(A)、図2(B)に、本実施形態の手法が適用される携帯型ゲーム装置の構成例を示す。この携帯型ゲーム装置は、メイン表示部190Mとサブ表示部190Sを有する。サブ表示部190Sは、例えばタッチパネル方式の液晶ディスプレイにより実現され、ゲーム装置の筐体10に設けられる。メイン表示部190Mは、サブ表示部190Sよりも例えば画素数が多いディスプレイとなっており、例えば液晶ディスプレイなどにより実現される。なお、メイン表示部190Mは、例えば裸眼の立体視画像を表示できるディスプレイになっており、ゲーム画像が立体視で表示される。   2A and 2B show a configuration example of a portable game device to which the method of this embodiment is applied. This portable game device has a main display portion 190M and a sub display portion 190S. The sub display unit 190S is realized by, for example, a touch panel type liquid crystal display, and is provided in the housing 10 of the game apparatus. The main display unit 190M is a display having, for example, a larger number of pixels than the sub display unit 190S, and is realized by, for example, a liquid crystal display. The main display unit 190M is a display that can display, for example, a stereoscopic image with naked eyes, and the game image is displayed in stereoscopic view.

携帯型ゲーム装置の筐体10と筐体20は回動自在に設けられており、筐体10には、方向指示キー12、アナログスティック(ジョイスティック)14、操作ボタン16が設けられている。また図2(B)に示すように、筐体20の背面側(メイン表示部190Mの反対側)には第1、第2のカメラCM1、CM2が設けられている。これらの第1、第2のカメラCM1、CM2を用いて被写体を撮影することで、視差のある左眼用画像と右眼用画像を得ることが可能になり、立体視表示が可能になる。   A case 10 and a case 20 of the portable game device are provided so as to be freely rotatable, and the case 10 is provided with a direction instruction key 12, an analog stick (joystick) 14, and operation buttons 16. As shown in FIG. 2B, first and second cameras CM1 and CM2 are provided on the back side of the housing 20 (the side opposite to the main display portion 190M). By photographing the subject using the first and second cameras CM1 and CM2, it is possible to obtain a left-eye image and a right-eye image with parallax, and stereoscopic display is possible.

更に携帯型ゲーム装置には図示しないモーションセンサ(6軸センサ)が内蔵されている。そして、プレーヤが携帯型ゲーム装置を手に持って動かした場合に、このモーションセンサを用いることで、図2(A)のX軸、Y軸、Z軸方向での加速度や、X軸回り、Y軸回り、Z軸回りでの角速度を検出できる。これによりX軸、Y軸、Z軸方向での並進移動操作や、X軸回り、Y軸回り、Z軸回りでの回転角度(ロール操作、ロール角度)を検出できるようになる。なお、X軸(広義には第1の座標軸)は水平方向(表示部の画面の水平方向)に沿った軸であり、Y軸(広義には第2の座標軸)は鉛直方向(表示部の画面の鉛直方向)に沿った軸であり、Z軸(広義には第3の座標軸)はX軸、Y軸に直交する方向(奥行き方向)である。   Further, the portable game device has a built-in motion sensor (6-axis sensor) not shown. When the player moves the hand-held game device with his / her hand, using this motion sensor, the acceleration in the X-axis, Y-axis, and Z-axis directions in FIG. Angular velocities around the Y axis and Z axis can be detected. This makes it possible to detect translational movement operations in the X-axis, Y-axis, and Z-axis directions, and rotation angles (roll operation, roll angle) around the X-axis, Y-axis, and Z-axis. Note that the X axis (first coordinate axis in a broad sense) is an axis along the horizontal direction (horizontal direction of the screen of the display unit), and the Y axis (second coordinate axis in a broad sense) is the vertical direction (of the display unit). Z-axis (third coordinate axis in a broad sense) is a direction (depth direction) orthogonal to the X-axis and Y-axis.

次に、モーション検出情報に基づく仮想カメラVCの視線方向VL等の制御について、図3(A)〜図3(C)を用いて詳細に説明する。   Next, control of the line-of-sight direction VL of the virtual camera VC based on the motion detection information will be described in detail with reference to FIGS. 3 (A) to 3 (C).

例えば図3(A)のD1、D2に示すように、プレーヤは、携帯型ゲーム装置(又はゲームコントローラ)をX軸回りに回転(ロール)させる操作を行うことができる。この場合には、モーションセンサの角速度センサにより、このX軸回りでの回転操作(ロール操作)が検出される。   For example, as indicated by D1 and D2 in FIG. 3A, the player can perform an operation of rotating (rolling) the portable game device (or game controller) about the X axis. In this case, the rotation operation (roll operation) around the X axis is detected by the angular velocity sensor of the motion sensor.

そして図3(A)のD1に示すように、X軸において反時計回り(回転軸の正の側から見て反時計回り。負方向の回転)に携帯型ゲーム装置を回転(ロール)させた場合には、図3(B)のE1に示すように、カメラ座標系のXC軸において反時計回りに仮想カメラVCの視線方向VLが回転する。これにより、仮想カメラVCの視線方向VLを、例えば後述するような高い軌道のフライの捕球に好適な視線方向に設定できるようになる。   Then, as indicated by D1 in FIG. 3A, the portable game device is rotated (rolled) counterclockwise on the X axis (counterclockwise when viewed from the positive side of the rotating shaft, rotating in the negative direction). In this case, as indicated by E1 in FIG. 3B, the line-of-sight direction VL of the virtual camera VC rotates counterclockwise on the XC axis of the camera coordinate system. As a result, the line-of-sight direction VL of the virtual camera VC can be set to a line-of-sight direction suitable for catching a fly with a high orbit as described later, for example.

一方、図3(A)のD2に示すように、X軸において時計回り(回転軸の正の側から見て時計回り。正方向の回転)で携帯型ゲーム装置を回転させた場合には、図3(B)のE2に示すように、カメラ座標系のXC軸において時計回りに仮想カメラVCの視線方向VLが回転する。これにより、仮想カメラVCの視線方向VLを、後述するような低い軌道のゴロの捕球に好適な視線方向に設定できるようになる。   On the other hand, as shown by D2 in FIG. 3 (A), when the portable game device is rotated clockwise on the X axis (clockwise as viewed from the positive side of the rotation axis, rotation in the positive direction), As indicated by E2 in FIG. 3B, the line-of-sight direction VL of the virtual camera VC rotates clockwise about the XC axis of the camera coordinate system. Thereby, it becomes possible to set the line-of-sight direction VL of the virtual camera VC to a line-of-sight direction suitable for catching a goro with a low trajectory as described later.

また図3(A)のD3、D4に示すように、プレーヤが、携帯型ゲーム装置(又はゲームコントローラ)をY軸回りに回転させた場合には、モーションセンサの角速度センサにより、このY軸回りでの回転操作が検出される。   Also, as indicated by D3 and D4 in FIG. 3A, when the player rotates the portable game device (or game controller) about the Y axis, the angular velocity sensor of the motion sensor causes the Y axis to be rotated. A rotation operation at is detected.

そして図3(A)のD3に示すように、Y軸において反時計回りに携帯型ゲーム装置を回転させた場合には、図3(C)のE3に示すように、カメラ座標系のYC軸において反時計回りに仮想カメラVCの視線方向VLが回転するようになる。   When the portable game device is rotated counterclockwise on the Y axis as indicated by D3 in FIG. 3A, the YC axis of the camera coordinate system is indicated as indicated by E3 in FIG. The visual line direction VL of the virtual camera VC rotates counterclockwise.

一方、図3(A)のD4に示すように、Y軸において時計回りに携帯型ゲーム装置を回転させた場合には、図3(C)のE4に示すように、カメラ座標系のYC軸において時計回りに仮想カメラVCの視線方向VLが回転するようになる。   On the other hand, when the portable game device is rotated clockwise on the Y axis as indicated by D4 in FIG. 3A, the YC axis of the camera coordinate system is indicated as indicated by E4 in FIG. The visual line direction VL of the virtual camera VC rotates in the clockwise direction.

そして本実施形態では、モーションセンサからのモーション検出情報を操作情報として取得し、このモーション検出情報に基づいて、仮想カメラの視線方向を移動体の送り先ターゲット側に向ける制御を行う。例えば図4(A)のA1に示すような携帯型ゲーム装置のY軸回りでの回転を、モーション検出情報により検出する。そして図4(B)のA2に示すように、モーション検出情報に基づいて、仮想カメラVCの視線方向VLを、移動体MOBの送り先ターゲットTGに向ける制御を行う。そして仮想カメラVCの視線方向VLが向けられることで仮想カメラVCの視野範囲に入った送り先ターゲットTGに対して、移動体MOBを移動させる処理を行う。   In this embodiment, the motion detection information from the motion sensor is acquired as operation information, and based on this motion detection information, control is performed to direct the line-of-sight direction of the virtual camera toward the destination target side of the moving object. For example, the rotation about the Y axis of the portable game apparatus as indicated by A1 in FIG. 4A is detected by the motion detection information. And as shown to A2 of FIG. 4 (B), based on motion detection information, control which orient | assigns the gaze direction VL of virtual camera VC to the destination target TG of the mobile body MOB is performed. And the process which moves the mobile body MOB is performed with respect to the destination target TG which entered into the visual field range of the virtual camera VC because the visual line direction VL of the virtual camera VC was turned.

このようにすれば、野球ゲームを例にとれば、ボールの捕球後の送球の際に、仮想カメラVCの視線方向VLを、送球ターゲット(送り先ターゲット)である1塁側に向けて、ボールを送球できるようになり、よりリアルな野球ゲームの画像を生成できるようになる。   In this way, in the case of a baseball game, for example, when the ball is thrown after the ball is caught, the line of sight VL of the virtual camera VC is directed toward the first base, which is a ball throwing target (destination target). Can be sent, and more realistic baseball game images can be generated.

なお、モーションセンサとして、角速度センサ等ではなく、画像センサを用いて、携帯型ゲーム装置の回転操作を検出し、仮想カメラの視線方向等を制御してもよい。即ちカメラの撮像センサによる撮像画像を用いて、携帯型ゲーム装置の回転操作を検出して、仮想カメラの視線方向等を制御する。例えば図2(B)に示すようなカメラCM1、CM2により携帯型ゲーム装置の周りの風景を撮影し、得られたカメラCM1、CM2の撮像画像に対して画像処理を行うことで、撮像画像の画素の動き情報から携帯型ゲーム装置の回転操作を検出する。このようにすれば、携帯型ゲーム装置が有する画像センサをモーションセンサとして用い、携帯型ゲーム装置の回転操作を検出して、仮想カメラの視線方向等を制御できるようになる。   Note that, as a motion sensor, an image sensor may be used instead of an angular velocity sensor or the like to detect a rotation operation of the portable game device and control the visual line direction or the like of the virtual camera. In other words, a rotation operation of the portable game device is detected using an image picked up by an image sensor of the camera, and the line-of-sight direction of the virtual camera is controlled. For example, the scenery around the portable game device is photographed with the cameras CM1 and CM2 as shown in FIG. 2B, and image processing is performed on the captured images of the obtained cameras CM1 and CM2, thereby A rotation operation of the portable game device is detected from the pixel movement information. In this way, the image sensor of the portable game device can be used as a motion sensor to detect the rotation operation of the portable game device and control the visual line direction of the virtual camera.

また本実施形態の手法が適用されるゲーム装置は携帯型ゲーム装置には限定されず、例えば据え置きの家庭用ゲーム装置であってもよい。この場合には、例えば家庭用ゲーム装置のゲームコントローラに設けられたモーションセンサ(角速度センサ、加速度センサ、カメラ等)を利用して、携帯型ゲーム装置の場合と同様の手法で、ゲームコントローラに対する回転操作を検出し、仮想カメラの視線方向等を制御すればよい。   The game device to which the method of the present embodiment is applied is not limited to a portable game device, and may be a stationary home game device, for example. In this case, for example, using a motion sensor (angular velocity sensor, acceleration sensor, camera, etc.) provided in the game controller of the home game device, the rotation with respect to the game controller is performed in the same manner as in the case of the portable game device. The operation may be detected and the line-of-sight direction of the virtual camera may be controlled.

次に本実施形態の手法を野球ゲームに適用した場合の送球処理の詳細について説明する。本実施形態では、ボールの捕球(広義には移動体のキャッチ)に成功し、所与の送球条件(広義には送り条件)が満たされた場合に、捕球(キャッチ)されたボール(移動体)の送球処理(移動処理)を行う。例えばボールの捕球に成功し、プレーヤが操作部を用いた送球指示操作を行った場合や、プレーヤが仮想カメラの視線方向を送球ターゲット側に向ける操作を行った場合に、捕球されたボールを送球ターゲットに送球する処理を行う。   Next, details of the pitching process when the method of the present embodiment is applied to a baseball game will be described. In this embodiment, when a ball has been successfully caught (catch of a moving body in a broad sense) and a given ball throwing condition (feed condition in a broad sense) is satisfied, A moving process is performed (moving process). For example, when a ball is successfully captured and the player performs a pitching instruction operation using the operation unit, or when the player performs an operation to turn the sight line direction of the virtual camera toward the pitching target, The ball is sent to the pitching target.

例えば図5(A)では、ボールBLの捕捉条件及び捕球条件が満たされて、ボールBLの捕球に成功している。そして、このように捕球が成功し、送球判定期間内において、プレーヤが、図3(A)のD3に示すように携帯型ゲーム装置をY軸において反時計回り(左側)に回転させる操作を行ったとする。すると図5(B)に示すように、仮想カメラVCの視線方向VLが、送球ターゲットである一塁ベースFBFの方に向き、ボールBLの送球処理が行われるようになる。具体的には、ボールの捕球に成功した後、送球判定期間内に図2(A)の操作ボタン16の中の送球指示ボタンを押すと、ボールBLが一塁に送球される。或いは、ボールの捕球に成功した後、携帯型ゲーム装置を回転させることで、仮想カメラVCの視線方向VLを一塁側に向ける操作を行うと、送球指示ボタンを押さなくても、自動的にボールが一塁に送球される。   For example, in FIG. 5A, the catching condition and catching condition of the ball BL are satisfied, and the catching of the ball BL is successful. Then, in this way, the catching is successful, and within the throwing determination period, the player performs an operation of rotating the portable game device counterclockwise (left side) on the Y axis as indicated by D3 in FIG. Suppose you went. Then, as shown in FIG. 5 (B), the line-of-sight direction VL of the virtual camera VC is directed toward the first base FBF that is the ball-throwing target, and the ball BL throwing process is performed. Specifically, after successfully catching the ball, when the pitching instruction button in the operation button 16 in FIG. 2A is pressed within the pitching determination period, the ball BL is pitched all at once. Alternatively, after the ball has been successfully captured, by rotating the hand-held game device, the virtual camera VC can be automatically operated without turning the ball-throwing instruction button if the operation is directed to the gaze direction VL. The ball is sent all at once.

以上のようにすれば、ボールBLを捕球した後に、一塁側を向いて送球するというような、実際の野球の送球プレイに似た操作感覚を、プレーヤに与えることが可能になる。これにより、プレーヤの仮想現実感を更に向上することが可能になる。   In this way, it is possible to give the player an operational feeling similar to an actual baseball pitching play, such as catching the ball BL and then throwing it toward the first base. As a result, the virtual reality of the player can be further improved.

2.2 捕球処理
次にボールの捕球処理の詳細について図6(A)〜図10(B)を用いて説明する。
2.2 Ball catching process Next, the details of the ball catching process will be described with reference to FIGS. 6 (A) to 10 (B).

従来の野球ゲームでは、プレーヤが守備側である場合に、バックネット付近やホームベース付近に設定された視点での画像が生成されるゲームが殆どであったため、打者が打ったボールを目で追いかけながら捕球してアウトにするというような操作感覚を、プレーヤに与えることが難しいという課題があった。そこで本実施形態では以下に説明するような捕球処理を採用している。   In most baseball games, when the player is on the defensive side, most of the games generate images from the viewpoint set near the back net or near the home base, so follow the ball hit by the batter with your eyes. However, there is a problem that it is difficult to give the player an operational feeling of catching the ball and making it out. Therefore, in this embodiment, a catching process as described below is adopted.

例えばボールがヒットされて外野フライが飛んで来たとする。この時、プレーヤが適切な操作を行わないと、高めのフライのボールは仮想カメラの視野範囲外になり、視野範囲からボールが消えてしまう。   For example, suppose a ball is hit and an outfield fly flies. At this time, if the player does not perform an appropriate operation, the higher fly ball is out of the visual field range of the virtual camera, and the ball disappears from the visual field range.

このような状況において、本実施形態では、プレーヤは、仮想カメラの視線方向等を変化させる操作を行うことで、ボールが視野範囲内に入るようにする。即ちボールが仮想カメラにより捕捉されるような操作を行って、ボールを目で追いかける操作を行う。そして、このようにボールが視野範囲(捕捉判定範囲)に入った状態で、ボールの落下地点にプレーヤキャラクタが移動してボールを捕球(キャッチ)すれば、捕球に成功したと判定され、外野フライのキャッチでアウトになったと判定される。   In such a situation, in the present embodiment, the player performs an operation of changing the viewing direction of the virtual camera or the like so that the ball falls within the visual field range. That is, an operation is performed such that the ball is captured by the virtual camera, and the ball is chased with the eyes. Then, if the player character moves to the point of falling of the ball and catches the ball (catch) in a state where the ball is in the visual field range (capture determination range) in this way, it is determined that the ball has been successfully captured, It is determined that the outfield fly was caught.

一方、打者が打ったボールがゴロである場合には、プレーヤが仮想カメラの視線方向等を変化させる操作を行って、下方向に仮想カメラの視線方向を向けてボールを捕捉しないと、ボールをキャッチできないようにする。即ち、仮想カメラによるボールの捕捉条件を満たしつつ、ボールをキャッチした場合に、ボールの捕球に成功したと判定する。   On the other hand, if the ball hit by the batter is a ball, the player must change the line of sight direction of the virtual camera, etc. and do not capture the ball by pointing the line of sight of the virtual camera downward. Make it impossible to catch. That is, when the ball is caught while satisfying the condition for catching the ball by the virtual camera, it is determined that the ball has been successfully caught.

このようにすることで、プレーヤが実際にボールを目で追いかけて捕捉しながら捕球地点に移動し、ボールをキャッチした場合に、捕球が成功したと判定されるようになる。従って、あたかも実際の野球のようにボールを追って捕球したかのような操作感覚をプレーヤに与えることができ、従来の手法に比べてプレーヤの仮想現実感を大幅に向上できるようになる。   In this way, when the player actually catches and catches the ball and moves to the catching point and catches the ball, it is determined that the catch has been successful. Therefore, it is possible to give the player an operational feeling as if he was catching the ball as in actual baseball, and the player's virtual reality can be greatly improved compared to the conventional method.

例えば図6(A)では、打者の打ったボールBLがゴロになっている。この場合にはプレーヤは、図6(B)に示すようにX軸の正方向側から見てX軸の時計回りで、携帯型ゲーム装置を回転させる。すると、このX軸の時計回りでの回転がモーションセンサ(角速度センサ)により検出される。そして、このX軸の時計回りでのモーション検出情報により、図6(A)に示すように、視線方向VLが下側方向を向くように仮想カメラVCが制御される。即ちカメラ座標系のXC軸で時計回りに仮想カメラVCの視線方向VLが回転し、この視線方向VLでの画像が生成されて表示部190に表示される。これにより、プレーヤの視界範囲内にボールBLが捕捉されて見えるようになり、仮想カメラVCがボールBLを捕捉するという捕捉条件が満たされる。そして、この状態で、例えばプレーヤが操作するプレーヤキャラクタCHP(仮想カメラ)が適正な捕球地点に移動して、捕球条件が満たされると、ゴロのボールBLの捕球に成功したと判定される。   For example, in FIG. 6A, the ball BL hit by the batter is rough. In this case, as shown in FIG. 6B, the player rotates the portable game device in the clockwise direction of the X axis when viewed from the positive side of the X axis. Then, the clockwise rotation of the X axis is detected by a motion sensor (angular velocity sensor). Then, the virtual camera VC is controlled by the motion detection information in the clockwise direction of the X axis so that the line-of-sight direction VL is directed downward as shown in FIG. That is, the visual line direction VL of the virtual camera VC rotates clockwise around the XC axis of the camera coordinate system, and an image in the visual line direction VL is generated and displayed on the display unit 190. As a result, the ball BL is captured and seen within the player's field of view, and the capture condition that the virtual camera VC captures the ball BL is satisfied. In this state, for example, when the player character CHP (virtual camera) operated by the player moves to an appropriate catching point and the catching condition is satisfied, it is determined that the Goro ball BL has been successfully caught. The

一方、図7(A)では、打者の打ったボールBLがフライになっている。この場合にはプレーヤは、図7(B)に示すようにX軸の正方向側から見てX軸の反時計回りで、携帯型ゲーム装置を回転させる。すると、このX軸の反時計回りでの回転がモーションセンサ(角速度センサ)により検出される。そして、このX軸の反時計回りでのモーション検出情報に基づいて、図7(A)に示すように、視線方向VLが上側方向を向くように仮想カメラVCが制御される。即ちカメラ座標系のXC軸で反時計回りに仮想カメラVCの視線方向VLが回転し、この視線方向VLでの画像が生成されて表示部190に表示される。これにより、プレーヤの視界範囲内にボールBLが捕捉されて見えるようになり、仮想カメラVCがボールBLを捕捉するという捕捉条件が満たされる。そして、この状態で、例えばプレーヤが操作するプレーヤキャラクタCHP(仮想カメラ)が適正な捕球地点に移動して、捕球条件が満たされると、フライのボールBLの捕球に成功したと判定される。   On the other hand, in FIG. 7A, the ball BL hit by the batter is fly. In this case, as shown in FIG. 7B, the player rotates the portable game device in the counterclockwise direction of the X axis when viewed from the positive direction side of the X axis. Then, the counterclockwise rotation of the X axis is detected by a motion sensor (angular velocity sensor). Then, based on the X-axis counterclockwise motion detection information, the virtual camera VC is controlled such that the line-of-sight direction VL is directed upward as shown in FIG. That is, the viewing direction VL of the virtual camera VC rotates counterclockwise about the XC axis of the camera coordinate system, and an image in this viewing direction VL is generated and displayed on the display unit 190. As a result, the ball BL is captured and seen within the player's field of view, and the capture condition that the virtual camera VC captures the ball BL is satisfied. In this state, for example, when the player character CHP (virtual camera) operated by the player moves to an appropriate catching point and the catching condition is satisfied, it is determined that the catching of the fly ball BL is successful. The

図8(A)〜図9は、図6(A)、図6(B)で説明したゴロの処理時に生成されるゲーム画像の例である。   FIG. 8A to FIG. 9 are examples of game images generated at the time of the goro process described with reference to FIG. 6A and FIG.

図8(A)は、バッターがゴロのボールBLを打った場面のゲーム画像である。このようにボールBLがゴロである場合には、図6(B)に示すようにプレーヤがX軸の時計回りで携帯型ゲーム装置を回転させる操作を行うことで、図6(A)に示すように仮想カメラVCの視線方向VLが下側方向を向く。これにより、図8(B)のように、低い軌道のゴロのボールBLが仮想カメラVCの視野範囲内に入るゲーム画像が生成される。即ち、低い軌道のボールBLに対する捕捉条件が満たされて、仮想カメラVCによりボールBLが捕捉されたゲーム画像が生成される。   FIG. 8A is a game image of a scene where the batter hits Goro's ball BL. In this way, when the ball BL is Goro, as shown in FIG. 6B, the player performs an operation of rotating the portable game device in the clockwise direction of the X axis, as shown in FIG. As described above, the line-of-sight direction VL of the virtual camera VC is directed downward. Thereby, as shown in FIG. 8B, a game image is generated in which the low-orbit Goro ball BL falls within the visual field range of the virtual camera VC. That is, the capture condition for the ball BL on the low trajectory is satisfied, and a game image in which the ball BL is captured by the virtual camera VC is generated.

そして図8(B)では、このような捕捉条件を満たした状態で、ボールBLの位置とプレーヤキャラクタCHP(仮想カメラ)の位置が一致して、捕球条件が満たされたため、ゴロのボールBLの捕球に成功したと判定される。   In FIG. 8B, in such a state that the capture condition is satisfied, the position of the ball BL matches the position of the player character CHP (virtual camera), and the capture condition is satisfied. It is determined that the ball was successfully caught.

なお図8(A)では、いわゆる一人称視点のゲーム画像が生成され、図8(B)の捕球タイミングでは、プレーヤキャラクタCHPのグラブが表示されている。但し図8(A)や図8(B)において、プレーヤキャラクタCHPの全体を表示するようにしてもよい。この場合には、ボールBLがプレーヤキャラクタCHPにより遮られて見えにくくなってしまう事態を防止するために、プレーヤキャラクタCHPを半透明表示等にすることが望ましい。   In FIG. 8A, a so-called first-person game image is generated, and a grab of the player character CHP is displayed at the catching timing of FIG. 8B. However, in FIG. 8A and FIG. 8B, the entire player character CHP may be displayed. In this case, in order to prevent a situation in which the ball BL is obstructed by the player character CHP and becomes difficult to see, it is desirable to make the player character CHP semi-transparent display or the like.

図9は、図8(B)の捕球成功後に、プレーヤにより送球指示が行われ、捕球したボールが一塁に送球された場面のゲーム画像である。例えば捕球タイミングに対応して設定された送球判定期間において、プレーヤが携帯型ゲーム装置をY軸回りで回転させるロール操作を行って、仮想カメラVCの視線方向が一塁側に向けられた場合には、送球条件が満たされたと判断される。そして、捕球したボールBLを、送球ターゲットである一塁に送球する処理が行われる。或いは、仮想カメラVCの視線方向が一塁側に向けられ、且つ、送球判定期間において図2(A)の操作ボタン16の中の送球指示ボタン(送球動作に割り当てられたボタン)が押された場合に、送球条件が満たされたと判断される。そして、捕球したボールBLを一塁に送球する処理が行われる。そして、捕球と送球の両方に成功すると、図9に示すように「アウト」の結果表示が行われる。   FIG. 9 is a game image of a scene in which after the successful catching of FIG. 8 (B), a pitching instruction is given by the player, and the caught ball is sent all at once. For example, when the player performs a roll operation to rotate the portable game device about the Y axis during the pitching determination period set corresponding to the catching timing, and the line of sight of the virtual camera VC is directed to the first side. Is determined that the pitching condition is satisfied. Then, a process of sending the caught ball BL to a glance which is a pitching target is performed. Alternatively, when the direction of the line of sight of the virtual camera VC is directed to the first side, and the pitching instruction button (the button assigned to the pitching operation) in the operation button 16 in FIG. 2A is pressed during the pitching determination period. Then, it is determined that the pitching condition is satisfied. Then, a process of sending the caught ball BL at a glance is performed. If both catching and throwing are successful, the result of “out” is displayed as shown in FIG.

図10(A)、図10(B)は、図7(A)、図7(B)で説明したフライの処理時に生成されるゲーム画像の例である。   FIGS. 10A and 10B are examples of game images generated during the fly processing described with reference to FIGS. 7A and 7B.

図10(A)は、バッターがフライのボールBLを打った場面のゲーム画像である。このようにボールBLがフライである場合には、図7(B)に示すようにプレーヤがX軸の反時計回りに携帯型ゲーム装置を回転させる操作を行うことで、図7(A)に示すように仮想カメラVCの視線方向VLが上側方向を向く。これにより、図10(B)のように、高い軌道のフライのボールBLが仮想カメラVCの視野範囲内に入るゲーム画像が生成される。即ち、高い軌道のボールBLに対する捕捉条件が満たされて、仮想カメラVCによりボールBLが捕捉されたゲーム画像が生成される。   FIG. 10A is a game image of a scene where the batter hits the fly ball BL. In this way, when the ball BL is a fly, as shown in FIG. 7B, the player performs an operation of rotating the portable game device counterclockwise on the X-axis, thereby FIG. As shown, the line-of-sight direction VL of the virtual camera VC faces upward. As a result, as shown in FIG. 10B, a game image is generated in which a fly ball BL having a high trajectory falls within the visual field range of the virtual camera VC. That is, the capture condition for the ball BL on the high trajectory is satisfied, and a game image in which the ball BL is captured by the virtual camera VC is generated.

そして図10(B)では、このような捕捉条件を満たした状態で、ボールBLの位置とプレーヤキャラクタCHP(仮想カメラ)の位置が一致して、捕球条件が満たされたため、フライのボールBLの捕球に成功したと判定される。   In FIG. 10B, in such a state that the capture condition is satisfied, the position of the ball BL and the position of the player character CHP (virtual camera) match, and the capture condition is satisfied. It is determined that the ball was successfully caught.

以上のように本実施形態では、携帯型ゲーム装置(又はゲームコントローラ)をX軸回りで回転させる操作が行われた場合に、仮想カメラの視線方向をX軸に対応するカメラ座標系のXC軸回りで回転させる制御を行う。そしてXC軸回りで視線方向が回転する仮想カメラによりボール(移動体)が捕捉される捕捉条件が満たされており、ボールの捕球条件(キャッチ条件)が満たされた場合に、ボールの捕球に成功したと判定する。そしてボールの捕球に成功したと判定され、所与の送球条件(送り条件)が満たされた場合に、捕球されたボールを送球ターゲット(送り先ターゲット)に移動させる処理が行われる。具体的には、ボール(移動体)の捕球(キャッチ)に成功したと判定され、プレーヤが送球指示操作(送り指示操作)を行った場合に、捕球されたボールを送球ターゲット(送り先ターゲット)に移動させる処理を行う。或いは、ボールの捕球に成功したと判定され、プレーヤが仮想カメラの視線方向を送球ターゲットに向ける操作を行った場合に、捕球されたボールを送球ターゲットに移動させる処理を行う。   As described above, in this embodiment, when an operation of rotating the portable game device (or game controller) around the X axis is performed, the XC axis of the camera coordinate system corresponding to the X axis is the visual line direction of the virtual camera. Control to rotate around. When the capture condition for capturing the ball (moving body) is satisfied by the virtual camera whose line-of-sight direction rotates around the XC axis, and the ball capture condition (catch condition) is satisfied, Is determined to be successful. Then, when it is determined that the ball has been successfully caught and a given throwing condition (sending condition) is satisfied, a process of moving the caught ball to the throwing target (destination target) is performed. Specifically, when it is determined that the ball (moving body) has been successfully caught (catch), and the player performs a throw instruction operation (send instruction operation), the caught ball is sent to the throw target (destination target). ) Is moved. Alternatively, when it is determined that the ball has been successfully captured and the player performs an operation of directing the viewing direction of the virtual camera toward the throwing target, a process of moving the caught ball to the throwing target is performed.

更に具体的には、プレーヤは、ボールの捕球に成功した後、携帯型ゲーム装置を回転させることで、仮想カメラVCの視線方向VLを一塁側に向ける操作を行う。そして仮想カメラVCの視線方向VLが一塁側に向いた後に、プレーヤが送球指示ボタンを押すと、ボールが一塁に送球される。この場合に、例えば仮想カメラVCの視線方向VLが一塁側(送り先ターゲット側)に適切に向いていると判定された場合に、送球が可能であることをプレーヤに知らせる指示表示(例えば「送球OK」という表示)を行ってもよい。このようにすれば、プレーヤが、この指示表示を確認した後、送球指示ボタンを押すことで、ボールが一塁に送球されるようになる。   More specifically, after the player has successfully caught the ball, the player rotates the portable game device so as to direct the line-of-sight direction VL of the virtual camera VC to the first glance side. Then, after the visual line direction VL of the virtual camera VC is directed to the first base side, when the player presses the pitching instruction button, the ball is sent to the first base. In this case, for example, when it is determined that the line-of-sight direction VL of the virtual camera VC is appropriately oriented toward the first base (destination target side), an instruction display (for example, “send OK” May be performed). In this way, after the player confirms the instruction display, the ball is sent all at once by pressing the pitching instruction button.

以上のような本実施形態の手法によれば、プレーヤが、視野範囲にボールが入るような操作を行いながらボールを捕球すると、捕球が成功したと判定され、その後、送球条件が満たされると、ボールが送球される。従って、プレーヤは、あたかも実際のボールを目で追いかけて捕球するというような現実世界の野球と同様の操作感覚で、ボールを捕球し、捕球したボールを送球できるようになる。従って、プレーヤの仮想現実感を従来の手法に比べて格段に向上できる。また図6(A)のように打球がゴロである場合と、図7(A)のように打球がフライである場合とで、プレーヤは異なる操作を行ってボールを捕球する。従って、実際にゴロやフライを捕っているかのような操作感覚をプレーヤに与えることができる。   According to the method of the present embodiment as described above, when the player catches the ball while performing an operation that causes the ball to enter the visual field range, it is determined that the catching is successful, and then the throwing condition is satisfied. Then the ball is sent. Therefore, the player can catch the ball and send the caught ball with the same operation feeling as in the real world baseball, such as chasing after catching the actual ball with his eyes. Therefore, the virtual reality of the player can be significantly improved as compared with the conventional method. The player performs different operations to catch the ball depending on whether the hit ball is a goro as shown in FIG. 6A or when the hit ball is a fly as shown in FIG. 7A. Accordingly, it is possible to give the player a sense of operation as if they are actually catching a goro or fly.

特に、携帯型ゲーム装置のモーションセンサで仮想カメラの視線方向を制御すれば、プレーヤは、ゴロの場合には図7(B)のように携帯型ゲーム装置の方向(画面方向)を下側方向に向け、フライの場合には携帯型ゲーム装置の方向を上側方向に向けるという操作を行って、ゴロやフライのボールを捕球することになる。従って、プレーヤは、あたかも画面の向こう側に本当のボールが存在し、そのボールを捕球して送球しているかのような操作感覚でゲームプレイができるため、プレーヤの仮想現実感を更に向上できる。   In particular, if the gaze direction of the virtual camera is controlled by the motion sensor of the portable game device, in the case of Goro, the player sets the direction (screen direction) of the portable game device to the lower side as shown in FIG. In the case of a fly, in the case of a fly, an operation of turning the portable game device upward is performed to catch a ball of a golo or a fly. Therefore, the player can play the game as if there is a real ball on the other side of the screen and catch and send the ball, so that the virtual reality of the player can be further improved. .

なお、以上では本実施形態の手法を野球ゲームに適用した場合について説明したが、本実施形態の手法は、野球ゲーム以外の種々の球技ゲーム等に適用可能である。   In addition, although the case where the method of this embodiment was applied to the baseball game was demonstrated above, the method of this embodiment is applicable to various ball game etc. other than a baseball game.

例えば図11(A)〜図11(C)は、本実施形態の手法をサッカーゲームに適用した例である。図11(A)では、コンピュータ等が制御する相手キャラクタCHEが、プレーヤが操作するプレーヤキャラクタCHPに対してボールBLをパスしている。そして図11(B)では、プレーヤキャラクタCHPは、パスされたボールBLの捕球(キープ)に成功している。そして図11(C)では、捕球したボールBLを他のキャラクタにパスしたり、ゴールに対して蹴るなどの処理が、ボールBLの送球処理として行われている。このようなサッカーゲームにおいても、本実施形態の手法を採用することで、従来のサッカーゲームに比べて、プレーヤの仮想現実感を大幅に向上できるようになる。なおサッカーのセンタリングでのヘディングシュートを本実施形態の手法により実現してもよい。この場合には、センタリングされたボールが選手の頭に当たることが捕球に相当し、頭に当たったボールが跳ね返って飛ぶことが送球に相当する。   For example, FIGS. 11A to 11C are examples in which the method of the present embodiment is applied to a soccer game. In FIG. 11A, the opponent character CHE controlled by a computer or the like passes the ball BL against the player character CHP operated by the player. In FIG. 11B, the player character CHP has succeeded in catching (keeping) the passed ball BL. In FIG. 11C, processing such as passing the caught ball BL to another character or kicking the goal is performed as the ball BL throwing processing. Even in such a soccer game, by adopting the method of the present embodiment, the virtual reality of the player can be greatly improved compared to the conventional soccer game. Note that a heading shoot in soccer centering may be realized by the method of this embodiment. In this case, the centered ball hits the player's head corresponds to catching, and the ball hitting the head bounces back and jumps corresponds to throwing.

更に本実施形態の手法は、野球やサッカーのゲーム以外にも、アメリカンフットボール、バレーボール、バスケットボール、テニス、卓球、バトミントン等の種々のゲームに適用できる。例えばアメリカンフットボールの場合には、クオータバックが投げたボールをランニングバッグがジャンプ等をして捕ることが捕球に相当する。またバレーボールの場合には、レシーブがボールの捕球に相当し、トスやアタックがボールの送球に相当する。またテニスや卓球の場合には、ラケットにボールが当たることがボールの捕球に相当し、ラケットに当たったボールが、打った方向に飛ぶことが送球に相当する。またバトミントンの場合にはシャトルがボールに相当することになる。   Furthermore, the method of this embodiment can be applied to various games such as American football, volleyball, basketball, tennis, table tennis, and badminton in addition to baseball and soccer games. For example, in the case of American football, catching a ball thrown by a quarterback by a running bag jumping or the like corresponds to catching. In the case of volleyball, the receive is equivalent to catching the ball, and the toss and attack are equivalent to throwing the ball. In the case of tennis or table tennis, the ball hitting the racket corresponds to catching the ball, and the ball hitting the racket flies in the hit direction corresponds to pitching. In the case of badminton, the shuttle corresponds to a ball.

2.3 回転角度の調整処理
さて、携帯型ゲーム装置を回転させることで仮想カメラの視線方向を変化させる場合に、何ら工夫を施さないと、プレーヤの意図しない視線方向の変化が生じ、プレーヤが不自然さを感じたり、プレーヤのゲームプレイに支障が生じるおそれがある。
2.3 Rotation Angle Adjustment Processing Now, if the gaze direction of the virtual camera is changed by rotating the hand-held game device, the gaze direction unintended by the player will change unless the device is modified. There is a possibility that unnaturalness may be felt or that the player's game play may be hindered.

そこで本実施形態では、携帯型ゲーム装置の回転角度の変化量ΔθYに対する仮想カメラの視線方向の回転角度の変化量ΔθYCを調整する手法を採用している。   Therefore, in the present embodiment, a method of adjusting the rotation angle change amount ΔθYC in the visual line direction of the virtual camera with respect to the rotation angle change amount ΔθY of the portable game device is adopted.

例えば図12(A)のF1では、プレーヤが携帯型ゲーム装置をY軸回りで変化量ΔθY1の回転角度で回転させており、これによりF2では、仮想カメラVCの視線方向VLが変化量ΔθYC1の回転角度で回転している。これにより図12(B)に示すように、仮想カメラVCの視線方向VLが送球先ターゲット(送り先ターゲット)TGの方に向き、ボールBLが送球先ターゲットTGに送球される。   For example, in F1 of FIG. 12A, the player rotates the portable game device around the Y axis at a rotation angle of the change amount ΔθY1, and thus in F2, the line-of-sight direction VL of the virtual camera VC is the change amount ΔθYC1. It is rotating at a rotation angle. As a result, as shown in FIG. 12B, the line-of-sight direction VL of the virtual camera VC is directed toward the pitch destination target (send destination target) TG, and the ball BL is sent to the pitch destination target TG.

一方、例えば図13(A)のF3では、プレーヤが携帯型ゲーム装置をY軸回りで変化量ΔθY2<ΔθY1の回転角度で回転させており、これによりF4では、仮想カメラVCの視線方向VLが変化量ΔθYC2=ΔθYC1の回転角度で回転している。これにより図13(B)に示すように、仮想カメラVCの視線方向VLが送球先ターゲットTGの方に向き、ボールBLが送球先ターゲットTGに送球される。   On the other hand, for example, in F3 of FIG. 13A, the player rotates the portable game device around the Y axis at a rotation angle of the change amount ΔθY2 <ΔθY1, so that in F4, the line-of-sight direction VL of the virtual camera VC is The rotation amount is ΔθYC2 = ΔθYC1. As a result, as shown in FIG. 13B, the line-of-sight direction VL of the virtual camera VC is directed toward the throwing destination target TG, and the ball BL is sent to the throwing destination target TG.

このように図13(A)では、図12(A)に比べて、携帯型ゲーム装置のY軸回りでの回転角度の変化量ΔθYに対する仮想カメラVCの視線方向のYC軸回りの回転角度ΔθYCの変化量の割合ΔθYC/ΔθYが異なっている。即ち図13(A)では、割合ΔθYC/ΔθYが大きくなっており、携帯型ゲーム装置の回転角度の変化量が小さくても、図12(A)と同様の回転角度の変化量で仮想カメラVCの視線方向VLを回転させることができる。   Thus, in FIG. 13A, compared to FIG. 12A, the rotation angle ΔθYC about the YC axis in the line-of-sight direction of the virtual camera VC with respect to the change amount ΔθY of the rotation angle about the Y axis of the portable game device. The ratio ΔθYC / ΔθY of the amount of change is different. That is, in FIG. 13A, the ratio ΔθYC / ΔθY is large, and even if the amount of change in the rotation angle of the portable game device is small, the virtual camera VC is the same as the amount of change in the rotation angle as in FIG. The visual line direction VL can be rotated.

例えば野球ゲームにおいて、ゴロを捕球して一塁に送球する際に、ホームベース方向に向いていた視線方向を一塁に向けるためには、何ら調整処理を行わない場合には、携帯型ゲーム装置を例えばY軸回りで90度回転させる必要がある。   For example, in a baseball game, in order to turn the line of sight toward the home base to a glance when catching a ball and sending it to the baseball, if no adjustment processing is performed, the portable game device is For example, it is necessary to rotate 90 degrees around the Y axis.

しかしながら、このように携帯型ゲーム装置を90度回転させる動作をプレーヤに要求すると、プレーヤに大きな動作を強いることになり、プレーヤのゲーム操作性が悪化するおそれがある。   However, if the player is requested to perform an operation of rotating the portable game device by 90 degrees in this way, the player is forced to perform a large operation, which may deteriorate the game operability of the player.

この点、本実施形態のような調整処理を行えば、図13(A)に示すように、90度以下の少ない変化量ΔθY2の回転角度で携帯型ゲーム装置を回転させるだけで、仮想カメラVCの視線方向VLを90度回転させて、一塁に送球できるようになる。従って、プレーヤは小さな動作で仮想カメラVCの視線方向VLを一塁に向けることが可能になり、プレーヤのゲーム操作性を向上できる。例えば一塁の走者を二塁への送球でアウトにする場合にも、携帯型ゲーム装置を180度よりも小さな回転角度で回転させるだけで、仮想カメラVCの視線方向VLを180度回転させて、二塁に送球することが可能になり、ゲーム操作性を向上できる。   In this regard, if the adjustment process as in the present embodiment is performed, as shown in FIG. 13A, the virtual camera VC can be obtained simply by rotating the portable game device at a rotation angle of a small change amount ΔθY2 of 90 degrees or less. The line-of-sight direction VL is rotated 90 degrees so that the ball can be sent all at once. Therefore, the player can turn the line-of-sight direction VL of the virtual camera VC at a glance with a small operation, and the game operability of the player can be improved. For example, even when the first runner is out by throwing the ball to the second base, the visual game direction VL of the virtual camera VC is rotated 180 degrees by simply rotating the portable game device at a rotation angle smaller than 180 degrees. It is possible to send a ball to the game, and the operability of the game can be improved.

なお、携帯型ゲーム装置の回転角度の変化量ΔθYに対する仮想カメラVCの視線方向の回転角度の変化量ΔθYCの割合ΔθYC/ΔθYの調整処理は、プレーヤの操作情報に基づき行ってもよいし、ゲーム状況に基づき行ってもよい。   Note that the adjustment process of the ratio ΔθYC / ΔθY of the rotation angle change amount ΔθYC of the virtual camera VC with respect to the rotation angle change amount ΔθY of the portable game device may be performed based on the operation information of the player or the game. You may do it based on the situation.

例えばプレーヤの操作情報に基づき調整処理を行う場合には、例えばゲーム開始前のオプション画面においてプレーヤが操作入力を行い、ΔθYC/ΔθYを調整する。例えば携帯型ゲーム装置の少ない回転角度変化で仮想カメラVCの視線方向を大きく回転させたい場合には、ΔθYC/ΔθYを大きな値に設定する。なお、ゲーム中にプレーヤが所定の操作を行うことで、ΔθYC/ΔθYを調整するようにしてもよい。   For example, when the adjustment process is performed based on the operation information of the player, for example, the player performs an operation input on the option screen before starting the game, and ΔθYC / ΔθY is adjusted. For example, when it is desired to rotate the line-of-sight direction of the virtual camera VC with a small change in the rotation angle of the portable game device, ΔθYC / ΔθY is set to a large value. Note that ΔθYC / ΔθY may be adjusted by the player performing a predetermined operation during the game.

またゲーム状況に基づき調整処理を行う場合には、第1のゲーム状況ではΔθYC/ΔθYを第1の割合RT1に設定し、第2のゲーム状況ではΔθYC/ΔθYを第2の割合RT2に設定すればよい。例えばボールを打ったバッターの走者を一塁でアウトにするような第1のゲーム状況では、ΔθYC/ΔθYを第1の割合RT1に設定し、一塁の走者を二塁でアウトにするような第2のゲーム状況では、ΔθYC/ΔθYを第2の割合RT2>RT1に設定する。このようにすれば、二塁に送球する場合には、一塁に送球する場合に比べて、ΔθYC/ΔθYの割合を大きな値に設定できる。従って、例えば一塁に送球する場合には、携帯型ゲーム装置を例えば90度回転させる必要がある場合にも、二塁に送球する場合には、携帯型ゲーム装置を180度よりも小さな回転角度で回転させるだけで済むようになり、ゲーム操作性を向上できる。   When the adjustment process is performed based on the game situation, ΔθYC / ΔθY is set to the first ratio RT1 in the first game situation, and ΔθYC / ΔθY is set to the second ratio RT2 in the second game situation. That's fine. For example, in the first game situation in which the batter runner who hit the ball is out at a glance, ΔθYC / ΔθY is set to the first ratio RT1, and the second runner out at the first glance is a second. In the game situation, ΔθYC / ΔθY is set to a second ratio RT2> RT1. In this way, the ratio of ΔθYC / ΔθY can be set to a larger value when the ball is sent to two baseballs than when the ball is sent to the first baseball. Therefore, for example, when sending a ball to the baseball, it is necessary to rotate the portable game device by 90 degrees, for example, but when sending a ball to the baseball, the portable game device is rotated at a rotation angle smaller than 180 degrees. It is only necessary to make it possible to improve the game operability.

なお、例えば一塁への送球時には、例えば割合ΔθYC/ΔθY=2に設定して、例えば45度の回転角度で視線方向が一塁に向くようにする一方で、二塁への送球時には例えば割合ΔθYC/ΔθY=3に設定して、例えば60度の回転角度で視線方向が二塁に向くようにしてもよい。   For example, when the ball is sent to the first base, the ratio ΔθYC / ΔθY = 2 is set, for example, so that the direction of the line of sight is directed to the first base at a rotation angle of 45 degrees, for example. For example, the line-of-sight direction may turn to 2 ° at a rotation angle of 60 degrees.

また図12(A)〜図13(B)では、Y軸回りの回転角度の調整手法について説明したが、図6(A)〜図7(B)で説明したX軸回りの回転角度についても同様の調整処理を行うようにしてもよい。具体的には、携帯型ゲーム装置(ゲームコントローラ)のX軸回りでの回転角度の変化量ΔθXに対する、仮想カメラの視線方向のXC軸回りでの回転角度の変化量ΔθXCを調整する。この場合に、変化量ΔθXに対する変化量ΔθXCの調整処理を、プレーヤの操作情報又はゲーム状況に基づいて行う。   12A to 13B, the method for adjusting the rotation angle around the Y axis has been described, but the rotation angle around the X axis described with reference to FIGS. 6A to 7B is also applicable. A similar adjustment process may be performed. Specifically, the rotation angle change amount ΔθXC around the XC axis in the visual line direction of the virtual camera is adjusted with respect to the rotation angle change amount ΔθX around the X axis of the portable game device (game controller). In this case, adjustment processing of the change amount ΔθXC with respect to the change amount ΔθX is performed based on the operation information of the player or the game situation.

このようにすれば、例えば割合ΔθXC/ΔθXCの値を大きくすることで、例えば図6(B)において携帯型ゲーム装置を下側方向にそれほど回転させなくても、図6(A)のようにゴロを捕球することが可能になる。また図7(B)において携帯型ゲーム装置を上側方向にそれほど回転させなくても、図7(A)のようにフライを捕球することが可能になる。   In this way, by increasing the value of the ratio ΔθXC / ΔθXC, for example, as shown in FIG. 6A, the portable game device does not rotate much downward in FIG. 6B, for example. It becomes possible to catch Goro. Further, in FIG. 7B, it is possible to catch a fly as shown in FIG. 7A even if the portable game device is not rotated so much in the upward direction.

2.4 第2の送球ターゲットへの送球
例えば野球ゲームでは、ダブルプレイ(ゲッツー)やトリプルプレイなどの送球処理についてもリアルに実現できることが望ましい。そこで本実施形態では、ボールなどの移動体を第1の送り先ターゲットに移動させる処理を行い、ボールが第1の送り先ターゲットに到達した後、到達した移動体を、第2の送り先ターゲットに移動させる処理を行う。
2.4 Throwing to the Second Throwing Target For example, in a baseball game, it is desirable that a pitching process such as double play (gettsu) or triple play can be realized realistically. Therefore, in the present embodiment, a process of moving a moving body such as a ball to the first destination target is performed, and after the ball reaches the first destination target, the reached moving body is moved to the second destination target. Process.

例えば図14(A)では、仮想カメラVCの視線方向VLはホームベースHBSの方に向いている。そして、例えば一塁ベースFBFに走者がいる状況で、バッターがボールをヒットし、プレーヤキャラクタCHPがボールの捕球に成功したとする。この場合に、プレーヤが図4(A)、図4(B)等で説明したように携帯型ゲーム装置を例えば180度回転させることで、図14(B)に示すように仮想カメラVCの視線方向VLが二塁ベースSBFの方を向く。そして、プレーヤが送球指示操作などを行うことで送球条件が満たされると、ボールBLが第1の送球ターゲット(第1の送り先ターゲット)である二塁ベースSBFに送球される。   For example, in FIG. 14A, the viewing direction VL of the virtual camera VC is directed toward the home base HBS. For example, in a situation where there is a runner on the first base FBF, the batter hits the ball and the player character CHP succeeds in catching the ball. In this case, when the player rotates the portable game device by, for example, 180 degrees as described with reference to FIGS. 4A and 4B, the line of sight of the virtual camera VC as illustrated in FIG. The direction VL faces the double base SBF. Then, when the pitching condition is satisfied by the player performing a pitching instruction operation or the like, the ball BL is pitched to the second base SBF that is the first pitching target (first destination target).

そして、ボールBLが第1の送球ターゲットである二塁ベースSBFに到達した後、到達したボールBLが、ゲーム状況に基づき選択された或いはプレーヤの指示操作により指示された第2の送球ターゲットに送球される。   Then, after the ball BL reaches the second base SBF that is the first pitch target, the reached ball BL is pitched to the second pitch target selected based on the game situation or designated by the player's instruction operation. The

具体的には図15(A)では、二塁ベースSBFにボールが送球された場合に、仮想カメラVCの視点位置が、第1の送球ターゲットである二塁ベースSBFに対応する位置に設定される。例えば図15(A)では、プレーヤキャラクタCHPから見て二塁ベースSBFの後方の位置に、仮想カメラVCの視点位置が設定される。この場合に、ボールが二塁ベースSBFに到達するまでは、仮想カメラVCの視線方向VLは、ボールBLの送り元側に向けられる。これにより、プレーヤは、ボールBLを送球したプレーヤキャラクタCHPを、二塁ベースSBF側の視点の画像で見ることが可能になる。   Specifically, in FIG. 15A, when the ball is sent to the second base SBF, the viewpoint position of the virtual camera VC is set to a position corresponding to the second base SBF that is the first throw target. For example, in FIG. 15A, the viewpoint position of the virtual camera VC is set at a position behind the second base SBF as viewed from the player character CHP. In this case, the line-of-sight direction VL of the virtual camera VC is directed toward the source side of the ball BL until the ball reaches the second base SBF. Thereby, the player can see the player character CHP that has sent the ball BL in the viewpoint image on the second base SBF side.

次に、図15(B)に示すように、仮想カメラVCの視線方向VLが、第2の送球ターゲットである一塁ベースFBF側に向けられる。そして仮想カメラVCの視線方向VLが向けられることで仮想カメラVCの視野範囲に入った一塁に対してボールBLが送球される。   Next, as shown in FIG. 15B, the line-of-sight direction VL of the virtual camera VC is directed toward the first base FBF that is the second pitching target. And the ball | bowl BL is sent with respect to the glance which entered the visual field range of the virtual camera VC because the visual line direction VL of the virtual camera VC was turned.

このようにすれば、一塁の走者を二塁でアウトにすると共にバッターの走者を一塁でアウトにするダブルプレイの送球処理を実現できる。なお本実施形態により実現されるダブルプレイは、このようなダブルプレイには限定されず、例えば二塁の走者を三塁でアウトにすると共に一塁の走者を二塁でアウトにするなどの種々のダブルプレイや、トリプルプレイなどにも適用できる。   In this way, it is possible to realize a double-play ball-sending process in which the first runner is out in two bases and the batter runner is out in one base. The double play realized by the present embodiment is not limited to such a double play. For example, various double plays such as a second base runner out with a third base and a first base runner out with two bases. It can also be applied to triple play.

また、ボールが第1の送球ターゲットに到達した後に、到達したボールを移動させる第2の送球ターゲットを、ゲーム状況に基づき選択してもよい。   Further, after the ball reaches the first pitching target, the second pitching target for moving the reached ball may be selected based on the game situation.

例えば一塁に走者がいる第1のゲーム状況では、二塁にボールが送球された後に、一塁を第2の送球ターゲットとして自動的に選択して、ボールを送球すればよい。また一塁及び二塁に走者がいる第2のゲーム状況では、三塁にボールが送球された後に、二塁又は一塁を第2の送球ターゲットとして自動的に選択して、ボールを送球すればよい。この場合、例えば二塁にボールが送球された後、一塁を第3の送球ターゲットとして自動的に選択してボールを送球してもよい。或いは一塁〜三塁の全てに走者がいる満塁の第3のゲーム状況では、ホームベースにボールが送球された後、一塁、二塁又は三塁を第2の送球ターゲットとして自動的に選択して、ボールを送球すればよい。この場合にも、一塁、二塁又は三塁にボールが送球された後、他の塁を第2の送球ターゲットとして自動的に選択してボールを送球してもよい。   For example, in a first game situation in which a runner is at a glance, after the ball has been sent to the second base, the first base may be automatically selected as the second throwing target and the ball may be sent. Further, in the second game situation where the runners are in the first and second bases, after the ball is sent to the third base, the second base or the first base may be automatically selected as the second target and the ball may be sent. In this case, for example, after the ball has been sent to the second base, the first base may be automatically selected as the third throwing target and the ball may be sent. Or, in the third full game situation where runners are all in the first to third base, after the ball is sent to the home base, the first, second or third base is automatically selected as the second target and the ball is You can send a ball. Also in this case, after the ball has been sent to the first base, the second base, or the third base, the other base may be automatically selected as the second pitching target and the ball may be sent.

なお、送球ターゲットの自動選択においては、野手と塁の位置関係情報や、各塁にいる走者の能力パラメータなどに基づいて塁を選択することが望ましい。例えば、候補送球ターゲットとなる塁が複数存在する場合には、ボールを送球する野手に最も近い塁を自動選択すればよい。   In the automatic selection of the pitching target, it is desirable to select the kite based on the positional relationship information between the fielder and the kite, the ability parameter of the runner in each kite, and the like. For example, when there are a plurality of kites that are candidate pitching targets, the kite closest to the fielder who throws the ball may be automatically selected.

また、ボールが第1の送球ターゲットに到達した後に、到達したボールを移動させる第2の送球ターゲットを、プレーヤの指示操作に基づき選択してもよい。   In addition, after the ball reaches the first pitching target, the second pitching target for moving the reached ball may be selected based on an instruction operation of the player.

例えば図16に示すように、携帯型ゲーム装置の各操作ボタンを各累(各送り先ターゲット)に割り当ておく。図16では、例えばAボタン、Bボタン、Cボタン、Dボタンが、各々、ホームベースHBF、一塁ベースFBF、二塁ベースSBF、三塁ベースTBFに割り当てられる。   For example, as shown in FIG. 16, each operation button of the portable game device is assigned to each progressive (each destination target). In FIG. 16, for example, the A button, the B button, the C button, and the D button are assigned to the home base HBF, the first base FBF, the second base SBF, and the third base TBF, respectively.

そして例えばダブルプレイのゲーム状況において、プレーヤが携帯型ゲーム装置を二塁側に回転させることでボールが二塁に送球された後、プレーヤが、一塁ベースFBFに対応するBボタンを押すと、二塁から一塁への送球が行われるようになる。   Then, for example, in a double-play game situation, when the player turns the portable game device to the second base and the ball is sent to the second base, when the player presses the B button corresponding to the first base FBF, the second base The ball will be sent to.

また、例えば一塁及び二塁に走者がいるゲーム状況において、プレーヤが携帯型ゲーム装置を三塁側に回転させることでボールが三塁に送球された後、プレーヤの判断によって、次の第2の送球ターゲットとなる一塁又は二塁を選択するようにする。例えばボールが三塁に送球された後、プレーヤが、一塁ベースFBFに対応するBボタンを押すと、ボールが一塁に送球される。一方、二塁ベースSBFに対応するCボタンを押すと、ボールが二塁に送球される。このようにすることで、野球ゲームにおける更にリアルな守備をプレーヤに体感させることが可能になる。   Also, for example, in a game situation where there are runners on the first and second base, after the player rotates the hand-held game device to the third base and the ball is sent to the third base, the player determines the next second throw target and Select one or two bases. For example, after the ball is sent to the third base, when the player presses the B button corresponding to the first base FBF, the ball is sent to the first base. On the other hand, when the C button corresponding to the second base SBF is pressed, the ball is sent to the second base. In this way, the player can experience a more realistic defense in a baseball game.

2.5 基準方向
例えば角速度センサや加速度センサなどのモーションセンサを用いる場合には、検出された角速度や加速度を積分することで、回転角度や速度や距離を求める。このため例えば角速度センサにより携帯型ゲーム装置の回転角度を検出する場合には、仮想カメラの視線方向の回転角度の基準となる基準方向(基準回転角度)を設定することが望ましい。このようにすれば、角速度を積分することで得られた携帯型ゲーム装置の回転角度の変化と、基準方向とに基づいて、仮想カメラの視線方向を特定できるようになる。
2.5 Reference direction For example, when a motion sensor such as an angular velocity sensor or an acceleration sensor is used, the rotation angle, velocity, or distance is obtained by integrating the detected angular velocity or acceleration. For this reason, for example, when the rotation angle of the portable game device is detected by an angular velocity sensor, it is desirable to set a reference direction (reference rotation angle) that serves as a reference for the rotation angle in the viewing direction of the virtual camera. In this way, it becomes possible to specify the line-of-sight direction of the virtual camera based on the change in the rotation angle of the portable game device obtained by integrating the angular velocity and the reference direction.

例えば図17(A)では、仮想カメラVCの視線方向VLの基準方向としてDRFが設定されている。この状態でG1に示すようにプレーヤが携帯型ゲーム装置を例えばY軸回りで回転させると、このY軸回りの回転角度がモーション検出情報として検出される。そして図17(B)に示すように、図17(A)で設定された基準方向DRFを基準として、モーション検出情報に基づき仮想カメラVCの視線方向VLを移動体の送り先ターゲット側に向ける制御を行う。即ち、仮想カメラのVCの視線方向VLを、携帯型ゲーム装置の回転角度に対応する回転角度だけ、基準方向DRFから回転させる。このようにすれば、仮想カメラのVCの視線方向VLが、基準方向DRFを基準として変化するようになり、角速度センサなどのモーションセンサを用いた場合にも、仮想カメラVCの視線方向VLを適正に制御できるようになる。   For example, in FIG. 17A, DRF is set as the reference direction of the visual line direction VL of the virtual camera VC. In this state, when the player rotates the portable game device around, for example, the Y axis as indicated by G1, the rotation angle around the Y axis is detected as motion detection information. Then, as shown in FIG. 17B, the control for directing the line-of-sight direction VL of the virtual camera VC toward the destination target side of the moving body based on the motion detection information with reference to the reference direction DRF set in FIG. Do. That is, the visual line direction VL of the virtual camera VC is rotated from the reference direction DRF by a rotation angle corresponding to the rotation angle of the portable game device. In this way, the visual line direction VL of the virtual camera VC changes with the reference direction DRF as a reference, and even when a motion sensor such as an angular velocity sensor is used, the visual line direction VL of the virtual camera VC is set appropriately. Will be able to control.

この場合に基準方向DRFの設定手法としては種々の手法を採用できる。例えば仮想カメラの視点位置からゲームフィールド上の所定位置へと向かう方向を、基準方向に設定する。野球ゲームを例にとれば、仮想カメラの視点位置からホームベースへと向かう方向を基準方向に設定する。このようにすれば、図8(A)、図8(B)に示すように、ボールを捕球する前までは、打者がいるホームベースへと向かう基準方向に、仮想カメラの視線方向が設定され画像が生成されるようになる。そして一塁にボールを送球するためにプレーヤが携帯型ゲーム装置を左側方向に回転させると、仮想カメラの視線方向が、図8(A)、図8(B)のホームベース方向の基準方向から変化して、一塁方向へ向くようになる。これにより図9に示すように、一塁が視野範囲に入った画像が生成されて、一塁にボールが送球される画像が生成されるようになる。従って、野球ゲームの送球における仮想カメラの視線方向の適正な制御が可能になる。   In this case, various methods can be adopted as a method for setting the reference direction DRF. For example, the direction from the viewpoint position of the virtual camera to a predetermined position on the game field is set as the reference direction. Taking a baseball game as an example, the direction from the viewpoint position of the virtual camera toward the home base is set as the reference direction. In this way, as shown in FIG. 8A and FIG. 8B, until the ball is caught, the viewing direction of the virtual camera is set in the reference direction toward the home base where the batter is located. And an image is generated. Then, when the player rotates the portable game device in the left direction to send the ball at a glance, the viewing direction of the virtual camera changes from the reference direction of the home base direction in FIGS. 8A and 8B. Then, it turns to the first glance direction. As a result, as shown in FIG. 9, an image in which the first glance is in the visual field range is generated, and an image in which the ball is thrown at a glance is generated. Accordingly, it is possible to appropriately control the viewing direction of the virtual camera in the baseball game pitching.

なお、例えばサッカーゲームやハンドボールゲームのように、ゲームフィールド上にゴールが配置されるゲームでは、仮想カメラの視点位置(プレーヤキャラクタの位置)からゴールへと向かう方向を基準方向に設定すればよい。   For example, in a game where a goal is placed on the game field, such as a soccer game or a handball game, the direction from the viewpoint position of the virtual camera (the position of the player character) toward the goal may be set as the reference direction.

また、複数の候補基準方向の中から選択された方向を、基準方向に設定してもよい。例えば図18(A)、図18(B)のサッカーゲームでは、敵ゴールと味方ゴールが存在する。この場合には、図18(A)のように仮想カメラVCの視点位置VPと敵ゴールの位置GP1を結ぶ方向が第1の候補基準方向DRF1になり、仮想カメラVCの視点位置VPと味方ゴールの位置GP2を結ぶ方向が第2の候補基準方向DRF2になる。そしてプレーヤは、これらの第1、第2の候補基準方向DRF1、DRF2の中から自身が所望する方向を選択して基準方向として設定する。   In addition, a direction selected from a plurality of candidate reference directions may be set as the reference direction. For example, in the soccer game of FIGS. 18A and 18B, there are enemy goals and friendly goals. In this case, as shown in FIG. 18A, the direction connecting the viewpoint position VP of the virtual camera VC and the enemy goal position GP1 becomes the first candidate reference direction DRF1, and the viewpoint position VP of the virtual camera VC and the friendly goal The direction connecting the positions GP2 is the second candidate reference direction DRF2. Then, the player selects a direction desired by the player from the first and second candidate reference directions DRF1 and DRF2, and sets it as a reference direction.

例えば自チームが攻めている状況では、プレーヤは、敵ゴールの位置GP1に向かう第1の候補基準方向DRF1を基準方向として選択する。これにより、基準方向DRF1を基準として、モーション検出情報に基づき仮想カメラVCの視線方向VLが変化するようになる。そして、基準方向DRF1を基準として視線方向VLを変化させ、仮想カメラVCの視野範囲に入った味方キャラクタ等にボールをパスするなどの送球処理を実現できる。従って、攻撃時に最適な視線方向の制御を実現できるようになる。   For example, in a situation where the own team is attacking, the player selects the first candidate reference direction DRF1 toward the enemy goal position GP1 as the reference direction. As a result, the line-of-sight direction VL of the virtual camera VC changes based on the motion detection information with the reference direction DRF1 as a reference. Then, it is possible to realize a ball-sending process such as changing the line-of-sight direction VL with reference to the reference direction DRF1 and passing the ball to a teammate character or the like that has entered the visual field range of the virtual camera VC. Therefore, it is possible to realize optimal gaze direction control during an attack.

一方、自チームが守っている状況では、プレーヤは、味方ゴールの位置GP2に向かう第2の候補基準方向DRF2を基準方向として選択する。これにより、基準方向DRF2を基準として、モーション検出情報に基づき仮想カメラVCの視線方向VLが変化するようになり、守備時時に最適な視線方向の制御を実現できる。   On the other hand, in a situation where the team is defending, the player selects the second candidate reference direction DRF2 toward the team goal goal position GP2 as the reference direction. As a result, the line-of-sight direction VL of the virtual camera VC changes based on the motion detection information with the reference direction DRF2 as a reference, and optimal line-of-sight control can be realized during defense.

或いは、プレーヤが基準方向の設定の操作を行ったときの仮想カメラの視線方向を、基準方向に設定してもよい。例えば図19(A)の状態で、プレーヤが、携帯型ゲーム装置の操作部の操作ボタン等により基準方向の設定操作を行うと、その時の仮想カメラVCの視線方向VLが、基準方向DRFに設定される。そして、このように基準方向DRFが設定された後に、携帯型ゲーム装置の回転操作を行うと、図19(B)に示すように、基準方向DRFを基準として仮想カメラVCの視線方向VLが変化し、プレーヤが所望する送球ターゲットに対してボールを送球することが可能になる。このようにすれば、プレーヤが基準方向として設定することを望む方向を基準方向に設定することが可能になり、プレーヤのゲーム操作性を向上できる。   Alternatively, the visual line direction of the virtual camera when the player performs an operation for setting the reference direction may be set as the reference direction. For example, in the state of FIG. 19A, when the player performs a reference direction setting operation with an operation button or the like of the operation unit of the portable game device, the visual line direction VL of the virtual camera VC at that time is set to the reference direction DRF. Is done. Then, when the portable game device is rotated after the reference direction DRF is set in this way, as shown in FIG. 19B, the line-of-sight direction VL of the virtual camera VC changes with the reference direction DRF as a reference. As a result, the player can send the ball to the desired pitching target. In this way, the direction that the player desires to set as the reference direction can be set as the reference direction, and the game operability of the player can be improved.

また図20(A)では、プレーヤの操作情報に基づいてプレーヤキャラクタCHPが移動する処理が行われている。例えばプレーヤの指示する方向にプレーヤキャラクタCHPが走る処理が行われている。   In FIG. 20A, processing for moving the player character CHP is performed based on the operation information of the player. For example, processing in which the player character CHP runs in the direction instructed by the player is performed.

この場合に、例えばプレーヤキャラクタCHPの移動方向DCH(進行方向)に対応する方向を、基準方向DRFに設定する。そしてプレーヤが携帯型ゲーム装置の回転操作を行うと、図20(B)に示すように、プレーヤキャラクタCHPの移動方向DCHである基準方向DRFを基準として、仮想カメラVCの視線方向VLが変化する。   In this case, for example, a direction corresponding to the moving direction DCH (traveling direction) of the player character CHP is set as the reference direction DRF. When the player rotates the portable game device, as shown in FIG. 20B, the line-of-sight direction VL of the virtual camera VC changes with reference to the reference direction DRF that is the moving direction DCH of the player character CHP. .

このようにすれば、プレーヤキャラクタCHPが移動している方向が常に基準方向DRFに設定されるようになる。従って、例えばプレーヤが振り向くように携帯型ゲーム装置を左側や右側に回転させることで、プレーヤキャラクタCHPの左側や右側にいる味方キャラクタなどにボールをパスする操作などを容易に実現できるようになる。従って、プレーヤにとって好適な操作インターフェース環境を提供できるようになる。   In this way, the direction in which the player character CHP is moving is always set to the reference direction DRF. Therefore, for example, by rotating the portable game device to the left or right so that the player turns around, an operation of passing the ball to a teammate character on the left or right of the player character CHP can be easily realized. Therefore, an operation interface environment suitable for the player can be provided.

なお、一定間隔毎又は所与のインベント発生時に、基準方向の初期化を自動的に行うオートイニシャライズ処理を行うようにしてもよい。例えば一定間隔毎に(定期的に)、基準方向を初期方向に自動設定する処理を行う。或いは、例えば野球ゲームにおいてバッターが打席に入ったりボールを投げるイベントが発生した時や、サッカーゲームにおけるゴールイベントの発生時や、バスケットボールゲームにおけるシュートイベントの発生時などに、基準方向を初期方向に自動設定する処理を行う。例えば野球ゲームにおいては、ホームベースを向く方向を初期方向として、一定間隔毎や所与のイベント発生時に、基準方向を初期方向に設定する。このようにすることで、プレーヤが操作を行わなくても、基準方向が、一定間隔毎や所与のイベント発生時に、自動的に初期方向に設定されるようになるため、プレーヤの操作負担の軽減等を図れる。   It should be noted that an auto-initialization process that automatically initializes the reference direction may be performed at regular intervals or when a given event occurs. For example, a process of automatically setting the reference direction to the initial direction is performed at regular intervals (periodically). Or, for example, when an event occurs in which a batter enters a bat or throws a ball in a baseball game, a goal event occurs in a soccer game, or a shot event occurs in a basketball game, the reference direction is automatically set to the initial direction. Perform the setting process. For example, in a baseball game, the direction toward the home base is set as the initial direction, and the reference direction is set as the initial direction at regular intervals or when a given event occurs. In this way, even if the player does not perform an operation, the reference direction is automatically set to the initial direction at regular intervals or when a given event occurs. Mitigation can be achieved.

2.6 捕捉条件、捕球条件の判定手法の具体例
次に捕捉条件、捕球条件の判定手法の具体例について説明する。第1の判定手法では、プレーヤの操作情報により制御され仮想カメラに追従するヒットボリュームを設定し、そのヒットボリュームにボールがヒットした場合に、捕捉条件及び捕球条件が満たされたと判定する。
2.6 Specific examples of determination method of catching condition and catching condition Next, a specific example of the judging method of catching condition and catching condition will be described. In the first determination method, a hit volume controlled by the player operation information and following the virtual camera is set, and when the ball hits the hit volume, it is determined that the capture condition and the catch condition are satisfied.

例えば図21(A)では、プレーヤの操作情報により仮想カメラVCの視線方向VLや視点位置等が変化する場合に、その仮想カメラVCに追従するようにヒットボリュームHVが設定される。図21(A)では、仮想カメラVCの前方側(カメラ座標系のZ軸側)であり、例えばプレーヤキャラクタCHPの前方側にヒットボリュームHVが配置されている。そしてこのヒットボリュームHVのボールBLとのヒットチェックが行われる。具体的には、ヒットボリュームHVの前方側の第1の平面と後方側の第2の平面を用いてヒットチェックが行われ、例えばボールBLの軌道が第1、第2の平面の両方に交差した場合に、ボールBLがヒットして捕球されたと判定する。   For example, in FIG. 21A, the hit volume HV is set to follow the virtual camera VC when the line-of-sight direction VL, the viewpoint position, etc. of the virtual camera VC change according to the operation information of the player. In FIG. 21A, a hit volume HV is arranged on the front side of the virtual camera VC (the Z-axis side of the camera coordinate system), for example, on the front side of the player character CHP. Then, a hit check with the ball BL of the hit volume HV is performed. Specifically, a hit check is performed using the first plane on the front side and the second plane on the rear side of the hit volume HV. For example, the trajectory of the ball BL intersects both the first and second planes. If it is, it is determined that the ball BL has been hit and caught.

なお、プレーヤの操作情報によりプレーヤキャラクタCHPの位置や方向が制御され、そのプレーヤキャラクタCHPに追従するようにヒットボリュームHVが設定されてもよい。またヒットボリュームHVの形状は図21(A)のような直方体形状には限定されず、例えば楕円体(球体を含む)、柱体などの種々の形状を採用できる。   The position and direction of the player character CHP may be controlled by the player operation information, and the hit volume HV may be set so as to follow the player character CHP. The shape of the hit volume HV is not limited to the rectangular parallelepiped shape as shown in FIG. 21A, and various shapes such as an ellipsoid (including a sphere) and a column can be employed.

図21(B)では、ボールBLが低い軌道のゴロになっている。この場合には、ヒットボリュームHVは、その長さが短い形状に設定されると共に、上側の位置に配置される。即ち、プレーヤキャラクタCHPの上半身に対応する領域にはヒットボリュームHVが設定されるが、下半身に対応する領域にはヒットボリュームHVは設定されない。   In FIG. 21B, the ball BL has a low trajectory. In this case, the hit volume HV is set to a shape having a short length and is arranged at an upper position. That is, the hit volume HV is set in the area corresponding to the upper half of the player character CHP, but the hit volume HV is not set in the area corresponding to the lower half.

そして図21(B)では、プレーヤは、図6(B)に示すような携帯型ゲーム装置のロール操作を行っていないため、仮想カメラVCの視線方向VLが水平方向に設定される。従って、ヒットボリュームHVは傾かずに、その長辺方向が鉛直方向になるように配置される。   In FIG. 21B, since the player is not performing the roll operation of the portable game apparatus as shown in FIG. 6B, the line-of-sight direction VL of the virtual camera VC is set to the horizontal direction. Accordingly, the hit volume HV is arranged so that its long side direction is the vertical direction without tilting.

一方、図21(C)では、プレーヤは、低い軌道のボールBLに対して、図6(B)に示すように携帯型ゲーム装置をX軸回りで下側方向にロールさせる操作を行っている。これにより、仮想カメラVCの視線方向VLが下側方向に向く。そして、この仮想カメラVCの視線方向VLの向きの変化に連動して、図21(C)に示すように、ヒットボリュームHVを、その下端部が手前側(仮想カメラから見て手前側)に近づき、その上端部が奥側(仮想カメラから見て奧側)に遠ざかるように傾ける。即ち、その長辺方向が鉛直方向から奥側に傾くようにヒットボリュームHVを配置する。   On the other hand, in FIG. 21C, the player performs an operation of rolling the portable game device downward about the X axis with respect to the low-orbit ball BL as shown in FIG. 6B. . Thereby, the line-of-sight direction VL of the virtual camera VC is directed downward. Then, in conjunction with the change in the direction of the visual line direction VL of the virtual camera VC, as shown in FIG. 21C, the lower end of the hit volume HV is on the front side (front side when viewed from the virtual camera). Approach and tilt it so that its upper end is farther away (back side as viewed from the virtual camera). That is, the hit volume HV is arranged so that the long side direction is inclined from the vertical direction to the back side.

このようにすれば、ヒットボリュームHVの下側部が地面(ゲームフィールド)に近づくため、ボールBLが軌道の低いゴロであっても、ヒットボリュームHVにボールBLをヒットさせることが容易になる。従って、プレーヤは、ゴロのボールBLを、トンネルせずに捕球することが可能になる。   In this way, since the lower part of the hit volume HV approaches the ground (game field), it becomes easy to hit the ball BL on the hit volume HV even if the ball BL is a goro with a low trajectory. Therefore, the player can catch the Goro ball BL without tunneling.

例えばボールBLがゴロである時に、図21(B)に示すように携帯型ゲーム装置のロール操作を行わずに、ヒットボリュームHVが傾かなかった場合には、ボールBLはヒットボリュームHVにヒットせずに、トンネルになってしまう。   For example, when the ball BL is Goro and the hit volume HV does not tilt without performing the roll operation of the portable game device as shown in FIG. 21B, the ball BL hits the hit volume HV. Instead, it becomes a tunnel.

この点、図21(C)のように仮想カメラVCの視線方向VLの向きの変化に連動して、ヒットボリュームHVを傾ければ、このようなトンネルは発生せずに、プレーヤは適正にボールBLを捕球できるようになる。即ち、低い軌道のゴロのボールBLに対して、プレーヤが携帯型ゲーム装置を下側方向にロールさせる操作を行うことで、仮想カメラVCの視線方向VLが下側方向に向く。これにより、ボールBLは仮想カメラVCの視野範囲に入り、仮想カメラVCによりボールBLが捕捉された状態になるため、捕捉条件は満たされる。そしてこの状態でボールBLがヒットボリュームHVにヒットすれば、捕球条件も満たされる。従って、図21(A)〜図21(C)のようにヒットボリュームHVを設定し、設定されたヒットボリュームHVにボールBLがヒットした場合には、ボールBLの捕捉条件及び捕球条件の両方が満たされたと判定できるようになる。   In this regard, as shown in FIG. 21C, if the hit volume HV is tilted in conjunction with the change in the direction of the visual line VL of the virtual camera VC, such a tunnel does not occur, and the player properly You can catch the BL. That is, when the player performs an operation of rolling the portable game device in the downward direction with respect to the ball BL of the low trajectory, the line-of-sight direction VL of the virtual camera VC is directed downward. Thus, the ball BL enters the visual field range of the virtual camera VC, and the ball BL is captured by the virtual camera VC, so that the capture condition is satisfied. If the ball BL hits the hit volume HV in this state, the catching condition is also satisfied. Accordingly, when the hit volume HV is set as shown in FIGS. 21 (A) to 21 (C) and the ball BL hits the set hit volume HV, both the capture condition and the catch condition of the ball BL are set. Can be determined to be satisfied.

また図22(A)では、ボールBLが高い軌道のフライになっている。この場合には、ヒットボリュームHVは、その長さがゴロの場合に比べて長い形状に設定される。そしてプレーヤキャラクタCHPの上半身及び下半身の両方に対応する領域にヒットボリュームHVが設定される。   In FIG. 22A, the ball BL is a fly with a high trajectory. In this case, the hit volume HV is set to have a longer shape than that of the case where the length is Goro. Then, the hit volume HV is set in the area corresponding to both the upper body and the lower body of the player character CHP.

そして、図22(B)では、プレーヤは、高い軌道のボールBLに対して、図7(B)に示すように携帯型ゲーム装置をX軸回りで上側方向にロールさせる操作を行っている。これにより、仮想カメラVCの視線方向VLが上側方向に向く。そして、この仮想カメラVCの視線方向VLの向きの変化に連動して、ヒットボリュームHVを、その上端部が手前側に近づき、その下端部が奥側に遠ざかるように傾ける。そして、ヒットボリュームHVにボールBLがヒットした場合には、捕捉条件及び捕球条件の両方が満たされたと判断され、捕球が成功したと判定する。   In FIG. 22B, the player performs an operation of rolling the portable game device upward about the X axis with respect to the high-orbit ball BL as shown in FIG. 7B. Thereby, the line-of-sight direction VL of the virtual camera VC is directed upward. Then, in conjunction with the change in the direction of the visual line direction VL of the virtual camera VC, the hit volume HV is tilted so that the upper end portion approaches the near side and the lower end portion moves away from the back side. When the ball BL hits the hit volume HV, it is determined that both the capturing condition and the catching condition are satisfied, and it is determined that the catching is successful.

この場合に図22(A)、図22(B)のようにヒットボリュームHVを設定することで、高い軌道のフライのボールBLがヒットボリュームHVにヒットしやすくなる。例えばボールBLがフライである場合に、図21(B)、図21(C)のようにヒットボリュームHVの長さが短いと、フライを捕れる範囲が狭まってしまい、ゲームの難易度が高くなってしまう。この点、図22(A)、図22(B)のように、高い軌道のフライの場合にヒットボリュームHVを長い形状にすれば、ボールBLを捕れる範囲が広がり、フライであっても、比較的容易に捕球できるようになる。なお図21(B)〜図22(B)では、ボールBLの軌道等に応じてヒットボリュームHVの形状を変化させているが、ヒットボリュームHVの形状については変化させずに、ヒットボリュームHVのヒット有効範囲をボールBLの軌道等に応じて変化させてもよい。例えば低い軌道のゴロの場合には、ヒットボリュームHVのヒット有効範囲を小さな範囲に設定する。一方、高い軌道のフライの場合には、ヒットボリュームHVのヒット有効範囲を大きな範囲に設定する。このようすれば、ボールBLの軌道に応じて形状を変化させる手法と同等の効果を得ることができる。   In this case, by setting the hit volume HV as shown in FIGS. 22A and 22B, the fly ball BL having a high trajectory can easily hit the hit volume HV. For example, when the ball BL is a fly and the length of the hit volume HV is short as shown in FIGS. 21B and 21C, the range in which the fly can be caught is narrowed, and the difficulty of the game is increased. End up. In this regard, as shown in FIGS. 22 (A) and 22 (B), if the hit volume HV is made long in the case of a fly with a high trajectory, the range in which the ball BL can be caught is widened. You can catch the ball easily. In FIGS. 21B to 22B, the shape of the hit volume HV is changed according to the trajectory of the ball BL, etc., but the shape of the hit volume HV is not changed and the shape of the hit volume HV is changed. The effective hit range may be changed according to the trajectory of the ball BL. For example, in the case of a low trajectory goro, the hit effective range of the hit volume HV is set to a small range. On the other hand, in the case of a fly with a high trajectory, the hit effective range of the hit volume HV is set to a large range. In this way, it is possible to obtain the same effect as the method of changing the shape according to the trajectory of the ball BL.

以上のように本実施形態の捕球処理の第1の判定手法では、ボールBLの軌道に応じて、ヒットボリュームHVの形状、ヒット有効範囲、位置及び方向の少なくとも1つを変化させている。例えば、ボールBLがゴロのように低い軌道(第1の軌道)である場合には、図21(B)、図21(C)に示すようにヒットボリュームHVを短い形状に設定したり、形状は変えずにヒット有効範囲を小さな範囲に設定する。またヒットボリュームHVの配置位置も上側に設定する。一方、ボールBLがフライのように高い軌道(第2の軌道)である場合には、図22(A)、図22(B)に示すようにヒットボリュームHVを長い形状に設定したり、形状は変えずにヒット有効範囲を大きな範囲に設定する。またヒットボリュームHVの配置位置は、ゴロの場合に比べて下側に設定する。このようにボールBLの軌道に応じてヒットボリュームHVの形状、ヒット有効範囲、位置等を設定すれば、ヒットボリュームHVにボールBLがヒットしたかどうかを判断するだけで、捕捉条件及び捕球条件が満たされたかどうかを判定できるようになる。従って、簡素な判定処理で捕捉条件及び捕球条件を判定することが可能になる。また本実施形態の第1の判定手法では、図21(B)、図21(C)のようにボールBLが低い第1の軌道で移動する場合には、仮想カメラVCの視線方向範囲が、低い第1の視線方向範囲である場合に、捕捉条件が満たされたと判定している。一方、図22(A)、図22(B)のようにボールBLが第1の軌道よりも高い第2の軌道で移動する場合には、仮想カメラVCの視線方向範囲が、第1の視線方向範囲よりも高い第2の視線方向範囲である場合に、捕捉条件が満たされたと判定している。或いはボールBLが左方向の軌道である第1の軌道で移動する場合には、視線方向範囲が左方向を向く視線方向の範囲である場合に捕捉条件が満たされたと判定し、ボールBLが右方向の軌道である第2の軌道で移動する場合には、視線方向範囲が右方向を向く視線方向の範囲である場合に捕捉条件が満たされたと判定してもよい。このようにすれば、プレーヤキャラクタCHPが横方向に飛んでボールBLをキャッチする状況での捕捉条件についても判定できるようになる。   As described above, in the first determination method of the ball catching process according to the present embodiment, at least one of the shape, effective range, position, and direction of the hit volume HV is changed according to the trajectory of the ball BL. For example, when the ball BL has a low trajectory (first trajectory) like a ball, the hit volume HV is set to a short shape as shown in FIGS. 21 (B) and 21 (C). Set the effective range of hits to a small range without changing. The arrangement position of the hit volume HV is also set on the upper side. On the other hand, when the ball BL has a high trajectory (second trajectory) like a fly, the hit volume HV is set to a long shape as shown in FIGS. 22 (A) and 22 (B). The hit effective range is set to a large range without changing. Further, the arrangement position of the hit volume HV is set to the lower side compared to the case of Goro. Thus, if the shape, hit effective range, position, etc. of the hit volume HV are set according to the trajectory of the ball BL, it is only necessary to determine whether or not the ball BL has hit the hit volume HV. It becomes possible to determine whether or not is satisfied. Therefore, it is possible to determine the capturing condition and the catching condition with a simple determination process. Further, in the first determination method of the present embodiment, when the ball BL moves along the first trajectory as shown in FIGS. 21B and 21C, the line-of-sight direction range of the virtual camera VC is It is determined that the capture condition is satisfied when the range is the low first line-of-sight direction range. On the other hand, when the ball BL moves in the second trajectory higher than the first trajectory as shown in FIGS. 22A and 22B, the visual line direction range of the virtual camera VC is the first visual line. When the second viewing direction range is higher than the direction range, it is determined that the capturing condition is satisfied. Alternatively, when the ball BL moves in the first trajectory which is the left trajectory, it is determined that the capturing condition is satisfied when the line-of-sight range is the range of the line-of-sight direction facing the left direction, and the ball BL is moved to the right When moving in the second trajectory which is a direction trajectory, it may be determined that the capture condition is satisfied when the line-of-sight direction range is the range of the line-of-sight direction facing the right direction. In this way, it is possible to determine the capture condition in the situation where the player character CHP flies in the horizontal direction and catches the ball BL.

なおヒットボリュームHVの設定手法は図21(A)〜図22(B)で説明した手法には限定されず、種々の変形実施が可能である。   The method for setting the hit volume HV is not limited to the method described with reference to FIGS. 21A to 22B, and various modifications can be made.

例えば図23(A)では、低い軌道のゴロのボールBLに対して、図6(B)に示すような操作をプレーヤが行って、仮想カメラVCの視線方向VLが下側方向に向くと、それに連動してヒットボリュームHVも下側方向に移動する。これによりプレーヤは、低い軌道のゴロのボールBLを容易に捕球できるようになる。   For example, in FIG. 23 (A), when the player performs the operation as shown in FIG. 6 (B) with respect to the ball BL of the low trajectory and the line-of-sight direction VL of the virtual camera VC is directed downward, In conjunction with this, the hit volume HV also moves downward. As a result, the player can easily catch the ball BL of the low trajectory.

一方、図23(B)では、高い軌道のフライのボールBLに対して、図7(B)に示すような操作をプレーヤが行って、仮想カメラVCの視線方向VLが上側方向に向くと、それに連動してヒットボリュームHVも上側方向に移動する。これによりプレーヤは、高い軌道のフライのボールBLを容易に捕球できるようになる。なお図23(A)、図23(B)において、ボールBLの軌道の高低等に応じて、ヒットボリュームHVの位置(代表位置)のみならず、方向(配置方向)についても変化させてもよい。   On the other hand, in FIG. 23B, when the player performs an operation as shown in FIG. 7B on the fly ball BL in the high trajectory, and the line-of-sight direction VL of the virtual camera VC is directed upward, In conjunction with this, the hit volume HV also moves upward. As a result, the player can easily catch the fly ball BL of a high orbit. In FIGS. 23A and 23B, not only the position (representative position) of the hit volume HV but also the direction (arrangement direction) may be changed according to the height of the trajectory of the ball BL. .

なお本実施形態では、ボールBLの捕球時にプレーヤが指示した方向に応じて、ヒットボリュームHVを変形させたりヒット有効範囲を変化させてもよい。   In the present embodiment, the hit volume HV may be deformed or the hit effective range may be changed according to the direction instructed by the player at the time of catching the ball BL.

また本実施形態では、ゲームの難易度に応じてヒットボリュームを設定してもよい。例えばゲームの難易度の設定に応じて、ヒットボリュームの形状、ヒット有効範囲、位置及び方向の少なくとも1つを変化させてもよい。   In the present embodiment, the hit volume may be set according to the difficulty level of the game. For example, at least one of the shape of the hit volume, the hit effective range, the position, and the direction may be changed according to the setting of the difficulty level of the game.

次に本実施形態の捕球処理について第2の判定手法について説明する。第2の判定手法では、仮想カメラの視野範囲に対応して捕捉判定範囲を設定し、捕捉判定範囲内にボールが入っている場合に、仮想カメラによるボールの捕捉条件が満たされていると判定する。そして捕捉条件が満たされた状態でボールの捕球条件が満たされると、ボールの捕球が成功したと判定する。   Next, a second determination method for the catching process according to the present embodiment will be described. In the second determination method, a capture determination range is set corresponding to the visual field range of the virtual camera, and when the ball is in the capture determination range, it is determined that the condition for capturing the ball by the virtual camera is satisfied. To do. When the ball catching condition is satisfied in a state where the catching condition is satisfied, it is determined that the ball catching is successful.

例えば図24(A)〜図24(C)では、プレーヤは、ボールBLが仮想カメラVCの視野範囲内(捕捉判定範囲内)に入るように、図7(B)のように携帯型ゲーム装置をロールさせる操作を行う。これにより、図24(A)〜図24(C)のようにボールBLの高さが徐々に低くなる場合に、ボールBLが仮想カメラVCの視野範囲内に入るように、仮想カメラVCの視線方向VL等が制御されるようになる。そして視野範囲に対応して設定された捕捉判定範囲内にボールBLが入っている場合には、ボールBLの捕捉条件が満たされたと判定する。そして、このような捕捉条件が満たされた状態で、図24(C)のように、仮想カメラVC(プレーヤキャラクタ)に設定された簡易的なヒットボリュームHVにボールBLがヒットして、捕球条件が満たされると、プレーヤによるボールBLの捕球が成功したと判定する。このように本実施形態の捕球処理の第2の判定手法では、ボールBLが低い第1の軌道で移動する場合には、仮想カメラVCの視線方向範囲が、低い第1の視線方向範囲である場合に、捕捉条件が満たされたと判定する。一方、ボールが第1の軌道よりも高い第2の軌道で移動する場合には、仮想カメラVCの視線方向範囲が、第1の視線方向範囲よりも高い第2の視線方向範囲である場合に、捕捉条件が満たされたと判定する。   For example, in FIGS. 24 (A) to 24 (C), the player moves the portable game device as shown in FIG. 7 (B) so that the ball BL falls within the visual field range (capture determination range) of the virtual camera VC. Perform the operation to roll. Accordingly, when the height of the ball BL gradually decreases as shown in FIGS. 24A to 24C, the line of sight of the virtual camera VC is set so that the ball BL falls within the visual field range of the virtual camera VC. The direction VL and the like are controlled. When the ball BL is within the capture determination range set corresponding to the visual field range, it is determined that the capture condition for the ball BL is satisfied. Then, in a state where such capture conditions are satisfied, as shown in FIG. 24C, the ball BL hits a simple hit volume HV set in the virtual camera VC (player character), and catches the ball. If the condition is satisfied, it is determined that the player has successfully caught the ball BL. As described above, in the second determination method of the catching process of the present embodiment, when the ball BL moves in the first trajectory with a low level, the visual line direction range of the virtual camera VC is the low first visual line direction range. In some cases, it is determined that the capture condition is satisfied. On the other hand, when the ball moves in a second trajectory higher than the first trajectory, the visual line direction range of the virtual camera VC is a second visual line direction range higher than the first visual line direction range. , It is determined that the capture condition is satisfied.

以上に説明した本実施形態の第2の判定手法によれば、視野範囲に対応する捕捉判定範囲にボールが入っているどうかを判断するだけで、捕捉条件を判定できるようになり、処理の簡素化等を図れる。また、捕捉条件と捕球条件が別個に判定されるため、捕捉条件の判定処理や捕球条件の判定処理を簡素化できるようになる。   According to the second determination method of the present embodiment described above, the capture condition can be determined simply by determining whether or not the ball is in the capture determination range corresponding to the visual field range, and the processing is simplified. Can be achieved. Further, since the capture condition and the catching condition are determined separately, the capture condition determination process and the catching condition determination process can be simplified.

なお、捕球条件の判定手法や、捕球条件の判定用のヒットボリュームの設定手法としては、種々の変形実施が可能である。例えばプレーヤキャラクタの左手等の部位に対して、捕球条件を判定するためのヒットボリュームを設定してもよい。また仮想カメラの視野範囲やこれに対応する捕捉判定範囲は、仮想カメラの視線方向を基準とした角度により設定してもよい。このようにすれば、角度を用いた簡素な判定処理で、捕捉条件等の判定処理を実現できるようになる。また捕捉条件が満たされているかどうかを判定する期間は、捕球タイミングの直前の短い期間であってもよいし、長い期間であってもよい。   Various modifications can be made as a method for determining the catching condition and a method for setting the hit volume for determining the catching condition. For example, a hit volume for determining the catching condition may be set for a part such as the left hand of the player character. The visual field range of the virtual camera and the capture determination range corresponding thereto may be set by an angle based on the visual line direction of the virtual camera. In this way, it is possible to realize a determination process such as a capture condition by a simple determination process using an angle. Further, the period for determining whether or not the capture condition is satisfied may be a short period immediately before the catching timing or may be a long period.

また仮想カメラやキャラクタに追従するヒットボリュームではなく、ボールに追従するボール用ヒットボリュームを設定し、このボール用ヒットボリュームを用いて、ボールの捕球条件等が満たされているかを判定してもよい。このボール用ヒットボリュームを用いる手法については例えば特開平8−305891号公報に開示されている。この手法では、ボール用ヒットボリュームとプレーヤキャラクタ又は仮想カメラの位置とのヒットチェックを行い、ヒットしたと判定された場合にはボールの捕球に成功したと判定する。この場合に、例えばボールの軌道の高低や、軌道の方向や、ゲーム条件等に応じて、ボール用ヒットボリュームの形状又はヒット有効範囲等を制御してもよい。またボール用ヒットボリュームを用いてボールの捕捉条件を判定することも可能である。   Also, if you set a ball hit volume that follows the ball, instead of a hit volume that follows the virtual camera or character, you can use this ball hit volume to determine whether the ball catching condition is satisfied. Good. A technique using this ball hit volume is disclosed in, for example, Japanese Patent Laid-Open No. 8-3055891. In this method, a hit check is performed between the ball hit volume and the position of the player character or virtual camera, and if it is determined that the ball has been hit, it is determined that the ball has been successfully captured. In this case, for example, the shape or effective range of the hit volume for the ball may be controlled according to the height of the trajectory of the ball, the direction of the trajectory, the game conditions, and the like. It is also possible to determine the ball capture condition using the ball hit volume.

また、ボールの捕球を判定する処理は、ヒットボリュームを用いる手法には限定されない。例えばゲーム画像にゲージ等を表示し、ゲージの入力エリアでの入力の成功などを判定して、ボールの捕球に成功したか否かを判定してもよい。例えばゲージにより表される判定タイミングで、プレーヤが捕球操作の入力を行い、判定タイミングと入力タイミングが一致した場合に、捕球が成功したと判定してもよい。   Further, the process for determining the catch of the ball is not limited to the method using the hit volume. For example, a gauge or the like may be displayed on the game image, and the success of the input in the gauge input area may be determined to determine whether or not the ball has been successfully captured. For example, the player may input a catching operation at a determination timing represented by a gauge, and it may be determined that the catch has been successful when the determination timing and the input timing match.

また、上述の第1、第2の判定処理の変形例として、ボールがカメラの視野範囲(捕捉判定範囲)に入っている場合には、ボールとヒットボリュームのヒットチェックを有効状態に設定して、ボールがヒットボリュームにヒットした場合に捕球に成功したと判定してもよい。そして、ボールがカメラの視野範囲(捕捉判定範囲)に入っていない場合には、ボールとヒットボリュームのヒットチェックを非有効状態に設定して、ボールがヒットボリュームをすり抜けてしまうようにする。このようにすれば、捕捉条件と捕球条件の両方を満たした場合に、ボールの捕球に成功したと判定できるようになる。   As a modification of the first and second determination processes described above, when the ball is in the field of view (capture determination range) of the camera, the hit check between the ball and the hit volume is set to the valid state. If the ball hits the hit volume, it may be determined that the catch has been successful. If the ball is not within the visual field range (capture determination range) of the camera, the hit check between the ball and the hit volume is set to an invalid state so that the ball passes through the hit volume. In this way, it is possible to determine that the ball has been successfully captured when both the capture condition and the catch condition are satisfied.

2.7 仮想カメラの制御
次に、操作情報に基づく仮想カメラの制御処理の具体例について説明する。本実施形態では、プレーヤが入力した第1の操作情報と第2の操作情報を取得し、第1の操作情報に基づいて仮想カメラの視線方向を制御し、第2の操作情報に基づいて仮想カメラの視点位置の移動又はプレーヤキャラクタの移動を制御している。
2.7 Virtual Camera Control Next, a specific example of virtual camera control processing based on operation information will be described. In the present embodiment, the first operation information and the second operation information input by the player are acquired, the line-of-sight direction of the virtual camera is controlled based on the first operation information, and the virtual operation is performed based on the second operation information. The movement of the viewpoint position of the camera or the movement of the player character is controlled.

例えば図3(A)〜図7(B)で説明したように、本実施形態では、モーションセンサからのモーション検出情報を第1の操作情報として取得し、第1の操作情報であるモーション検出情報に基づいて、仮想カメラVCの視線方向VLを制御する。例えば図4(A)〜図5(B)のように携帯型ゲーム装置をY軸回りで左側又は右側方向にロールさせる第1の操作が行われた場合には、この第1の操作の情報であるモーション検出情報に基づいて、仮想カメラVCの視線方向VLをYC軸回りで回転させる。また図6(B)、図7(B)のように携帯型ゲーム装置をX軸回りで下側又は上側方向にロールさせる第1の操作が行われた場合には、この第1の操作の情報であるモーション検出情報に基づいて、図6(A)、図7(A)に示すように仮想カメラVCの視線方向VLをXC軸回りで回転させる。   For example, as described with reference to FIGS. 3A to 7B, in this embodiment, motion detection information from the motion sensor is acquired as first operation information, and motion detection information that is first operation information is acquired. Based on this, the line-of-sight direction VL of the virtual camera VC is controlled. For example, when a first operation for rolling the portable game device in the left or right direction around the Y axis is performed as shown in FIGS. 4A to 5B, information on the first operation is performed. Based on the motion detection information, the visual line direction VL of the virtual camera VC is rotated around the YC axis. In addition, when the first operation for rolling the portable game device downward or upward around the X axis is performed as shown in FIGS. 6B and 7B, the first operation is performed. Based on the motion detection information, which is information, the line-of-sight direction VL of the virtual camera VC is rotated around the XC axis as shown in FIGS. 6 (A) and 7 (A).

また本実施形態では、方向指示部からの方向指示情報を第2の操作情報として取得し、第2の操作情報である方向指示情報に基づいて、仮想カメラVCの視点位置の移動又はプレーヤキャラクタCHPの移動を制御する。   In this embodiment, the direction instruction information from the direction instruction unit is acquired as the second operation information, and the movement of the viewpoint position of the virtual camera VC or the player character CHP is based on the direction instruction information that is the second operation information. Control the movement of.

例えば図25(A)や図25(B)のB1〜B4に示すように、方向指示部である方向指示キー12やアナログスティック14(ジョイスティック)を用いて上下左右方向の方向指示操作が行われたとする。この場合には、指示された方向に対応する方向に、仮想カメラVCの視点位置(プレーヤキャラクタの位置)を移動させる。   For example, as shown in B1 to B4 in FIGS. 25A and 25B, a direction instruction operation in the vertical and horizontal directions is performed using the direction instruction key 12 or the analog stick 14 (joystick) which is a direction instruction unit. Suppose. In this case, the viewpoint position (player character position) of the virtual camera VC is moved in a direction corresponding to the instructed direction.

具体的には、図25(A)や図25(B)のB1〜B4に示すような方向指示が行われた場合には、図25(C)のC1〜C4に示す方向に仮想カメラVC(プレーヤキャラクタ)を移動させる。例えば方向指示キー12やアナログスティック14などの方向指示部により、図25(A)、図25(B)のB1、B2に示すように上下方向の方向指示が行われた場合には、図25(C)のC1、C2に示すように、仮想カメラVCを前後方向に移動させる。   Specifically, when a direction instruction as shown in B1 to B4 in FIGS. 25A and 25B is given, the virtual camera VC is moved in the direction shown in C1 to C4 in FIG. (Player character) is moved. For example, when the direction instruction unit 12 such as the direction instruction key 12 or the analog stick 14 gives a direction instruction in the vertical direction as shown in B1 and B2 of FIGS. 25A and 25B, FIG. As indicated by C1 and C2 in (C), the virtual camera VC is moved in the front-rear direction.

一方、図25(A)、図25(B)のB3、B4に示すように左右方向の方向指示が行われた場合には、図25(C)のC3、C4に示すように、仮想カメラVCを左右方向に移動させる。更に具体的には、例えばボールを捕球する前(送球前)においては、仮想カメラVCの視線方向VLについては、常に基準位置となるホームベースHBSの方に向ける。具体的には、操作情報に基づいてX軸回り(第1の座標軸回り)では仮想カメラVCの視線方向VLを変化させると共に、Y軸回り(第2の座標軸回り)では仮想カメラVCの視線方向VLを固定する。そして、左右方向の方向指示が行われた場合には、例えばホームベースHBSを中心とした円弧線CT上において、仮想カメラVCを左右方向に移動させる。   On the other hand, when a direction instruction in the left-right direction is given as shown in B3 and B4 in FIGS. 25A and 25B, the virtual camera is shown in C3 and C4 in FIG. The VC is moved in the left-right direction. More specifically, for example, before catching the ball (before the ball is sent), the line-of-sight direction VL of the virtual camera VC is always directed toward the home base HBS as the reference position. Specifically, based on the operation information, the visual line direction VL of the virtual camera VC is changed around the X axis (around the first coordinate axis), and the visual line direction of the virtual camera VC around the Y axis (around the second coordinate axis). Fix VL. Then, when a direction instruction in the left-right direction is given, for example, the virtual camera VC is moved in the left-right direction on the arc line CT centered on the home base HBS.

このようにすれば、仮想カメラVCは、ボールが飛んでくる方向に常に正対して配置されるようになる。従って、ゴロやフライのボールを捕球する際に、プレーヤは、仮想カメラVCの視線方向VLの上下方向の変化だけを、図6(B)、図7(B)のようなロール操作で制御すればよい。そして方向指示部による上下左右方向の指示で、自身の視点に対応する仮想カメラVCを前後左右方向に動かして、ボールの捕球位置に向かって移動して、ボールを捕球する。これにより、仮想カメラVCの視線方向VLの全ての方向での変化を、プレーヤが制御する手法に比べて、プレーヤのゲーム操作を簡素化でき、より使い易いゲーム操作インターフェース環境をプレーヤに提供できるようになる。   In this way, the virtual camera VC is always arranged facing the direction in which the ball flies. Therefore, when catching a ball of golo or fly, the player controls only the vertical change of the visual line direction VL of the virtual camera VC by the roll operation as shown in FIGS. 6B and 7B. do it. Then, the virtual camera VC corresponding to its own viewpoint is moved in the front / rear / left / right direction according to the directions in the up / down / left / right directions by the direction instructing unit, and moved toward the ball catching position to catch the ball. As a result, it is possible to simplify the game operation of the player and provide the player with a game operation interface environment that is easier to use than the method in which the player controls changes in the visual line direction VL of the virtual camera VC. become.

2.8 詳細な処理例
次に本実施形態の詳細な処理例について図26、図27、図28のフローチャートを用いて説明する。
2.8 Detailed Processing Example Next, a detailed processing example of this embodiment will be described with reference to the flowcharts of FIGS. 26, 27, and 28.

図26は本実施形態の送球処理の詳細を説明するためのフローチャートである。   FIG. 26 is a flowchart for explaining details of the pitching process of the present embodiment.

まず、ボールのキャッチ(捕球)に成功したか否かについて判断し(ステップS31)、成功した場合には、図4(A)で説明したように、モーション検出情報によりY軸回りでの携帯型ゲーム装置の回転角度情報を取得する(ステップS32)。   First, it is determined whether or not the ball has been successfully caught (step S31). If successful, as shown in FIG. 4A, the mobile phone can be moved around the Y axis based on the motion detection information. The rotation angle information of the type game device is acquired (step S32).

次に図4(B)に説明したように、取得されたY軸回りでの携帯型ゲーム装置の回転角度情報に基づいて、仮想カメラの視線方向をYC軸回りで回転させる(ステップS33)。この場合に、必要であれば図12(A)〜図13(B)で説明した回転角度の調整処理を行う。   Next, as described in FIG. 4B, based on the acquired rotation angle information of the portable game device about the Y axis, the visual line direction of the virtual camera is rotated about the YC axis (step S33). In this case, the rotation angle adjustment process described with reference to FIGS. 12A to 13B is performed if necessary.

次に、送球期間内に送球指示ボタンが押されたか否かを判断する(ステップS34)。そして送球期間内に送球指示ボタンが押されなかった場合には、送球不成功と判断する(ステップS35)。一方、送球期間内に送球指示ボタンが押された場合には、送球成功と判断して、送球ターゲットにボールを移動させる処理を行う(ステップS36)。   Next, it is determined whether or not the pitching instruction button is pressed during the pitching period (step S34). If the pitching instruction button is not pressed within the pitching period, it is determined that the pitching is unsuccessful (step S35). On the other hand, if the pitching instruction button is pressed during the pitching period, it is determined that the pitching is successful, and a process of moving the ball to the pitching target is performed (step S36).

図27は、第1の判定手法を用いた場合の本実施形態の捕球処理の詳細を説明するためのフローチャートである。   FIG. 27 is a flowchart for explaining details of the catching process of the present embodiment when the first determination method is used.

まずボールの移動演算処理を行って、ボールの移動軌道を求める(ステップS1)。この移動演算処理は、例えばバット等の被ヒット体によるボールのヒット方向やヒット強さなどに基づいて実現される。そして、図3(A)〜図7(B)で説明したように、操作情報に基づいて仮想カメラの視線方向を設定する(ステップS2)。   First, a ball movement calculation process is performed to obtain a ball movement trajectory (step S1). This movement calculation processing is realized based on the hit direction and hit strength of the ball by a hit body such as a bat. Then, as described with reference to FIGS. 3A to 7B, the line-of-sight direction of the virtual camera is set based on the operation information (step S2).

次に、ボールの軌道(守備モード)を判断する(ステップS3)。そして低い軌道(内野手モード)である場合には、図21(B)、図21(C)で説明したように低い軌道用(内野手モード用)のヒットボリュームを設定する(ステップS4)。一方、高い軌道(外野手モード)である場合には、図22(A)、図22(B)で説明したように高い軌道用(外野手モード用)のヒットボリュームを設定する(ステップS5)。   Next, the trajectory of the ball (defense mode) is determined (step S3). If the trajectory is low (infielder mode), the hit volume for the low trajectory (infielder mode) is set as described with reference to FIGS. 21B and 21C (step S4). On the other hand, in the case of a high trajectory (outfielder mode), a hit volume for a high trajectory (for outfielder mode) is set as described with reference to FIGS. 22A and 22B (step S5). .

次に、ボールがヒットボリュームにヒットしたか否かを判定する(ステップS6)。そして、ヒットしなかった場合には、捕捉条件、捕球条件が満たされず、捕球が不成功であったと判定する(ステップS7)。一方、ボールがヒットした場合には、捕捉条件、捕球条件が満たされて、捕球が成功であったと判定する(ステップS8)。   Next, it is determined whether or not the ball has hit the hit volume (step S6). And when it is not hit, it determines with catching conditions and catching conditions not being satisfied, but catching was unsuccessful (Step S7). On the other hand, when the ball is hit, it is determined that the catching condition and the catching condition are satisfied, and the catching is successful (step S8).

次に、送球条件を満たした送球操作が行われたか否かを判定する(ステップS9)。そして、送球条件を満たした送球操作が行われなかった場合には、送球が不成功であったと判定する(ステップS10)。例えば送球判定期間内に、送球に対応する所定の操作が行われなかった場合には、送球が不成功であったと判定される。一方、送球判定期間内に、送球に対応する所定の操作が行われた場合には、送球が成功であったと判定して、ボールの送球処理を行う(ステップS11)。   Next, it is determined whether or not a pitching operation that satisfies the pitching conditions has been performed (step S9). If the pitching operation satisfying the pitching condition is not performed, it is determined that the pitching was unsuccessful (step S10). For example, if a predetermined operation corresponding to the pitching is not performed within the pitching determination period, it is determined that the pitching was unsuccessful. On the other hand, if a predetermined operation corresponding to the pitching is performed within the pitching determination period, it is determined that the pitching was successful, and the ball pitching process is performed (step S11).

図28は、第2の判定手法を用いた場合の本実施形態の捕球処理の詳細を説明するためのフローチャートである。   FIG. 28 is a flowchart for explaining the details of the catching process of the present embodiment when the second determination method is used.

まずボールの移動演算処理を行って、ボールの移動軌道を求める(ステップS21)。また操作情報に基づいて仮想カメラの視線方向を設定する(ステップS22)。   First, a ball movement calculation process is performed to obtain a ball movement trajectory (step S21). Further, the line-of-sight direction of the virtual camera is set based on the operation information (step S22).

次に、図24(A)〜図24(C)で説明したように、仮想カメラの視野範囲に設定された捕捉判定範囲内にボールが入っているか否かを判定する(ステップS23)。そしてボールが入っていない場合には、捕捉条件が満たされず、捕捉が失敗であったと判定する(ステップS24)。   Next, as described with reference to FIGS. 24A to 24C, it is determined whether or not the ball is in the capture determination range set in the visual field range of the virtual camera (step S23). If no ball is contained, it is determined that the capturing condition is not satisfied and the capturing has failed (step S24).

一方、捕捉判定範囲内にボールが入っている場合には、ボールがヒットボリュームにヒットしたか否かを判定する(ステップS25)。そして、ヒットしなかった場合には、捕球条件が満たされず、捕球が不成功であったと判定する(ステップS26)。一方、ボールがヒットした場合には、捕球が成功であったと判定する(ステップS27)。   On the other hand, if the ball is in the capture determination range, it is determined whether or not the ball hits the hit volume (step S25). And when it is not hit, it determines with catching conditions not being satisfied but catching unsuccessfully (step S26). On the other hand, if the ball hits, it is determined that the catch was successful (step S27).

次に、送球条件を満たした送球操作が行われたか否かを判断する(ステップS28)。そして、送球条件を満たした送球操作が行われなかった場合には、送球が不成功であったと判定する(ステップS29)。一方、例えば送球判定期間内に、送球に対応する所定の操作が行われた場合には、送球が成功であったと判定して、ボールの送球処理を行う(ステップS30)。   Next, it is determined whether or not a pitching operation that satisfies the pitching conditions has been performed (step S28). If the pitching operation that satisfies the pitching condition is not performed, it is determined that the pitching was unsuccessful (step S29). On the other hand, for example, when a predetermined operation corresponding to the pitching is performed within the pitching determination period, it is determined that the pitching was successful and the ball pitching process is performed (step S30).

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(移動体、送り先ターゲット、キャッチ、送り条件、移動等)と共に記載された用語(ボール、送球先ターゲット、捕球、送球条件、送球等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、仮想カメラの視線方向の制御処理、送り先ターゲットへの移動体の移動処理、回転角度の調整処理、送り先ターゲットの選択処理、捕捉条件や捕球条件の判定処理、ビューボリュームの設定処理等も本実施形態で説明したものに限定されず、これらと均等な手法・処理も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話機等の種々のゲーム装置に適用できる。例えばゲーム装置は、ゲームのプログラムがインストールされて実行される携帯電話機や携帯型情報端末であってもよい。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, in the specification or drawings, terms (balls, destination targets, catching, throwing conditions) described at least once with different terms (moving object, destination target, catch, feeding conditions, movement, etc.) in a broader sense or the same meaning , Throwing, etc.) may be replaced by the different terms anywhere in the specification or drawings. In addition, the control process of the visual line direction of the virtual camera, the moving process of the moving object to the destination target, the adjustment process of the rotation angle, the selection process of the destination target, the determination process of the capturing condition and the catching condition, the setting process of the view volume, etc. It is not limited to what was demonstrated by this embodiment, The method and process equivalent to these are also contained in the scope of the present invention. The present invention can be applied to various games. Further, the present invention can be applied to various game apparatuses such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a mobile phone. . For example, the game device may be a mobile phone or a portable information terminal in which a game program is installed and executed.

VC 仮想カメラ、VL 視線方向、CHP プレーヤキャラクタ、MOB 移動体、
TG 送り先ターゲット、BL ボール、DRF 基準方向、
HV ヒットボリューム、RFV 視野範囲、RDT 捕捉判定範囲、
10、20 筐体、12 方向指示キー、14 アナログスティック、
16 操作ボタン、100 処理部、102 操作情報取得部、104 ゲーム演算部、
106 オブジェクト空間設定部、108 仮想カメラ制御部、109 調整部、
110 移動体演算部、112 判定部、120 画像生成部、130 音生成部、
160 操作部、170 記憶部、172 オブジェクトデータ記憶部、
178 描画バッファ、180 情報記憶媒体、190 表示部、192 音出力部、
194 補助記憶装置、196 通信部、
500 サーバシステム、510 ネットワーク、TM1〜TMn 端末装置、
600 処理部、602 操作情報取得部、604 ゲーム演算部、
606 オブジェクト空間設定部、608 仮想カメラ制御部、609 調整部、
610 移動体演算部、612 判定部、614 難易度設定部、
620 画像生成用データ生成部、630 音生成用データ生成部
VC virtual camera, VL line-of-sight direction, CHP player character, MOB moving object,
TG destination target, BL ball, DRF reference direction,
HV hit volume, RFV field of view range, RDT capture judgment range,
10, 20 housing, 12 direction instruction keys, 14 analog sticks,
16 operation buttons, 100 processing unit, 102 operation information acquisition unit, 104 game calculation unit,
106 object space setting unit, 108 virtual camera control unit, 109 adjustment unit,
110 moving body calculation unit, 112 determination unit, 120 image generation unit, 130 sound generation unit,
160 operation unit, 170 storage unit, 172 object data storage unit,
178 Drawing buffer, 180 information storage medium, 190 display unit, 192 sound output unit,
194 Auxiliary storage device, 196 communication unit,
500 server system, 510 network, TM1-TMn terminal device,
600 processing unit, 602 operation information acquisition unit, 604 game calculation unit,
606 Object space setting unit, 608 Virtual camera control unit, 609 adjustment unit,
610 moving object calculation unit, 612 determination unit, 614 difficulty level setting unit,
620 Image generation data generation unit, 630 Sound generation data generation unit

Claims (23)

プレーヤの操作情報を取得する操作情報取得部と、
取得された前記操作情報に基づいて、仮想カメラの制御を行う仮想カメラ制御部と、
移動体の移動演算処理を行う移動体演算部と、
オブジェクト空間内において前記仮想カメラから見える画像を生成する画像生成部として、
コンピュータを機能させ、
前記操作情報取得部は、
モーションセンサからのモーション検出情報を前記操作情報として取得し、
前記仮想カメラ制御部は、
前記モーション検出情報に基づいて、前記仮想カメラの視線方向を、前記移動体の送り先ターゲット側に向ける制御を行い、
前記移動体演算部は、
前記仮想カメラの視線方向が向けられることで前記仮想カメラの視野範囲に入った前記送り先ターゲットに対して、前記移動体を移動させる処理を行うことを特徴とするプログラム。
An operation information acquisition unit for acquiring operation information of the player;
Based on the acquired operation information, a virtual camera control unit that controls the virtual camera;
A mobile object calculation unit for performing a mobile object movement calculation process;
As an image generator that generates an image visible from the virtual camera in the object space,
Make the computer work,
The operation information acquisition unit
Obtain motion detection information from the motion sensor as the operation information,
The virtual camera control unit
Based on the motion detection information, control the direction of the line of sight of the virtual camera toward the destination target side of the moving body,
The mobile object calculation unit is
The program which performs the process which moves the said mobile body with respect to the said destination target which entered into the visual field range of the said virtual camera because the visual line direction of the said virtual camera was turned.
請求項1において、
前記モーションセンサは、携帯型ゲーム装置又はゲームコントローラに設けられるセンサであり、
前記操作情報取得部は、
前記プレーヤが前記携帯型ゲーム装置又は前記ゲームコントローラを動かすことで得られた前記モーション検出情報を、前記モーションセンサから取得し、
前記仮想カメラ制御部は、
前記携帯型ゲーム装置又は前記ゲームコントローラが動かされた方向側に、前記仮想カメラの視線方向を変化させる制御を行い、
前記移動体演算部は、
前記携帯型ゲーム装置又は前記ゲームコントローラが動かされた方向側に前記仮想カメラの視線方向が変化することで前記仮想カメラの視野範囲に入った前記送り先ターゲットに対して、前記移動体を移動させる処理を行うことを特徴とするプログラム。
In claim 1,
The motion sensor is a sensor provided in a portable game device or a game controller,
The operation information acquisition unit
The motion detection information obtained by moving the portable game device or the game controller by the player is acquired from the motion sensor;
The virtual camera control unit
Performing control to change the line-of-sight direction of the virtual camera on the direction side in which the portable game device or the game controller is moved;
The mobile object calculation unit is
Processing for moving the moving body with respect to the destination target that has entered the visual field range of the virtual camera by changing the line-of-sight direction of the virtual camera toward the direction in which the portable game device or the game controller is moved The program characterized by performing.
請求項2において、
水平方向に沿った軸をX軸とし、鉛直方向に沿った軸をY軸とした場合に、
前記仮想カメラ制御部は、
前記携帯型ゲーム装置又は前記ゲームコントローラを前記Y軸回りで回転させる操作が行われた場合に、前記仮想カメラの視線方向を、前記Y軸に対応するカメラ座標系のYC軸回りで回転させる制御を行い、
前記移動体演算部は、
前記仮想カメラの視線方向が前記YC軸回りで回転することで前記仮想カメラの視野範囲に入った前記送り先ターゲットに対して、前記移動体を移動させる処理を行うことを特徴とするプログラム。
In claim 2,
When the axis along the horizontal direction is the X axis and the axis along the vertical direction is the Y axis,
The virtual camera control unit
Control for rotating the visual line direction of the virtual camera around the YC axis of the camera coordinate system corresponding to the Y axis when an operation of rotating the portable game device or the game controller around the Y axis is performed. And
The mobile object calculation unit is
A program for performing a process of moving the moving body with respect to the destination target that has entered the visual field range of the virtual camera by rotating the viewing direction of the virtual camera around the YC axis.
請求項3において、
前記移動体のキャッチに成功したか否かを判定する判定部として、
コンピュータを機能させ、
前記仮想カメラ制御部は、
前記携帯型ゲーム装置又は前記ゲームコントローラを前記X軸回りで回転させる操作が行われた場合に、前記仮想カメラの視線方向を、前記X軸に対応するカメラ座標系のXC軸回りで回転させる制御を行い、
前記判定部は、
前記XC軸回りで視線方向が回転する前記仮想カメラにより前記移動体が捕捉される捕捉条件が満たされており、前記移動体のキャッチ条件が満たされた場合に、前記移動体のキャッチに成功したと判定し、
前記移動体演算部は、
前記移動体のキャッチに成功したと判定され、所与の送り条件が満たされた場合に、キャッチされた前記移動体を前記送り先ターゲットに移動させる処理を行うことを特徴とするプログラム。
In claim 3,
As a determination unit for determining whether or not the mobile object has been successfully caught,
Make the computer work,
The virtual camera control unit
Control for rotating the visual line direction of the virtual camera around the XC axis of the camera coordinate system corresponding to the X axis when an operation of rotating the portable game device or the game controller around the X axis is performed. And
The determination unit
When the capturing condition for capturing the moving object is satisfied by the virtual camera whose line-of-sight direction rotates around the XC axis, the moving object is successfully caught when the catching condition for the moving object is satisfied. And
The mobile object calculation unit is
A program for performing a process of moving the caught moving object to the destination target when it is determined that the moving object is successfully caught and a given sending condition is satisfied.
請求項3又は4において、
前記携帯型ゲーム装置又は前記ゲームコントローラの前記Y軸回りでの回転角度の変化量ΔθYに対する、前記仮想カメラの視線方向の前記YC軸回りでの回転角度の変化量ΔθYCを調整する調整部として、
コンピュータを機能させることを特徴とするプログラム。
In claim 3 or 4,
As an adjustment unit for adjusting a rotation angle change amount ΔθYC around the YC axis in the visual line direction of the virtual camera with respect to a change amount ΔθY around the Y axis of the portable game device or the game controller,
A program characterized by causing a computer to function.
請求項5において、
前記調整部は、
前記変化量ΔθYに対する前記変化量ΔθYCの調整処理を、プレーヤの操作情報又はゲーム状況に基づいて行うことを特徴とするプログラム。
In claim 5,
The adjustment unit is
A program for performing an adjustment process of the change amount ΔθYC with respect to the change amount ΔθY based on operation information of a player or a game situation.
請求項1乃至6のいずれかにおいて、
前記移動体演算部は、
前記移動体のキャッチに成功したと判定され、所与の送り条件が満たされた場合に、キャッチされた前記移動体を前記送り先ターゲットに移動させる処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 6.
The mobile object calculation unit is
A program for performing a process of moving the caught moving object to the destination target when it is determined that the moving object is successfully caught and a given sending condition is satisfied.
請求項7において、
前記移動体演算部は、
前記移動体のキャッチに成功したと判定され、プレーヤが送り指示操作を行った場合に、キャッチされた前記移動体を前記送り先ターゲットに移動させる処理を行うことを特徴とするプログラム。
In claim 7,
The mobile object calculation unit is
A program for performing a process of moving the caught moving body to the destination target when it is determined that the moving body is successfully caught and a player performs a feed instruction operation.
請求項7において、
前記移動体演算部は、
前記移動体のキャッチに成功したと判定され、プレーヤが前記仮想カメラの視線方向を前記送り先ターゲット側に向ける操作を行った場合に、キャッチされた前記移動体を前記送り先ターゲットに移動させる処理を行うことを特徴とするプログラム。
In claim 7,
The mobile object calculation unit is
When it is determined that the moving body has been successfully caught and the player performs an operation of directing the sight line direction of the virtual camera toward the destination target side, a process of moving the caught moving body to the destination target is performed. A program characterized by that.
請求項7において、
前記移動体演算部は、
前記移動体のキャッチに成功したと判定され、プレーヤが前記仮想カメラの視線方向を前記送り先ターゲット側に向ける操作を行い、前記プレーヤが操作部を用いて送り指示操作を行った場合に、キャッチされた前記移動体を前記送り先ターゲットに移動させる処理を行うことを特徴とするプログラム。
In claim 7,
The mobile object calculation unit is
Caught when it is determined that the moving body has been successfully caught, the player performs an operation to turn the direction of the line of sight of the virtual camera toward the destination target, and the player performs a feed instruction operation using the operation unit. A program for performing a process of moving the moving body to the destination target.
請求項1乃至10のいずれかにおいて、
前記移動体演算部は、
前記移動体を第1の送り先ターゲットに移動させる処理を行い、前記移動体が前記第1の送り先ターゲットに到達した後、到達した前記移動体を第2の送り先ターゲットに移動させる処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 10.
The mobile object calculation unit is
Performing a process of moving the movable body to the first destination target, and performing a process of moving the reached movable body to the second destination target after the movable body has reached the first destination target. A featured program.
請求項11において、
前記移動体演算部は、
前記移動体が前記第1の送り先ターゲットに到達した後、到達した前記移動体を、ゲーム状況に基づき選択された前記第2の送り先ターゲットに移動させる処理を行うことを特徴とするプログラム。
In claim 11,
The mobile object calculation unit is
After the mobile body reaches the first destination target, the program performs a process of moving the reached mobile body to the second destination target selected based on a game situation.
請求項11において、
前記移動体演算部は、
前記移動体が前記第1の送り先ターゲットに到達した後、到達した前記移動体を、プレーヤの指示操作により指示された前記第2の送り先ターゲットに移動させる処理を行うことを特徴とするプログラム。
In claim 11,
The mobile object calculation unit is
A program for performing a process of moving the reached moving body to the second destination target instructed by a player's instruction operation after the moving body has reached the first destination target.
請求項11乃至13のいずれかにおいて、
前記仮想カメラ制御部は、
前記移動体が前記第1の送り先ターゲットに移動した場合に、前記仮想カメラの視点位置を、前記第1の送り先ターゲットに対応する位置に設定し、前記仮想カメラの視線方向を、前記第2の送り先ターゲット側に向ける制御を行い、
前記移動体演算部は、
前記仮想カメラの視線方向が向けられることで前記仮想カメラの視野範囲に入った前記第2の送り先ターゲットに対して、前記移動体を移動させる処理を行うことを特徴とするプログラム。
In any of claims 11 to 13,
The virtual camera control unit
When the moving body moves to the first destination target, the viewpoint position of the virtual camera is set to a position corresponding to the first destination target, and the line-of-sight direction of the virtual camera is set to the second destination target. Control to the destination target side,
The mobile object calculation unit is
The program which performs the process which moves the said mobile body with respect to the said 2nd destination target which entered into the visual field range of the said virtual camera because the visual line direction of the said virtual camera was turned.
請求項14において、
前記仮想カメラ制御部は、
前記移動体が前記第1の送り先ターゲットに到達するまで、前記仮想カメラの視線方向を、前記移動体の送り元側に向ける制御を行うことを特徴とするプログラム。
In claim 14,
The virtual camera control unit
A program for controlling the direction of the line of sight of the virtual camera toward the source side of the moving body until the moving body reaches the first destination target.
請求項1乃至15のいずれかにおいて、
前記仮想カメラ制御部は、
所与の基準方向を基準として、前記モーション検出情報に基づき前記仮想カメラの視線方向を前記移動体の送り先ターゲット側に向ける制御を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 15,
The virtual camera control unit
A program for controlling a direction of a line of sight of the virtual camera toward a destination target side of the moving body based on the motion detection information with a given reference direction as a reference.
請求項16において、
前記仮想カメラ制御部は、
前記仮想カメラの視点位置からゲームフィールド上の所定位置へと向かう方向を、前記基準方向に設定することを特徴とするプログラム。
In claim 16,
The virtual camera control unit
A program for setting a direction from a viewpoint position of the virtual camera to a predetermined position on a game field as the reference direction.
請求項16において、
前記仮想カメラ制御部は、
複数の候補基準方向の中から選択された方向を、前記基準方向に設定することを特徴とするプログラム。
In claim 16,
The virtual camera control unit
A program that sets a direction selected from among a plurality of candidate reference directions as the reference direction.
請求項16において、
前記仮想カメラ制御部は、
プレーヤが基準方向の設定の操作を行ったときの前記仮想カメラの視線方向を、前記基準方向に設定することを特徴とするプログラム。
In claim 16,
The virtual camera control unit
A program for setting a line-of-sight direction of the virtual camera when the player performs an operation for setting a reference direction to the reference direction.
請求項16において、
前記移動体演算部は、
プレーヤの操作情報に基づいてプレーヤキャラクタを移動させる処理を行い、
前記仮想カメラ制御部は、
前記プレーヤキャラクタの移動方向に対応する方向を、前記基準方向に設定することを特徴とするプログラム。
In claim 16,
The mobile object calculation unit is
Perform processing to move the player character based on the player operation information,
The virtual camera control unit
A program for setting a direction corresponding to a moving direction of the player character as the reference direction.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至20のいずれかに記載のプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 20 is stored. プレーヤの操作情報を取得する操作情報取得部と、
取得された前記操作情報に基づいて、仮想カメラの制御を行う仮想カメラ制御部と、
移動体の移動演算処理を行う移動体演算部と、
オブジェクト空間内において前記仮想カメラから見える画像を生成する画像生成部とを含み、
前記操作情報取得部は、
モーションセンサからのモーション検出情報を前記操作情報として取得し、
前記仮想カメラ制御部は、
前記モーション検出情報に基づいて、前記仮想カメラの視線方向を、前記移動体の送り先ターゲット側に向ける制御を行い、
前記移動体演算部は、
前記仮想カメラの視線方向が向けられることで前記仮想カメラの視野範囲に入った前記送り先ターゲットに対して、前記移動体を移動させる処理を行うことを特徴とするゲーム装置。
An operation information acquisition unit for acquiring operation information of the player;
Based on the acquired operation information, a virtual camera control unit that controls the virtual camera;
A mobile object calculation unit for performing a mobile object movement calculation process;
An image generation unit that generates an image visible from the virtual camera in an object space,
The operation information acquisition unit
Obtain motion detection information from the motion sensor as the operation information,
The virtual camera control unit
Based on the motion detection information, control the direction of the line of sight of the virtual camera toward the destination target side of the moving body,
The mobile object calculation unit is
A game device, wherein a process of moving the moving body is performed on the destination target that has entered the visual field range of the virtual camera when the line-of-sight direction of the virtual camera is directed.
プレーヤの操作情報を取得する操作情報取得部と、
取得された前記操作情報に基づいて、仮想カメラの制御を行う仮想カメラ制御部と、
移動体の移動演算処理を行う移動体演算部と、
オブジェクト空間内において前記仮想カメラから見える画像を生成するための画像生成用データを生成する画像生成用データ生成部とを含み、
前記操作情報取得部は、
モーションセンサからのモーション検出情報を前記操作情報として取得し、
前記仮想カメラ制御部は、
前記モーション検出情報に基づいて、前記仮想カメラの視線方向を、前記移動体の送り先ターゲット側に向ける制御を行い、
前記移動体演算部は、
前記仮想カメラの視線方向が向けられることで前記仮想カメラの視野範囲に入った前記送り先ターゲットに対して、前記移動体を移動させる処理を行うことを特徴とするサーバシステム。
An operation information acquisition unit for acquiring operation information of the player;
Based on the acquired operation information, a virtual camera control unit that controls the virtual camera;
A mobile object calculation unit for performing a mobile object movement calculation process;
An image generation data generation unit for generating image generation data for generating an image visible from the virtual camera in the object space,
The operation information acquisition unit
Obtain motion detection information from the motion sensor as the operation information,
The virtual camera control unit
Based on the motion detection information, control the direction of the line of sight of the virtual camera toward the destination target side of the moving body,
The mobile object calculation unit is
The server system characterized by performing the process which moves the said mobile body with respect to the said destination target which entered into the visual field range of the said virtual camera because the visual line direction of the said virtual camera was turned.
JP2010294498A 2010-10-13 2010-12-29 Program, information storage medium, game device, and server system Pending JP2012101026A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010294498A JP2012101026A (en) 2010-10-13 2010-12-29 Program, information storage medium, game device, and server system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010230269 2010-10-13
JP2010230269 2010-10-13
JP2010294498A JP2012101026A (en) 2010-10-13 2010-12-29 Program, information storage medium, game device, and server system

Publications (1)

Publication Number Publication Date
JP2012101026A true JP2012101026A (en) 2012-05-31

Family

ID=46392176

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2010294497A Pending JP2012101025A (en) 2010-10-13 2010-12-29 Program, information storage medium, game device, and server system
JP2010294498A Pending JP2012101026A (en) 2010-10-13 2010-12-29 Program, information storage medium, game device, and server system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2010294497A Pending JP2012101025A (en) 2010-10-13 2010-12-29 Program, information storage medium, game device, and server system

Country Status (1)

Country Link
JP (2) JP2012101025A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013081621A (en) * 2011-10-11 2013-05-09 Nintendo Co Ltd Game system, game processing method, game program and game device
JP2013214252A (en) * 2012-04-04 2013-10-17 Nintendo Co Ltd Display control system, display control method, display control program, and display control device
JP2019121224A (en) * 2018-01-09 2019-07-22 株式会社コロプラ Program, information processing device, and information processing method
WO2019155889A1 (en) * 2018-02-08 2019-08-15 株式会社バンダイナムコスタジオ Simulation system, processing method, and information storage medium
JP2019145161A (en) * 2019-04-25 2019-08-29 株式会社コロプラ Program, information processing device, and information processing method
US11911700B2 (en) 2021-07-26 2024-02-27 Nintendo Co., Ltd. Sport game system, computer-readable non-transitory storage medium having stored therein sport game program, sport game apparatus, and sport game processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6530477B1 (en) * 2017-11-28 2019-06-12 株式会社コロプラ Game program, method, and information processing apparatus

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013081621A (en) * 2011-10-11 2013-05-09 Nintendo Co Ltd Game system, game processing method, game program and game device
JP2013214252A (en) * 2012-04-04 2013-10-17 Nintendo Co Ltd Display control system, display control method, display control program, and display control device
JP2019121224A (en) * 2018-01-09 2019-07-22 株式会社コロプラ Program, information processing device, and information processing method
WO2019155889A1 (en) * 2018-02-08 2019-08-15 株式会社バンダイナムコスタジオ Simulation system, processing method, and information storage medium
JP2019139425A (en) * 2018-02-08 2019-08-22 株式会社バンダイナムコスタジオ Simulation system and program
EP3767594A4 (en) * 2018-02-08 2021-12-22 Bandai Namco Research Inc. Simulation system, processing method, and information storage medium
JP7041888B2 (en) 2018-02-08 2022-03-25 株式会社バンダイナムコ研究所 Simulation system and program
US11738270B2 (en) 2018-02-08 2023-08-29 Bandai Namco Entertainment Inc. Simulation system, processing method, and information storage medium
JP2019145161A (en) * 2019-04-25 2019-08-29 株式会社コロプラ Program, information processing device, and information processing method
JP7030075B2 (en) 2019-04-25 2022-03-04 株式会社コロプラ Programs, information processing devices, and information processing methods
US11911700B2 (en) 2021-07-26 2024-02-27 Nintendo Co., Ltd. Sport game system, computer-readable non-transitory storage medium having stored therein sport game program, sport game apparatus, and sport game processing method

Also Published As

Publication number Publication date
JP2012101025A (en) 2012-05-31

Similar Documents

Publication Publication Date Title
JP5286267B2 (en) Game device, game program, and object operation method
US20100245365A1 (en) Image generation system, image generation method, and computer program product
KR20190099390A (en) Method and system for using sensors of a control device to control a game
WO2002066128A1 (en) Program for controlling playing of game, and game apparatus for running this program
EP2371433A2 (en) Image generation device, program product, and image generation method
JP3927821B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP2012101026A (en) Program, information storage medium, game device, and server system
JP5411633B2 (en) Game terminal, game progress control method, and game progress control program
JPWO2009028690A1 (en) GAME DEVICE, GAME PROGRAM, AND GAME DEVICE CONTROL METHOD
JP6583055B2 (en) Virtual sports simulation device
US10744385B2 (en) Screen baseball system and method of realizing left-handed pitcher and right-handed pitcher using the same
US8465353B2 (en) Game device, control method for game device, and information storage medium
JP2012181616A (en) Program, information storage medium, game device and server system
JP2001353358A (en) Game apparatus and information storage medium
JP2009000383A (en) Program, information recording medium and image generating system
JP4962978B2 (en) GAME IMAGE DISPLAY CONTROL PROGRAM, GAME DEVICE, AND GAME IMAGE DISPLAY CONTROL METHOD
JP3894937B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP4377114B2 (en) Information storage medium and game device
KR101131882B1 (en) Game device, game control method, and computer readable recording medium on which game control program is recorded
JP5932735B2 (en) GAME DEVICE, GAME SYSTEM, AND PROGRAM
JP2010233752A (en) Program, information storage medium, and image generation system
JP2010067002A (en) Information processing apparatus, method, and program
JP5220349B2 (en) Program, information storage medium, and image generation system
JP3944456B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP2010233751A (en) Program, information storage medium, and image generation system