JP6260942B2 - COMPUTER GAME DEVICE, CONTROL METHOD AND GAME PROGRAM FOR CONTROLLING COMPUTER GAME DEVICE, AND RECORDING MEDIUM CONTAINING GAME PROGRAM - Google Patents

COMPUTER GAME DEVICE, CONTROL METHOD AND GAME PROGRAM FOR CONTROLLING COMPUTER GAME DEVICE, AND RECORDING MEDIUM CONTAINING GAME PROGRAM Download PDF

Info

Publication number
JP6260942B2
JP6260942B2 JP2016125653A JP2016125653A JP6260942B2 JP 6260942 B2 JP6260942 B2 JP 6260942B2 JP 2016125653 A JP2016125653 A JP 2016125653A JP 2016125653 A JP2016125653 A JP 2016125653A JP 6260942 B2 JP6260942 B2 JP 6260942B2
Authority
JP
Japan
Prior art keywords
game
player character
touch
touch operation
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016125653A
Other languages
Japanese (ja)
Other versions
JP2016179238A (en
Inventor
健二 藤間
健二 藤間
憲生 古市
憲生 古市
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Sega Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp, Sega Games Co Ltd filed Critical Sega Corp
Priority to JP2016125653A priority Critical patent/JP6260942B2/en
Publication of JP2016179238A publication Critical patent/JP2016179238A/en
Application granted granted Critical
Publication of JP6260942B2 publication Critical patent/JP6260942B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、コンピュータゲーム装置、コンピュータゲーム装置を制御するための制御方
法及びプログラム、並びにプログラムを記録した記録媒体に関し、特に、タッチスクリー
ン機能を備えたゲーム装置におけるユーザインターフェースを制御するための技術に関す
る。
The present invention relates to a computer game device, a control method and program for controlling the computer game device, and a recording medium storing the program, and more particularly to a technique for controlling a user interface in a game device having a touch screen function. .

タッチスクリーン(タッチパネル)機能を有するコンピュータゲーム装置やインテリジ
ェントデバイス(以下、単に「ゲーム装置」という。)が知られている。このようなゲー
ム装置は、タッチスクリーン上に表示されたゲーム画面(ゲーム画像)に対してユーザ(
プレイヤ)がタッチ操作することにより、直接的かつインタラクティブに操作をすること
を可能にし、これにより、従来の操作ボタンのような入力デバイスとは違った直感的なユ
ーザインターフェース環境をユーザに提供する。
Computer game devices and intelligent devices (hereinafter simply referred to as “game devices”) having a touch screen (touch panel) function are known. Such a game device has a user (game image) displayed on a touch screen.
The player can perform an operation directly and interactively by performing a touch operation, thereby providing the user with an intuitive user interface environment different from an input device such as a conventional operation button.

例えば、タッチスクリーン上に表示された、仮想3次元空間を表現するゲーム画像内の
特定のオブジェクトをユーザが指で触れることにより、ゲーム装置は、当該オブジェクト
の表示位置と当該触れた位置とから、当該オブジェクトが選択されたと判断することがで
きる。また、ユーザが、当該オブジェクトについて、触れた指をタッチスクリーンから離
すことなく所定の速度で(通常はゆっくり)移動させることにより、ゲーム装置は、ドラ
ッグ操作であると判断し、例えば、指の軌跡に沿って移動するように、当該オブジェクト
の表示を制御することができる。さらに、ゲーム装置は、タッチスクリーン上で指で弾く
ような動作又は指で素早く拭うような動作(即ち、触れた指を所定の速度以上でそのまま
離さずに移動させた後、離す動作)に応じて、ゲーム画面そのもの又は所定のオブジェク
トの表示を制御し得る。このような指で弾くような動作又は指で拭うような動作は、一般
に、フリック操作乃至はスワイプ操作と呼ばれる。
For example, when a user touches a specific object in a game image that represents a virtual three-dimensional space displayed on the touch screen with a finger, the game device can determine from the display position of the object and the touched position, It can be determined that the object has been selected. Further, when the user moves the touched finger with respect to the object at a predetermined speed (usually slowly) without releasing it from the touch screen, the game apparatus determines that the drag operation is performed. The display of the object can be controlled so as to move along the line. Furthermore, the game device responds to an action of flipping with a finger on the touch screen or an action of quickly wiping with a finger (that is, an action of moving the touched finger without releasing it at a predetermined speed or higher). Thus, the display of the game screen itself or a predetermined object can be controlled. Such an operation of flipping with a finger or an operation of wiping with a finger is generally called a flick operation or a swipe operation.

下記特許文献1は、ユーザが、タッチパネル上で、ゲーム画面内のある範囲を囲む操作
によって囲まれた当該範囲内にいる全てのキャラクタを選択し、さらに、当該ゲーム画面
のある位置を指し示すことで、当該位置を当該選択した全てのキャラクタの移動先として
設定する技術を開示する。
In Patent Document 1 below, the user selects all the characters in the range surrounded by an operation surrounding the range on the game screen on the touch panel, and further indicates a position on the game screen. A technique for setting the position as the movement destination of all the selected characters is disclosed.

また、下記特許文献2は、第1表示画面に連携した、タッチパネル型の第2表示画面に
表示されたプレイヤキャラクタに対してタッチ操作により入力が与えられると、当該入力
に応じて第1表示画面に表示されるゲーム画像を変化させる技術を開示する。
Further, in Patent Document 2 below, when an input is given by a touch operation to a player character displayed on a touch-panel-type second display screen that is linked to the first display screen, the first display screen is displayed according to the input. A technique for changing the game image displayed on the screen is disclosed.

特開2008-148860号公報JP 2008-148860 A 特開2005-192986号公報JP 2005-192986 A

上記のようなタッチスクリーン機能は、ユーザに対してより直感的かつインタラクティ
ブな操作を受け付けることができる点で、操作性が高く、ゲーム装置のユーザインターフ
ェースとして広く採用されている。
The touch screen function as described above has high operability in that it can accept more intuitive and interactive operations for the user, and is widely adopted as a user interface of game devices.

しかしながら、ゲームの進行状況に基づくゲーム画面の構成によっては、ユーザが本来
タッチ操作すべき位置がゲーム画面の外側に位置してしまうことがある。例えば、仮想カ
メラから見た仮想3次元空間におけるプレイヤキャラクタをユーザがタッチ操作によって
移動目標位置を指定して手前方向(即ち、ゲーム画面での下方向)に移動させようとする
場合に、当該プレイヤキャラクタがゲーム画面の下部近傍に位置するように表示されてい
ると、移動目標位置がゲーム画面の外側に位置してしまうことになり、ユーザは、タッチ
スクリーンを介して意図した操作をゲーム装置に与えることができない。
However, depending on the configuration of the game screen based on the progress of the game, the position where the user should originally perform a touch operation may be located outside the game screen. For example, when the user designates a movement target position by a touch operation and moves the player character in the virtual three-dimensional space viewed from the virtual camera in the forward direction (that is, the downward direction on the game screen), the player If the character is displayed so as to be positioned in the vicinity of the lower part of the game screen, the movement target position will be located outside the game screen, and the user performs an intended operation on the game device via the touch screen. Can't give.

例えば、図9は、進行中のゲームのあるプレイシーンのゲーム画面である。同図では、
プレイヤキャラクタのコートの右側の領域Aはゲーム画面内に表示されておらず、このま
までは、ユーザは、かかる領域内の地点を直接的に指定することができない。
For example, FIG. 9 is a game screen of a play scene with a game in progress. In the figure,
The area A on the right side of the player character's court is not displayed in the game screen, and the user cannot directly specify a point in the area.

このような場合、ユーザによる何らかの追加の操作に従って仮想カメラを移動させるこ
とで、仮想3次元空間を表現するゲーム画面を再構成し、プレイヤキャラクタの移動方向
に十分なタッチ操作領域を確保するといった処理が必要になる。しかしながら、特に、ス
ポーツゲームやカーレーシングゲーム、シューティングゲーム、ファイティングゲームの
ようにリアルタイム性を要求するゲームにおいて、ユーザにゲーム画面の構成を変更する
操作を要求させていたのでは、ユーザはゲーム本来の操作に集中することができず、ゲー
ムの興趣性を低下させることになる。
In such a case, by moving the virtual camera according to some additional operation by the user, the game screen expressing the virtual three-dimensional space is reconfigured, and a sufficient touch operation area is ensured in the moving direction of the player character. Is required. However, in particular, in a game that requires real-time characteristics, such as a sports game, a car racing game, a shooting game, or a fighting game, if the user is requested to perform an operation to change the game screen configuration, It is not possible to concentrate on the operation, which reduces the interest of the game.

そこで、本発明は、タッチスクリーン上に表示されるゲーム画面の構成にとらわれず、
常に、直感的な操作性を実現するゲームを提供することを目的とする。即ち、本発明の目
的は、プレイヤキャラクタの移動に際して、移動目標位置がゲーム画面の外にある場合で
あっても、直感的なタッチ操作により、当該移動目標位置を設定することができるゲーム
を提供することである。
Therefore, the present invention is not limited to the configuration of the game screen displayed on the touch screen,
The object is to provide a game that always realizes intuitive operability. That is, an object of the present invention is to provide a game in which the movement target position can be set by an intuitive touch operation even when the movement target position is outside the game screen when the player character moves. It is to be.

また、ユーザに連続的な操作を要求することで、プレイヤキャラクタに一連の動作を行
わせ、ゲームの興趣性を向上させることがある。例えば、テニスゲームでは、仮想3次元
空間内のコート上でプレイヤキャラクタがボールオブジェクトを追いかけて移動し、ショ
ットを打つという一連の動作がゲーム画像として表示される。
Further, by requesting the user to perform a continuous operation, the player character may perform a series of actions to improve the fun of the game. For example, in a tennis game, a series of actions in which a player character moves following a ball object on a court in a virtual three-dimensional space and hits a shot is displayed as a game image.

そこで、本発明は、さらに、直感的なタッチ操作の組み合わせにより、プレイヤキャラ
クタに一連の動作を行わせることができるゲームを提供することを目的とする。
Therefore, an object of the present invention is to provide a game that allows a player character to perform a series of actions by a combination of intuitive touch operations.

上記課題を解決する本発明は、以下の技術的特徴を含んで構成される。   The present invention that solves the above-described problems includes the following technical features.

即ち、ある観点に従う本発明は、タッチスクリーンを備えたゲーム装置のコンピューテ
ィングデバイスに実行され、前記ゲーム装置に所定のゲームを実現するプログラムであっ
て、前記ゲーム装置を、ユーザによって操作されるプレイヤキャラクタを含む、仮想3次
元空間を表現するゲーム画像を生成する画像生成手段、生成された前記ゲーム画像を前記
タッチスクリーンに表示するための制御を行う表示制御手段、前記タッチスクリーンに対
するタッチ操作を時間サンプリングで検出し、検出した当該タッチ操作に基づく操作アク
ションを決定する操作アクション決定手段、決定された操作アクションに基づいて、前記
仮想3次元空間における前記プレイヤキャラクタの挙動を制御する挙動制御手段、として
機能させるプログラムである。前記操作アクション決定手段は、検出した前記タッチ操作
が、タッチダウンから所定の速度以上で所定のストローク距離だけ移動する操作である場
合に、当該タッチ操作を、所定の移動ベクトルで特定されるフリック操作として決定し、
前記挙動制御手段は、決定された前記フリック操作に基づいて、前記プレイヤキャラクタ
が移動すべき移動目標位置を算出し、前記プレイヤキャラクタが当該移動目標位置に向か
って移動するように、前記プレイヤキャラクタの挙動を制御する。
That is, the present invention according to a certain aspect is a program that is executed on a computing device of a game device having a touch screen, and that realizes a predetermined game on the game device, and the player operates the game device by a user. Image generation means for generating a game image representing a virtual three-dimensional space including characters, display control means for performing control for displaying the generated game image on the touch screen, and time for touch operation on the touch screen As an operation action determining means for detecting by sampling and determining an operation action based on the detected touch operation, a behavior control means for controlling the behavior of the player character in the virtual three-dimensional space based on the determined operation action, It is a program that makes it work. The operation action determining means, when the detected touch operation is an operation of moving a predetermined stroke distance at a predetermined speed or more from touchdown, the flick operation specified by a predetermined movement vector. Determined as
The behavior control means calculates a movement target position to which the player character should move based on the determined flick operation, so that the player character moves toward the movement target position. Control behavior.

前記画像生成手段は、前記移動目標位置が算出された場合に、前記プレイヤキャラクタ
の現在位置から当該移動目標位置までターゲットマークが移動するように、ゲーム画像を
生成する。
The image generation means generates a game image so that the target mark moves from the current position of the player character to the movement target position when the movement target position is calculated.

前記挙動制御手段は、前記プレイヤキャラクタが前記ターゲットマークの移動に追随す
るように、前記プレイヤキャラクタの挙動を制御し、前記画像生成手段は、前記挙動制御
手段により制御される前記プレイヤキャラクタの挙動を前記ゲーム画像に表示する。
The behavior control means controls the behavior of the player character so that the player character follows the movement of the target mark, and the image generation means determines the behavior of the player character controlled by the behavior control means. Display on the game image.

前記挙動制御手段は、前記ゲームの進行状況に基づいて、前記プレイヤキャラクタを移
動させるか否かを判断する。
The behavior control means determines whether or not to move the player character based on the progress of the game.

また、別の観点に従う本発明は、前記プログラムを記憶したコンピュータ読み取り可能
な記憶媒体として把握される。
Further, the present invention according to another aspect is grasped as a computer-readable storage medium storing the program.

さらに、別の観点に従う本発明は、タッチスクリーンを備えたゲーム装置であって、ユ
ーザによって操作されるプレイヤキャラクタを含む、仮想3次元空間を表現するゲーム画
像を生成する画像生成手段と、生成された前記ゲーム画像を前記タッチスクリーンに表示
するための制御を行う表示制御手段と、前記タッチスクリーンに対するタッチ操作を時間
サンプリングで検出し、検出した当該タッチ操作に基づく操作アクションを決定する操作
アクション決定手段と、決定された操作アクションに基づいて、前記仮想3次元空間にお
ける前記プレイヤキャラクタの挙動を制御する挙動制御手段と、を備え、前記操作アクシ
ョン決定手段は、検出した前記タッチ操作が、タッチダウンから所定の速度以上で所定の
ストローク距離だけ移動する操作である場合に、当該タッチ操作を、所定の移動ベクトル
で特定されるフリック操作として決定し、前記挙動制御手段は、決定された前記フリック
操作に基づいて、前記プレイヤキャラクタが移動すべき移動目標位置を算出し、前記プレ
イヤキャラクタが当該移動目標位置に向かって移動するように、前記プレイヤキャラクタ
の挙動を制御する、ゲーム装置である。
Furthermore, the present invention according to another aspect is a game device provided with a touch screen, which is generated by an image generation means for generating a game image representing a virtual three-dimensional space including a player character operated by a user. Display control means for performing control for displaying the game image on the touch screen; and operation action determination means for detecting a touch operation on the touch screen by time sampling and determining an operation action based on the detected touch operation. And a behavior control means for controlling the behavior of the player character in the virtual three-dimensional space based on the determined operation action, wherein the operation action determination means detects the detected touch operation from a touchdown. Operation that moves at a specified stroke distance above a specified speed The touch operation is determined as a flick operation specified by a predetermined movement vector, and the behavior control means moves the movement target position to which the player character should move based on the determined flick operation. And the behavior of the player character is controlled so that the player character moves toward the movement target position.

さらにまた、別の観点に従う本発明は、タッチスクリーン及びコンピューティングデバ
イスを備えたゲーム装置を前記コンピューティングデバイスにより制御するための制御方
法である。かかる制御方法は、ユーザによって操作されるプレイヤキャラクタを含む、仮
想3次元空間を表現するゲーム画像を生成するステップと、生成された前記ゲーム画像を
前記タッチスクリーンに表示するための制御を行うステップと、前記タッチスクリーンに
対するタッチ操作を時間サンプリングで検出し、検出した当該タッチ操作に基づく操作ア
クションを決定するステップと、決定された操作アクションに基づいて、前記仮想3次元
空間における前記プレイヤキャラクタの挙動を制御するステップと、を含む。前記操作ア
クションを決定するステップは、検出した前記タッチ操作が、タッチダウンから所定の速
度以上で所定のストローク距離だけ移動する操作である場合に、当該タッチ操作を、所定
の移動ベクトルで特定されるフリック操作として決定し、前記挙動を制御するステップは
、決定された前記フリック操作に基づいて、前記プレイヤキャラクタが移動すべき移動目
標位置を算出し、前記プレイヤキャラクタが当該移動目標位置に向かって移動するように
、前記プレイヤキャラクタの挙動を制御する。
The present invention according to another aspect is a control method for controlling a game device including a touch screen and a computing device by the computing device. The control method includes a step of generating a game image representing a virtual three-dimensional space including a player character operated by a user, and a step of performing control for displaying the generated game image on the touch screen. Detecting a touch operation on the touch screen by time sampling, determining an operation action based on the detected touch operation, and determining a behavior of the player character in the virtual three-dimensional space based on the determined operation action. Controlling. The step of determining the operation action is specified by a predetermined movement vector when the detected touch operation is an operation of moving a predetermined stroke distance at a predetermined speed or more from touchdown. The step of determining as a flick operation and controlling the behavior calculates a movement target position to which the player character should move based on the determined flick operation, and the player character moves toward the movement target position. In this manner, the behavior of the player character is controlled.

本発明によれば、タッチスクリーンに表示されるゲーム画面の構成にとらわれず、常に
、直感的な操作性を提供するゲームが実現されることになる。
According to the present invention, a game that always provides intuitive operability is realized regardless of the configuration of the game screen displayed on the touch screen.

本発明の他の技術的特徴及び作用効果乃至は利点は、添付した図面を参照して説明され
る以下の実施形態により明らかにされる。
Other technical features and operational effects or advantages of the present invention will become apparent from the following embodiments described with reference to the accompanying drawings.

本発明の一実施形態に係るゲーム装置の外観を示す平面図である。It is a top view which shows the external appearance of the game device which concerns on one Embodiment of this invention. 本発明の一実施形態に係るゲーム装置の概略ハードウェア構成の一例を示すブロックダイアグラムである。It is a block diagram which shows an example of schematic hardware constitutions of the game device which concerns on one Embodiment of this invention. 本発明の一実施形態に係るゲーム装置のメモリモジュールの内容の一例を示す図である。It is a figure which shows an example of the content of the memory module of the game device which concerns on one Embodiment of this invention. 本発明の一実施形態に係るゲーム装置の機能的構成を説明するためのブロックダイアグラムである。It is a block diagram for demonstrating the functional structure of the game device which concerns on one Embodiment of this invention. 本発明の一実施形態に係るゲーム装置におけるプレイヤキャラクタの挙動制御処理を説明するためのフローチャートである。It is a flowchart for demonstrating the behavior control process of the player character in the game device which concerns on one Embodiment of this invention. 本発明の一実施形態に係るゲーム装置における操作アクションの決定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the determination process of the operation action in the game device which concerns on one Embodiment of this invention. 本発明の一実施形態に係るゲーム装置におけるプレイヤキャラクタの移動処理を説明するためのフローチャートである。It is a flowchart for demonstrating the movement process of the player character in the game device which concerns on one Embodiment of this invention. 本発明の一実施形態に係るゲーム装置におけるプレイヤキャラクタのスイング処理を説明するためのフローチャートである。It is a flowchart for demonstrating the swing process of the player character in the game device which concerns on one Embodiment of this invention. 仮想3次元空間を表現したあるプレイシーンのゲーム画面を示す図である。It is a figure which shows the game screen of a certain play scene expressing virtual three-dimensional space. 仮想3次元空間を表現したあるプレイシーンのゲーム画面を示す図である。It is a figure which shows the game screen of a certain play scene expressing virtual three-dimensional space. 仮想3次元空間を表現したあるプレイシーンのゲーム画面を示す図である。It is a figure which shows the game screen of a certain play scene expressing virtual three-dimensional space. 仮想3次元空間を表現したあるプレイシーンのゲーム画面を示す図である。It is a figure which shows the game screen of a certain play scene expressing virtual three-dimensional space. 仮想3次元空間を表現したあるプレイシーンのゲーム画面を示す図である。It is a figure which shows the game screen of a certain play scene expressing virtual three-dimensional space. 仮想3次元空間を表現したあるプレイシーンのゲーム画面を示す図である。である。It is a figure which shows the game screen of a certain play scene expressing virtual three-dimensional space. It is.

次に、本発明の実施の形態について、図面を参照しつつ説明する。   Next, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係るゲーム装置の外観を示す平面図である。同図に示す
ように、ゲーム装置100は、筐体110によりその外観を略規定されている。本例では
、スーパーオーバル形状の筐体が採用され、ユーザが両手で把持しやすい程度の大きさに
設計されている。同図には示されていないが、筐体110は、その内部に、ゲーム装置1
00を統括的に制御するコンピューティングデバイス(制御回路)210を収納している
FIG. 1 is a plan view showing an appearance of a game device according to an embodiment of the present invention. As shown in the figure, the appearance of the game apparatus 100 is substantially defined by a housing 110. In this example, a super oval-shaped housing is adopted, and the housing is designed to have a size that can be easily held by both hands. Although not shown in the figure, the housing 110 is provided inside the game device 1.
A computing device (control circuit) 210 that comprehensively controls 00 is housed.

ゲーム装置100は、筐体110の上面略中央部に配置されたタッチスクリーン220
(タッチパネル)を備える。タッチスクリーン220は、典型的には、ディスプレイ(ス
クリーン)221上に透過性のタッチセンサ222を配した、表示及び入力機能を備える
装置であり、既存のものを用いることができる。本例のタッチスクリーン220は、マル
チタッチに対応した有機ELディスプレイであるが、これに限定されるものではない。
The game apparatus 100 includes a touch screen 220 disposed at a substantially central portion on the upper surface of the housing 110.
(Touch panel). The touch screen 220 is typically a device having a display and input function in which a transparent touch sensor 222 is arranged on a display (screen) 221, and an existing one can be used. The touch screen 220 of this example is an organic EL display that supports multi-touch, but is not limited thereto.

筐体110の左右両端部、即ち、ユーザが両手で筐体を把持した場合に親指が当接する
左右それぞれの位置には複数の操作ボタン260が配置されている。本例では、十字ボタ
ン及び丸形ボタンが筐体110の左右両側に配置されている。また、左右の操作ボタンセ
ット近傍には、それぞれオーディオ出力ユニット230が配置されている。
A plurality of operation buttons 260 are arranged at both left and right ends of the housing 110, that is, at the left and right positions where the thumb abuts when the user holds the housing with both hands. In this example, a cross button and a round button are arranged on the left and right sides of the housing 110. Also, audio output units 230 are arranged in the vicinity of the left and right operation button sets, respectively.

同図には示されていないが、ゲーム装置100は、外部記憶媒体にアクセスするための
外部メディアユニット240を備える。外部記憶媒体は、例えばメモリカードであり、ゲ
ームプログラム及び各種のデータを記録する。メモリカードは、さまざまな規格のメモリ
カードを採用することができる。外部記憶媒体を着脱するため、ゲーム装置100の筐体
には、メモリカードスロットが設けられる。
Although not shown in the figure, the game apparatus 100 includes an external media unit 240 for accessing an external storage medium. The external storage medium is a memory card, for example, and records a game program and various data. As the memory card, memory cards of various standards can be adopted. In order to attach and detach the external storage medium, the housing of the game apparatus 100 is provided with a memory card slot.

また、ゲーム装置100は、ネットワーク通信を実現する通信ユニット250を備えて
いても良い。ネットワーク通信は、例えば、3GやWiFiといった既存の無線通信規格
を採用することができるが、これらに限定されるものではない。
In addition, the game apparatus 100 may include a communication unit 250 that realizes network communication. For network communication, for example, an existing wireless communication standard such as 3G or WiFi can be adopted, but is not limited thereto.

図2は、本発明の一実施形態に係るゲーム装置の概略ハードウェア構成の一例を示すブ
ロックダイアグラムである。同図に示すように、本実施形態のゲーム装置100は、ゲー
ム装置100を統括的に制御するためのコンピューティングデバイス210と、ゲームを
表現乃至は演出するための画像(例えば、静止画、動画、映像等)を表示し、ユーザのタ
ッチ操作による入力を受け付けるタッチスクリーン220と、ゲームを表現乃至は演出す
るためのサウンド(例えば、音楽、音声、効果音等)をユーザに提供するためのオーディ
オ出力ユニット230と、外部記憶媒体にアクセスするための外部メディアユニット24
0と、サーバコンピュータや他のゲーム装置100と無線ネットワーク通信を行うための
通信ユニット250とを備える。ゲーム装置100はまた、タッチスクリーン220によ
るユーザ入力に代え、またはその入力を補完するための操作ボタン260を備える。
FIG. 2 is a block diagram showing an example of a schematic hardware configuration of the game device according to the embodiment of the present invention. As shown in the figure, the game apparatus 100 according to the present embodiment includes a computing device 210 for overall control of the game apparatus 100 and an image (for example, a still image or a moving image) for expressing or producing the game. , Video, etc.) and audio for providing the user with sound (for example, music, voice, sound effects, etc.) for expressing or producing the game. Output unit 230 and external media unit 24 for accessing an external storage medium
0 and a communication unit 250 for performing wireless network communication with the server computer and other game apparatuses 100. The game apparatus 100 also includes an operation button 260 for replacing or supplementing the user input by the touch screen 220.

コンピューティングデバイス210は、各種のプロセッサ及びメモリ等からなる、例え
ばチップセットを含むコンピュータ回路要素である。本実施形態のコンピューティングデ
バイス210は、例えば、プロセッサコア211と、メモリモジュール212と、グラフ
ィックスエンジン213と、サウンドエンジン214と、I/Oコントローラ215と、
これらを接続するシステムバス216とを含んで構成される。また、コンピューティング
デバイス210は、動画像を高速に処理するためのメディアエンジンを備えていても良い
The computing device 210 is a computer circuit element that includes various processors, a memory, and the like, and includes, for example, a chip set. The computing device 210 of this embodiment includes, for example, a processor core 211, a memory module 212, a graphics engine 213, a sound engine 214, an I / O controller 215,
And a system bus 216 for connecting them. The computing device 210 may include a media engine for processing moving images at high speed.

プロセッサコア211は、コンピューティングデバイスのメインプロセッサとして機能
するチップである。ここでは、「プロセッサコア」という用語は、メインプロセッサを意
味するプロセッサやCPU、MPU等と同義のものとして扱うことができる。プロセッサ
コア211は、メモリモジュール212上に展開されたゲームプログラムを実行し、コン
ピューティングデバイス210に各種の機能を実現させる。言い換えれば、コンピューテ
ィングデバイス210は、プロセッサコア211の制御の下、ゲームプログラムを実行す
ることにより、他のハードウェアユニット/コンポーネントと協働して、ゲーム装置10
0上にゲームを実現する。ゲームプログラムは、例えば、プロセッサコア211の制御の
下で実現されるオペレーティングシステム(OS)の制御の下で、実行されても良い。プ
ロセッサコア211は、シングルコア又はマルチコアのいずれのタイプも採用できる。プ
ロセッサコア211は、図示しない複数次のデータキャッシュを含む。また、プロセッサ
コア211は、図示しない浮動小数点プロセッサ(FPU)やベクトル浮動小数点プロセ
ッサ(VFPU)等を接続し、これらと協働して、ゲームプログラムを実行するように構
成されても良い。
The processor core 211 is a chip that functions as a main processor of a computing device. Here, the term “processor core” can be treated as synonymous with a processor, CPU, MPU or the like that means a main processor. The processor core 211 executes a game program developed on the memory module 212 and causes the computing device 210 to realize various functions. In other words, the computing device 210 cooperates with other hardware units / components by executing a game program under the control of the processor core 211, thereby causing the game apparatus 10 to operate.
Realize the game on top of zero. For example, the game program may be executed under the control of an operating system (OS) that is realized under the control of the processor core 211. The processor core 211 can adopt either a single core type or a multi-core type. The processor core 211 includes a plurality of data caches not shown. The processor core 211 may be configured to connect a floating-point processor (FPU), a vector floating-point processor (VFPU), or the like (not shown) and execute a game program in cooperation with them.

メモリモジュール212は、ゲームの実行に必要な各種のプログラム及びデータを記憶
する。図3は、本発明の一実施形態に係るゲーム装置100のメモリモジュール212の
内容の一例を示す図である。メモリモジュール212は、例えば、DRAMに代表される
揮発性メモリ、マスクROMに代表される書き換え不能な不揮発性メモリ、及びフラッシ
ュメモリに代表される書き換え可能な不揮発性メモリのいずれか又はこれらの適宜の組み
合わせで構成される。揮発性メモリは、典型的には、プロセッサコア211のメインメモ
リに供され、例えば、ゲームプログラム及びゲームデータの一部又は全部を必要に応じて
記憶する。不揮発性メモリは、例えば、BIOSや、OSプログラム、デバイスドライバ
、ゲーム装置100の制御に必要なシステムデータ、ユーザデータ、グラフィックデータ
、プレイ結果データ等を記憶する。不揮発性メモリは、マスクROMを採用することなく
、その全てがフラッシュメモリで構成されても良い。また、メモリモジュール212の全
てをフラッシュメモリ等の書き換え可能な不揮発性メモリで構成しても良い。ゲーム装置
100のメモリカードスロットに装着された外部記憶媒体もまた、メモリモジュール21
2の一部として供されても良い。
The memory module 212 stores various programs and data necessary for executing the game. FIG. 3 is a diagram showing an example of the contents of the memory module 212 of the game apparatus 100 according to an embodiment of the present invention. The memory module 212 is, for example, one of a volatile memory typified by a DRAM, a non-rewritable nonvolatile memory typified by a mask ROM, and a rewritable nonvolatile memory typified by a flash memory. Composed of a combination. The volatile memory is typically provided to the main memory of the processor core 211 and stores, for example, part or all of the game program and game data as necessary. The nonvolatile memory stores, for example, BIOS, OS program, device driver, system data necessary for controlling the game apparatus 100, user data, graphic data, play result data, and the like. All of the non-volatile memories may be configured by a flash memory without using a mask ROM. Further, all of the memory module 212 may be constituted by a rewritable nonvolatile memory such as a flash memory. The external storage medium attached to the memory card slot of the game apparatus 100 is also the memory module 21.
2 may be provided.

図2に戻り、グラフィックスエンジン213は、プロセッサコア211の制御の下、各
種のグラフィックス処理を行う。グラフィックスエンジン213は、典型的には、グラフ
ィックコア2131及びグラフィックメモリ2132を含んで構成される。グラフィック
コア2131は、ビデオディスプレイプロセッサ(VDP)やグラフィックプロセッシン
グユニット(GPU)と称されることもある。グラフィックコア2131は、グラフィッ
クメモリ2132に記憶されるグラフィックデータを読み出して、各種のグラフィック処
理(例えば、ジオメトリ処理、レンダリング処理、テクスチャマッピング処理等)を行っ
て、画像データを生成する。グラフィックコア2131によって生成された画像データは
、図示しないビデオインターフェース回路によって所定のビデオ信号に変換され、タッチ
スクリーン220に出力される。
Returning to FIG. 2, the graphics engine 213 performs various graphics processing under the control of the processor core 211. The graphics engine 213 typically includes a graphic core 2131 and a graphic memory 2132. The graphic core 2131 may be referred to as a video display processor (VDP) or a graphic processing unit (GPU). The graphic core 2131 reads out graphic data stored in the graphic memory 2132 and performs various graphic processing (for example, geometry processing, rendering processing, texture mapping processing, etc.) to generate image data. The image data generated by the graphic core 2131 is converted into a predetermined video signal by a video interface circuit (not shown) and output to the touch screen 220.

サウンドエンジン214は、プロセッサコア211の制御の下、サウンドメモリ(図示
せず)に記憶されるサウンドデータに対して、適宜、各種のサウンド処理(例えば、エフ
ェクト処理、ミキシング処理等)を施す。サウンドエンジン214によって処理されたサ
ウンドデータは、図示しないサウンドインターフェース回路によって所定のオーディオ信
号に変換され、オーディオ出力ユニット230に出力される。
The sound engine 214 appropriately performs various sound processing (for example, effect processing, mixing processing, etc.) on sound data stored in a sound memory (not shown) under the control of the processor core 211. The sound data processed by the sound engine 214 is converted into a predetermined audio signal by a sound interface circuit (not shown) and output to the audio output unit 230.

I/Oコントローラ215は、外部のさまざまなユニットとの入出力を制御するための
インターフェース回路である。本例では、I/Oコントローラ215には、タッチセンサ
222、操作ボタン260、外部メディアユニット240、及び通信ユニット250が接
続されている。I/Oコントローラ215は、接続された各種のユニットから与えられる
外部信号をコンピューティングデバイス210内の内部データに変換し、また、内部デー
タを各種のユニットに適した外部信号に変換する。
The I / O controller 215 is an interface circuit for controlling input / output with various external units. In this example, a touch sensor 222, operation buttons 260, an external media unit 240, and a communication unit 250 are connected to the I / O controller 215. The I / O controller 215 converts external signals given from various connected units into internal data in the computing device 210, and converts the internal data into external signals suitable for the various units.

タッチスクリーン220は、ディスプレイ(スクリーン)221及びこのディスプレイ
221上に略一致するように形成された透過性のタッチセンサ222からなるユーザイン
ターフェースデバイスである。タッチスクリーン220は、コンピューティングデバイス
210の制御の下、ゲーム画像を表示して、ユーザによるインタラクティブなタッチ操作
を受け付けることができる。ディスプレイ221は、グラフィックスエンジン213から
のビデオ信号に基づいて、画像(例えば、静止画、動画、映像等)をディスプレイ221
上に表示する。ディスプレイ221は、3D表示に対応するものでも良い。タッチセンサ
222は、ユーザによるタッチ操作に応じた操作信号を出力する。ユーザのタッチ操作は
、ユーザの指によりなされても良いし、スタイラス等でも良い。タッチセンサ222は、
例えば、静電容量タイプのものを採用することができるが、これに限定されるものではな
い。
The touch screen 220 is a user interface device including a display (screen) 221 and a transmissive touch sensor 222 formed so as to substantially coincide with the display 221. The touch screen 220 displays a game image under the control of the computing device 210 and can accept an interactive touch operation by the user. The display 221 displays an image (for example, a still image, a moving image, a video, etc.) based on the video signal from the graphics engine 213.
Display above. The display 221 may correspond to 3D display. The touch sensor 222 outputs an operation signal corresponding to the touch operation by the user. The user's touch operation may be performed by the user's finger, a stylus, or the like. The touch sensor 222 is
For example, an electrostatic capacitance type can be adopted, but is not limited thereto.

タッチセンサ222から出力された操作信号は、コンピューティングデバイス210に
入力され、コンピューティングデバイス210は、タッチセンサ222からの操作信号を
検出すると、ゲームに対する操作として解釈し、これに応じた処理が実行される。例えば
、コンピューティングデバイス210は、タッチセンサ222からの操作信号に基づいて
、ディスプレイ221上の位置情報を算出し、ゲーム画像及び時間情報と相まって、操作
アクションを決定するために用いられる。本実施形態のゲーム装置100は、複数の指(
又はスタイラス)によるマルチタッチ操作を受け付けることができるように構成されてい
る。
The operation signal output from the touch sensor 222 is input to the computing device 210. When the computing device 210 detects the operation signal from the touch sensor 222, the computing device 210 interprets the operation signal as an operation on the game, and processing corresponding to the operation is executed. Is done. For example, the computing device 210 calculates position information on the display 221 based on an operation signal from the touch sensor 222, and is used to determine an operation action in combination with a game image and time information. The game apparatus 100 of the present embodiment has a plurality of fingers (
Alternatively, a multi-touch operation by a stylus) can be received.

オーディオ出力ユニット230は、ゲームの進行状況に合わせて、ユーザにゲーム音を
提供するためのオーディオ出力デバイスである。オーディオ出力ユニット230は、サウ
ンドエンジン214からのオーディオ信号に基づいて、音(例えば、音声、音楽、効果音
等)を発生させる。
The audio output unit 230 is an audio output device for providing game sound to the user in accordance with the progress of the game. The audio output unit 230 generates sound (for example, sound, music, sound effect, etc.) based on the audio signal from the sound engine 214.

外部メディアユニット240は、例えばメモリカードの外部記憶媒体にアクセスするた
めのメディアインターフェースデバイスである。外部記憶媒体は、メモリカードに限られ
ず、CD−ROMや、CD−R、DVD−ROM、DVD−R等であっても良い。外部記
憶媒体は、例えば、本実施形態のゲームプログラムをゲーム装置100に供給したり、ユ
ーザデータを保存したりするために用いられる。外部メディアユニット240は、装着さ
れた外部記憶媒体にアクセスし、データを読み込み、また、書き込みが許可されている場
合には、そこに書き込みを行う。
The external media unit 240 is a media interface device for accessing an external storage medium of a memory card, for example. The external storage medium is not limited to a memory card, and may be a CD-ROM, CD-R, DVD-ROM, DVD-R, or the like. The external storage medium is used, for example, for supplying the game program of the present embodiment to the game apparatus 100 and storing user data. The external media unit 240 accesses the attached external storage medium, reads data, and if writing is permitted, writes to the data.

通信ユニット250は、ゲーム装置100が他のゲーム装置やコンピュータと通信を行
うための通信ボードであり、例えば、無線LANやBluetooth(登録商標)、3
G等の通信規格を実現する回路が実装されている。本開示では、通信形態は、無線通信を
前提にしているが、有線LAN等の有線通信を排除するものではない。
The communication unit 250 is a communication board for allowing the game apparatus 100 to communicate with other game apparatuses and computers. For example, a wireless LAN, Bluetooth (registered trademark), 3
A circuit that implements a communication standard such as G is mounted. In the present disclosure, the communication form is premised on wireless communication, but does not exclude wired communication such as wired LAN.

操作ボタン260は、典型的には、複数のボタン(キー)で構成されるが、これに限定
されるものではない。本例では、十字ボタン及び丸形ボタンからなる、左右それぞれの操
作ボタンセットが設けられている。
The operation button 260 is typically composed of a plurality of buttons (keys), but is not limited thereto. In this example, left and right operation button sets including a cross button and a round button are provided.

次に、本実施形態のゲーム装置100によってユーザに提供されるゲームについて、簡
単に説明する。かかるゲームは、ゲーム装置100が、コンピューティングデバイス21
0の制御の下、ゲームプログラムを実行することにより、実現される。
Next, the game provided to the user by the game device 100 of the present embodiment will be briefly described. Such a game is performed by the game device 100 using the computing device 21.
This is realized by executing the game program under the control of zero.

本例では、ゲーム装置100が提供するゲームは、テニスゲームであるとする。テニス
ゲームは、典型的には、ユーザ(プレイヤ)が、プレイヤキャラクタを操作して、コンピ
ュータ(即ち、ゲーム装置100)が操作する相手プレイヤキャラクタと、ボールオブジ
ェクトを打ち合って、仮想現実のテニスを試合形式でプレイするというものである。本例
では、プレイヤが1対1で試合を行うシングルスであるとする。ユーザの仮想現実感を高
めるため、典型的には、ディスプレイ221に表示されるゲーム画面は、仮想3次元空間
を表現したゲーム画像である。プレイ中、仮想カメラの視線方向及び視野領域は制御され
、これに応じて、仮想3次元空間を表現するゲーム画像が変化する。通常のテニスの試合
と同様に、プレイヤキャラクタは、ボールオブジェクトを打ち返すために、適切な打点位
置に入る必要がある。このため、ユーザには、プレイヤキャラクタをより正確に移動させ
る操作が要求される。
In this example, it is assumed that the game provided by the game device 100 is a tennis game. Typically, in a tennis game, a user (player) operates a player character, hits a ball object with an opponent player character operated by a computer (that is, the game device 100), and plays virtual reality tennis. It is to play in a game format. In this example, it is assumed that the player is a singles who plays a one-on-one match. In order to enhance the virtual reality of the user, the game screen displayed on the display 221 is typically a game image representing a virtual three-dimensional space. During play, the viewing direction and field of view of the virtual camera are controlled, and the game image representing the virtual three-dimensional space changes accordingly. Similar to a normal tennis game, the player character needs to enter an appropriate hit point position in order to hit the ball object. For this reason, the user is required to perform an operation for moving the player character more accurately.

ユーザは、タッチスクリーン220に対するタッチ操作(指又はスタイラス等によるタ
ッチ操作。以下、同じ。)により、プレイヤキャラクタを操作して、サーブショットを放
ち、また、プレイヤキャラクタを所望の位置まで移動させ、ボールオブジェクトを打ち返
すことができる。本例では、移動のためのタッチ操作に続けて、ショットのためのタッチ
操作が要求される。ショットの方向や強さ、種類等は、タッチ操作のタイミングや位置、
方向、スピード(速度)等といったファクタに基づいて、コンピューティングデバイス2
10によりコンピュータ演算され、決定される。ユーザのタッチ操作による操作アクショ
ンは、例えば、タップ操作、ドラッグ操作及びフリック操作がある。コンピューティング
デバイス210は、必要に応じて、与えられたタッチ操作から操作アクションを決定する
The user operates the player character by a touch operation on the touch screen 220 (touch operation with a finger or a stylus, etc., hereinafter the same), releases a serve shot, moves the player character to a desired position, and moves the ball. You can strike back an object. In this example, a touch operation for a shot is required following a touch operation for movement. The shot direction, strength, type, etc. are the timing and position of the touch operation,
Based on factors such as direction, speed, etc., computing device 2
10 is computed and determined. The operation action by the user's touch operation includes, for example, a tap operation, a drag operation, and a flick operation. The computing device 210 determines an operation action from a given touch operation as necessary.

タップは、ユーザの指がタッチスクリーン220に単に触れる動作(タッチダウン)で
あり、典型的には、タッチダウンの後、リフトアップがなされる(指が離される)。コン
ピューティングデバイス210は、所定時間内にタップ操作した回数により、シングルタ
ップ操作やダブルタップ操作として判別することができる。
The tap is an operation in which the user's finger simply touches the touch screen 220 (touch down). Typically, after the touch down, lift-up is performed (finger is released). The computing device 210 can determine a single tap operation or a double tap operation based on the number of tap operations performed within a predetermined time.

ドラッグ操作は、タッチスクリーン220上で指を引きずる動作であり、具体的には、
タッチダウンした指がそのまま離されずにタッチスクリーン220上を所定の速度以下で
移動してストロークを形成する動作である。つまり、タップ操作であるか又はドラッグ操
作であるかは、タッチダウンした指が2次元的に移動するか否かによって区別することが
できる。
The drag operation is an operation of dragging a finger on the touch screen 220. Specifically,
This is an operation of forming a stroke by moving the touched-down finger on the touch screen 220 at a predetermined speed or less without releasing it. That is, whether the operation is a tap operation or a drag operation can be distinguished depending on whether the touched-down finger moves two-dimensionally.

フリック操作は、指で弾くような動作又は指で素早く拭うような動作であり、具体的に
は、タッチダウンした指が所定の速度以上で移動しながらリフトアップされる動作である
。ドラッグ操作であるか又はフリック操作であるかは、指が所定の速度以上で移動され所
定の時間内にリフトアップされるか否かによって区別することができる。
The flick operation is an operation of flipping with a finger or an operation of quickly wiping with a finger, and specifically, an operation of lifting a touch-down finger while moving at a predetermined speed or more. Whether the operation is a drag operation or a flick operation can be distinguished depending on whether the finger is moved at a predetermined speed or higher and lifted up within a predetermined time.

例えば、ユーザは、プレイ中、仮想3次元空間内のコート上のプレイヤキャラクタを移
動させるために、コートを含むプレイエリア上の所定の地点をタップ操作する。これによ
り、プレイヤキャラクタの移動目標位置が設定され、プレイヤキャラクタは当該移動目標
位置まで移動する。このとき、プレイヤキャラクタの移動に合わせて仮想カメラの視線方
向及び/又は視野領域も制御される。これにより、タッチスクリーン220上には、コー
ト上を移動するプレイヤキャラクタを含むゲーム画像が表示されることになる。また、こ
れにより、ユーザは、プレイヤキャラクタを移動させる際、タッチ操作をし続ける必要が
なくなる。
For example, during play, the user taps a predetermined point on the play area including the court in order to move the player character on the court in the virtual three-dimensional space. Thereby, the movement target position of the player character is set, and the player character moves to the movement target position. At this time, the line-of-sight direction and / or visual field area of the virtual camera is also controlled in accordance with the movement of the player character. As a result, a game image including a player character moving on the court is displayed on the touch screen 220. This also eliminates the need for the user to continue the touch operation when moving the player character.

ユーザは、プレイヤキャラクタの移動中、別の新たな点をタップ操作して、移動目標位
置を変更することもできる。続いて、ユーザは、所望の移動目標位置まで移動したプレイ
ヤキャラクタにショットさせるために、ボールオブジェクトを打ち返したい方向へフリッ
ク操作する。これにより、プレイヤキャラクタは、飛んでくるボールオブジェクトを打ち
返すことができる。ショットの精確さは、例えば、フリック操作開始のタイミング、方向
、速度、ストローク距離等に依存する。また、ユーザは、フリック操作の形態に基づいて
、状況に応じたショットの種類(例えば、トップスピン、スライス、ボレー、ロブ及びス
マッシュ等)を選択することができる。これにより、ユーザは、プレイヤキャラクタの移
動のためのタッチ操作を素早く済ませ、プレイヤキャラクタが所望の移動目標位置まで移
動している間に、ショットのためのフリック操作開始のタイミングを見計らったり、ショ
ットの種類に応じたフリック操作のための操作時間を設けたりすることができる。
The user can change the movement target position by tapping another new point while the player character is moving. Subsequently, the user performs a flick operation in a direction in which the player wants to hit the ball object in order to cause the player character that has moved to the desired movement target position to make a shot. Thereby, the player character can strike back the flying ball object. The accuracy of the shot depends on, for example, the timing of starting the flick operation, the direction, the speed, the stroke distance, and the like. Further, the user can select a shot type (for example, top spin, slice, volley, lob, smash, etc.) according to the situation based on the form of the flick operation. As a result, the user can quickly perform the touch operation for moving the player character, and can estimate the start timing of the flick operation for the shot while the player character is moving to the desired movement target position. An operation time for a flick operation according to the type can be provided.

また、ユーザは、ドラッグ操作により、プレイヤキャラクタを移動させても良い。ドラ
ッグ操作の場合には、ユーザは、移動する指の動きに追随させてプレイヤキャラクタを移
動させることができる。所望の移動目標位置まで移動したプレイヤキャラクタに対して、
上述のように、ユーザは、ショットの動作を与えることができる。
Further, the user may move the player character by a drag operation. In the case of a drag operation, the user can move the player character by following the movement of the moving finger. For a player character that has moved to the desired movement target position,
As described above, the user can give a shot action.

さらに、ユーザは、フリック操作により、プレイヤキャラクタを移動させることもでき
る。フリック操作の場合には、ユーザは、フリック操作の形態に応じて、任意の地点を移
動目標位置として設定し、プレイヤキャラクタを移動させることができる。本開示により
明らかにされるように、ユーザは、フリック操作によりプレイヤキャラクタを移動させる
場合、仮想3次元空間内の移動目標地点を直接指定する必要はない。言い換えれば、ある
プレイシーンのゲーム画像において、当該ゲーム画像の外に移動目標位置があったとして
も、ユーザは、フリック操作を用いて、当該移動目標位置を設定することができる。これ
により、当該移動目標位置まで移動するプレイヤキャラクタの動きに合わせて、仮想3次
元空間を表現するゲーム画像は変化する。また、これにより、ユーザは、プレイヤキャラ
クタを移動させる際、タッチ操作をし続ける必要がなくなる。
Further, the user can move the player character by a flick operation. In the case of a flick operation, the user can set an arbitrary point as the movement target position and move the player character according to the form of the flick operation. As will be apparent from the present disclosure, when the user moves the player character by a flick operation, it is not necessary to directly specify the movement target point in the virtual three-dimensional space. In other words, even if there is a movement target position outside the game image in a game image of a certain play scene, the user can set the movement target position using a flick operation. Accordingly, the game image representing the virtual three-dimensional space changes in accordance with the movement of the player character that moves to the movement target position. This also eliminates the need for the user to continue the touch operation when moving the player character.

図4は、本発明の一実施形態に係るゲーム装置100の機能的構成を説明するためのブ
ロックダイアグラムである。即ち、同図は、コンピューティングデバイス210のプロセ
ッサ(即ち、プロセッサコア211)がゲームプログラムを実行することにより、他のハ
ードウェア/ソフトウェアと協働して、ゲーム装置100において実現される各種の機能
的手段の構成を示すものであり、同図では、特に、本実施形態のゲームプログラムが実現
するゲームに関わる機能的手段を例示している。
FIG. 4 is a block diagram for explaining a functional configuration of the game apparatus 100 according to the embodiment of the present invention. That is, the figure shows various functions realized in the game apparatus 100 in cooperation with other hardware / software by the processor (that is, the processor core 211) of the computing device 210 executing the game program. This figure shows the configuration of the functional means, and in the figure, functional means related to the game realized by the game program of the present embodiment are particularly illustrated.

同図を参照して、ゲーム制御部401は、ゲームプログラムによって実現されるゲーム
の進行を統括的に制御する機能的手段である。ゲーム制御部401は、例えば、テニスゲ
ームであれば、プレイヤキャラクタと相手プレイヤキャラクタとによる仮想現実のテニス
の試合が展開されるようにコンピュータ処理を行う。ゲームの進行に必要なデータは、ゲ
ームデータ記憶部402に格納されている。ゲーム制御部401は、プレイヤキャラクタ
の移動やその他の動作(例えば、ショット)を制御するプレイヤキャラクタ挙動制御部4
011を含む。
With reference to the figure, a game control unit 401 is a functional means for comprehensively controlling the progress of a game realized by a game program. For example, in the case of a tennis game, the game control unit 401 performs computer processing so that a virtual reality tennis game between the player character and the opponent player character is developed. Data necessary for the progress of the game is stored in the game data storage unit 402. The game control unit 401 controls the player character behavior control unit 4 that controls movement of the player character and other actions (for example, shots).
011 is included.

タッチ操作部403は、ユーザによるタッチ操作を受け付け、当該タッチ操作に応じた
操作信号をタッチ操作処理部406に出力する。表示部404は、ゲーム制御部401の
制御の下、画像生成部408から出力される信号に基づくゲーム画像を表示する。タッチ
操作部403及び表示部404は、上述したタッチスクリーン220に対応付けることが
できる。また、オーディオ出力部405は、ゲーム制御部401の制御の下、オーディオ
生成部409から出力される信号に基づいて音を発生させる。オーディオ出力部405は
、図2に示したオーディオ出力ユニット230に対応付けることができる。
The touch operation unit 403 receives a touch operation by the user and outputs an operation signal corresponding to the touch operation to the touch operation processing unit 406. The display unit 404 displays a game image based on a signal output from the image generation unit 408 under the control of the game control unit 401. The touch operation unit 403 and the display unit 404 can be associated with the touch screen 220 described above. Also, the audio output unit 405 generates sound based on the signal output from the audio generation unit 409 under the control of the game control unit 401. The audio output unit 405 can be associated with the audio output unit 230 shown in FIG.

タッチ操作処理部406は、タッチ操作部403に対するタッチ操作に応じた操作信号
に基づいて、ゲーム装置100に与えられたタッチ操作の種類(操作アクション)を決定
する。本例のタッチ操作処理部406は、位置情報取得部4061と操作アクション決定
部4062とを含む。
The touch operation processing unit 406 determines the type (operation action) of the touch operation given to the game apparatus 100 based on an operation signal corresponding to the touch operation on the touch operation unit 403. The touch operation processing unit 406 of this example includes a position information acquisition unit 4061 and an operation action determination unit 4062.

位置情報取得部4061は、タッチ操作部403から送られてくる操作信号に基づいて
、タッチ操作された位置に関する表示部404(ディスプレイ221)上の位置情報を取
得する。位置情報取得部4061は、取得した位置情報を操作アクション決定部4062
に出力する。
The position information acquisition unit 4061 acquires position information on the display unit 404 (display 221) related to the touched position based on the operation signal sent from the touch operation unit 403. The position information acquisition unit 4061 uses the acquired position information as the operation action determination unit 4062.
Output to.

操作アクション決定部4062は、位置情報取得部4061から送られてくる位置情報
及びタイマ407から得られる時間情報に基づいて、ユーザによるタッチ操作の種類(操
作アクション)を決定する。操作アクションは、例えば、上述したように、タップ操作、
ドラッグ操作及びフリック操作がある。
The operation action determination unit 4062 determines the type of touch operation (operation action) by the user based on the position information sent from the position information acquisition unit 4061 and the time information obtained from the timer 407. The operation action is, for example, as described above, a tap operation,
There are drag operations and flick operations.

画像生成部408は、ゲーム制御部401から出力される画像データに基づいて、ゲー
ム画像を生成し、表示部404に出力する機能的手段である。
The image generation unit 408 is a functional unit that generates a game image based on the image data output from the game control unit 401 and outputs the game image to the display unit 404.

オーディオ生成部409は、ゲーム制御部401から出力されるオーディオデータに基
づいて、ゲーム音を生成し、オーディオ出力部405に出力する。
The audio generation unit 409 generates a game sound based on the audio data output from the game control unit 401 and outputs the game sound to the audio output unit 405.

図5は、本発明の一実施形態に係るゲーム装置100におけるプレイヤキャラクタの挙
動制御処理を説明するためのフローチャートである。以下では、プレイヤキャラクタと相
手プレイヤキャラクタとのラリーにおける挙動制御処理について説明している。
FIG. 5 is a flowchart for explaining the player character behavior control process in the game apparatus 100 according to the embodiment of the present invention. In the following, a behavior control process in a rally between a player character and an opponent player character will be described.

同図に示すように、ゲーム装置100のタッチ操作処理部406は、ゲームの進行中、
タッチ操作部403に対するユーザによるタッチ操作があるか否かを所定の時間間隔で監
視する(STEP501)。タッチ操作処理部406は、タッチ操作があると判断すると
(STEP501のYes)、当該タッチ操作に基づいて、タッチ操作の種類、即ち、操
作アクションを決定する(STEP502)。タッチ操作は、時間サンプリングで検出さ
れ、それに応じた操作信号が出力される。操作アクションの決定処理は、図6を参照して
説明される。
As shown in the figure, the touch operation processing unit 406 of the game apparatus 100 is in progress of the game.
Whether or not there is a touch operation by the user on the touch operation unit 403 is monitored at predetermined time intervals (STEP 501). When the touch operation processing unit 406 determines that there is a touch operation (YES in STEP 501), the touch operation processing unit 406 determines a type of the touch operation, that is, an operation action based on the touch operation (STEP 502). The touch operation is detected by time sampling, and an operation signal corresponding to the touch operation is output. The operation action determination process will be described with reference to FIG.

続いて、ゲーム制御部401は、決定した操作アクション及び進行中のゲームの状況に
応じて、プレイヤキャラクタがボールオブジェクトをショットするためにスイング動作が
可能であるか否かを判断する(STEP503)。ゲーム制御部401は、当該タッチ操
作についてスイング動作が可能でないと判断する場合(STEP503のNo)、プレイ
ヤキャラクタを移動させるため、プレイヤキャラクタの移動処理を行う(STEP504
)。プレイヤキャラクタの移動処理は、図7を参照して説明される。これに対して、ゲー
ム制御部401は、当該タッチ操作についてスイング動作が可能であると判断する場合(
STEP503のYes)、プレイヤキャラクタのスイング動作を制御するスイング処理
を行う(STEP505)。プレイヤキャラクタのスイング処理は、図8を参照して説明
される。
Subsequently, the game control unit 401 determines whether or not the player character can perform a swing motion to shot the ball object according to the determined operation action and the status of the game in progress (STEP 503). When the game control unit 401 determines that the swing operation is not possible for the touch operation (No in STEP 503), the game control unit 401 performs a player character movement process (STEP 504).
). The player character movement process will be described with reference to FIG. On the other hand, the game control unit 401 determines that a swing motion is possible for the touch operation (
(Yes in STEP503), swing processing for controlling the swing motion of the player character is performed (STEP505). The player character swing process will be described with reference to FIG.

なお、本例では、ゲーム制御部401は、ラリー中のユーザによるタッチ操作について
、プレイヤキャラクタの移動処理又はスイング処理のいずれかであると判断するように構
成されているが、これに限るものでなく、他の動作処理を含む複数の動作処理群の中から
いずれかを選択するように構成されても良い。
In this example, the game control unit 401 is configured to determine that the touch operation by the user during the rally is either the player character movement process or the swing process, but the present invention is not limited thereto. Alternatively, any one of a plurality of operation processing groups including other operation processing may be selected.

図6は、本発明の一実施形態に係るゲーム装置100における操作アクションの決定処
理を説明するためのフローチャートである。
FIG. 6 is a flowchart for explaining the operation action determination process in the game apparatus 100 according to the embodiment of the present invention.

即ち、同図に示すように、ゲーム装置100のゲーム制御部401は、タッチ操作部4
03から操作信号を受け付けると、当該操作信号に基づいて、タッチスクリーン220上
の位置情報を取得する(STEP601)。続いて、ゲーム制御部401は、当該タッチ
操作が移動しているか否かを判断する(STEP602)。ゲーム制御部401は、所定
の時間間隔で取得した一連の位置情報に差分がある場合に、タッチ操作が移動していると
判断することができる。
In other words, as shown in the figure, the game control unit 401 of the game apparatus 100 is configured with the touch operation unit 4.
When an operation signal is received from 03, position information on the touch screen 220 is acquired based on the operation signal (STEP 601). Subsequently, the game control unit 401 determines whether or not the touch operation is moving (STEP 602). The game control unit 401 can determine that the touch operation is moving when there is a difference in a series of position information acquired at predetermined time intervals.

ゲーム制御部401は、当該タッチ操作が移動していないと判断する場合(STEP6
02のNo)、現在(最新)の位置情報を出力し(STEP603)、続いて、所定の時
間内に指が離れたか否かを判断する(STEP604)。ゲーム制御部401は、所定の
時間内に指が離れていないと判断する場合には(STEP604のNo)、STEP60
1に戻る。これに対して、ゲーム制御部401は、所定の時間内に指が離れたと判断する
場合には(STEP604のYes)、当該操作アクションの決定処理を終了する。
The game control unit 401 determines that the touch operation has not moved (STEP 6).
(No in 02), the current (latest) position information is output (STEP 603), and then it is determined whether or not the finger has been released within a predetermined time (STEP 604). If the game control unit 401 determines that the finger has not been removed within a predetermined time (NO in STEP 604), STEP 60
Return to 1. On the other hand, when the game control unit 401 determines that the finger has been released within a predetermined time (YES in STEP 604), the operation action determination process ends.

一方、ゲーム制御部401は、当該タッチ操作が移動していると判断する場合(STE
P602のYes)、ゲーム制御部401は、当該タッチ操作の移動速度を算出する(S
TEP605)。ゲーム制御部401は、所定の時間間隔で取得する一連の位置情報から
、移動速度を算出することができる。続いて、ゲーム制御部401は、算出した移動速度
が所定の速度vよりも大きいか否かを判断する(STEP606)。ゲーム制御部401
は、算出した移動速度が所定の速度v以下であると判断する場合(STEP606のNo
)、現在の位置情報を出力する(STEP603)。即ち、本例では、ゲーム制御部40
1は、タッチ操作によるドラッグ操作をタップ操作の連続、又はタップ操作をストローク
距離の短いドラッグ操作であるとして処理している。これに対して、ゲーム制御部401
は、算出した移動速度が所定の速度vよりも大きいと判断する場合(STEP606のY
es)、操作アクションをフリック操作として決定し(STEP607)、移動方向及び
移動速度(移動ベクトル)を出力して(STEP608)、処理を終了する。
On the other hand, when the game control unit 401 determines that the touch operation is moving (STE
In Step P602, the game control unit 401 calculates the moving speed of the touch operation (S
TEP605). The game control unit 401 can calculate the moving speed from a series of position information acquired at predetermined time intervals. Subsequently, the game control unit 401 determines whether or not the calculated moving speed is greater than a predetermined speed v (STEP 606). Game control unit 401
If it is determined that the calculated moving speed is equal to or lower than the predetermined speed v (No in STEP 606)
), The current position information is output (STEP 603). That is, in this example, the game control unit 40
No. 1 processes the drag operation by the touch operation as a continuous tap operation or the tap operation as a drag operation with a short stroke distance. In contrast, the game control unit 401
Is determined that the calculated moving speed is greater than the predetermined speed v (Y in STEP 606)
es), the operation action is determined as a flick operation (STEP 607), the movement direction and the movement speed (movement vector) are output (STEP 608), and the process is terminated.

図7は、本発明の一実施形態に係るゲーム装置100におけるプレイヤキャラクタの移
動処理を説明するためのフローチャートである。
即ち、同図に示すように、ゲーム制御部401は、操作アクションがフリック操作であ
るか否かを判断する(STEP701)。ゲーム制御部401は、操作アクションがフリ
ック操作でないと判断する場合(STEP701のNo)、タップ操作又はドラッグ操作
であるとみなして、出力された位置情報を目標位置情報に設定し(STEP702)、当
該移動目標位置に向けてプレイヤキャラクタが移動するように、ゲーム画像の表示を制御
する(STEP703)。
FIG. 7 is a flowchart for explaining the player character movement process in the game apparatus 100 according to the embodiment of the present invention.
That is, as shown in the figure, the game control unit 401 determines whether or not the operation action is a flick operation (STEP 701). When the game control unit 401 determines that the operation action is not a flick operation (No in STEP 701), the game control unit 401 regards it as a tap operation or a drag operation, sets the output position information as target position information (STEP 702), and The display of the game image is controlled so that the player character moves toward the movement target position (STEP 703).

これに対して、ゲーム制御部401は、操作アクションがフリック操作であると判断す
る場合(STEP701のYes)、出力された移動方向及び移動速度に基づいて移動目
標位置を算出する(STEP704)。ゲーム制御部401は、当該移動目標位置に向け
てプレイヤキャラクタが移動するように、ゲーム画像の表示を制御する(STEP703
)。即ち、本開示では、フリック操作による移動方向及び移動速度といった操作パラメー
タは、プレイヤキャラクタの移動目標位置を算出するために用いられものであって、プレ
イヤキャラクタ自身の位置データに直接与えることでプレイヤキャラクタの挙動計算を行
うために用いられるのではない。本開示では、プレイヤキャラクタの挙動計算は、算出さ
れた移動目標位置に基づいて行われる。
On the other hand, when the game control unit 401 determines that the operation action is a flick operation (YES in STEP 701), the game control unit 401 calculates a movement target position based on the output movement direction and movement speed (STEP 704). The game control unit 401 controls display of the game image so that the player character moves toward the movement target position (STEP 703).
). In other words, in the present disclosure, the operation parameters such as the moving direction and the moving speed by the flick operation are used for calculating the movement target position of the player character, and are directly given to the position data of the player character by directly giving the player character. It is not used to calculate the behavior of In the present disclosure, the behavior calculation of the player character is performed based on the calculated movement target position.

図10乃至図14は、フリック操作によるプレイヤキャラクタの移動を説明するための
ゲーム画面を示す図である。本例では、あるプレイシーンにおいて、プレイヤキャラクタ
Pは、コートの後方で打点位置をとることが要求されているとする。このとき、コートの
後方の領域の一部は、ゲーム画面の外に位置している(図10)。
10 to 14 are diagrams showing game screens for explaining the movement of the player character by the flick operation. In this example, it is assumed that the player character P is required to take a hit point position behind the court in a certain play scene. At this time, a part of the area behind the court is located outside the game screen (FIG. 10).

ユーザは、フリック操作をするため、タッチスクリーン上のいずれかの位置を指でタッ
チし、手前側に素早く動かすタッチ操作を行う。ユーザがタッチした瞬間、ゲーム制御部
401は、これを検出し、まず、タッチした位置にモーションカーソル(2重の円で表示
される)Cを表示する(図10)。
In order to perform a flick operation, the user touches any position on the touch screen with a finger and performs a touch operation that quickly moves to the near side. At the moment when the user touches, the game control unit 401 detects this, and first displays a motion cursor (displayed as a double circle) C at the touched position (FIG. 10).

ユーザが指を素早く動かし、タッチスクリーンから離すことにより、ゲーム制御部40
1は、操作アクションがフリック操作であると判断する。ゲーム制御部401は、指が離
れた位置までモーションカーソルCを移動表示する。ゲーム制御部401は、ボールオブ
ジェクトの位置情報に基づいてショット可能でないと判断し、フリック操作に基づいて算
出された移動目標位置までプレイヤキャラクタPを移動させるための処理に入る。本例で
は、プレイヤキャラクタPの移動目標位置までの移動がユーザに直感的に伝わるよう、例
えばターゲットマークMが表示される。ターゲットマークMは、例えば、仮想的な光彩に
よる表示であるが、これに限られるものではない。即ち、ゲーム制御部401は、プレイ
ヤキャラクタの現在位置を光彩で強調表示する(図11)。
When the user quickly moves his / her finger away from the touch screen, the game control unit 40
1 determines that the operation action is a flick operation. The game control unit 401 moves and displays the motion cursor C to a position where the finger is released. The game control unit 401 determines that the shot is not possible based on the position information of the ball object, and enters a process for moving the player character P to the movement target position calculated based on the flick operation. In this example, for example, a target mark M is displayed so that the movement of the player character P to the movement target position is intuitively transmitted to the user. The target mark M is, for example, a display with a virtual glow, but is not limited thereto. That is, the game control unit 401 highlights the current position of the player character with a glow (FIG. 11).

続いて、ゲーム制御部401は、フリック操作により算出された移動目標位置まで光彩
が移動するよう、ターゲットマークMの移動を開始させる(図12)。これに合わせて、
ゲーム制御部401は、プレイヤキャラクタPがターゲットマークMを追随するように、
移動を開始させる(図13)。仮想カメラのアングルに従うゲーム画面の構成によっては
、ターゲットマークMは、一時的に、ゲーム画面の外に消えてしまう場合もある。ゲーム
制御部401は、プレイヤキャラクタPの移動に伴って、必要に応じてゲーム画面の構成
を変化させ、最終的に、プレイヤキャラクタPが移動目標位置にあるターゲットマークM
に追いつくように、表示を制御する(図14)。これにより、ユーザは、次のタッチ操作
により、ボールオブジェクトをショットすることができるようになる。
Subsequently, the game control unit 401 starts the movement of the target mark M so that the glow moves to the movement target position calculated by the flick operation (FIG. 12). In line with this,
The game control unit 401 is configured so that the player character P follows the target mark M.
The movement is started (FIG. 13). Depending on the configuration of the game screen according to the angle of the virtual camera, the target mark M may temporarily disappear outside the game screen. The game control unit 401 changes the configuration of the game screen as necessary as the player character P moves, and finally the target mark M where the player character P is at the movement target position.
The display is controlled so as to catch up with (FIG. 14). Thus, the user can shot the ball object by the next touch operation.

図8は、本発明の一実施形態に係るゲーム装置100におけるプレイヤキャラクタのス
イング処理を説明するためのフローチャートである。当該スイング処理は、図5のSTE
P503においてタッチ操作についてスイング可能であると判断された場合に、実行され
る。また、本例では、スイング処理は、フリック操作に基づいて実行されるものとする。
FIG. 8 is a flowchart for explaining the swing process of the player character in the game apparatus 100 according to one embodiment of the present invention. The swing process is the same as the STE in FIG.
This is executed when it is determined in P503 that the touch operation can swing. In this example, it is assumed that the swing process is executed based on a flick operation.

即ち、図8に示すように、ゲーム制御部401は、フリック操作により得られた移動方
向及び移動速度に従って、ショット目標位置を設定する(STEP801)。ショット目
標位置は、プレイヤキャラクタがショットによりボールオブジェクトを打ち返そうとする
目標位置である。ゲーム制御部401は、次に、予め設定されたスイング動作の中から、
進行中のゲームの状況で適用可能であるスイング動作の候補を抽出する(STEP802
)。スイング動作は、例えば、フォアハンド及びバックハンド並びにこれらから繰り出さ
れるトップスピン、スライス、ボレー、ロブ及びスマッシュ等がある。ゲーム制御部40
1は、ボールオブジェクトに関する位置情報及び速度情報並びにプレイヤキャラクタの位
置情報及びショットまでの時間(フレーム数)等を考慮して、適用可能であるスイング動
作の候補を抽出する。典型的には、プレイヤキャラクタが打点位置まで早く到達できるほ
ど、抽出されるスイング動作の候補は多くなる。続いて、ゲーム装置100は、フリック
操作のタイミング、移動方向及び移動速度に基づいて、抽出されたスイング動作の候補の
中から最適なスイング動作を決定する(STEP803)。そして、ゲーム制御部401
は、決定されたスイング動作に従って、プレイヤキャラクタがスイングするように、ゲー
ム画像の表示を制御し、これと相まって、ボールオブジェクトの軌道計算を行いながら、
打ち返されたボールオブジェクトの表示を制御する(STEP804)。
That is, as shown in FIG. 8, the game control unit 401 sets the shot target position according to the moving direction and moving speed obtained by the flick operation (STEP 801). The shot target position is a target position where the player character tries to strike back the ball object by a shot. Next, the game control unit 401 selects a preset swing action from
Swing motion candidates that can be applied in the situation of the game in progress are extracted (STEP 802).
). The swing motion includes, for example, a forehand and a backhand, and top spin, slice, volley, rob, smash, and the like that are fed out from these. Game control unit 40
1 extracts candidate swing motions that can be applied in consideration of position information and speed information related to the ball object, position information of the player character, time to shot (number of frames), and the like. Typically, the earlier the player character can reach the hit position, the more swing motion candidates that can be extracted. Subsequently, the game device 100 determines an optimum swing motion from the extracted swing motion candidates based on the timing of the flick operation, the moving direction, and the moving speed (STEP 803). Then, the game control unit 401
Controls the display of the game image so that the player character swings according to the determined swing motion, and in combination with this, while calculating the trajectory of the ball object,
The display of the hit ball object is controlled (STEP 804).

なお、本例では説明されていないが、ゲーム装置100は、プレイヤキャラクタのスイ
ング中に、例えば、ユーザによる操作ボタンからの操作を受け付けて、ショットカーソル
を移動させ、ショット目標位置を調整しても良い。
Although not described in this example, the game apparatus 100 may accept, for example, an operation from the operation button by the user during the swing of the player character, move the shot cursor, and adjust the shot target position. good.

以上のように、本開示によれば、ユーザは、タッチスクリーン上に表示されるゲーム画
面の構成にとらわれず、プレイヤキャラクタに対して任意のタッチ操作を与えることがで
きる。特に、あるシーンにおいて、プレイヤキャラクタの移動目標位置がゲーム画面の外
にある場合であっても、直感的なタッチ操作により、当該移動目標位置を設定することが
できるようになる。
As described above, according to the present disclosure, the user can give an arbitrary touch operation to the player character regardless of the configuration of the game screen displayed on the touch screen. In particular, even if the movement target position of the player character is outside the game screen in a certain scene, the movement target position can be set by an intuitive touch operation.

また、本開示によれば、直感的なタッチ操作の組み合わせによって、プレイヤキャラク
タに一連の動作を行わせることができ、ゲームの興趣性を向上させることができるように
なる。
Further, according to the present disclosure, it is possible to cause the player character to perform a series of actions by a combination of intuitive touch operations, and to improve the interest of the game.

本発明は、タッチスクリーン機能を有するコンピュータゲーム装置及びスマートフォン
やタブレット型コンピュータに代表されるインテリジェントデバイスで実行されるゲーム
プログラムに広く適用することができる。
The present invention can be widely applied to a computer game device having a touch screen function and a game program executed by an intelligent device typified by a smartphone or a tablet computer.

100…ゲーム装置
110…筐体
210…コンピューティングデバイス
220…タッチスクリーン
230…スピーカ
260…操作ボタン
401…ゲーム制御部
402…ゲームデータ記憶部
403…タッチ操作部
404…表示部
405…オーディオ出力部
406…タッチ操作処理部
4061…位置情報取得部
4062…操作アクション決定部
407…タイマ
408…画像生成部
409…オーディオ生成部
DESCRIPTION OF SYMBOLS 100 ... Game device 110 ... Case 210 ... Computing device 220 ... Touch screen 230 ... Speaker 260 ... Operation button 401 ... Game control part 402 ... Game data storage part 403 ... Touch operation part 404 ... Display part 405 ... Audio output part 406 ... Touch operation processing unit 4061 ... Position information acquisition unit 4062 ... Operation action determination unit 407 ... Timer 408 ... Image generation unit 409 ... Audio generation unit

Claims (2)

タッチスクリーンを備えたゲーム装置のコンピューティングデバイスに実行され、前記ゲーム装置に所定のゲームを実現するプログラムであって、
前記ゲーム装置を、
ユーザによって操作されるプレイヤキャラクタを含む、仮想3次元空間を表現するゲーム画像を生成する画像生成手段、
生成された前記ゲーム画像を前記タッチスクリーンに表示するための制御を行う表示制御手段、
前記タッチスクリーンに対する第1のタッチ操作に基づいて、前記プレイヤキャラクタが移動すべき目標位置を算出し、当該プレイヤキャラクタが当該目標位置に向かって移動するように制御する移動制御手段、
前記プレイヤキャラクタが前記目標位置に向かって移動している場合に、前記第1のタッチ操作後に入力される前記タッチスクリーンに対する第2のタッチ操作のタイミングにおけるゲーム内オブジェクトの位置情報に基づいて、前記ゲーム内オブジェクトに対する前記プレイヤキャラクタの挙動が可能かどうかを判断し、可能と判断した場合に、前記第2のタッチ操作に基づいて前記ゲーム内オブジェクトに対する前記プレイヤキャラクタの挙動を制御する挙動制御手段
として機能させ
前記挙動制御手段は、前記第2のタッチ操作のタイミングにおける前記ゲーム内オブジェクトの速度情報、前記プレイヤキャラクタの位置情報、前記挙動を行うまでの時間の少なくともいずれかに基づいて前記挙動の候補を抽出し、抽出した前記候補から前記第2のタッチ操作に基づいて前記挙動を決定し、
前記挙動制御手段によって抽出される前記候補の数は、前記ゲーム内オブジェクトの位置と前記プレイヤキャラクタの位置との関係に応じて異なる、
プログラム。
A program that is executed on a computing device of a game device having a touch screen and that realizes a predetermined game on the game device,
The game device;
Image generating means for generating a game image representing a virtual three-dimensional space including a player character operated by a user;
Display control means for performing control for displaying the generated game image on the touch screen;
A movement control means for calculating a target position to which the player character should move based on a first touch operation on the touch screen and controlling the player character to move toward the target position;
When the player character is moving toward the target position, based on the position information of the in-game object at the timing of the second touch operation with respect to the touch screen input after the first touch operation, As a behavior control means for determining whether or not the player character can behave with respect to the in-game object and controlling the behavior of the player character with respect to the in-game object based on the second touch operation when it is determined to function,
The behavior control means extracts the behavior candidates based on at least one of speed information of the in-game object at the timing of the second touch operation, position information of the player character, and time until the behavior is performed. And determining the behavior based on the second touch operation from the extracted candidate,
The number of candidates extracted by the behavior control means varies depending on the relationship between the position of the in-game object and the position of the player character.
program.
前記プログラムは、前記ゲーム装置を、
前記第2のタッチ操作及び前記挙動に基づいて、前記ゲーム内オブジェクトの軌道を計算する手段としてさらに機能させる、請求項1に記載のプログラム。
The program stores the game device,
The program according to claim 1 , further causing the function to calculate a trajectory of the in-game object based on the second touch operation and the behavior.
JP2016125653A 2016-06-24 2016-06-24 COMPUTER GAME DEVICE, CONTROL METHOD AND GAME PROGRAM FOR CONTROLLING COMPUTER GAME DEVICE, AND RECORDING MEDIUM CONTAINING GAME PROGRAM Active JP6260942B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016125653A JP6260942B2 (en) 2016-06-24 2016-06-24 COMPUTER GAME DEVICE, CONTROL METHOD AND GAME PROGRAM FOR CONTROLLING COMPUTER GAME DEVICE, AND RECORDING MEDIUM CONTAINING GAME PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016125653A JP6260942B2 (en) 2016-06-24 2016-06-24 COMPUTER GAME DEVICE, CONTROL METHOD AND GAME PROGRAM FOR CONTROLLING COMPUTER GAME DEVICE, AND RECORDING MEDIUM CONTAINING GAME PROGRAM

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011178062A Division JP5958787B2 (en) 2011-08-16 2011-08-16 COMPUTER GAME DEVICE, CONTROL METHOD AND GAME PROGRAM FOR CONTROLLING COMPUTER GAME DEVICE, AND RECORDING MEDIUM CONTAINING GAME PROGRAM

Publications (2)

Publication Number Publication Date
JP2016179238A JP2016179238A (en) 2016-10-13
JP6260942B2 true JP6260942B2 (en) 2018-01-17

Family

ID=57131322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016125653A Active JP6260942B2 (en) 2016-06-24 2016-06-24 COMPUTER GAME DEVICE, CONTROL METHOD AND GAME PROGRAM FOR CONTROLLING COMPUTER GAME DEVICE, AND RECORDING MEDIUM CONTAINING GAME PROGRAM

Country Status (1)

Country Link
JP (1) JP6260942B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4172645B2 (en) * 2004-03-31 2008-10-29 任天堂株式会社 A game program that changes the action of a game object in relation to the input position
JP4619087B2 (en) * 2004-05-10 2011-01-26 任天堂株式会社 GAME PROGRAM AND GAME DEVICE
JP4845542B2 (en) * 2006-03-14 2011-12-28 株式会社ソニー・コンピュータエンタテインメント GAME CONTROL PROGRAM, GAME CONTROL METHOD, AND GAME DEVICE
JP2010233752A (en) * 2009-03-30 2010-10-21 Namco Bandai Games Inc Program, information storage medium, and image generation system

Also Published As

Publication number Publication date
JP2016179238A (en) 2016-10-13

Similar Documents

Publication Publication Date Title
JP5958787B2 (en) COMPUTER GAME DEVICE, CONTROL METHOD AND GAME PROGRAM FOR CONTROLLING COMPUTER GAME DEVICE, AND RECORDING MEDIUM CONTAINING GAME PROGRAM
US8690674B2 (en) Storage medium having game program stored thereon and game apparatus
US8337284B2 (en) Game apparatus and storage medium having game program stored therein
EP3970819B1 (en) Interface display method and apparatus, and terminal and storage medium
US20230092439A1 (en) Virtual console gaming controller
US10576382B2 (en) Golf game apparatus, storage medium, golf game system and golf game control method
JP2016093360A (en) Game program
JP2017144158A (en) Program and game device
JP5081399B2 (en) GAME DEVICE, PROGRAM, AND INFORMATION RECORDING MEDIUM
JP6738604B2 (en) Program and game device
JP4688473B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP6260942B2 (en) COMPUTER GAME DEVICE, CONTROL METHOD AND GAME PROGRAM FOR CONTROLLING COMPUTER GAME DEVICE, AND RECORDING MEDIUM CONTAINING GAME PROGRAM
JP2014079646A (en) Game program and game device
JP2016093361A (en) Game program
JP2016083049A (en) Game program
JP2016083050A (en) Game program
JP2016083047A (en) Game program
JP6919050B1 (en) Game system, program and information processing method
JP6307651B1 (en) GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE
JP7191395B2 (en) GAME CONTROL DEVICE, GAME SYSTEM, AND PROGRAM
JP7368957B2 (en) Programs and information processing equipment
JP2018094026A (en) Game program, method, and information processing unit
JP6576313B2 (en) Game execution method, program, and recording medium
JP2020110603A (en) Game program, method, and information processing unit
JP2018187360A (en) Game program, method and information processing device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160722

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171120

R150 Certificate of patent or registration of utility model

Ref document number: 6260942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171203

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250