JP2017205311A - Game program, method, and information processing unit with touch screen - Google Patents

Game program, method, and information processing unit with touch screen Download PDF

Info

Publication number
JP2017205311A
JP2017205311A JP2016100019A JP2016100019A JP2017205311A JP 2017205311 A JP2017205311 A JP 2017205311A JP 2016100019 A JP2016100019 A JP 2016100019A JP 2016100019 A JP2016100019 A JP 2016100019A JP 2017205311 A JP2017205311 A JP 2017205311A
Authority
JP
Japan
Prior art keywords
game
game character
character
user
touch screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016100019A
Other languages
Japanese (ja)
Inventor
岡田 厚志
Atsushi Okada
厚志 岡田
陽平 和田
Yohei Wada
陽平 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2016100019A priority Critical patent/JP2017205311A/en
Publication of JP2017205311A publication Critical patent/JP2017205311A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technique for calculating a landing position in a sport game progressing a game by receiving operations such as stroking a ball, between itself and a game character as an opponent in a computer with a touch screen.SOLUTION: An information processing unit, upon receiving a tap operation or a flick operation onto a touch screen, causes a game character 134 to stroke an object (a ball). The information processing unit determines a landing position of the object on the basis of a position of the game character 134 in a field surface. The information processing unit determines a moving destination of the object on the bass of timing of an input operation for stroking the object. The information processing unit, in response to a setup of a stroke parameter of the game character, causes the object to land nearer to a boundary of a landing effective area on a field surface of the opponent as a setup value is more favorable, and suppresses fluctuation in stroked balls.SELECTED DRAWING: Figure 12

Description

本開示は、タッチ操作による入力操作を受け付けてゲームを進行させるゲームプログラムの技術に関し、特に、ゲームキャラクタを操作して、ゲームキャラクタを移動させつつ、対戦相手となるゲームキャラクタとの間で、ボールなどの対象物を打球させる等の操作を受け付けてゲームを進行させるスポーツゲームの技術に関する。   The present disclosure relates to a technique of a game program that accepts an input operation by a touch operation and advances a game, and in particular, operates a game character to move a game character while moving a ball with an opponent game character. The present invention relates to a sports game technique for accepting an operation such as hitting an object such as a ball and advancing the game.

仮想空間内にゲームキャラクタを表示させてゲームを進行させるゲームプログラムが、様々な事業者によって提供されている。例えば、テニス、卓球、バドミントン、バレーボールなどのスポーツを題材としたスポーツゲームが提供されている。   Various business operators provide game programs that display game characters in a virtual space and advance the game. For example, sports games such as tennis, table tennis, badminton, and volleyball are provided.

スポーツゲームは、コンピュータで実行されることにより、例えば、仮想空間内にゲームキャラクタおよび対戦相手となるキャラクタを配置させ、仮想空間内に仮想カメラを配置して、仮想カメラの撮影範囲の画像をディスプレイに表示することでゲームを進行させる。ユーザは、例えば、仮想空間内のゲームキャラクタを操作して、ゲームキャラクタを移動させつつ、対戦相手となるキャラクタとの間で、ボールなどの対象物を打球させる等の操作を行うことでゲームを進行させることができる。   When a sports game is executed by a computer, for example, a game character and an opponent character are placed in a virtual space, a virtual camera is placed in the virtual space, and an image of the shooting range of the virtual camera is displayed. The game progresses by displaying on the screen. For example, the user operates the game character in the virtual space, moves the game character, and performs an operation such as hitting an object such as a ball with the opponent character. Can be advanced.

これらのスポーツゲームの興趣性を向上させるため、様々な技術が検討されている。例えば、スポーツゲームにおいて、現実のスポーツにおける臨場感を再現することでゲームの興趣性を向上させているものがある。例えば、特開2009−112427号公報(特許文献1)には、テニスゲームの例において、ショット可能領域を操作対象キャラクタの位置に基づいて設定することと、ボールがショット可能領域に含まれないタイミングでユーザがショット指示ボタンを押下した場合に、操作対象キャラクタが空振りすることと、ボールがショット可能領域に含まれるタイミングでユーザがショット指示ボタンを押下した場合に、操作対象キャラクタがショット動作を行うこと等が記載されている。   In order to improve the interest of these sports games, various techniques are being studied. For example, some sports games improve the fun of the game by reproducing the realism of real sports. For example, in JP 2009-112427 A (Patent Document 1), in an example of a tennis game, a shotable area is set based on the position of an operation target character, and a timing at which a ball is not included in the shotable area. When the user presses the shot instruction button, the operation target character performs a shot motion when the operation target character flies idle and when the user presses the shot instruction button at a timing when the ball is included in the shot possible area. This is described.

また、特許文献1に記載されるテニスゲームにおいて、ボールを打ち返す領域を、十字ボタンを用いてユーザが指示することが記載されている。対戦相手コート内に、複数の目標領域が設定されており、各目標領域と、十字ボタンの押下方向とを対応付けることで、ボールを目標領域に打ち返すことをユーザが操作対象キャラクタに指示することができる。特許文献1の技術によると、ショット可能領域のうち、操作対象キャラクタの位置から近い領域にボールがあるときにショット指示ボタンが押下された場合よりも、操作対象キャラクタの位置から遠い領域にボールがあるときにショット指示ボタンが押下された場合に、ショットの精度を低下させることが記載されている。こうすることで、スポーツゲームのリアリティを向上させることができ、ゲームの興趣性を向上させることができる。   In addition, in the tennis game described in Patent Document 1, it is described that the user uses a cross button to indicate an area where a ball is hit. A plurality of target areas are set in the opponent's court, and the user can instruct the operation target character to return the ball to the target area by associating each target area with the direction in which the cross button is pressed. it can. According to the technique of Patent Document 1, a ball is placed in a region far from the position of the operation target character than when the shot instruction button is pressed when the ball is in a region near the position of the operation target character in the shot possible region. It is described that the shot accuracy is lowered when the shot instruction button is pressed at a certain time. By doing so, the reality of the sports game can be improved, and the fun of the game can be improved.

特開2009−112427号公報JP 2009-112427 A

しかしながら、特許文献1の技術によると、対戦相手に打球するための対象物の着弾位置を演算する処理が煩雑になるという課題がある。特許文献1の技術によると、対戦相手のコート内の、いずれの領域が十字キーによって指定されているかの情報、および、ボールを打球するためのショット指示ボタンが押下された場合に、ボールが操作対象キャラクタの位置から近くにあるか遠くにあるか等の情報を必要とする。
また、近年は、スマートフォンなどタッチスクリーンを備えた情報処理装置で動作させることができるゲームプログラムも、ネットワークを介して広く流通している。このようなゲームプログラムは、十字キーなど方向を指定するための物理的な入力ボタンを備えていない。
However, according to the technique of Patent Document 1, there is a problem that the process of calculating the landing position of an object for hitting an opponent is complicated. According to the technique of Patent Document 1, when a shot instruction button for hitting a ball is pressed, information on which area in the opponent's court is designated by the cross key and a shot instruction button for hitting the ball is operated. Information such as whether it is near or far from the position of the target character is required.
In recent years, game programs that can be operated by an information processing apparatus having a touch screen such as a smartphone are also widely distributed via a network. Such a game program does not include a physical input button for designating a direction such as a cross key.

本開示は、対戦相手となるゲームキャラクタとの間で、ボールなどの対象物を打球させる等の操作を受け付けてゲームを進行させるスポーツゲームにかかるゲームプログラムを実行する場合に、対象物の着弾位置の演算をいっそう容易にする技術を提供することを目的とする。また、本開示は、タッチスクリーンを備えるコンピュータにおいて、対戦相手に打球する領域を指定するためのユーザの入力操作をいっそう容易にすることで、ゲームに対する興趣性をいっそう向上させる技術を提供することを目的とする。   The present disclosure provides information about a landing position of an object when executing a game program for a sports game in which an operation such as hitting an object such as a ball is performed with a game character that is an opponent. It is an object of the present invention to provide a technique that makes it easier to perform the calculation. In addition, the present disclosure provides a technique for further enhancing the interest of a game by further facilitating a user input operation for designating a hitting area for an opponent in a computer having a touch screen. Objective.

本開示に示す一実施形態によれば、タッチ操作による入力操作を受け付けるタッチスクリーンと、プロセッサと、メモリとを備えるコンピュータにおいて実行されるゲームプログラムが提供される。ゲームプログラムは、プロセッサに、タッチスクリーンに対する第1の入力操作に基づいて、ゲームキャラクタを、ゲームキャラクタが移動可能な範囲内で移動させるステップと、タッチスクリーンに対する第2の入力操作を受け付けた場合に、ゲームキャラクタにスイング動作を行わせるステップと、スイング動作を行わせるための第2の入力操作を受け付けた場合に、対象物が、ゲームキャラクタの周囲に設定されるスイング領域に含まれるときは、ゲームキャラクタが移動可能な範囲内におけるゲームキャラクタの位置に基づいて、対象物を打ち返す移動先を決定し、決定された移動先に向けて対象物をスイング動作により相手側ゲームキャラクタに向けて打ち返すよう対象物を移動させるステップと、を実行させる。   According to an embodiment shown in the present disclosure, a game program that is executed on a computer including a touch screen that accepts an input operation by a touch operation, a processor, and a memory is provided. The game program causes the processor to move the game character within a range in which the game character can move based on the first input operation on the touch screen, and when the second input operation on the touch screen is received. When the object is included in the swing area set around the game character when the step of causing the game character to perform the swing motion and the second input operation for performing the swing motion are received, Based on the position of the game character within the range in which the game character can move, the destination to which the object is to be returned is determined, and the object is returned to the opponent game character by swinging toward the determined destination. Moving the object.

別の実施形態によると、タッチスクリーンを備えるコンピュータが、入力操作を受け付けることによりユーザが操作するゲームキャラクタと、ゲームキャラクタと対戦する相手側ゲームキャラクタとの間で、対象物を交互に打ち返すスポーツゲームを実行する方法が提供される。方法は、コンピュータが、タッチスクリーンに対する第1の入力操作に基づいて、ゲームキャラクタを、ゲームキャラクタが移動可能な範囲内で移動させるステップと、タッチスクリーンに対する第2の入力操作を受け付けた場合に、ゲームキャラクタにスイング動作を行わせるステップと、スイング動作を行わせるための第2の入力操作を受け付けた場合に、対象物が、ゲームキャラクタの周囲に設定されるスイング領域に含まれるときは、ゲームキャラクタが移動可能な範囲内におけるゲームキャラクタの位置に基づいて、対象物を打ち返す移動先を決定し、決定された移動先に向けて対象物をスイング動作により相手側ゲームキャラクタに向けて打ち返すよう対象物を移動させるステップとを実行することを含む。   According to another embodiment, a sports game in which a computer having a touch screen repels an object alternately between a game character operated by a user by accepting an input operation and an opponent game character that competes with the game character A method of performing is provided. When the computer receives the step of moving the game character within a range in which the game character can move based on the first input operation on the touch screen and the second input operation on the touch screen, When the step of causing the game character to perform a swing motion and the second input operation for performing the swing motion is received, if the object is included in the swing area set around the game character, Based on the position of the game character within the range in which the character can move, determine the destination to which the object is to be returned, and target the object to be returned to the opponent game character by a swing action toward the determined destination Performing the step of moving the object.

別の実施形態によると、タッチ操作による入力操作を受け付けるタッチスクリーンを備える情報処理装置が提供される。情報処理装置は、制御部と、記憶部とを備える。記憶部は、入力操作を受け付けることによりユーザが操作するゲームキャラクタと、ゲームキャラクタと対戦する相手側ゲームキャラクタとの間で、対象物を交互に打ち返すスポーツゲームのゲームプログラムを記憶するように構成されている。制御部は、タッチスクリーンに対する第1の入力操作に基づいて、ゲームキャラクタを、ゲームキャラクタが移動可能な範囲内で移動させるキャラクタ移動制御部と、タッチスクリーンに対する第2の入力操作を受け付けた場合に、ゲームキャラクタにスイング動作を行わせるキャラクタ動作制御部と、スイング動作を行わせるための第2の入力操作を受け付けた場合に、対象物が、ゲームキャラクタの周囲に設定されるスイング領域に含まれるときは、ゲームキャラクタが移動可能な範囲内におけるゲームキャラクタの位置に基づいて、対象物を打ち返す移動先を決定し、決定された移動先に向けて対象物をスイング動作により相手側ゲームキャラクタに向けて打ち返すよう対象物を移動させる対象物移動制御部とを含む。   According to another embodiment, an information processing apparatus including a touch screen that receives an input operation by a touch operation is provided. The information processing apparatus includes a control unit and a storage unit. The storage unit is configured to store a game program for a sports game in which an object is alternately returned between a game character operated by a user by accepting an input operation and an opponent game character that competes with the game character. ing. The control unit receives a character movement control unit that moves the game character within a range in which the game character can move based on the first input operation on the touch screen, and a second input operation on the touch screen. The object is included in the swing area set around the game character when the character motion control unit that causes the game character to perform the swing motion and the second input operation for causing the game character to perform the swing motion are received. When, based on the position of the game character within the range in which the game character can move, the destination to which the object is returned is determined, and the target is directed toward the opponent game character by a swing motion toward the determined destination And an object movement control unit that moves the object so as to strike back.

一実施形態によると、スポーツゲームにかかるゲームプログラムを実行する場合に、対象物の着弾位置の演算をいっそう容易にすることができる。また、一実施形態によると、タッチスクリーンを備えるコンピュータにおいて、対象物を対戦相手に打球する領域を指定するためのユーザの入力操作をいっそう容易にしつつ、ゲームに対する興趣性をいっそう向上させることができる。
According to an embodiment, when a game program for a sports game is executed, the calculation of the landing position of the object can be made easier. In addition, according to an embodiment, in a computer having a touch screen, the user's input operation for designating a region where a target is to be hit against an opponent can be further facilitated, and the fun of the game can be further improved. .

実施の形態のゲーム配信システム1の構成を示す図である。It is a figure which shows the structure of the game delivery system 1 of embodiment. 携帯端末10の構成を示すブロック図である。2 is a block diagram showing a configuration of a mobile terminal 10. FIG. サーバ20の機能的な構成を示すブロック図である。3 is a block diagram showing a functional configuration of a server 20. FIG. 移動操作検出部193が、ユーザの入力操作に応じてゲームキャラクタを移動させる方向を検出する処理を示す図である。It is a figure which shows the process in which the movement operation detection part 193 detects the direction which moves a game character according to a user's input operation. 仮想空間内に配置されるフィールド面Fを示す図である。It is a figure which shows the field surface F arrange | positioned in virtual space. ゲームキャラクタに設定される各種パラメータの一例を示す図である。It is a figure which shows an example of the various parameters set to a game character. ゲームキャラクタの周囲に設定される、対象物138を打球可能な範囲を示す図である。It is a figure which shows the range which can be hit with the target object 138 set around a game character. ゲームキャラクタに、第1の動作としてサーブ動作を行わせた後、第2の動作として、相手側キャラクタとの間でボールを交互に打ち返すためにゲームキャラクタを移動させるための入力操作を受け付けるゲーム画面の遷移を示す図である。A game screen for accepting an input operation for moving the game character in order to alternately strike back the ball with the opponent character as the second action after the game character performs the serve action as the first action It is a figure which shows no transition. ユーザの入力操作に応じて、ゲームキャラクタ134の移動およびスイング動作を行う場合の画面の表示例を示す図である。It is a figure which shows the example of a display of the screen in the case of performing the movement and swing motion of the game character 134 according to a user's input operation. サーブ動作時のゲームキャラクタの位置に応じて、制御部190が対象物138の着弾位置を決定する処理を示す。The process which the control part 190 determines the landing position of the target object 138 according to the position of the game character at the time of a serve action is shown. ゲームキャラクタがフィールド面Fにおいて対象物138を打球する位置に応じて、着弾位置の範囲が変動する例を示す図である。It is a figure which shows the example from which the range of a landing position changes according to the position where a game character hits the target object 138 in the field surface F. FIG. ゲームキャラクタが対象物138を打球するタイミングが早いか遅いかに応じて、着弾基準位置を変動させる例、および、ゲームキャラクタのテクニックパラメータに応じて着弾基準位置および着弾範囲を変動させる例を示す図である。The figure which shows the example which fluctuates an impact reference position according to whether the timing at which the game character hits the target 138 is early or late, and the example where the impact reference position and the impact range are varied according to the technique parameters of the game character It is. 制御部190が、対象物138を打ち返すためのタップ操作またはフリック操作を受け付けた場合に、ゲームキャラクタ134にスイング動作を行わせて対象物138の移動を制御する処理を示すフローチャートである。10 is a flowchart showing a process of controlling the movement of the object 138 by causing the game character 134 to perform a swing action when the control unit 190 accepts a tap operation or a flick operation for hitting the object 138 back. 対象物138の着弾地点を決定する処理の詳細を示すフローチャートである。10 is a flowchart showing details of processing for determining a landing point of an object 138; 実施の形態2におけるスイング領域を示す図である。FIG. 10 is a diagram showing a swing region in the second embodiment.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<実施の形態1>
本実施形態において、ユーザは、例えばスマートフォンなどの、タッチスクリーンを搭載した情報処理装置を操作して、ゲームサーバと、スマートフォンとの間でゲームに関するデータを送受信しながらゲームを進行させる。ゲームは、ユーザが一人でプレイするシングルプレイと、ユーザが他のユーザとともにプレイするマルチプレイとに対応する。
<Embodiment 1>
In the present embodiment, a user operates an information processing apparatus equipped with a touch screen such as a smartphone, for example, and advances the game while transmitting and receiving data related to the game between the game server and the smartphone. The game corresponds to single play where the user plays alone and multi-play where the user plays with other users.

図1は、実施の形態のゲーム配信システム1の構成を示す図である。図1に示すように、ゲーム配信システム1は、ユーザが使用する情報処理装置と、サーバ20とを含み、これらの装置がネットワーク80によって互いに通信可能に接続されている。   FIG. 1 is a diagram illustrating a configuration of a game distribution system 1 according to the embodiment. As shown in FIG. 1, the game distribution system 1 includes an information processing device used by a user and a server 20, and these devices are connected to each other via a network 80 so as to communicate with each other.

図1の例では、ユーザが使用する情報処理装置として、携帯端末10A、携帯端末10Bおよび携帯端末10C(以下、携帯端末10A、10B、10Cなどの携帯端末を総称して「携帯端末10」と記載することもある)など複数の携帯端末を示している。携帯端末10Aと携帯端末10Bとは、無線基地局81と通信することにより、ネットワーク80と接続する。携帯端末10Cは、家屋などの施設に設置される無線ルータ82と通信することにより、ネットワーク80と接続する。携帯端末10は、タッチスクリーンを備える端末であり、例えば、スマートフォン、ファブレット、タブレットなどである。   In the example of FIG. 1, as the information processing apparatus used by the user, the portable terminals 10A, 10B, and 10C (hereinafter, portable terminals such as the portable terminals 10A, 10B, and 10C are collectively referred to as “mobile terminal 10” A plurality of portable terminals are shown. The mobile terminal 10 </ b> A and the mobile terminal 10 </ b> B are connected to the network 80 by communicating with the radio base station 81. The mobile terminal 10C is connected to the network 80 by communicating with a wireless router 82 installed in a facility such as a house. The mobile terminal 10 is a terminal provided with a touch screen, and is, for example, a smartphone, a fablet, a tablet, or the like.

携帯端末10は、ゲームプログラムを実行することにより、ゲームプログラムに応じたゲームをプレイする環境をユーザに対して提供する。携帯端末10は、例えば、アプリケーション等を配信するプラットフォームを介してゲームプログラムをインストールする。携帯端末10は、携帯端末10にインストールされたゲームプログラム、または、予めプリインストールされているゲームプログラムを実行することで、ユーザによるゲームのプレイを可能とする。携帯端末10は、ゲームプログラムを読み込んで実行することにより、携帯端末10と、サーバ20とを通信接続して、ゲームの進行に応じてゲームに関連するデータを携帯端末10とサーバ20との間で送受信する。   The mobile terminal 10 provides a user with an environment for playing a game according to the game program by executing the game program. For example, the mobile terminal 10 installs a game program via a platform that distributes applications and the like. The mobile terminal 10 enables a user to play a game by executing a game program installed in the mobile terminal 10 or a game program preinstalled in advance. The mobile terminal 10 reads and executes the game program to establish communication connection between the mobile terminal 10 and the server 20 and transfer data related to the game between the mobile terminal 10 and the server 20 according to the progress of the game. Send and receive with.

サーバ20は、ゲームのプレイに必要なデータを、適宜、携帯端末10へ送信することで、携帯端末10でのゲームのプレイを進行させる。サーバ20は、ゲームをプレイする各ユーザの、ゲームに関連する各種データを管理する。サーバ20は、携帯端末10と通信し、各ユーザのゲームの進行に応じて、画像、音声、テキストデータその他のデータを携帯端末10へ送信する。   The server 20 advances the game play on the mobile terminal 10 by appropriately transmitting data necessary for the game play to the mobile terminal 10. The server 20 manages various data related to the game of each user who plays the game. The server 20 communicates with the mobile terminal 10 and transmits images, sounds, text data, and other data to the mobile terminal 10 in accordance with the progress of each user's game.

例えば、サーバ20は、各ユーザがゲームのストーリーを進行させた進行状況、ゲーム内に登場するゲームキャラクタのうち各ユーザが使用可能なゲームキャラクタの情報、ゲームキャラクタの能力を示すパラメータ、ゲームキャラクタが使用する道具の性能を示すパラメータその他の各種データを管理する。また、サーバ20は、ゲームの運営者がユーザに対してキャンペーン、ゲームの進行における不具合の発生、不具合の解消その他のゲームの運営に関連する情報等をユーザに通知する処理を行う。   For example, the server 20 includes a progress status of each user progressing a game story, game character information that can be used by each user among game characters appearing in the game, parameters indicating the game character's ability, It manages parameters and other various data indicating the performance of the tool used. In addition, the server 20 performs a process in which the game operator notifies the user of campaigns, occurrence of problems in the progress of the game, resolution of problems, and other information related to game management.

ゲームプログラムは、ユーザがゲームをプレイするモードとして、一人のユーザがプレイする場合(シングルプレイ)と、複数人のユーザが協同してプレイする場合(マルチプレイ)とに対応している。例えば、ゲーム配信システム1において、サーバ20が、マルチプレイに参加するユーザを特定して各ユーザの各携帯端末10と通信すること等により、マルチプレイでゲームをプレイする環境を各ユーザに提供する。   The game program corresponds to a mode in which a user plays a game when a single user plays (single play) and when a plurality of users play in cooperation (multiplay). For example, in the game distribution system 1, the server 20 provides each user with an environment for playing a game in multi-play by specifying users participating in multi-play and communicating with each mobile terminal 10 of each user.

ゲーム配信システム1は、マルチプレイに対応することにより、例えば、テニスゲームであれば、各ユーザでチームを結成してダブルスの試合を行うことを可能とする。また、ゲーム配信システム1は、サッカーゲームであれば、各ユーザが同一のサッカーチームのメンバーとなって試合を行うことを可能とする。また、ゲーム配信システム1は、アクションゲームであれば、各ユーザでチームを結成して、クエストモードなど比較的強力なキャラクタと対戦するゲームモードを複数のユーザがプレイすることを可能とする。また、ゲーム配信システム1は、マルチプレイに対応することにより、ユーザ同士が対戦することを可能とする。   The game distribution system 1 is capable of playing a doubles game by forming a team with each user in the case of a tennis game, for example, by supporting multiplayer. Moreover, if it is a soccer game, the game delivery system 1 will enable each user to become a member of the same soccer team, and to play a game. Moreover, if the game delivery system 1 is an action game, a team will be formed by each user, and a plurality of users will be able to play the game mode which battles comparatively powerful characters, such as quest mode. Moreover, the game delivery system 1 enables a user to play against each other by respond | corresponding to a multiplayer.

<構成>
サーバ20のハードウェアの構成を説明する。サーバ20は、通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備え、これらが通信バスを介して互いに接続する。
<Configuration>
The hardware configuration of the server 20 will be described. The server 20 includes a communication IF (Interface) 22, an input / output IF 23, a memory 25, a storage 26, and a processor 29, which are connected to each other via a communication bus.

通信IF22は、例えばLAN(Local Area Network)規格など各種の通信規格に対応しており、携帯端末10など外部の通信機器との間でデータを送受信するためのインタフェースとして機能する。   The communication IF 22 corresponds to various communication standards such as a LAN (Local Area Network) standard, and functions as an interface for transmitting and receiving data to and from an external communication device such as the mobile terminal 10.

入出力IF23は、サーバ20への情報の入力を受け付けるとともに、サーバ20の外部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス、キーボード等の情報入力機器の接続を受け付ける入力受付部と、画像等を表示するためのディスプレイ等の情報出力機器の接続を受け付ける出力部とを含む。   The input / output IF 23 functions as an interface for receiving information input to the server 20 and outputting information to the outside of the server 20. The input / output IF 23 includes an input receiving unit that accepts connection of an information input device such as a mouse and a keyboard, and an output unit that accepts connection of an information output device such as a display for displaying an image or the like.

メモリ25は、処理に使用されるデータ等を記憶するための記憶装置である。メモリ25は、例えば、プロセッサ29が処理を行う際に一時的に使用するための作業領域をプロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置を含んで構成されている。   The memory 25 is a storage device for storing data used for processing. For example, the memory 25 provides the processor 29 with a work area for temporary use when the processor 29 performs processing. The memory 25 includes a storage device such as a ROM (Read Only Memory) and a RAM (Random Access Memory).

ストレージ26は、プロセッサ29が読み込んで実行するための各種プログラム及びデータを記憶するための記憶装置である。ストレージ26が記憶する情報は、ゲームプログラム、ゲームプログラムに関連する情報、ゲームプログラムをプレイするユーザの情報その他の情報を含む。ストレージ26は、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置を含んで構成されている。   The storage 26 is a storage device for storing various programs and data that the processor 29 reads and executes. The information stored in the storage 26 includes a game program, information related to the game program, information on a user who plays the game program, and other information. The storage 26 includes a storage device such as an HDD (Hard Disk Drive) and a flash memory.

プロセッサ29は、ストレージ26に記憶されるプログラム等を読み込んで実行することにより、サーバ20の動作を制御する。プロセッサ29は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等を含んで構成される。   The processor 29 controls the operation of the server 20 by reading and executing a program or the like stored in the storage 26. The processor 29 includes, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and the like.

図2は、携帯端末10の構成を示すブロック図である。図2を参照して、携帯端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン130と、入出力IF140と、記憶部150と、音声処理部160と、マイク170と、スピーカ180と、制御部190とを含む。   FIG. 2 is a block diagram illustrating a configuration of the mobile terminal 10. With reference to FIG. 2, the mobile terminal 10 includes an antenna 110, a wireless communication IF 120, a touch screen 130, an input / output IF 140, a storage unit 150, a sound processing unit 160, a microphone 170, a speaker 180, And a control unit 190.

アンテナ110は、携帯端末10が発する信号を電波として空間へ放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ与える。   The antenna 110 radiates a signal emitted from the mobile terminal 10 to space as a radio wave. Further, the antenna 110 receives radio waves from the space and gives a received signal to the wireless communication IF 120.

無線通信IF120は、携帯端末10が他の通信機器と通信するため、アンテナ110等を介して信号を送受信するための変復調処理などを行う。無線通信IF120は、チューナー、高周波回路などを含む無線通信用の通信モジュールであり、携帯端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。   The wireless communication IF 120 performs modulation / demodulation processing for transmitting and receiving signals via the antenna 110 and the like so that the mobile terminal 10 communicates with other communication devices. The wireless communication IF 120 is a communication module for wireless communication including a tuner, a high frequency circuit, and the like, performs modulation / demodulation and frequency conversion of a wireless signal transmitted / received by the mobile terminal 10, and provides a received signal to the control unit 190.

タッチスクリーン130は、ユーザからの入力を受け付けて、ユーザに対し情報をディスプレイ132に出力する。タッチスクリーン130は、ユーザの入力操作を受け付けるための部材(タッチパネル131)を含む。また、タッチスクリーン130は、メニュー画面や、ゲームの進行を画面に表示するための部材(ディスプレイ132)を含む。タッチパネル131は、例えば静電容量方式のものを用いることによって、ユーザの指などが接近したことを検出する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)、有機EL(electroluminescence)その他の表示装置によって実現される。   The touch screen 130 receives an input from the user and outputs information to the display 132 to the user. Touch screen 130 includes a member (touch panel 131) for accepting a user's input operation. The touch screen 130 includes a menu screen and a member (display 132) for displaying the progress of the game on the screen. The touch panel 131 detects that the user's finger or the like has approached by using, for example, a capacitive type. The display 132 is realized by a display device such as an LCD (Liquid Crystal Display), an organic EL (electroluminescence), or the like.

入出力IF140は、携帯端末10への情報の入力を受け付けるとともに、携帯端末10の外部へ情報を出力するためのインタフェースとして機能する。   The input / output IF 140 functions as an interface for receiving information input to the mobile terminal 10 and outputting information to the outside of the mobile terminal 10.

記憶部150は、フラッシュメモリ、RAM(Random Access Memory)等により構成され、携帯端末10が使用するプログラム、および、携帯端末10がサーバ20から受信する各種データ等を記憶する。   The storage unit 150 includes a flash memory, a RAM (Random Access Memory), and the like, and stores programs used by the mobile terminal 10 and various data received by the mobile terminal 10 from the server 20.

音声処理部160は、音声信号の変復調を行う。音声処理部160は、マイク170から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部160は、音声信号をスピーカ180へ与える。音声処理部160は、例えば、音声処理用のプロセッサによって実現される。マイク170は、音声信号の入力を受け付けて制御部190へ出力するための音声入力部として機能する。スピーカ180は、音声信号を、携帯端末10の外部へ出力するための音声出力部として機能する。   The audio processing unit 160 performs modulation / demodulation of the audio signal. The audio processing unit 160 modulates the signal given from the microphone 170 and gives the modulated signal to the control unit 190. In addition, the audio processing unit 160 provides an audio signal to the speaker 180. The sound processing unit 160 is realized by, for example, a sound processing processor. The microphone 170 functions as an audio input unit for receiving an input of an audio signal and outputting it to the control unit 190. The speaker 180 functions as an audio output unit for outputting an audio signal to the outside of the mobile terminal 10.

制御部190は、記憶部150に記憶されるプログラムを読み込んで実行することにより、携帯端末10の動作を制御する。制御部190は、例えば、アプリケーションプロセッサによって実現される。   The control unit 190 controls the operation of the mobile terminal 10 by reading and executing a program stored in the storage unit 150. The control unit 190 is realized by an application processor, for example.

携帯端末10がゲームプログラム151を実行する処理について、より詳細に説明する。ある局面において、記憶部150は、ゲームプログラム151と、ゲーム情報152と、ユーザ情報153とを記憶する。携帯端末10は、例えば、サーバ20からゲームプログラムをダウンロードして記憶部150に記憶させる。また、携帯端末10は、ゲームの進行に伴いサーバ20と通信することで、ゲーム情報152およびユーザ情報153等の各種のデータをサーバ20と送受信する。   A process in which the mobile terminal 10 executes the game program 151 will be described in more detail. In one aspect, the storage unit 150 stores a game program 151, game information 152, and user information 153. For example, the mobile terminal 10 downloads a game program from the server 20 and stores the game program in the storage unit 150. Moreover, the portable terminal 10 transmits / receives various data, such as game information 152 and user information 153, with the server 20 by communicating with the server 20 with progress of a game.

ゲームプログラム151は、携帯端末10においてゲームを進行させるためのプログラムである。ゲーム情報152は、ゲームプログラム151が参照する各種のデータを含む。ゲーム情報152は、例えば、ゲームにおいて仮想空間に配置するオブジェクトの情報、オブジェクトに対応付けられた効果の情報(ゲームキャラクタに設定されるスキルの情報などを含む)などを含む。ユーザ情報153は、ゲームをプレイするユーザについての情報を含む。ユーザ情報153は、例えば、ゲームをプレイする携帯端末10のユーザを識別する情報、マルチプレイ時に協同してゲームをプレイする他のユーザを識別する情報その他の情報を含む。   The game program 151 is a program for causing the mobile terminal 10 to advance a game. The game information 152 includes various data referred to by the game program 151. The game information 152 includes, for example, information on objects to be arranged in the virtual space in the game, information on effects associated with the objects (including information on skills set for game characters), and the like. The user information 153 includes information about the user who plays the game. The user information 153 includes, for example, information for identifying the user of the mobile terminal 10 playing the game, information for identifying other users who play the game in cooperation with the multiplayer, and other information.

制御部190は、ゲームプログラム151を読み込んで実行することにより、入力操作受付部191と、ゲーム進行処理部192と、移動操作検出部193と、カメラ配置制御部194と、オブジェクト制御部195と、表示制御部196と、の各機能を発揮する。   The control unit 190 reads and executes the game program 151 to thereby execute an input operation receiving unit 191, a game progress processing unit 192, a moving operation detection unit 193, a camera arrangement control unit 194, an object control unit 195, Each function of the display control unit 196 is exhibited.

入力操作受付部191は、タッチスクリーン130の出力に基づいて、ユーザの入力操作を受け付ける。具体的には、入力操作受付部191は、ユーザの指などがタッチパネル131に接近したことを、タッチスクリーン130を構成する面の横軸および縦軸からなる座標系の座標として検出する。   The input operation accepting unit 191 accepts a user input operation based on the output of the touch screen 130. Specifically, the input operation accepting unit 191 detects that a user's finger or the like has approached the touch panel 131 as coordinates in a coordinate system including a horizontal axis and a vertical axis of a surface constituting the touch screen 130.

入力操作受付部191は、タッチスクリーン130に対するユーザの操作を判別する。入力操作受付部191は、例えば、(1)「接近操作」、(2)「リリース操作」、(3)「タップ操作」、(4)「ダブルタップ操作」、(5)「長押し操作(ロングタッチ操作)」、(6)「ドラッグ操作(スワイプ操作)」、(7)「ムーブ操作」、(8)「フリック操作」、その他のユーザの操作を判別する。入力操作受付部191が判別するユーザの操作は、上記に限られない。例えば、タッチパネル131が、ユーザがタッチパネル131に対して押下する圧力の大きさを検出可能な機構を有する場合、入力操作受付部191は、ユーザが押下した圧力の大きさを判別する。また、制御部190は、タッチスクリーン130へのユーザの指などの接近を検出している状態を、「タッチオン状態」と判別する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出しない状態を、「タッチオフ状態」と判別する。制御部190は、タッチスクリーン130が逐次出力するユーザの指などの接近位置を示す座標を、「タッチナウ」の座標として受け付ける。   The input operation reception unit 191 determines a user operation on the touch screen 130. The input operation accepting unit 191 includes, for example, (1) “approach operation”, (2) “release operation”, (3) “tap operation”, (4) “double tap operation”, (5) “long press operation ( (Long touch operation) ”, (6)“ drag operation (swipe operation) ”, (7)“ move operation ”, (8)“ flick operation ”, and other user operations. The user operation determined by the input operation receiving unit 191 is not limited to the above. For example, when the touch panel 131 has a mechanism that can detect the magnitude of the pressure that the user presses against the touch panel 131, the input operation reception unit 191 determines the magnitude of the pressure that the user has pressed. In addition, the control unit 190 determines that the state of detecting the approach of the user's finger or the like to the touch screen 130 is the “touch-on state”. The control unit 190 determines that a state in which the approach of the user's finger or the like to the touch screen 130 is not detected is a “touch-off state”. The control unit 190 accepts coordinates indicating the approach position of the user's finger or the like sequentially output by the touch screen 130 as “touch now” coordinates.

ここで、(1)「接近操作」とは、ユーザが指などをタッチスクリーン130に接近させる操作である。タッチスクリーン130は、ユーザの指などが接近したこと(ユーザの指などがタッチスクリーン130に接触したことを含む)をタッチパネル131により検出し、検出したタッチスクリーン130の座標に応じた信号を制御部190へ出力する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出しない状態から、接近を検出したときに、状態が「タッチオン状態」になったと判別する。   Here, (1) “approach operation” is an operation in which the user brings a finger or the like closer to the touch screen 130. The touch screen 130 detects that the user's finger or the like has approached (including that the user's finger or the like has touched the touch screen 130) by the touch panel 131, and outputs a signal corresponding to the detected coordinates of the touch screen 130 to the control unit. Output to 190. The control unit 190 determines that the state is the “touch-on state” when the approach is detected from the state in which the approach of the user's finger or the like to the touch screen 130 is not detected.

(2)「リリース操作」とは、ユーザがタッチスクリーン130に指などを接近させることで操作する状態を止める操作である。入力操作受付部191は、例えば、ユーザが指などをタッチスクリーン130に接触させている状態から、指を離す操作をしたときに、ユーザの操作を「リリース操作」と判別する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出している状態から、接近を検出しない状態になったときに、状態が「タッチオン状態」から「タッチオフ状態」になったと判別する。   (2) “Release operation” is an operation for stopping a state in which the user operates by bringing a finger or the like closer to the touch screen 130. For example, when the user performs an operation of releasing his / her finger from a state where the user touches the touch screen 130 with the finger or the like, the input operation receiving unit 191 determines that the user's operation is a “release operation”. The control unit 190 determines that the state is changed from the “touch-on state” to the “touch-off state” when the approach is not detected from the state in which the approach of the user's finger or the like to the touch screen 130 is detected. To do.

(3)「タップ操作」とは、ユーザがタッチスクリーン130に対して指などを接近させる接近操作をした後に、接近操作をした位置でリリース操作を行うことである。入力操作受付部191は、接近操作が検出されない状態(ユーザの指などがタッチパネル131から離れており、タッチパネル131がユーザの指などの接近を検出していない状態)から、タッチスクリーン130の出力に基づいて、ユーザの指などが接近したことを検出した場合に、その検出した座標を「初期タッチ位置」として保持する。入力操作受付部191は、初期タッチ位置の座標と、リリース操作をする直前に(タッチオフ状態が検出される直前に)タッチスクリーン130により検出されている座標とがほぼ同一である場合(接近操作が検出された座標から一定範囲内の座標においてリリース操作にかかる座標が検出された場合)に、ユーザの操作を「タップ操作」と判別する。   (3) “Tap operation” refers to performing a release operation at a position where the user performs an approach operation after the user performs an approach operation to bring a finger or the like closer to the touch screen 130. The input operation reception unit 191 outputs the touch screen 130 from the state where the approach operation is not detected (the user's finger or the like is away from the touch panel 131 and the touch panel 131 does not detect the approach of the user's finger or the like). Based on this, when it is detected that the user's finger or the like has approached, the detected coordinates are held as the “initial touch position”. The input operation reception unit 191 determines that the coordinates of the initial touch position and the coordinates detected by the touch screen 130 immediately before the release operation (just before the touch-off state is detected) are substantially the same (the approach operation is performed). The user's operation is determined as a “tap operation” when a coordinate related to the release operation is detected in coordinates within a certain range from the detected coordinates).

(4)「ダブルタップ操作」とは、ユーザがタップ操作を一定時間内に2回行う操作である。入力操作受付部191は、例えば、ユーザの操作をタップ操作と判別してから一定時間内に、タップ操作にかかる座標で再びタップ操作を判別した場合に、ユーザの操作を「ダブルタップ操作」と判別する。   (4) The “double tap operation” is an operation in which the user performs the tap operation twice within a predetermined time. For example, the input operation reception unit 191 determines that the user operation is “double tap operation” when the user operation is determined to be the tap operation and the tap operation is determined again with the coordinates related to the tap operation within a certain time after the user operation is determined to be the tap operation. Determine.

(5)「長押し操作」とは、ユーザがタッチスクリーン130を押し続ける操作である。タッチスクリーン130は、ユーザの操作を検出して接近操作を判別してから、接近操作が検出された座標において接近操作が継続している時間が一定時間を超えた場合に、ユーザの操作を「長押し操作」(「長押し操作」を、「ロングタッチ操作」と称することもある)と判別する。   (5) “Long press operation” is an operation in which the user continues to press the touch screen 130. The touch screen 130 detects the user's operation and discriminates the approaching operation. When the time during which the approaching operation continues at the coordinates where the approaching operation is detected exceeds a certain time, the touch screen 130 determines the user's operation as “ “Long press operation” (the “long press operation” may be referred to as “long touch operation”).

(6)「ドラッグ操作」とは、ユーザがタッチスクリーン130に指などを接近させた接近状態を維持したまま、指をスライドさせる操作である。   (6) “Drag operation” is an operation of sliding a finger while maintaining an approaching state in which the user brings a finger or the like close to the touch screen 130.

(7)「ムーブ操作」とは、ユーザがタッチスクリーン130において、接近操作を維持しつつ、タッチスクリーン130に指などを接近させている位置を移動させてリリース操作を行う一連の操作をいう。   (7) “Move operation” refers to a series of operations in which the user performs a release operation by moving a position where a finger or the like is approaching the touch screen 130 while maintaining the approach operation on the touch screen 130.

(8)「フリック操作」は、ユーザがムーブ操作を予め定められた時間よりも短い時間で行う操作をいう。フリック操作は、ユーザがタッチスクリーン130で指を弾くような操作である。制御部190は、例えば、ユーザがムーブ操作を行う時間と比較するための複数の閾値を保持し、ユーザがタッチスクリーン130において指などを接近させている位置を一定距離移動させるまでの時間が第1の閾値よりも短い場合(比較的素早く指を弾く場合)は、フリック操作が「強フリック」であると判定し、第1の閾値よりも大きく第2の閾値(第2の閾値を、第1の閾値よりも大きく設定する)よりも小さい場合に、フリック操作が「弱フリック」であると判定することとしてもよい。   (8) “Flick operation” refers to an operation in which a user performs a move operation in a time shorter than a predetermined time. The flick operation is an operation in which the user flips a finger on the touch screen 130. For example, the control unit 190 holds a plurality of threshold values for comparison with the time for the user to perform the move operation, and the time until the user moves the finger or the like on the touch screen 130 for a certain distance is determined. If it is shorter than the threshold value 1 (if the finger is flicked relatively quickly), it is determined that the flick operation is “strong flick”, and the second threshold value (the second threshold value is set to the first threshold value greater than the first threshold value). It is also possible to determine that the flick operation is “weak flick” when the value is smaller than the threshold value of 1.

ゲーム進行処理部192は、ユーザの操作に応じて、各種のプログラムを呼び出す等によりゲームを進行させる処理を行う。例えば、ゲーム進行処理部192は、サーバ20と通信し、ゲームの進行に応じてサーバ20へデータを送信する処理、サーバ20からゲームに関連するデータを受信する処理、ゲームの進行に応じてユーザに報酬を付与する処理、時間の経過を計測する処理その他の処理を行う。   The game progress processing unit 192 performs a process of advancing the game by calling various programs in accordance with a user operation. For example, the game progress processing unit 192 communicates with the server 20 to transmit data to the server 20 according to the progress of the game, to receive data related to the game from the server 20, and to the user according to the progress of the game. A process for giving a reward, a process for measuring the passage of time, and other processes are performed.

移動操作検出部193は、タッチスクリーン130に対するユーザの入力操作に基づいて、ゲームに登場するキャラクタ(以下、「ゲームキャラクタ」と称することもある)を移動させる入力操作の操作内容を検出する。例えば、ゲームプログラム151がスポーツゲームである場合、移動操作検出部193は、ユーザの入力操作に基づいて、ゲームキャラクタを移動させる方向を検出する。このように、移動操作検出部193は、ユーザがゲームキャラクタの移動方向を指定する入力操作を受け付ける。   The movement operation detection unit 193 detects the operation content of the input operation for moving a character appearing in the game (hereinafter also referred to as “game character”) based on a user input operation on the touch screen 130. For example, when the game program 151 is a sports game, the movement operation detection unit 193 detects a direction in which the game character is moved based on a user input operation. As described above, the movement operation detection unit 193 receives an input operation in which the user specifies the movement direction of the game character.

具体的には、移動操作検出部193は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させて、入力操作受付部191がタッチパネル131にユーザの指が接近したことを検出した座標を初期タッチ位置として、ユーザがドラッグ操作を行った場合に、初期タッチ位置の座標とタッチスクリーン130の検出結果とに基づいて、ゲームキャラクタの移動方向を検出する。移動操作検出部193の詳細な処理は、後述する。   Specifically, the movement operation detection unit 193 causes the user to move the finger closer to the touch screen 130 from the state in which the user's finger is separated from the touch screen 130, and the input operation reception unit 191 causes the touch panel 131 to move When the user performs a drag operation using the detected coordinates as the initial touch position, the moving direction of the game character is detected based on the initial touch position coordinates and the detection result of the touch screen 130. Detailed processing of the movement operation detection unit 193 will be described later.

カメラ配置制御部194は、仮想空間に配置される各オブジェクトを、どのようにユーザに見せるかを決定する。具体的には、カメラ配置制御部194は、制御部190がゲームプログラム151を読み込んで実行することで生成される仮想空間において、仮想カメラの配置(カメラワーク)を制御する。制御部190は、仮想空間における仮想カメラの撮影画像をディスプレイ132に表示することで、ユーザに対しゲームのプレイ環境を提供する。   The camera placement control unit 194 determines how to show each object placed in the virtual space to the user. Specifically, the camera arrangement control unit 194 controls the arrangement (camera work) of the virtual camera in the virtual space generated when the control unit 190 reads and executes the game program 151. The control unit 190 provides the game play environment to the user by displaying the captured image of the virtual camera in the virtual space on the display 132.

オブジェクト制御部195は、携帯端末10がゲームプログラム151を実行することにより進行されるゲームに登場する各種オブジェクト、および、入力操作受付部191が受け付けたユーザの操作内容に基づいて生成される各種オブジェクト(例えば、GUI(Graphical User Interface)画面など)の生成、変形、移動などの処理を制御する。オブジェクト制御部195は、例えば、ユーザがゲームキャラクタを移動させるためのタッチスクリーン130に対する入力操作に基づいて、ゲームキャラクタの移動方向を示すオブジェクトを生成し、生成したオブジェクトを変形する。   The object control unit 195 includes various objects that appear in the game that is progressed by the mobile terminal 10 executing the game program 151, and various objects that are generated based on the user operation content received by the input operation receiving unit 191. Processes such as generation, transformation, and movement (for example, a GUI (Graphical User Interface) screen) are controlled. The object control unit 195 generates an object indicating the moving direction of the game character based on, for example, an input operation on the touch screen 130 for moving the game character by the user, and deforms the generated object.

表示制御部196は、仮想カメラのカメラワークに従った画像をディスプレイ132に出力する。表示制御部196は、仮想空間内における仮想カメラの配置に応じて、ディスプレイ132の表示内容を決定し、決定した表示内容に従う画像、テキスト等の各種の情報をディスプレイ132に出力する。   The display control unit 196 outputs an image according to the camera work of the virtual camera to the display 132. The display control unit 196 determines the display content of the display 132 according to the placement of the virtual camera in the virtual space, and outputs various types of information such as images and text according to the determined display content to the display 132.

図3は、サーバ20の機能的な構成を示すブロック図である。図3を参照して、サーバ20の詳細な構成を説明する。サーバ20は、プログラムに従って動作することにより、通信部220と、記憶部250と、制御部290としての機能を発揮する。   FIG. 3 is a block diagram illustrating a functional configuration of the server 20. The detailed configuration of the server 20 will be described with reference to FIG. The server 20 functions as the communication unit 220, the storage unit 250, and the control unit 290 by operating according to the program.

通信部220は、サーバ20が携帯端末10などの外部の通信機器と通信するためのインタフェースとして機能する。   The communication unit 220 functions as an interface for the server 20 to communicate with an external communication device such as the mobile terminal 10.

記憶部250は、携帯端末10においてユーザがゲームを進行させるための各種プログラムおよびデータを記憶する。ある局面において、記憶部250は、ゲームプログラム251と、ゲーム情報252と、ユーザ情報253とを記憶する。   The storage unit 250 stores various programs and data for the user to advance the game in the mobile terminal 10. In one aspect, the storage unit 250 stores a game program 251, game information 252, and user information 253.

ゲームプログラム251は、サーバ20が携帯端末10と通信して、携帯端末10においてゲームを進行させるためのプログラムである。ゲームプログラム251は、ゲームを進行させるための各種データであるゲーム情報252およびユーザ情報253等を参照して、ユーザの入力操作に応じてゲームを進行させる。ゲームプログラム251は、制御部290に実行されることにより、携帯端末10とデータを送受信する処理、携帯端末10のユーザが行った操作内容に応じてゲームを進行させる処理、ゲームをプレイするユーザの情報を更新する処理その他の処理をサーバ20に行わせる。   The game program 251 is a program for allowing the server 20 to communicate with the mobile terminal 10 and advance the game on the mobile terminal 10. The game program 251 refers to the game information 252 and user information 253 that are various data for proceeding with the game, and causes the game to proceed according to the user's input operation. The game program 251 is executed by the control unit 290, thereby processing to transmit / receive data to / from the mobile terminal 10, processing to advance the game in accordance with the operation content performed by the user of the mobile terminal 10, and user's playing the game The server 20 is caused to perform processing for updating information and other processing.

ゲーム情報252は、ゲームプログラム251が参照する各種のデータを含む。ゲーム情報252は、オブジェクト管理テーブル252Aと、パッシブスキル管理テーブル252Bと、アクティブスキル管理テーブル252Cとを含む。   The game information 252 includes various data referred to by the game program 251. The game information 252 includes an object management table 252A, a passive skill management table 252B, and an active skill management table 252C.

オブジェクト管理テーブル252Aは、ゲームの仮想空間内に配置されるオブジェクトの設定を示す。携帯端末10は、ゲームプログラム151を実行することにより、仮想空間内に配置されるオブジェクトを、仮想空間内に配置される仮想カメラによって撮影した画像をディスプレイ132に表示することでゲームを進行させる。   The object management table 252A shows the setting of objects arranged in the virtual space of the game. By executing the game program 151, the mobile terminal 10 causes the display 132 to display an image obtained by photographing an object placed in the virtual space with a virtual camera placed in the virtual space, thereby causing the game to proceed.

ここで、オブジェクトとしては、例えば、ユーザが操作するゲームキャラクタを示すオブジェクト、ゲームキャラクタが装着する装着対象物を示すオブジェクトなど様々なものがある。制御部190は、ユーザがタッチスクリーン130に対して予め定められた入力操作を行うこと、ゲームの進行に伴い一定の条件を満たすこと、その他の様々な事象の発生を契機として、オブジェクトに対応付けられた処理を行う。   Here, for example, there are various objects such as an object indicating a game character operated by the user, an object indicating a wearing target worn by the game character, and the like. The control unit 190 associates the object with an object when the user performs a predetermined input operation on the touch screen 130, satisfies a certain condition as the game progresses, and other various events occur. Process.

例えば、あるオブジェクトに対してユーザがタッチスクリーン130に対して接近操作を行うことで、制御部190は、オブジェクトを、ユーザによって選択された状態とする。また、例えば、制御部190は、ユーザによるドラッグ操作を受け付けることで、ユーザが移動対象とするオブジェクトを、ユーザの入力操作に応じて移動させる等の処理を行う。また、例えば、制御部190は、ユーザがオブジェクトに対して行うタッチ操作を受け付けることで、ユーザに対し、ゲームを有利に進めるための報酬を付与する等の処理を行う。   For example, when the user performs an approach operation on the touch screen 130 with respect to an object, the control unit 190 sets the object in a state selected by the user. In addition, for example, the control unit 190 performs processing such as moving an object to be moved by the user according to the input operation of the user by receiving a drag operation by the user. In addition, for example, the control unit 190 performs processing such as granting a reward for advantageous advancement of the game to the user by receiving a touch operation performed on the object by the user.

パッシブスキル管理テーブル252Bは、オブジェクトを識別する情報と、オブジェクトに対応付けられたパッシブスキルの情報とが対応付けられている。ここで、パッシブスキルとは、例えば、ゲームにおいて予め定められた条件が満たされたときに発動され、ユーザがゲームを有利に進行させることができるものである。例えば、パッシブスキルが発動した場合に、ゲームキャラクタの移動速度が向上する等の、ゲームを有利に進行させられる効果を発揮させる。   In the passive skill management table 252B, information for identifying an object is associated with information on passive skills associated with the object. Here, the passive skill is activated when, for example, a predetermined condition is satisfied in the game, and the user can advantageously advance the game. For example, when the passive skill is activated, the game character can be advantageously advanced, such as the moving speed of the game character is improved.

アクティブスキル管理テーブル252Cは、オブジェクトを識別する情報と、オブジェクトに対応付けられたアクティブスキルの情報とが対応付けられている。ここで、アクティブスキルとは、例えば、ゲームにおいて予め定められた条件が満たされたときに発動可能な状態となり、ユーザから、スキルを発動させるための入力操作を受け付けることにより、ユーザがゲームを有利に進行させることができるものである。   In the active skill management table 252C, information for identifying an object is associated with information on an active skill associated with the object. Here, the active skill is, for example, in a state where it can be activated when a predetermined condition is satisfied in the game, and by receiving an input operation for activating the skill from the user, the user has an advantage in the game. It can be made to progress.

ユーザ情報253は、ゲームをプレイするユーザについての情報である。ユーザ情報253は、ユーザ管理テーブル253Aを含む。ユーザ管理テーブル253Aは、各ユーザを識別する情報と、ユーザがゲームを進行させた度合いを示す情報と、ユーザがゲーム内で保有するアイテム、ゲームキャラクタ、ゲームキャラクタが使用する装着物等の情報その他の情報を含む。   The user information 253 is information about the user who plays the game. The user information 253 includes a user management table 253A. The user management table 253A includes information for identifying each user, information indicating the degree of progress of the game by the user, information held by the user in the game, game characters, information used by the game character, and the like. Contains information.

制御部290は、記憶部250に記憶されるゲームプログラム251を実行することにより、送受信部291、サーバ処理部292、データ管理部293、マッチング部294、計測部295としての機能を発揮する。   The control unit 290 executes functions of the transmission / reception unit 291, the server processing unit 292, the data management unit 293, the matching unit 294, and the measurement unit 295 by executing the game program 251 stored in the storage unit 250.

送受信部291は、ゲームプログラム151を実行する携帯端末10から、各種情報を受信し、携帯端末10に対し、各種情報を送信する。携帯端末10とサーバ20とは、ユーザに関連付けられるオブジェクトを仮想空間に配置する要求、オブジェクトを削除する要求、オブジェクトを移動させる要求、ユーザが獲得する報酬に応じて各種パラメータを更新する要求、ゲームを進行させるための画像、音声その他のデータ、サーバ20から携帯端末10へ送信される通知などの情報を送受信する。   The transmission / reception unit 291 receives various types of information from the mobile terminal 10 that executes the game program 151, and transmits various types of information to the mobile terminal 10. The mobile terminal 10 and the server 20 include a request to place an object associated with the user in the virtual space, a request to delete the object, a request to move the object, a request to update various parameters according to a reward acquired by the user, Information such as an image, audio, and other data for advancing, and a notification transmitted from the server 20 to the mobile terminal 10 are transmitted and received.

サーバ処理部292は、サーバ20全体の動作を制御し、各種のプログラムを呼び出す等によりゲームの進行に必要な処理を行う。サーバ処理部292は、例えば、携帯端末10から受信した情報に基づいて、ゲーム情報252、ユーザ情報253などのデータを更新し、携帯端末10に各種データを送信することでゲームを進行させる。   The server processing unit 292 controls the operation of the entire server 20 and performs processing necessary for the progress of the game by calling various programs. For example, the server processing unit 292 updates data such as the game information 252 and the user information 253 based on information received from the mobile terminal 10, and transmits various data to the mobile terminal 10 to advance the game.

データ管理部293は、サーバ処理部292の処理結果に従って、記憶部250に記憶される各種データを更新する処理、データベースにレコードを追加/更新/削除する処理などを行う。   The data management unit 293 performs processing for updating various data stored in the storage unit 250, processing for adding / updating / deleting records to the database, and the like according to the processing result of the server processing unit 292.

マッチング部294は、複数のユーザを関連付けるための一連の処理を行う。マッチング部294は、例えば、ユーザがマルチプレイを行うための入力操作を行った場合に、ゲームを協同してプレイさせるユーザ同士を関連付ける処理などを行う。   The matching unit 294 performs a series of processes for associating a plurality of users. For example, when the user performs an input operation for performing multiplayer, the matching unit 294 performs a process of associating users who play together in a game.

計測部295は、時間を計測する処理を行う。計測部295は、例えば、仮想空間に配置される各オブジェクトについて時間の経過を計測する。また、計測部295は、ゲームが進行している時間を計測する。サーバ20は、携帯端末10から、携帯端末10においてゲームプログラム151を実行して計測される各種の計測結果の情報を受信し、受信した情報と、計測部295の計測結果とを照合することで、携帯端末10とサーバ20とで、各種の時間に関する情報を同期させる。   The measurement unit 295 performs processing for measuring time. For example, the measurement unit 295 measures the passage of time for each object arranged in the virtual space. Moreover, the measurement part 295 measures the time for which the game is progressing. The server 20 receives information on various measurement results measured by executing the game program 151 on the mobile terminal 10 from the mobile terminal 10, and collates the received information with the measurement results of the measurement unit 295. The information regarding various times is synchronized between the mobile terminal 10 and the server 20.

<実施の形態1の構成のまとめ>
以上のように、実施の形態のゲーム配信システム1の構成を説明してきた。本実施形態において、ゲームプログラム151は、例えばスポーツゲームであり、仮想空間内の仮想カメラの配置に応じた画面をタッチスクリーン130に表示させることでゲームを進行させる。
<Summary of Configuration of Embodiment 1>
As described above, the configuration of the game distribution system 1 according to the embodiment has been described. In the present embodiment, the game program 151 is, for example, a sports game, and the game is advanced by causing the touch screen 130 to display a screen corresponding to the placement of the virtual camera in the virtual space.

例えば、ゲームプログラム151がスポーツゲームである場合、ゲーム進行処理部192は、ユーザの操作に応じてストーリーを進行させ、画像、テキストなどディスプレイ132に表示するデータを決定する処理、スポーツの対戦相手の選択をユーザから受け付ける処理、ユーザの操作に応じてスポーツの試合を進める処理などの基本的な処理を行う。   For example, when the game program 151 is a sports game, the game progress processing unit 192 advances the story in accordance with the user's operation, determines the data to be displayed on the display 132 such as images and text, and the sports opponent's Basic processing such as processing for accepting selection from the user and processing for advancing a sports game in accordance with the user's operation is performed.

例えば、ゲームプログラム151がスポーツゲームである場合、カメラ配置制御部194は、スポーツの試合を行うための仮想空間における仮想カメラの配置個所および撮影軸の方向を、スポーツの試合の進展に応じて、逐次、決定する。カメラ配置制御部194は、仮想カメラのカメラワークを制御する。カメラ配置制御部194の詳細な処理は、後述する。   For example, when the game program 151 is a sports game, the camera placement control unit 194 determines the placement location of the virtual camera and the direction of the shooting axis in the virtual space for playing a sports game according to the progress of the sports game. Decide sequentially. The camera arrangement control unit 194 controls camera work of the virtual camera. Detailed processing of the camera arrangement control unit 194 will be described later.

<動作>
図面を参照して、実施の形態のゲーム配信システム1を構成する各装置の動作を説明する。
<Operation>
With reference to the drawings, the operation of each device constituting the game distribution system 1 of the embodiment will be described.

図4は、移動操作検出部193が、ユーザの入力操作に応じてゲームキャラクタを移動させる方向を検出する処理を示す図である。移動操作検出部193は、ユーザがタッチスクリーン130を押していない状態から、指などをタッチパネル131に接近させてタッチスクリーン130を押した位置(初期タッチ位置)を起点と設定する。入力操作受付部191は、ユーザの操作をドラッグ操作と判別している場合に、起点となる座標と、タッチスクリーン130がユーザの指などの接近を検出している座標とに基づいて、ゲームキャラクタを移動させる方向を検出する。   FIG. 4 is a diagram illustrating processing in which the movement operation detection unit 193 detects a direction in which the game character is moved in accordance with a user input operation. The movement operation detecting unit 193 sets a position (initial touch position) where the user presses the touch screen 130 by bringing a finger or the like closer to the touch panel 131 from the state where the user is not pressing the touch screen 130 as a starting point. When the input operation reception unit 191 determines that the user's operation is a drag operation, the input operation receiving unit 191 determines the game character based on the coordinates that are the starting point and the coordinates that the touch screen 130 detects the approach of the user's finger or the like. The direction to move is detected.

図4の状態(A)は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させた状態を示す。入力操作受付部191は、ユーザの指がタッチパネル131に接近したことを検出し、検出した座標を初期タッチ位置としてメモリに保持する。   A state (A) in FIG. 4 shows a state in which the user brings his / her finger close to the touch screen 130 from a state in which the user's finger has left the touch screen 130. The input operation reception unit 191 detects that the user's finger has approached the touch panel 131 and stores the detected coordinates in the memory as an initial touch position.

図4の例では、メモリが保持する初期タッチ位置の座標を、初期タッチ位置座標155として示す。入力操作受付部191は、タッチスクリーン130の検出結果(ユーザの指がタッチスクリーン130に接近している座標、および、ユーザの指がタッチスクリーン130に接近していることを検出していないこと(検出結果「null」)、タッチオフ状態)を、一定フレーム分、バッファメモリ153に格納する。バッファメモリ153は、タッチスクリーン130における検出結果を、各フレームについて一定フレーム分(図3の例では、メモリ領域fp〔0〕〜メモリ領域fp〔10〕までの11フレーム分)、格納することができる。バッファメモリ153は、例えばリングバッファとして実現することができるが、これに限られない。   In the example of FIG. 4, the coordinates of the initial touch position held by the memory are indicated as initial touch position coordinates 155. The input operation reception unit 191 does not detect the detection result of the touch screen 130 (the coordinates at which the user's finger is approaching the touch screen 130 and the proximity of the user's finger to the touch screen 130 ( The detection result “null”) and the touch-off state) are stored in the buffer memory 153 for a certain number of frames. The buffer memory 153 can store the detection result on the touch screen 130 for each frame for a certain frame (11 frames from the memory area fp [0] to the memory area fp [10] in the example of FIG. 3). it can. The buffer memory 153 can be realized as a ring buffer, for example, but is not limited thereto.

状態(A)の例では、ユーザがタッチスクリーン130を押した位置(タッチオン座標)を、押下位置30A(タッチスクリーン130の座標(x0,y0))として示す。   In the example of the state (A), a position where the user presses the touch screen 130 (touch-on coordinates) is shown as a pressed position 30A (coordinates (x0, y0) of the touch screen 130).

図4の状態(B)は、ユーザがタッチスクリーン130に対してドラッグ操作を行って、タッチスクリーン130に対する押下位置を、押下位置30Aから押下位置30B(タッチスクリーン130の座標(x9,y9))まで10フレーム(メモリ領域fp〔0〕〜メモリ領域fp〔9〕までの10フレーム分)で移動させたことを示す。入力操作受付部191は、タッチスクリーン130の検出結果をバッファメモリ153に格納し、バッファメモリ153に保持される値を参照して、タッチスクリーン130に対するユーザの操作をドラッグ操作と判別する。   In the state (B) of FIG. 4, the user performs a drag operation on the touch screen 130, and the pressing position on the touch screen 130 is changed from the pressing position 30A to the pressing position 30B (coordinates (x9, y9) of the touch screen 130). This indicates that the frame has been moved by 10 frames (10 frames from the memory area fp [0] to the memory area fp [9]). The input operation reception unit 191 stores the detection result of the touch screen 130 in the buffer memory 153 and refers to the value held in the buffer memory 153 to determine that the user's operation on the touch screen 130 is a drag operation.

図4の状態(C)は、ユーザがタッチスクリーン130を押している位置を、押下位置30Bから押下位置30C(タッチスクリーン130の座標(x14,y14))まで、5フレーム(メモリ領域fp〔10〕、fp〔0〕、fp〔1〕、fp〔2〕、fp〔3〕の5フレーム分)で移動させたことを示す。   In the state (C) of FIG. 4, the position where the user is pressing the touch screen 130 is five frames (memory area fp [10]) from the pressed position 30B to the pressed position 30C (coordinates (x14, y14) of the touch screen 130). , Fp [0], fp [1], fp [2], and fp [3]).

図4の状態(D)は、移動操作検出部193が、状態(B)および状態(C)のそれぞれにおいて、ユーザがゲームキャラクタを移動させる方向を指定する入力操作の検出結果を示す。移動操作検出部193は、バッファメモリ153において、タッチスクリーン130が検出する押下位置の座標を書き込む対象となるメモリ領域がいずれであるかを示す情報(バッファメモリ153の書き込み位置)を管理している。   The state (D) of FIG. 4 shows the detection result of the input operation in which the movement operation detection unit 193 designates the direction in which the user moves the game character in each of the state (B) and the state (C). The movement operation detection unit 193 manages information (writing position of the buffer memory 153) indicating which memory area is a target of writing the coordinates of the pressed position detected by the touch screen 130 in the buffer memory 153. .

状態(B)において、タッチナウの座標を、座標(x9、y9)とする。移動操作検出部193は、入力操作受付部191の判別結果に基づいて、ユーザがドラッグ操作を行ったことを検出する。移動操作検出部193は、初期タッチ位置の座標31A(タッチオンの座標)を起点として、座標31A(タッチオンの座標)と座標31B(タッチナウの座標)とによって規定されるベクトル32B((x9−x0),(y9−y0))を、ゲームキャラクタを移動させる方向として検出する。   In the state (B), the coordinates of the touch now are coordinates (x9, y9). The movement operation detection unit 193 detects that the user has performed a drag operation based on the determination result of the input operation reception unit 191. The movement operation detection unit 193 starts from the coordinates 31A (touch-on coordinates) of the initial touch position as a starting point, and a vector 32B ((x9-x0) defined by the coordinates 31A (touch-on coordinates) and the coordinates 31B (touch now coordinates). , (Y9-y0)) is detected as the direction in which the game character is moved.

状態(C)において、タッチナウの座標を、座標(x14、y14)とする。移動操作検出部193は、入力操作受付部191の判別結果に基づいて、ユーザがドラッグ操作を行ったことを検出する。移動操作検出部193は、初期タッチ位置の座標31A(タッチオンの座標)を起点として、座標31A(タッチオンの座標)と座標31C(タッチナウの座標)とによって規定されるベクトル32C((x14−x0),(y14−y0))を、ゲームキャラクタを移動させる方向として検出する。   In the state (C), the coordinates of the touch now are coordinates (x14, y14). The movement operation detection unit 193 detects that the user has performed a drag operation based on the determination result of the input operation reception unit 191. The movement operation detection unit 193 starts from the coordinates 31A (touch-on coordinates) of the initial touch position as a starting point, and a vector 32C ((x14-x0) defined by the coordinates 31A (touch-on coordinates) and the coordinates 31C (touch now coordinates). , (Y14-y0)) is detected as the direction in which the game character is moved.

<ゲームキャラクタを移動させるための画面表示例>
図5から図8を参照して、オブジェクト制御部195が、移動操作検出部193の検出結果に基づいて、オブジェクトとしてのゲームキャラクタを移動させる画面例を詳しく説明する。
<Screen display example for moving a game character>
With reference to FIG. 5 to FIG. 8, an example of a screen on which the object control unit 195 moves the game character as the object based on the detection result of the movement operation detection unit 193 will be described in detail.

例えば、ゲームプログラム151は、仮想空間内において、ゲームキャラクタが、対象物を交互に打ち返すスポーツゲームにかかるものであり、具体的にはテニスゲームである。ゲームプログラム151は、入力操作を受け付けることにより、ゲームのプレイヤであるユーザが操作するゲームキャラクタと、ゲームキャラクタと対戦する相手側キャラクタとの間で、テニスボールを交互に打ち返す動作を行わせてゲームを進行させる。例えば、タッチスクリーンで入力操作を受け付ける場合、ゲームキャラクタを移動させる操作と、ゲームキャラクタにボールを打球させる操作とを、ともにタッチスクリーンで受け付ける。例えば、ユーザは、タッチスクリーンに対し、ドラッグ操作を行うことで、ドラッグ操作におけるタッチ開始位置とタッチ操作が継続している位置との位置関係により定まる方向へゲームキャラクタを移動させる。ゲームキャラクタにスイング動作を行わせるため、ユーザは、ドラッグ操作においてタッチスクリーンへの接触を継続している指をいったんタッチスクリーンから離して、タップ操作またはフリック操作を行う。現実のテニスにおいても、テニスボールに対して打球する位置へ移動したうえで、スイングのタイミングを図って打球することがよく行われている。   For example, the game program 151 is related to a sports game in which a game character turns back an object alternately in a virtual space, and is specifically a tennis game. The game program 151 accepts an input operation, thereby causing the game character 151 to alternately return a tennis ball between a game character operated by a user who is a game player and an opponent character who battles the game character. To advance. For example, when accepting an input operation on the touch screen, an operation for moving the game character and an operation for hitting the ball to the game character are both accepted on the touch screen. For example, the user moves the game character in a direction determined by the positional relationship between the touch start position in the drag operation and the position where the touch operation is continued by performing a drag operation on the touch screen. In order to cause the game character to perform a swing motion, the user performs a tap operation or a flick operation by once releasing the finger that continues to touch the touch screen in the drag operation from the touch screen. Even in actual tennis, it is often performed to move to a position where a ball is hit against a tennis ball and then hit the ball at the timing of the swing.

カメラ配置制御部194は、ユーザが操作するゲームキャラクタを、例えば画面の中央付近に位置するように、ユーザの入力操作によるゲームキャラクタの移動にあわせて仮想カメラを移動させる。また、シングルスとは異なり、ダブルスのように、2人が一組のチームとなって、チーム同士が対戦する場合、複数のゲームキャラクタがそれぞれ対象物をラケットで対戦相手のチームに打ち返すことなどによりゲームを進行させるので、各ゲームキャラクタをユーザが容易に視認できるように、試合に参加する全てのゲームキャラクタがディスプレイ132に表示されるよう仮想カメラを配置することとしている。   The camera arrangement control unit 194 moves the virtual camera in accordance with the movement of the game character by the user's input operation so that the game character operated by the user is positioned near the center of the screen, for example. Also, unlike singles, when two people form a team and fight against each other like doubles, multiple game characters can each return the target to the opponent's team with a racket, etc. Since the game is advanced, the virtual camera is arranged so that all game characters participating in the game are displayed on the display 132 so that the user can easily see each game character.

図5は、仮想空間内に配置されるフィールド面Fを示す図である。図5に示すように、ゲームプログラム151を実行する制御部190は、仮想空間内に、ゲームキャラクタ(ユーザが操作する対象のゲームキャラクタ134及び対戦相手となるゲームキャラクタ136)および対象物138を配置する処理を行う。   FIG. 5 is a diagram showing the field plane F arranged in the virtual space. As shown in FIG. 5, the control unit 190 that executes the game program 151 arranges a game character (a game character 134 to be operated by a user and a game character 136 to be an opponent) and an object 138 in a virtual space. Perform the process.

図5の例では、仮想空間内のxyz座標軸において、xy平面に平行にフィールド面Fを配置する。フィールド面Fは、テニスコートを模した面である。制御部190は、移動操作検出部193によって検出されるゲームキャラクタの移動方向に従って、ゲームキャラクタ134を、仮想空間内に配置されるフィールド面Fにおいて移動させる。また、制御部190は、ゲームの進行に応じて、ゲームキャラクタ136をフィールド面Fにおいて移動させる。仮想空間内のz軸は、フィールド面Fに対する高さ方向を示す。制御部190は、各ゲームキャラクタが対象物138を打球するスイング動作を行うことで、オブジェクトとしての対象物138を、例えば物理演算の結果に基づいてフィールド面Fを地面としてz軸方向に重力が働いているものとして移動させる。   In the example of FIG. 5, the field plane F is arranged in parallel to the xy plane on the xyz coordinate axis in the virtual space. The field surface F is a surface imitating a tennis court. The control unit 190 moves the game character 134 on the field plane F arranged in the virtual space according to the moving direction of the game character detected by the moving operation detection unit 193. Further, the control unit 190 moves the game character 136 on the field surface F as the game progresses. A z-axis in the virtual space indicates a height direction with respect to the field plane F. The control unit 190 performs a swing motion in which each game character hits the target 138, so that the gravity of the target 138 as an object is caused in the z-axis direction with the field plane F as the ground, for example, based on the result of physics calculation. Move as working.

ここで、z軸方向において、フィールド面Fからの高さに関する閾値181Hがゲームプログラム151において設定されている。例えば、ゲームキャラクタのそれぞれに、閾値181Hが設定されていることとしてもよい。この閾値181Hは、ゲームキャラクタが対象物を打球できる高さの上限値を示す。例えば、制御部190は、対象物138の位置が、xy平面上の座標としてはゲームキャラクタ134の周囲にあるとしても、閾値181Hを超えて高い位置にある場合は、ゲームキャラクタ134にスイング動作を行わせたとしても、対象物138の位置が高すぎるとして当該対象物138の打球に空振りするようにゲームを進行させる。一方、制御部190は、対象物138の位置が、平面上の座標としては、ゲームキャラクタ134の周囲に設定されるスイング領域の範囲内であり、閾値181Hよりも低い位置にある場合は、ゲームキャラクタ134にスイング動作を行わせた場合に、ゲームキャラクタ134が対象物138を打球するようにゲームを進行させる。   Here, a threshold value 181H relating to the height from the field plane F is set in the game program 151 in the z-axis direction. For example, a threshold value 181H may be set for each game character. This threshold value 181H indicates the upper limit value of the height at which the game character can hit the target. For example, even if the position of the object 138 is around the game character 134 as coordinates on the xy plane, the control unit 190 performs a swing motion on the game character 134 when the position is higher than the threshold 181H. Even if the game is performed, the game is advanced so that the position of the object 138 is too high and the player hits the hit ball of the object 138. On the other hand, if the position of the object 138 is within the range of the swing area set around the game character 134 as a coordinate on the plane and is at a position lower than the threshold value 181H, the control unit 190 When the character 134 is caused to perform a swing motion, the game is advanced so that the game character 134 hits the object 138.

このように構成されることで、ゲームプログラム151は、ユーザに対し、より対戦相手となるゲームキャラクタ136から打たれる対象物138の弾道を見極めて、対象物138の落下点がフィールド面Fのいずれであるかをもユーザに意識させつつゲームを進行させることができ、対象物138に対するゲームキャラクタ134の位置取りと打球のタイミングによってゲームにおける有利不利が定まることを示唆することができる。そのためゲームの興趣性がいっそう向上する。   By being configured in this way, the game program 151 looks at the trajectory of the object 138 hit from the game character 136 as an opponent to the user, and the falling point of the object 138 is on the field plane F. The game can be advanced while making the user aware of any of them, and it can be suggested that the advantage and disadvantage in the game are determined by the positioning of the game character 134 relative to the object 138 and the timing of the hitting ball. Therefore, the interest of the game is further improved.

<データ構造>
図6は、ゲームキャラクタに設定される各種パラメータの一例を示す図である。サーバ20と携帯端末10とは、ゲームキャラクタに設定される各種パラメータを管理する。例えば、サーバ20が、ゲームに登場するゲームキャラクタの各種パラメータを管理し、携帯端末10が、ユーザが使用可能なゲームキャラクタを、キャラクタ管理テーブル121として管理する。
図6に示すように、キャラクタ管理テーブル121の1件のレコードは、キャラクタ識別情報121Aと、サーブパラメータ121Bと、ストロークパラメータ121Cと、テクニックパラメータ121Dと、スタミナパラメータ121Eと、スピードパラメータ121Fとを含む。
<Data structure>
FIG. 6 is a diagram illustrating an example of various parameters set for the game character. The server 20 and the mobile terminal 10 manage various parameters set for the game character. For example, the server 20 manages various parameters of game characters appearing in the game, and the mobile terminal 10 manages game characters that can be used by the user as the character management table 121.
As shown in FIG. 6, one record of the character management table 121 includes character identification information 121A, a serve parameter 121B, a stroke parameter 121C, a technique parameter 121D, a stamina parameter 121E, and a speed parameter 121F. .

キャラクタ識別情報121Aは、ゲームキャラクタそれぞれを識別する情報である。サーブパラメータ121Bは、ゲームキャラクタがボールをサーブ動作により相手側のコートに打ち込む際の、打球の速さの設定値を示す。   The character identification information 121A is information for identifying each game character. The serve parameter 121B indicates a set value of the hitting speed when the game character hits the ball on the opponent's court by a serve action.

ストロークパラメータ121Cは、ゲームキャラクタがボールを対戦相手となるゲームキャラクタと交互に打ち返す際の、打球の速さの設定値を示す。テクニックパラメータ121Dは、ゲームキャラクタがボールを相手側のコートに打ち込む際の、コントロールの精度などの設定値を示す。   The stroke parameter 121C indicates a set value of the hitting speed when the game character alternately returns the ball to the opponent game character. The technique parameter 121D indicates a set value such as accuracy of control when the game character hits the ball on the opponent's court.

スタミナパラメータ121Eは、ゲームキャラクタがゲーム中で移動する、打球する等の動作時に消費する体力の大きさの設定値を示す。スピードパラメータ121Fは、ゲームキャラクタがコートを移動する速度の設定値を示す。   The stamina parameter 121E indicates a set value of the level of physical strength consumed when the game character moves during the game, hits the ball, and the like. The speed parameter 121F indicates a set value of the speed at which the game character moves on the court.

なお、ゲームキャラクタに設定される各種のパラメータは、これらに限らず、ゲームキャラクタの利き手の情報その他の情報を含むこととしてもよい。   The various parameters set for the game character are not limited to these, and may include information on the dominant hand of the game character and other information.

図7は、ゲームキャラクタの周囲に設定される、対象物138を打球可能な範囲を示す図である。   FIG. 7 is a diagram showing a range in which the object 138 can be hit, which is set around the game character.

図7の状態(A)は、スイング領域を示す図である。状態(B)は、仮想カメラの配置に従ってタッチスクリーン130に表示されるゲームキャラクタ134および打球範囲画像147を示す図である。状態(C)は、ユーザが対象物138を打球するための入力操作を行った場合に、ゲームキャラクタ134に関連付けられる(ゲームキャラクタ134が利き手の設定に応じて保持する)ラケットが移動する軌跡を示す。   The state (A) in FIG. 7 is a diagram showing a swing region. The state (B) is a diagram showing the game character 134 and the hitting range image 147 displayed on the touch screen 130 according to the arrangement of the virtual camera. In the state (C), when the user performs an input operation for hitting the target 138, a trajectory along which the racket associated with the game character 134 (held by the game character 134 according to the dominant hand setting) moves is shown. Show.

状態(A)の例では、図面の上側を、ゲームキャラクタ134と対戦するゲームキャラクタ136が配置されるものとしてスイング領域(第1のスイング領域(スイング領域149F、スイング領域149R、スイング領域149Lおよびスイング領域149Bにより構成される、ゲームキャラクタ134の周囲の一定範囲の領域)および第2のスイング領域149W)を示している。   In the example of the state (A), on the upper side of the drawing, it is assumed that the game character 136 that fights against the game character 134 is arranged. A region of a certain range around the game character 134) and a second swing region 149W) constituted by the region 149B are shown.

スイング領域は、ゲームキャラクタ134が対象物138を打球することができる領域である。制御部190は、ユーザがタッチスクリーン130に対するタップ操作またはフリック操作の少なくともいずれかの入力操作を受け付けた場合に、ゲームキャラクタ134に、ゲームキャラクタ136から打たれる対象物138を打球するためのスイング動作を行わせる。制御部190は、スイング動作を行わせるための入力操作(タップ操作またはフリック操作の少なくともいずれか)を受け付けた場合に、対象物138が、ゲームキャラクタ134の周囲に設定されるスイング領域に含まれるときは、対象物138をスイング動作によりゲームキャラクタ136に向けて打ち返すよう対象物138をゲームキャラクタ136が配置されるコートに向けて飛翔させるように移動させる。制御部190は、スイング動作を行わせるための入力操作を受け付けた場合に、対象物138がスイング領域の範囲外にあるときは、ゲームキャラクタ134が対象物138の打ち返しに空振りするよう動作させ、対象物138を移動させる。   The swing area is an area where the game character 134 can hit the target 138. When the user receives an input operation of at least one of a tap operation and a flick operation on the touch screen 130, the control unit 190 swings to hit the target 138 hit from the game character 136 on the game character 134. Let the action take place. When the control unit 190 receives an input operation (at least one of a tap operation and a flick operation) for performing a swing motion, the target 138 is included in the swing region set around the game character 134. At this time, the object 138 is moved so as to fly toward the court on which the game character 136 is placed so that the object 138 is returned to the game character 136 by a swing motion. When the control unit 190 receives an input operation for performing a swing motion, and the target object 138 is outside the range of the swing region, the control unit 190 moves the game character 134 so that the target character 138 strikes back, The object 138 is moved.

状態(A)に示すように、ゲームキャラクタ134の周囲に、第1のスイング領域と、第2のスイング領域149Wとが設定されている。本実施形態のテニスゲームにおいては、打球範囲画像147の外側でゲームキャラクタ134が対象物138を打球する場合よりも、打球範囲画像147の内側で対象物138を打球するほうが、よりよい打球を対戦相手(ゲームキャラクタ136)に打ち返せるものとしている(例えば、弾速が比較的速い打球をゲームキャラクタが打ち返す)。   As shown in the state (A), a first swing area and a second swing area 149W are set around the game character 134. In the tennis game of the present embodiment, it is better to hit the target 138 inside the hitting range image 147 than when the game character 134 hits the target 138 outside the hitting range image 147. It is assumed that it can be returned to the opponent (game character 136) (for example, the game character returns a hit ball having a relatively high bullet speed).

また、ゲームキャラクタが、対象物138が第1のスイング領域にあるときに対象物138を打球する場合、打球のタイミングによっても対象物138の着弾位置を変化させるようにしている。例えば、ゲームキャラクタの左右で対象物138を打球した場合(対象物138が右側スイング領域149Rまたは左側スイング領域149Lのいずれかにあるときに、対象物138を打球するための操作を検出した場合)を基準とする。ゲームキャラクタが右利きで、ゲームキャラクタの位置よりも前方よりで対象物138をフォアで打球した場合(ゲームキャラクタが左利きでバックで打球した場合も同様)は(比較的早めに打球した場合)、対象物の着弾位置を、ゲームキャラクタの視点で左側にずらす。具体的には、対象物138が前方スイング領域149Fにあるときに、対象物138を打球するための操作(タップ操作またはフリック操作)が検出された場合である。また、ゲームキャラクタが左利きで対象物138をフォアで打球した場合(ゲームキャラクタが右利きで対象物138をバックで打球した場合も同様)は、対象物138の着弾位置を、ゲームキャラクタの視点で右側にずらす。   When the game character hits the target 138 when the target 138 is in the first swing area, the landing position of the target 138 is also changed according to the timing of the hit. For example, when the object 138 is hit with the left and right sides of the game character (when an operation for hitting the object 138 is detected when the object 138 is in either the right swing area 149R or the left swing area 149L) Based on When the game character is right-handed and hits the object 138 with a fore in front of the position of the game character (the same is true when the game character hits with a left-handed back) (when the ball is hit relatively early), The landing position of the object is shifted to the left from the viewpoint of the game character. Specifically, this is a case where an operation (tap operation or flick operation) for hitting the object 138 is detected when the object 138 is in the forward swing region 149F. When the game character is left-handed and hits the target 138 with the fore (the same applies when the game character hits the right-handed target 138 with the back), the landing position of the target 138 is determined from the viewpoint of the game character. Shift to the right.

また、ゲームキャラクタが右利きで、ゲームキャラクタの位置よりも後方よりで対象物138をフォアで打球した場合(ゲームキャラクタが左利きでバックで打球した場合も同様)は(比較的遅めに打球した場合)、対象物の着弾位置を、ゲームキャラクタの視点で右側にずらす。具体的には、対象物138が後方スイング領域149Bにあるときに、対象物138を打球するための操作(タップ操作またはフリック操作)が検出された場合である。また、ゲームキャラクタが左利きで対象物138をフォアで打球した場合(ゲームキャラクタが右利きで対象物138をバックで打球した場合も同様)は、対象物138の着弾位置を、ゲームキャラクタの視点で左側にずらす。   Also, when the game character is right-handed and hits the object 138 with the fore behind the position of the game character (the same is true when the game character is left-handed and hit with the back) (the ball was hit relatively late) ), The landing position of the object is shifted to the right from the viewpoint of the game character. Specifically, this is a case where an operation (tap operation or flick operation) for hitting the object 138 is detected when the object 138 is in the backward swing region 149B. When the game character is left-handed and hits the target 138 with the fore (the same applies when the game character hits the right-handed target 138 with the back), the landing position of the target 138 is determined from the viewpoint of the game character. Shift to the left.

状態(A)の例では、ゲームキャラクタ134の位置を中心とした矩形の領域を、スイング領域(第1のスイング領域および第2のスイング領域)として設定しているが、スイング領域の形状は矩形に限らず円形、楕円形その他の形状であってもよく、また、ゲームキャラクタ134の位置を中心とすることに限られない。制御部190は、ゲームキャラクタ134の周囲に、ユーザに対し、スイング領域の大きさを視認させるための打球範囲画像147をディスプレイ132に表示させる。このように、ゲームキャラクタ134の位置を中心とした場合に、第1のスイング領域は、第2のスイング領域149Wよりも内側に設定されている。このように、第2のスイング領域149Wは、第1のスイング領域よりも広い領域が設定されている。   In the example of the state (A), a rectangular area centered on the position of the game character 134 is set as a swing area (first swing area and second swing area), but the shape of the swing area is rectangular. The shape of the game character 134 is not limited to the center of the game character 134. The control unit 190 causes the display 132 to display a hitting range image 147 for allowing the user to visually recognize the size of the swing area around the game character 134. As described above, when the position of the game character 134 is the center, the first swing area is set on the inner side of the second swing area 149W. As described above, the second swing region 149W is set to be wider than the first swing region.

状態(C)において、ゲームキャラクタ134の利き手は右手と設定されており、フォアによるスイング動作を行っているものとする。状態(C)に示すように、スイング動作をすることで、ラケットの位置が、ラケット148A〜ラケット148Eの位置までゲームキャラクタ134の位置を中心に移動する。なお、ゲームキャラクタ134が、バックハンドによるスイング動作を行うことができるように構成されている。制御部190は、例えば、オブジェクトとしてのラケットを、ラケット148A〜148Eのように、ユーザの入力操作に応じて移動させ、当該オブジェクトとしてのラケットと、オブジェクトとしての対象物138とが衝突したときに、衝突したタイミングに応じて、対象物138において予め定められていた動作(相手側となるゲームキャラクタ136のコートへと対象物138を移動させる動作)を行わせることとしてもよい。   In the state (C), it is assumed that the dominant hand of the game character 134 is set as the right hand and is performing a swing motion by the fore. As shown in state (C), by performing a swing motion, the position of the racket moves from the position of the game character 134 to the position of the racket 148A to the racket 148E. Note that the game character 134 is configured to be able to perform a swing action by a backhand. For example, the control unit 190 moves a racket as an object according to a user input operation like the rackets 148A to 148E, and when the racket as the object collides with the object 138 as the object. Depending on the timing of the collision, a predetermined action on the object 138 (an action of moving the object 138 to the court of the game character 136 on the opponent side) may be performed.

このように、ゲームキャラクタ134の位置に基づいて、オブジェクトとしてのラケットを、打球範囲画像147の範囲内で移動させることで、ユーザに対し、打球範囲画像147の範囲内に対象物138を収めるようドラッグ操作による移動操作を入力させつつ、タップ操作またはフリック操作によってスイング動作を行わせるよう促すことができる。このように、ユーザに対し、相手側のゲームキャラクタ136から打たれる対象物138の軌跡を視認させつつ、対象物138の移動の軌跡を推測させて、ゲームキャラクタ134を移動させる操作およびタイミングに応じてスイング動作をさせるための入力操作をするよう促すことができ、ゲームの興趣性をいっそう高めることができる。   In this way, by moving the racket as the object within the range of the hit ball range image 147 based on the position of the game character 134, the object 138 can be placed within the range of the hit ball range image 147 for the user. It is possible to prompt the user to perform a swing operation by a tap operation or a flick operation while inputting a movement operation by a drag operation. In this way, the operation and timing of moving the game character 134 by causing the user to guess the trajectory of the object 138 while visually recognizing the trajectory of the object 138 hit from the opponent game character 136 are performed. Accordingly, it is possible to prompt the user to perform an input operation for performing a swing motion, and it is possible to further enhance the fun of the game.

図8は、ゲームキャラクタに、第1の動作としてサーブ動作を行わせた後、第2の動作として、相手側キャラクタとの間でボールを交互に打ち返すためにゲームキャラクタを移動させるための入力操作を受け付けるゲーム画面の遷移を示す図である。図8の例では、自キャラクタ134の位置に対し、ネットを挟んで画面の奥方向(縦方向)に相手側キャラクタ136を配置している。   FIG. 8 shows an input operation for moving the game character to alternately return the ball to and from the opponent character as the second action after the game character performs the serve action as the first action. It is a figure which shows the transition of the game screen which accepts. In the example of FIG. 8, the opponent character 136 is arranged in the depth direction (vertical direction) of the screen with respect to the position of the own character 134 across the net.

図8の画面例(A)、画面例(B)および画面例(C)は、ユーザが操作する自キャラクタ134に、第1の動作としてサーブ動作を行わせるための入力操作を受け付ける画面である。画面例(A)に示すように、ゲーム進行処理部192は、タッチスクリーン130に、ユーザが操作するゲームキャラクタである自キャラクタ134と、テニスゲームの対戦相手となるゲームキャラクタである相手側キャラクタ136とを表示させて、ユーザに対し、自キャラクタ134にサーブ動作を行わせるための入力操作を受け付ける。   The screen example (A), the screen example (B), and the screen example (C) in FIG. 8 are screens that accept an input operation for causing the user character 134 operated by the user to perform a serve motion as the first motion. . As shown in the screen example (A), the game progress processing unit 192 displays, on the touch screen 130, the own character 134 that is a game character operated by the user and an opponent character 136 that is a game character that is an opponent of the tennis game. Is displayed, and an input operation for allowing the user character 134 to perform a serve operation is received.

画面例(A)に示す状態において、ゲーム進行処理部192は、ユーザが自キャラクタ134にサーブ動作を行わせるため、自キャラクタ134がサーブ動作を開始する位置を指定する入力操作を受け付ける。ここで、サーブ動作を開始する位置は、コートの辺に沿った方向(画面では左右方向)に規定されるため、ユーザは、自キャラクタ134を左右方向に移動させる入力操作を行って、サーブ動作を開始する位置を決定する。   In the state shown in the example screen (A), the game progress processing unit 192 accepts an input operation for designating a position at which the own character 134 starts the serve action in order for the user to cause the own character 134 to perform the serve action. Here, since the position at which the serve motion is started is defined in the direction along the side of the court (the left-right direction on the screen), the user performs an input operation to move the player character 134 in the left-right direction, and the serve motion is performed. Determine where to start.

画面例(B)に示すように、ゲーム進行処理部192は、自キャラクタ134にサーブ動作を行わせるための入力操作をユーザから受け付ける。ゲーム進行処理部192は、ユーザがタップ操作を行ったことを入力操作受付部191が検出した場合に、自キャラクタ134に、ボールをトスアップさせる動作を行わせる。ゲーム進行処理部192は、打球対象オブジェクト138を、自キャラクタ134がテニスボールをトスアップしたように移動させる。すなわち、ゲーム進行処理部192は、自キャラクタ134がテニスボールを投げることで、テニスボールが上昇及び下降するように打球対象オブジェクト138を移動させる。   As shown in the screen example (B), the game progress processing unit 192 receives an input operation for causing the player character 134 to perform a serve action from the user. When the input operation receiving unit 191 detects that the user has performed a tap operation, the game progress processing unit 192 causes the player character 134 to perform an action of tossing up the ball. The game progress processing unit 192 moves the hitting target object 138 as if the player character 134 tossed up the tennis ball. That is, the game progress processing unit 192 moves the hitting target object 138 so that the tennis ball moves up and down when the player character 134 throws the tennis ball.

画面例(C)に示すように、ゲーム進行処理部192は、自キャラクタ134に、トスアップしたテニスボールを打球させるための入力操作をユーザから受け付ける。ユーザは、トスアップされた打球対象オブジェクト138が上昇したのちに下降するよう移動していくのを視認して、タイミングをはかってタッチスクリーン130にタップ操作を行うことで、打球対象オブジェクト138を打球するよう自キャラクタ134を操作する。   As shown in the screen example (C), the game progress processing unit 192 receives an input operation for causing the player character 134 to hit a tossed tennis ball from the user. The user visually recognizes that the tossed hitting target object 138 moves so as to descend and then hits the hitting target object 138 by performing a tap operation on the touch screen 130 in a timely manner. The user character 134 is operated.

ゲーム進行処理部192は、例えば、打球対象オブジェクト138を上昇及び下降していくよう表示する総フレーム数のうち、予め規定された一定のフレーム数においてユーザからのタップ操作を受け付ける。ゲーム進行処理部192は、この一定のフレーム数においてタップ操作を検出した場合に、自キャラクタ134に、打球対象オブジェクト138を打球させる動作を行わせて打球対象オブジェクト138を相手側キャラクタに向けて飛翔させるよう移動させる。   For example, the game progress processing unit 192 receives a tap operation from the user in a predetermined number of frames out of the total number of frames for displaying the hitting target object 138 so as to rise and descend. When the game progress processing unit 192 detects a tap operation in the fixed number of frames, the game progress processing unit 192 causes the player character 134 to perform an action of hitting the hitting target object 138 to fly the hitting target object 138 toward the opponent character. Move to make it.

画面例(A)〜画面例(C)で説明したように、ユーザは、トスアップされた打球対象オブジェクト138を視認して、タイミングを見計らってタップ操作を行うことで、自キャラクタ134にサーブ動作を行わせる。そのため、ユーザにとっては、自キャラクタ134および打球対象オブジェクト138が比較的小さく表示されている場合よりも、自キャラクタ134および打球対象オブジェクト138がタッチスクリーン130の手前側に配置されて比較的大きく表示されている方が、サーブ動作を入力することが容易となる。   As described in the screen example (A) to the screen example (C), the user visually recognizes the tossed ball target object 138 and performs a tap operation at the timing, thereby performing a serve operation on the player character 134. Let it be done. Therefore, for the user, the player character 134 and the hit ball target object 138 are arranged on the front side of the touch screen 130 and displayed relatively larger than when the player character 134 and the hit ball target object 138 are displayed relatively small. It becomes easier to input the serve operation.

画面例(C)に示すように、自キャラクタ134にサーブ動作を行わせて打球対象オブジェクト138を相手側キャラクタ136に向けて飛翔させた後は、ユーザは、自キャラクタ134を移動させつつ、自キャラクタ134と相手側キャラクタ136との間で、打球対象オブジェクト138を交互に打ち返す入力操作を行うことでゲームを進行させることとなる。   As shown in screen example (C), after causing the player character 134 to perform a serve action and causing the hitting target object 138 to fly toward the opponent character 136, the user moves the player character 134 while moving the player character 134. The game is advanced by performing an input operation of alternately hitting the hitting target object 138 between the character 134 and the opponent character 136.

ここで、ゲーム進行処理部192は、例えば図4に示すように、ユーザからドラッグ操作を受け付けることで自キャラクタ134を移動させる方向を指定する入力操作を受け付ける。ユーザは、主に、タッチスクリーン130の手前側の領域を用いて、自キャラクタ134を移動させる入力操作を行うこととなる。そのため、ユーザの指と自キャラクタ134とがなるべく重ならないよう、自キャラクタ134をユーザが視認しやすくすることで、ゲームの操作性を向上させることができる。   Here, for example, as illustrated in FIG. 4, the game progress processing unit 192 receives an input operation for designating a direction in which the player character 134 is moved by receiving a drag operation from the user. The user mainly performs an input operation for moving the player character 134 using the area on the near side of the touch screen 130. Therefore, the operability of the game can be improved by making it easier for the user to visually recognize the own character 134 so that the user's finger and the own character 134 do not overlap as much as possible.

そこで、カメラ配置制御部194は、ゲームキャラクタに、第1の動作を行わせる画面表示をし、タッチスクリーン130の少なくとも1つの辺から中央部に向かう一定領域を空けてゲームキャラクタを表示させるよう仮想カメラを移動させる。例えば、カメラ配置制御部194は、タッチスクリーン130の1つの辺から中央部に向かう略4分の1から略3分の1の一定領域を空けてゲームキャラクタを表示させる。   Therefore, the camera arrangement control unit 194 displays the screen to cause the game character to perform the first action, and displays the game character so as to display a certain area from at least one side of the touch screen 130 toward the center. Move the camera. For example, the camera arrangement control unit 194 displays a game character with a certain area from about one quarter to about one third from one side of the touch screen 130 toward the center.

図8の画面例(D)に示すように、テニスゲームであれば、カメラ配置制御部194は、ゲームキャラクタに、第1の動作としてサーブ動作を行わせる画面表示をした後(画面例(A)〜画面例(C))、タッチスクリーン130の、ユーザから見て手前側となる辺から画面の中央部へ向かう一定領域139を空けてゲームキャラクタ(自キャラクタ134)を表示させるよう、第1の動作(サーブ動作)後に仮想カメラの撮影方向を維持したまま仮想カメラの配置個所を平行に移動させる。   As shown in the screen example (D) of FIG. 8, in the case of a tennis game, the camera placement control unit 194 displays a screen that causes the game character to perform a serve motion as the first motion (screen example (A ) To screen example (C)), the game character (self-character 134) is displayed so as to display a predetermined area 139 from the side on the near side of the touch screen 130 toward the center of the screen. After the above operation (serving operation), the placement position of the virtual camera is moved in parallel while maintaining the shooting direction of the virtual camera.

図9は、ユーザの入力操作に応じて、ゲームキャラクタ134の移動およびスイング動作を行う場合の画面の表示例を示す図である。   FIG. 9 is a diagram showing a display example of a screen when the game character 134 moves and swings in response to a user input operation.

図9の状態(A)は、ユーザがタッチスクリーン130に対してドラッグ操作を行うための起点となる位置(初期タッチ位置)に対して指を接近させた状態(押下位置30E)を示す。状態(A)に示すように、タッチスクリーン130を縦長にした状態で入力操作を受け付けるよう、仮想空間内の仮想カメラにより撮影される画面をタッチスクリーン130に表示する。このように、制御部190は、ユーザが入力操作を行って動作させるゲームキャラクタ134がタッチスクリーン130の手前側に配置され、対戦相手となるゲームキャラクタ136がタッチスクリーン130の奥側に配置されるように、仮想カメラの撮影画像をディスプレイ132に表示する。状態(A)に示すように、制御部190は、タッチスクリーン130の手前側の辺からの一定領域139を空けて、ゲームキャラクタ134を表示する。こうすることで、タッチスクリーン130の手前側の辺からの一定領域139において、ユーザがゲームキャラクタ134を操作するために入力操作を行う領域が確保されるため、入力操作がいっそう容易となる。   The state (A) in FIG. 9 shows a state (pressed position 30E) in which a finger is brought close to a position (initial touch position) that is a starting point for the user to perform a drag operation on the touch screen 130. As shown in the state (A), a screen shot by a virtual camera in the virtual space is displayed on the touch screen 130 so as to receive an input operation in a state where the touch screen 130 is in a vertically long state. In this way, the control unit 190 has the game character 134 that is operated by the user performing an input operation arranged on the front side of the touch screen 130, and the game character 136 that is the opponent is arranged on the back side of the touch screen 130. As described above, the captured image of the virtual camera is displayed on the display 132. As shown in the state (A), the control unit 190 displays the game character 134 while leaving a certain area 139 from the front side of the touch screen 130. In this way, in the fixed area 139 from the front side of the touch screen 130, an area for the user to perform an input operation for operating the game character 134 is secured, and thus the input operation is further facilitated.

状態(B)は、状態(A)に示す状態から、ユーザがタッチスクリーン130においてドラッグ操作を行うことで、ドラッグ操作の起点となった位置(押下位置30E)と、ドラッグ操作が継続している位置(押下位置30F)との位置関係に基づく方向にゲームキャラクタ134を移動させた状態を示す。制御部190は、ゲームキャラクタ134が移動する方向を示すUI画像187を、タッチスクリーン130に表示する。状態(B)の例では、制御部190は、UI画像187として、ドラッグ操作の起点となった位置から、ドラッグ操作が継続している位置へと向かうように、円形状のオブジェクトを変形させた画像をタッチスクリーン130に表示する。こうすることで、ユーザに対し、ドラッグ操作の起点と、ドラッグ操作が継続している位置との位置関係に応じて定まるゲームキャラクタ134の移動方向を提示することができ、ユーザは、ドラッグ操作の起点を視認しつつ、ゲームキャラクタ134の移動方向を、ドラッグ操作が継続している位置を移動させることで入力することができる。このように、ゲームキャラクタ134を移動させる方向を示す入力操作をドラッグ操作で受け付けているため、ユーザがゲームキャラクタ134を移動させたい位置が仮想空間のいずれであっても、ユーザは、ゲームキャラクタ134を容易に移動させることができ、ゲームの興趣性がいっそう向上する。   In the state (B), when the user performs a drag operation on the touch screen 130 from the state shown in the state (A), the position where the drag operation is started (pressed position 30E) and the drag operation are continued. A state in which the game character 134 is moved in a direction based on the positional relationship with the position (pressed position 30F) is shown. The control unit 190 displays a UI image 187 indicating the direction in which the game character 134 moves on the touch screen 130. In the example of the state (B), the control unit 190 deforms the circular object as the UI image 187 so as to go from the position where the drag operation starts to the position where the drag operation continues. The image is displayed on the touch screen 130. By doing so, the moving direction of the game character 134 determined according to the positional relationship between the starting point of the drag operation and the position where the drag operation is continued can be presented to the user. While visually checking the starting point, the moving direction of the game character 134 can be input by moving the position where the drag operation is continued. Thus, since the input operation indicating the direction in which the game character 134 is moved is received by the drag operation, the user can select the game character 134 regardless of the position in the virtual space where the user wants to move the game character 134. Can be easily moved, and the fun of the game is further improved.

状態(C)は、相手側のゲームキャラクタ136から打たれる対象物138が第1のスイング領域149Aにあるときに、ユーザがフリック操作(指をタッチスクリーン130に接触させてから押下位置30Gまで移動させて、タッチスクリーン130から指を離す)を行ってゲームキャラクタ136にスイング動作を行わせて、対象物138を相手側のゲームキャラクタ136のコートへとゲームキャラクタ134が打ち返している状態を示す。このように、ゲームキャラクタ134の周囲の打球範囲画像147の範囲内において対象物138をユーザが打ち返したときは、ゲームキャラクタ134が姿勢を崩さずスイング動作をしたようにユーザに提示する。   In the state (C), when the object 138 hit from the opponent game character 136 is in the first swing area 149A, the user performs a flick operation (from touching the touch screen 130 to the pressed position 30G). And the game character 136 performs a swing motion to move the object 138 back to the court of the opponent game character 136. . As described above, when the user hits back the object 138 within the range of the hitting ball range image 147 around the game character 134, the game character 134 is presented to the user as if swinging without breaking the posture.

状態(D)は、相手側のゲームキャラクタ136から打たれる対象物138が第1のスイング領域の範囲外であって第2のスイング領域149Wにあるときに、ユーザがタップ操作を行ってゲームキャラクタ136にスイング動作を行わせて、対象物138を相手側のゲームキャラクタ136のコートへとゲームキャラクタ134が打ち返している状態を示す。このように、ゲームキャラクタ134の周囲の打球範囲画像147の範囲外において対象物138をユーザが打ち返したときは、ゲームキャラクタ134が姿勢を崩しつつスイング動作をしたようにユーザに提示する。   In the state (D), when the object 138 hit from the opponent game character 136 is outside the first swing area and in the second swing area 149W, the user performs a tap operation to play the game. A state in which the character 136 performs a swing motion and the game character 134 returns the object 138 to the court of the opponent game character 136 is shown. As described above, when the user hits the object 138 outside the range of the hitting ball range image 147 around the game character 134, the game character 134 is presented to the user as if swinging while losing the posture.

状態(C)と状態(D)とを比較すると、いずれも、対象物138をゲームキャラクタ134が相手側のゲームキャラクタ136のコートへと打ち返している。しかし、状態(D)の例では、ゲームキャラクタ134が姿勢を崩しつつ打ち返している。そのため、打球範囲画像147の外周の境界付近に対象物138が位置している場合にユーザがスイング動作を行うことが、打球範囲画像147の内側に対象物138が位置している場合にスイング動作を行うことよりも不利であることをユーザに示唆することができる。こうすることで、相手側ゲームキャラクタ136から打たれる対象物138を、よりより位置でタイミングを計って打球するようユーザの入力操作を促すことができ、ゲームの興趣性をいっそう向上させることができる。   When the state (C) is compared with the state (D), the game character 134 returns the object 138 to the court of the opponent game character 136 in both cases. However, in the example of the state (D), the game character 134 strikes back while breaking his posture. Therefore, when the target object 138 is located near the outer boundary of the hit ball range image 147, the user performs a swing action. When the target object 138 is located inside the hit ball range image 147, the swing action is performed. It is possible to suggest to the user that it is more disadvantageous than performing. By doing so, it is possible to prompt the user to perform an input operation to hit the target 138 hit from the opponent game character 136 at a more timely position, and to further improve the interest of the game. it can.

<ゲームキャラクタの位置に基づく着弾点の制御>
図10は、サーブ動作時のゲームキャラクタの位置に応じて、制御部190が対象物138の着弾位置を決定する処理を示す。
<Control of landing point based on game character position>
FIG. 10 shows a process in which the control unit 190 determines the landing position of the object 138 according to the position of the game character during the serve action.

図10の状態(A)は、サーブ動作時に、コートの縦方向の境界付近(位置134A)でゲームキャラクタがサーブをする際の着弾位置の範囲125Aを示す。   The state (A) in FIG. 10 shows the landing position range 125A when the game character serves near the boundary in the vertical direction of the court (position 134A) during the serve action.

図10の状態(B)は、サーブ動作時に、コートの中央側(位置134B)でゲームキャラクタがサーブをする際の着弾位置の範囲125Bを示す。   The state (B) in FIG. 10 shows a landing position range 125B when the game character serves on the center side (position 134B) of the court during the serve operation.

状態(A)および状態(B)に示すように、サーブ動作時に、ゲームキャラクタは、移動可能範囲134Rの範囲内で移動して、サーブをするための位置を決定する。また、状態(A)および状態(B)に示すように、コートの縦方向の境界付近でゲームキャラクタがサーブをする際は、よりコートのコーナー付近を狙うように対象物138を着弾させ、コートの中央側でゲームキャラクタがサーブをする際は、コートの中央付近に対象物138を着弾させる。   As shown in the state (A) and the state (B), at the time of the serve action, the game character moves within the movable range 134R and determines a position for serving. Further, as shown in the state (A) and the state (B), when the game character serves near the vertical boundary of the court, the object 138 is landed so as to aim closer to the corner of the court, and the court When the game character serves on the center side, the object 138 is landed near the center of the court.

状態(C)は、対象物138の着弾位置の範囲125を示す図である。状態(C)に示すように、着弾位置の範囲125に、左側着弾範囲126Lと、中央側着弾範囲126Cと、右側着弾範囲126Rとして、対象物138が着弾する範囲を示す。左側着弾範囲126Lは、着弾基準位置127Lを中心とする一定範囲の領域である。中央側着弾範囲126Cは、着弾基準位置127Cを中心とする一定範囲の領域である。右側着弾範囲126Rは、着弾基準位置127Rを中心とする一定範囲の領域である。   The state (C) is a diagram illustrating a landing position range 125 of the object 138. As shown in the state (C), the landing position range 125 indicates a range where the object 138 is landed as a left landing range 126L, a center landing range 126C, and a right landing range 126R. The left landing range 126L is a region of a certain range centered on the landing reference position 127L. The center side landing range 126C is an area having a certain range centered on the landing reference position 127C. The right landing range 126R is a region of a certain range centered on the landing reference position 127R.

本実施形態のテニスゲームにおいては、ユーザが打球時にタップ操作またはコートの縦方向(上方向または下方向)へのフリック操作をした場合に、制御部190は、中央側着弾範囲126Lを、対象物138が着弾する範囲として特定する。また、ユーザが打球時に左方向への一定量の指の移動をするフリック操作をした場合に(左方向、左上方向、左下方向へのフリック操作)、制御部190は、左側着弾範囲126Lを、対象物138が着弾する範囲として特定する。また、ユーザが打球時に右方向への一定量の指の移動をするフリック操作をした場合に(右方向、右上方向、右下方向へのフリック操作)、制御部190は、右側着弾範囲126Rを、対象物138が着弾する範囲として特定する。なお、着弾範囲を、左側、中央側および右側の3つとしているが、3つに限らない。   In the tennis game of the present embodiment, when the user performs a tap operation or a flick operation in the vertical direction (upward or downward) of the court at the time of hitting, the control unit 190 sets the center landing range 126L as the target object. It is specified as a range where 138 is landed. Further, when the user performs a flick operation that moves a certain amount of finger in the left direction when hitting the ball (flick operation in the left direction, upper left direction, and lower left direction), the control unit 190 sets the left landing range 126L, The range in which the object 138 is landed is specified. In addition, when the user performs a flick operation that moves a certain amount of finger in the right direction when hitting a ball (flick operation in the right direction, upper right direction, and lower right direction), the control unit 190 sets the right landing range 126R. The range in which the object 138 is landed is specified. The landing range is three on the left side, the center side, and the right side, but is not limited to three.

図11は、ゲームキャラクタがフィールド面Fにおいて対象物138を打球する位置に応じて、着弾位置の範囲が変動する例を示す図である。   FIG. 11 is a diagram illustrating an example in which the range of the landing position varies depending on the position at which the game character hits the object 138 on the field plane F.

図11の状態(A)は、コートの中央付近(位置134C)でゲームキャラクタが対象物138を打球する際の、着弾位置の範囲(左側着弾範囲126L、中央側着弾範囲126Cおよび右側着弾範囲126R)を示す。   State (A) in FIG. 11 is the range of landing positions (left landing range 126L, central landing range 126C, and right landing range 126R) when the game character hits the target 138 near the center of the court (position 134C). ).

図11の状態(B)は、コートの中央付近より左側(位置134D)でゲームキャラクタが対象物138を打球する際の、着弾位置の範囲を示す。   The state (B) of FIG. 11 shows the range of the landing position when the game character hits the object 138 on the left side (position 134D) from near the center of the court.

図11の状態(C)は、コートの中央付近より右側(位置134E)でゲームキャラクタが対象物138を打球する際の、着弾位置の範囲を示す。   A state (C) in FIG. 11 shows a range of landing positions when the game character hits the object 138 on the right side (position 134E) from the vicinity of the center of the court.

状態(A)、状態(B)および状態(C)に示すように、ゲームキャラクタが対象物138を打球する位置に応じて、対象物138が着弾する範囲も移動する。   As shown in the state (A), the state (B), and the state (C), the range in which the object 138 lands also moves according to the position at which the game character hits the object 138.

図11の状態(D)は、ゲームキャラクタに設定されるパラメータに応じて、対象物138の着弾範囲が変化する例を示す。例えば、状態(A)の例と比べて、状態(D)のゲームキャラクタは、打球の精度が比較的良好なパラメータ(比較的良好なテクニックパラメータ)が設定されているとする。状態(A)と比べると、着弾位置の範囲が広範囲に広がっており、ゲームキャラクタが、より広い範囲で打球を打ち分けることができる。   The state (D) in FIG. 11 shows an example in which the landing range of the object 138 changes according to the parameters set for the game character. For example, it is assumed that a parameter (relatively good technique parameter) with relatively good hitting accuracy is set for the game character in the state (D) as compared to the example of the state (A). Compared to the state (A), the range of the landing positions is widened, and the game character can hit the hit ball in a wider range.

図12は、ゲームキャラクタが対象物138を打球するタイミングが早いか遅いかに応じて、着弾基準位置を変動させる例、および、ゲームキャラクタのテクニックパラメータに応じて着弾基準位置および着弾範囲を変動させる例を示す図である。   FIG. 12 shows an example in which the landing reference position is changed according to whether the timing at which the game character hits the target 138 is early or late, and the landing reference position and the landing range are changed according to the technique parameters of the game character. It is a figure which shows an example.

ゲームキャラクタが比較的早いタイミングで打球する場合(対象物138がスイング領域149Fにあるときに打球する場合)に、対戦相手のゲームキャラクタがいる方向を前方としたときのゲームキャラクタの右側(ゲームキャラクタが右利きの設定であればフォアの場合、または、ゲームキャラクタが左利きの設定であればバックハンドの場合)からラケットを旋回させてスイング動作をするときは、着弾基準位置を左側に移動させる。図12の例では、着弾基準位置127Lを着弾基準位置127Lへ移動させ、着弾基準位置127Cを着弾基準位置127CEに移動させ、着弾基準位置127Rを着弾基準位置127REへ移動させる。ゲームキャラクタが比較的遅いタイミングで打球する場合に、ゲームキャラクタの左側からラケットを旋回させてスイング動作をするときも同様である。このように着弾基準位置を、打球のタイミングに応じて変動させる量は、テクニックパラメータの設定値に応じて予め定められていることとする。   When the game character hits the ball at a relatively early timing (when the target 138 is in the swing area 149F), the right side of the game character (game character) when the direction in which the opponent game character is located is the front If the fore is set to be right-handed or if the game character is set to be left-handed and backhanded, then the swing reference position is moved to the left. In the example of FIG. 12, the landing reference position 127L is moved to the landing reference position 127L, the landing reference position 127C is moved to the landing reference position 127CE, and the landing reference position 127R is moved to the landing reference position 127RE. The same applies when the game character hits the ball at a relatively late timing and swings the racket from the left side of the game character. The amount by which the landing reference position is changed in accordance with the hit ball timing is determined in advance in accordance with the set value of the technique parameter.

ゲームキャラクタが比較的遅いタイミングで打球する場合(対象物138がスイング領域149Bにあるときに打球する場合)に、ゲームキャラクタの右側からラケットを旋回させてスイング動作をするときは、着弾基準位置を右側に移動させる。図12の例では、着弾基準位置127Lを着弾基準位置127LLへ移動させ、着弾基準位置127Cを着弾基準位置127CLへ移動させ、着弾基準位置127Rを着弾基準位置127RLへ移動させる。ゲームキャラクタが比較的早いタイミングで打球する場合に、ゲームキャラクタの左側からラケットを旋回させてスイング動作をするときも同様である。   When the game character hits the ball at a relatively late timing (when the target 138 is in the swing area 149B), when the swinging motion is performed by turning the racket from the right side of the game character, the landing reference position is set. Move to the right. In the example of FIG. 12, the landing reference position 127L is moved to the landing reference position 127LL, the landing reference position 127C is moved to the landing reference position 127CL, and the landing reference position 127R is moved to the landing reference position 127RL. The same applies when the game character hits the ball at a relatively early timing and swings the racket from the left side of the game character.

また、制御部190は、ゲームキャラクタに設定されている、打球の精度を示すパラメータ(テクニックパラメータ)が良好であるか否かに応じて、着弾基準位置を移動させる。図12の例では、テクニックパラメータが良好であるほど、コートのコーナー付近を目指して対象物138を移動させるよう着弾基準位置を決定し、着弾基準位置を中心とする着弾範囲を小さくして着弾位置のブレを小さくする。こうすることで、テクニックパラメータが良好なゲームキャラクタであるほど、より対戦相手のゲームキャラクタにとって厳しい打球をゲームキャラクタが打ち返しつつ、コースアウトの確率を低減させることができる。例えば、ゲームキャラクタのテクニックパラメータが良好であるほど、着弾位置127Lが、よりコーナーを突くよう着弾域129Lへ移動するとともに、着弾範囲128Lが着弾範囲126Lより小さくなる。着弾位置127C、着弾位置127Rについても同様である。   Further, the control unit 190 moves the landing reference position according to whether or not the parameter (technique parameter) indicating the accuracy of the hit ball set for the game character is good. In the example of FIG. 12, as the technique parameter is better, the landing reference position is determined so as to move the object 138 toward the corner of the court, and the landing range with the landing reference position as the center is reduced. To reduce blur. In this way, the better the game parameter is, the more the game character strikes back a severe ball for the opponent game character, and the probability of a course-out can be reduced. For example, as the technique parameter of the game character is better, the landing position 127L moves to the landing area 129L so as to strike the corner, and the landing range 128L becomes smaller than the landing range 126L. The same applies to the landing positions 127C and 127R.

<処理の流れ>
図13は、制御部190が、対象物138を打ち返すためのタップ操作またはフリック操作を受け付けた場合に、ゲームキャラクタ134にスイング動作を行わせて対象物138の移動を制御する処理を示すフローチャートである。制御部190は、スイング動作のための入力操作(タップ操作またはフリック操作)を受け付けると、図13に示す処理を行って、対象物138の移動を制御する。
<Process flow>
FIG. 13 is a flowchart showing a process for controlling the movement of the object 138 by causing the game character 134 to perform a swing action when the control unit 190 accepts a tap operation or a flick operation for hitting the object 138 back. is there. When receiving an input operation (tap operation or flick operation) for the swing operation, the control unit 190 performs the process shown in FIG. 13 and controls the movement of the object 138.

ステップS1301において、制御部190は、スイング動作のための入力操作を受け付けたときの、フィールド面Fにおける対象物138のxy平面における位置およびz軸方向の高さの情報を取得する。   In step S1301, the control unit 190 acquires information on the position of the object 138 on the field plane F in the xy plane and the height in the z-axis direction when an input operation for a swing motion is received.

ステップS1303において、制御部190は、ゲームキャラクタ134の位置と、ゲームキャラクタ134に設定されるスイング領域(第1のスイング領域149および第2のスイング領域149B)と、対象物138の位置の情報(フィールド面Fにおける対象物138のxy平面の座標)とに基づいて、対象物138(テニスボール)が、スイング領域に含まれるか否かを判断する。制御部190は、対象物138がスイング領域に含まれる場合は(ステップS1303においてYES)、ステップS1305の処理を行い、そうでない場合は(ステップS1303においてNO)、ステップS1313の処理を行う。   In step S1303, the control unit 190 determines the position of the game character 134, the swing areas set for the game character 134 (the first swing area 149 and the second swing area 149B), and the position information of the object 138 ( Whether or not the object 138 (tennis ball) is included in the swing area is determined based on the xy plane coordinates of the object 138 on the field plane F). If object 138 is included in the swing region (YES in step S1303), control unit 190 performs the process of step S1305, and otherwise (NO in step S1303), performs the process of step S1313.

ステップS1305において、制御部190は、対象物138の高さと、閾値とを比較することにより、対象物138の高さが、フィールド面から一定距離以内の高さであるか否か(ゲームキャラクタ134が打球可能な高さであるか)を判断する。対象物138の高さがフィールド面から一定距離以内の高さである場合(ステップS1305においてYES)、制御部190は、ステップS1306の処理を行い、そうでない場合(ステップS1305においてNO)、ステップS1313の処理を行う。   In step S1305, the control unit 190 compares the height of the object 138 with a threshold value to determine whether or not the height of the object 138 is within a certain distance from the field surface (game character 134). Is the height that can be hit. When the height of the object 138 is within a certain distance from the field surface (YES in step S1305), the control unit 190 performs the process of step S1306. Otherwise (NO in step S1305), step S1313 is performed. Perform the process.

ステップS1306において、制御部190は、フィールド面におけるゲームキャラクタの位置(座標)、フリック入力により指定される打球の方向、およびスイング領域における対象物138の打球位置に基づいて、対象物138の着弾地点を演算する。
ステップS1307において、制御部190は、スイング領域の内側(第1のスイング領域の範囲内)に対象物138があるか否かを判断し、第1のスイング領域の内側に対象物138がある場合(ステップS1307においてYES)、ステップS1309の処理を行い、そうでない場合(ステップS1307においてNO)、ステップS1311の処理を行う。
In step S1306, the control unit 190 determines the landing point of the target object 138 based on the position (coordinates) of the game character on the field surface, the direction of the hit ball specified by the flick input, and the hit position of the target object 138 in the swing area. Is calculated.
In step S1307, the control unit 190 determines whether or not the object 138 is inside the swing area (within the range of the first swing area), and when the object 138 is inside the first swing area. (YES in step S1307) The process of step S1309 is performed. Otherwise (NO in step S1307), the process of step S1311 is performed.

ステップ1309において、制御部190は、ゲームキャラクタ134に通常のスイング動作(図9の状態(C))を行わせて、対象物138の着弾点を演算し、演算結果に応じて対象物138を相手側のゲームキャラクタ136へ向けて打ち返すよう対象物138を移動させる。   In step 1309, the control unit 190 causes the game character 134 to perform a normal swing motion (state (C) in FIG. 9), calculates the landing point of the target 138, and moves the target 138 according to the calculation result. The object 138 is moved so as to strike back toward the opponent game character 136.

ステップS1311において、制御部190は、ゲームキャラクタ134に、ゲームキャラクタ134がよろめきつつ(姿勢を崩しつつ)打球するスイング動作(図9の状態(D))を行わせて、対象物138の着弾点を演算し、演算結果に応じて対象物138を相手側のゲームキャラクタ136へ向けて打ち返すよう対象物138を移動させる。   In step S1311, the control unit 190 causes the game character 134 to perform a swing motion (state (D) in FIG. 9) in which the game character 134 hits the ball while wobbling (disrupting the posture), and the landing point of the object 138 is reached. And the object 138 is moved so as to strike back the object 138 toward the opponent game character 136 according to the calculation result.

ステップS1313において、制御部190は、ゲームキャラクタ134が打球に空振りするようスイング動作を行わせて対象物138を移動させる。   In step S <b> 1313, the control unit 190 moves the object 138 by performing a swing motion so that the game character 134 swings in the hit ball.

図14は、対象物138の着弾地点を決定する処理の詳細を示すフローチャートである。図14に示す処理は、図13のステップS1306に対応する。   FIG. 14 is a flowchart showing details of processing for determining the landing point of the object 138. The process shown in FIG. 14 corresponds to step S1306 in FIG.

ステップS1401において、制御部190は、フィールド面Fにおけるゲームキャラクタの、対戦相手となるゲームキャラクタが位置する方向を縦方向(y軸)としたときの横方向における座標(x軸)と、フリック操作により入力される方向とに基づいて、対象物138の移動先の基準となる座標(着弾基準位置127L、127C、127Rのいずれか)を決定する。   In step S1401, the control unit 190 performs the flick operation with the coordinates (x axis) in the horizontal direction when the direction in which the game character that is the opponent is located is the vertical direction (y axis) on the field surface F. Based on the input direction, the coordinates (any one of the landing reference positions 127L, 127C, 127R) serving as the reference of the movement destination of the object 138 are determined.

ステップS1403において、制御部190は、スイング領域内で対象物138を打球したタイミングが早いか遅いかに応じて、着弾基準位置を、図12の例に示すように補正する。   In step S1403, the control unit 190 corrects the landing reference position as shown in the example of FIG. 12 depending on whether the timing of hitting the object 138 within the swing area is early or late.

ステップS1405において、制御部190は、ゲームキャラクタに設定される、打球の精度を示すパラメータ(テクニックパラメータ)に応じて、着弾基準位置および着弾範囲の大きさを補正する。   In step S1405, the control unit 190 corrects the landing reference position and the size of the landing range according to a parameter (technique parameter) indicating the accuracy of the hit ball set for the game character.

ステップS1407において、制御部190は、ゲームキャラクタのテクニックパラメータの設定に応じて、着弾基準位置を中心とする着弾範囲を読みだして、着弾範囲内のいずれかの点を、対象物138の移動先としてランダムに決定する。   In step S1407, the control unit 190 reads the landing range centered on the landing reference position in accordance with the setting of the technique parameter of the game character, and sets any point in the landing range as the movement destination of the object 138. Randomly determined as

<実施の形態2>
次に、別の実施の形態のゲーム配信システム1について説明する。
<Embodiment 2>
Next, a game distribution system 1 according to another embodiment will be described.

実施の形態2では、ゲームキャラクタ134が対象物138を打球する場合に、打球範囲画像147の中心部に近い位置での打球がユーザにとって、有利に働かないことをユーザに示唆する。   In the second embodiment, when the game character 134 hits the object 138, it is suggested to the user that the hit ball at a position near the center of the hit ball range image 147 does not work for the user.

図15は、実施の形態2におけるスイング領域を示す図である。
図15の状態(A)は、第1のスイング領域149Aの範囲内に含まれる、近距離エリア149Cと、好打球エリア149BRと、好打球エリア149BLとを示す図である。
FIG. 15 is a diagram illustrating a swing region in the second embodiment.
State (A) in FIG. 15 is a diagram showing a short-distance area 149C, a hit ball area 149BR, and a hit ball area 149BL included in the range of the first swing area 149A.

状態(B)は、ゲームキャラクタ134の正面に、相手側のゲームキャラクタ136から打たれる対象物138が接近している状態を示す。   The state (B) indicates a state in which an object 138 hit from the opponent game character 136 is approaching the front of the game character 134.

状態(C)は、ゲームキャラクタ134の正面において対象物138を打球する入力操作をユーザが行った場合に、対象物138に対する打球位置がゲームキャラクタ134に近すぎることをユーザに通知するためのタッチスクリーン130の表示例を示す。   The state (C) is a touch for notifying the user that the hitting position on the target 138 is too close to the game character 134 when the user performs an input operation of hitting the target 138 in front of the game character 134. A display example of the screen 130 is shown.

制御部190は、スイング動作をゲームキャラクタ134に行わせるための入力操作があった場合に、ゲームキャラクタ134の正面の一領域に設定される近距離エリア149Cに対象物138が位置するときは、ユーザにとって不利な位置取りであることを示す通知をタッチスクリーン130に表示する。例えば、状態(C)に示すように、制御部190は、ゲームキャラクタ134の周囲に、ゲームキャラクタ134が対象物138を打球するための位置取りを示唆する情報185をタッチスクリーン130に表示する。このとき、制御部190は、対象物138を、相手側のゲームキャラクタ136にとってスマッシュを打球するための好機を示すよう移動させることとしてもよい。   When there is an input operation for causing the game character 134 to perform a swing action, the control unit 190 is positioned when the object 138 is located in the short-distance area 149C set in one area in front of the game character 134. A notification indicating that the position is unfavorable for the user is displayed on the touch screen 130. For example, as shown in the state (C), the control unit 190 displays information 185 on the touch screen 130 that suggests positioning for the game character 134 to hit the target 138 around the game character 134. At this time, the control unit 190 may move the object 138 to indicate an opportunity for the opponent game character 136 to hit the smash.

また、制御部190は、スイング動作をゲームキャラクタ134に行わせるための入力操作があった場合に、ゲームキャラクタ134の第1のスイング領域149Aの範囲内であって、好打球エリア149BRまたは好打球エリア149BLに対象物138が位置する場合に、ゲームキャラクタ134のスイング動作が良好であることをタッチスクリーン130に表示し、相手側のゲームキャラクタ136が位置するコートに向けて、対象物138を、より高速で移動させることとしてもよい。好打球エリア149BRおよび好打球エリア149BLは、例えば、現実にラケットでテニスボールを打球するときに、打球されたテニスボールの弾速が高速となるような打球位置を模して、第1のスイング領域149Aの範囲内に設定してもよい。   In addition, when there is an input operation for causing the game character 134 to perform a swing motion, the control unit 190 is within the range of the first swing area 149A of the game character 134, and the hit ball area 149BR or the hit ball When the object 138 is located in the area 149BL, the fact that the swing action of the game character 134 is good is displayed on the touch screen 130, and the object 138 is directed toward the court where the opponent game character 136 is located. It is good also as moving at higher speed. The hitting ball area 149BR and the hitting ball area 149BL are, for example, the first swing imitating the hitting position where the hitting speed of the hit tennis ball is high when actually hitting a tennis ball with a racket. It may be set within the range of the region 149A.

このように構成することで、ユーザに対し、対象物138を打ち返すために、打球範囲画像147の範囲内に対象物138を収めようとゲームキャラクタ134を移動させるよう促しつつ、単に打球範囲画像147の中心付近で対象物138を打球するだけではゲームの進行が有利にならないと示唆することで、より対象物138に対するゲームキャラクタ134の良好な位置取りに変化を持たせることができ、ゲームの興趣性をいっそう向上させることができる。
また、図15の状態(A)に示すように、(相手側のゲームキャラクタ136が配置される方向を縦方向とした場合に)ゲームキャラクタ134の縦方向(前後方向)において近距離エリア149C、好打球エリア149Rおよび好打球エリア149Lの位置を近くすることで、対象物138を打球するタイミングとしては良好であっても、対象物138を打球する位置取りがゲームキャラクタ134の正面になるほど打球がユーザにとって不利になるようにすることで、打球のタイミングのみならず打球のための良好な位置取りをもユーザに示唆することができる。
With this configuration, in order to strike back the object 138, the user is prompted to move the game character 134 to place the object 138 within the range of the hit ball range image 147, and simply the hit ball range image 147. By suggesting that the game progress is not advantageous simply by hitting the object 138 in the vicinity of the center of the game, it is possible to change the good positioning of the game character 134 with respect to the object 138 and to enhance the interest of the game. Sex can be further improved.
Further, as shown in the state (A) of FIG. 15, the short distance area 149C in the vertical direction (front-rear direction) of the game character 134 (when the direction in which the opponent game character 136 is arranged is the vertical direction) Even if the hitting area 149 </ b> R and the hitting ball area 149 </ b> L are close to each other so that the timing for hitting the object 138 is good, the hitting ball becomes so close that the position where the hitting object 138 is hit is in front of the game character 134. By making it disadvantageous for the user, not only the timing of the hitting ball but also a good positioning for the hitting ball can be suggested to the user.

また、対戦相手から打球される対象物138がゲームキャラクタ134に接触した場合に、ゲームキャラクタ134にボールが衝突したことを示すよう、ゲームキャラクタ134をひざまずかせる等の動作をして、対戦相手が得点するよう表示してもよい。こうすることで、対象物138を打球するための効果的な位置取りをユーザに示唆することができる。   In addition, when the target 138 hit by the opponent touches the game character 134, the player performs an action such as kneeling the game character 134 so as to indicate that the ball has collided with the game character 134. May be displayed to score. By doing so, it is possible to suggest an effective positioning for hitting the object 138 to the user.

<実施の形態3>
上記実施例の他に、以下のように構成することとしてもよい。
<Embodiment 3>
In addition to the above embodiment, the following configuration may be adopted.

(1)ゲームプログラム151は、仮想空間内にゲームキャラクタ134、相手側のゲームキャラクタ136、および、対象物138を少なくとも配置し、ゲームキャラクタ134および相手側のゲームキャラクタ136を、仮想空間内に配置されるフィールド面Fにおいて移動させることで、対象物138を交互に打ち返すものである。   (1) The game program 151 arranges at least the game character 134, the opponent game character 136, and the object 138 in the virtual space, and arranges the game character 134 and the opponent game character 136 in the virtual space. The object 138 is turned back and forth alternately by moving on the field surface F.

制御部190は、相手側のゲームキャラクタ136が打ち返す対象物138のフィールド面Fへの落下点(着弾点)が、テニスゲームにおけるフィールド面Fの対象物138が着弾可能な有効領域の領域外である場合(アウトである場合)に、当該領域外に着弾した対象物138がスイング領域の範囲内にあるか否かにかかわらず、スイング動作を行わせるための入力操作を受け付けたときにゲームキャラクタ134が対象物138の打ち返しに空振りするよう対象物138を移動させる。   The control unit 190 has a falling point (landing point) of the object 138 returned by the opponent game character 136 on the field surface F outside the effective area where the object 138 on the field surface F can land in the tennis game. In some cases (out), the game character receives an input operation for performing a swing motion regardless of whether or not the object 138 landed outside the region is within the range of the swing region. The object 138 is moved so that 134 is swung to strike the object 138.

このように、相手側のゲームキャラクタ136が打ち返した打球が、フィールド面Fにおいて、テニスゲーム上はアウトである領域に着弾した場合は、制御部190は、ゲームキャラクタ134にスイング動作を行わせていたとしても、当該スイング動作によっては対象物138を打ち返さないようにタッチスクリーン130に表示する。こうすることで、ユーザに対し、対象物138を打球範囲画像147の範囲内に収めるようゲームキャラクタ134を移動させることに入力操作を注力させつつ、アウトになった対象物138については打球しないことで、テニスゲームにおけるラリーが決着したことをユーザに示唆することができる。   As described above, when the hit ball returned by the opponent game character 136 lands on the field surface F in an area that is out on the tennis game, the control unit 190 causes the game character 134 to perform a swing motion. Even so, depending on the swing operation, the object 138 is displayed on the touch screen 130 so as not to strike back. By doing so, the input operation is focused on moving the game character 134 so that the user places the object 138 within the range of the hit ball range image 147, and the target 138 that has been out is not hit. Thus, it can be suggested to the user that the rally in the tennis game has been completed.

(2)制御部190は、テニスゲームとしての試合の開始が、相手側のゲームキャラクタ136による対象物138への打撃(サーブ動作)によりなされる場合に、相手側のゲームキャラクタ136が対象物138への打撃(サーブ動作)を行うまで、タップ操作またはフリック操作を受け付けたとしてもゲームキャラクタ134にスイング動作を行わせず、相手側のゲームキャラクタ136が対象物138への打撃(サーブ動作)を行うことでプレイ開始となると、タップ操作またはフリック操作によるスイング動作を行わせることとしてもよい。   (2) When the start of the game as a tennis game is made by hitting (serving) the object 138 by the opponent game character 136, the control unit 190 causes the opponent game character 136 to move the object 138. Even if a tap operation or a flick operation is accepted until the player hits (serving), the game character 134 does not perform a swinging action, and the opponent game character 136 hits the object 138 (serving action). When play is started by performing, a swing operation by a tap operation or a flick operation may be performed.

<変形例>
上記の実施形態において、打球範囲画像147は、ゲームキャラクタ134のパラメータに応じて広さが設定されていることとしてもよい。
<Modification>
In the above-described embodiment, the hitting range image 147 may have a size set according to the parameters of the game character 134.

上記の実施形態において、打球範囲画像147は、ゲームキャラクタ134がよろめきつつスイング動作をする場合のように、ユーザにとって不利なスイング動作をしているときに、タッチスクリーン130における表示方法を、打球範囲画像147の透過度合いを高める、または打球範囲画像147の表示をオフにする等の制御をすることとしてもよい。こうすることで、ユーザにとって不利な状態にあることを、打球範囲画像147の表示方法を変更することでユーザに示唆することができ、ゲームの興趣性をいっそう向上させることができる。   In the above-described embodiment, the hitting range image 147 indicates the hitting range display method on the touch screen 130 when the swinging motion is disadvantageous to the user as in the case where the game character 134 swings while swinging. Control such as increasing the degree of transmission of the image 147 or turning off the display of the hit ball range image 147 may be performed. By doing so, it is possible to suggest to the user that it is in a disadvantageous state for the user by changing the display method of the hitting range image 147, and the interest of the game can be further improved.

相手側のゲームキャラクタ136がサーブ動作を行うまでは、ゲームキャラクタ134にスイング動作を行わせることは試合の決着には影響を及ぼさないため、このように構成することで、相手側のゲームキャラクタ136のサーブ動作による試合の開始をユーザにいっそう意識させることができ、ゲームの興趣性をいっそう向上させることができる。   Until the opponent game character 136 performs a serve action, causing the game character 134 to perform a swing action does not affect the conclusion of the game. Thus, the opponent game character 136 is configured in this way. It is possible to make the user more aware of the start of the game by the serve operation of the game, and to further improve the interest of the game.

以上のように各実施形態のゲーム配信システムを構成する携帯端末10およびサーバ20の動作について説明してきたが、携帯端末10で行われる各処理をサーバ20で行うこととしてもよいし、サーバ20で行われる処理を携帯端末10で行うこととしてもよい。   As described above, the operations of the mobile terminal 10 and the server 20 configuring the game distribution system of each embodiment have been described. However, each process performed by the mobile terminal 10 may be performed by the server 20 or may be performed by the server 20. It is good also as performing the process performed with the portable terminal 10. FIG.

例えば、携帯端末10は、タッチスクリーン130に対するユーザの入力操作を受け付けて、受け付けた操作内容をサーバ20へ送信する。サーバ20は、ユーザの入力操作を携帯端末10から受け付けて、ゲームを進行させるための各処理を行い、仮想カメラの配置に基づいて携帯端末10に表示させるための表示画面を生成し、生成した表示画面を、逐次、携帯端末10に表示する。このように、ゲームを進行させるための処理の大部分をサーバ20が担うこととしてもよい。また、ゲームを進行させるための処理の大部分を携帯端末10が担うこととしてもよい。   For example, the mobile terminal 10 receives a user input operation on the touch screen 130 and transmits the received operation content to the server 20. The server 20 receives a user input operation from the mobile terminal 10, performs each process for proceeding with the game, generates a display screen for display on the mobile terminal 10 based on the placement of the virtual camera, and generates the display screen The display screen is sequentially displayed on the mobile terminal 10. Thus, it is good also as the server 20 taking up most of the processes for advancing a game. Moreover, it is good also as the portable terminal 10 taking up most of the processes for advancing a game.

今回開示された実施の形態はすべての点で例示であって制限的なものでないと考えられるべきである。この発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time must be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

10 携帯端末、20 サーバ、22 通信IF、23 入出力IF、25 メモリ、26 ストレージ、29 プロセッサ、80 ネットワーク、81 無線基地局、82 無線ルータ、110 アンテナ、120 無線通信IF、130 タッチスクリーン、131 タッチパネル、132 ディスプレイ、134 ゲームキャラクタ、136 ゲームキャラクタ、138 対象物、150 記憶部、151 ゲームプログラム、153 バッファメモリ、155 初期タッチ位置座標、160 音声処理部、170 マイク、180 スピーカ、187 UI画像、190 制御部、191 入力操作受付部、192 ゲーム進行処理部、193 移動操作検出部、194 カメラ配置制御部、195 オブジェクト制御部、196 表示制御部、220 通信部、250 記憶部、251 ゲームプログラム、252 ゲーム情報、253 ユーザ情報、290 制御部、291 送受信部、292 サーバ処理部、293 データ管理部、294 マッチング部、295 計測部。   10 mobile terminal, 20 server, 22 communication IF, 23 input / output IF, 25 memory, 26 storage, 29 processor, 80 network, 81 wireless base station, 82 wireless router, 110 antenna, 120 wireless communication IF, 130 touch screen, 131 Touch panel, 132 display, 134 game character, 136 game character, 138 object, 150 storage unit, 151 game program, 153 buffer memory, 155 initial touch position coordinates, 160 sound processing unit, 170 microphone, 180 speaker, 187 UI image, 190 control unit, 191 input operation reception unit, 192 game progress processing unit, 193 movement operation detection unit, 194 camera placement control unit, 195 object control unit, 196 display control unit, 220 Department, 250 storage unit, 251 game program 252 game information, 253 user information, 290 control unit, 291 reception unit, 292 the server processing unit, 293 data management unit, 294 matching unit, 295 measuring unit.

Claims (10)

ゲームプログラムであって、
前記ゲームプログラムは、タッチ操作による入力操作を受け付けるタッチスクリーンと、プロセッサと、メモリとを備えるコンピュータにおいて実行されるものであり、前記入力操作を受け付けることによりユーザが操作するゲームキャラクタと、前記ゲームキャラクタと対戦する相手側ゲームキャラクタとの間で、対象物を交互に打ち返すスポーツゲームにかかるものであり、
前記ゲームプログラムは、前記プロセッサに、
前記タッチスクリーンに対する第1の入力操作に基づいて、前記ゲームキャラクタを、前記ゲームキャラクタが移動可能な範囲内で移動させるステップと、
前記タッチスクリーンに対する第2の入力操作を受け付けた場合に、前記ゲームキャラクタにスイング動作を行わせるステップと、
前記スイング動作を行わせるための前記第2の入力操作を受け付けた場合に、前記対象物が、前記ゲームキャラクタの周囲に設定されるスイング領域に含まれるときは、前記ゲームキャラクタが移動可能な範囲内における前記ゲームキャラクタの位置に基づいて、前記対象物を打ち返す移動先を決定し、前記決定された移動先に向けて前記対象物を前記スイング動作により前記相手側ゲームキャラクタに向けて打ち返すよう前記対象物を移動させるステップと、を実行させる、ゲームプログラム。
A game program,
The game program is executed in a computer including a touch screen that accepts an input operation by a touch operation, a processor, and a memory, and a game character that is operated by a user by accepting the input operation, and the game character It is related to a sports game in which the target object is turned back and forth between the opponent and the opponent game character.
The game program is stored in the processor.
Moving the game character within a movable range of the game character based on a first input operation on the touch screen;
A step of causing the game character to perform a swing motion when receiving a second input operation on the touch screen;
When the second input operation for performing the swing motion is received, if the object is included in a swing area set around the game character, the range in which the game character can move Determining a movement destination for returning the target object based on the position of the game character in the game character, and returning the target object to the opponent game character by the swing action toward the determined movement destination. And a step of moving the object.
前記移動させるステップにおいて前記移動先を決定することは、前記スイング動作を行わせるための第2の入力操作を受け付けた場合に、前記相手側ゲームキャラクタにより打球される前記対象物の位置と、前記ゲームキャラクタの位置とにより定まる位置関係に基づいて、前記対象物を打ち返す移動先を決定することを含む、請求項1に記載のゲームプログラム。   In the step of moving, determining the movement destination includes the position of the target hit by the opponent game character when the second input operation for performing the swing motion is received, The game program according to claim 1, further comprising: determining a moving destination where the object is returned based on a positional relationship determined by a position of the game character. 前記移動させるステップにおいて前記移動先を決定することは、前記相手側ゲームキャラクタにより打球される前記対象物を前記ゲームキャラクタが打球するタイミングの早さに基づいて、前記対象物を打ち返す移動先を決定することを含む、請求項2に記載のゲームプログラム。   Determining the destination in the moving step is determining a destination to return the object based on the timing at which the game character hits the object to be hit by the opponent game character. The game program according to claim 2, further comprising: 前記移動させるステップにおいて前記移動先を決定することは、前記ゲームキャラクタが移動可能な範囲内における前記ゲームキャラクタの位置に基づいて定まる着弾基準点を含む一定領域内のいずれかを、前記対象物を打ち返す移動先として決定することを含む、請求項1から3のいずれか1項に記載のゲームプログラム。   In the step of moving, the determination of the destination is performed by moving the target to any one of a certain area including a landing reference point determined based on a position of the game character within a range in which the game character can move. The game program according to any one of claims 1 to 3, comprising determining as a destination to return. 前記ゲームプログラムにおいて、前記ゲームキャラクタには、打球の精度を示す技術パラメータが関連づけられており、
前記移動させるステップにおいて前記移動先を決定することは、前記技術パラメータの設定に応じて、前記技術パラメータが良好であるほど、前記着弾基準点を含む前記一定領域の範囲を小さくして、前記対象物を打ち返す移動先を決定することを含む、請求項4に記載のゲームプログラム。
In the game program, the game character is associated with a technical parameter indicating the accuracy of the hit ball,
In the moving step, the destination is determined by reducing the range of the fixed region including the landing reference point as the technical parameter is better according to the setting of the technical parameter. The game program according to claim 4, comprising determining a destination to which an object is returned.
前記ゲームプログラムにおいて、前記ゲームキャラクタには、打球の精度を示す技術パラメータが関連づけられており、
前記移動させるステップにおいて前記移動先を決定することは、前記技術パラメータの設定に応じて、前記技術パラメータが良好であるほど、前記着弾基準点を、前記スポーツゲームにおいて前記対象物の着弾が有効な領域の境界に近づけるように前記対象物を打ち返す移動先を決定することを含む、請求項4に記載のゲームプログラム。
In the game program, the game character is associated with a technical parameter indicating the accuracy of the hit ball,
The determination of the destination in the step of moving is that, according to the setting of the technical parameter, the better the technical parameter, the more effective the landing of the target in the sports game. The game program according to claim 4, comprising: determining a destination to which the object is returned so as to approach the boundary of the region.
前記着弾基準点を含む前記一定領域の範囲は、前記着弾基準点を中心とする円形状の領域であることを含む、請求項5または6に記載のゲームプログラム。   The game program according to claim 5 or 6, wherein the range of the certain area including the landing reference point is a circular area centered on the landing reference point. 前記タッチスクリーンに対する第1の入力操作に基づいて、前記ゲームキャラクタを、前記ゲームキャラクタが移動可能な範囲内で移動させるステップは、前記タッチスクリーンに対するドラッグ操作を受け付けている場合に、前記ドラッグ操作における前記タッチ操作の開始位置と、前記タッチ操作が継続している位置との位置関係により定まる方向に基づいて、前記ゲームキャラクタを移動させることを含み、
前記タッチスクリーンに対する第2の入力操作を受け付けた場合に、前記ゲームキャラクタにスイング動作を行わせるステップは、前記第2の入力操作として、前記タッチスクリーンに対するタップ操作またはフリック操作の少なくともいずれかの入力操作を受け付けることを含む、請求項1から7のいずれか1項に記載のゲームプログラム。
Based on the first input operation on the touch screen, the step of moving the game character within a range in which the game character can move is performed when the drag operation on the touch screen is accepted. Moving the game character based on a direction determined by a positional relationship between a start position of the touch operation and a position where the touch operation is continued,
When receiving a second input operation on the touch screen, the step of causing the game character to perform a swing motion is an input of at least one of a tap operation or a flick operation on the touch screen as the second input operation. The game program according to claim 1, comprising receiving an operation.
タッチスクリーンを備えるコンピュータが、入力操作を受け付けることによりユーザが操作するゲームキャラクタと、前記ゲームキャラクタと対戦する相手側ゲームキャラクタとの間で、対象物を交互に打ち返すスポーツゲームを実行する方法であって、
前記方法は、前記コンピュータが、
前記タッチスクリーンに対する第1の入力操作に基づいて、前記ゲームキャラクタを、前記ゲームキャラクタが移動可能な範囲内で移動させるステップと、
前記タッチスクリーンに対する第2の入力操作を受け付けた場合に、前記ゲームキャラクタにスイング動作を行わせるステップと、
前記スイング動作を行わせるための前記第2の入力操作を受け付けた場合に、前記対象物が、前記ゲームキャラクタの周囲に設定されるスイング領域に含まれるときは、前記ゲームキャラクタが移動可能な範囲内における前記ゲームキャラクタの位置に基づいて、前記対象物を打ち返す移動先を決定し、前記決定された移動先に向けて前記対象物を前記スイング動作により前記相手側ゲームキャラクタに向けて打ち返すよう前記対象物を移動させるステップとを実行することを含む、方法。
This is a method of executing a sports game in which a computer having a touch screen alternately returns an object between a game character operated by a user by accepting an input operation and an opponent game character that competes with the game character. And
In the method, the computer
Moving the game character within a movable range of the game character based on a first input operation on the touch screen;
A step of causing the game character to perform a swing motion when receiving a second input operation on the touch screen;
When the second input operation for performing the swing motion is received, if the object is included in a swing area set around the game character, the range in which the game character can move Determining a movement destination for returning the target object based on the position of the game character in the game character, and returning the target object to the opponent game character by the swing action toward the determined movement destination. Moving the object.
タッチ操作による入力操作を受け付けるタッチスクリーンと、制御部と、記憶部とを備える情報処理装置であって、
前記記憶部は、前記入力操作を受け付けることによりユーザが操作するゲームキャラクタと、前記ゲームキャラクタと対戦する相手側ゲームキャラクタとの間で、対象物を交互に打ち返すスポーツゲームのゲームプログラムを記憶するように構成されており、
前記制御部は、
前記タッチスクリーンに対する第1の入力操作に基づいて、前記ゲームキャラクタを、前記ゲームキャラクタが移動可能な範囲内で移動させるキャラクタ移動制御部と、
前記タッチスクリーンに対する第2の入力操作を受け付けた場合に、前記ゲームキャラクタにスイング動作を行わせるキャラクタ動作制御部と、
前記スイング動作を行わせるための前記第2の入力操作を受け付けた場合に、前記対象物が、前記ゲームキャラクタの周囲に設定されるスイング領域に含まれるときは、前記ゲームキャラクタが移動可能な範囲内における前記ゲームキャラクタの位置に基づいて、前記対象物を打ち返す移動先を決定し、前記決定された移動先に向けて前記対象物を前記スイング動作により前記相手側ゲームキャラクタに向けて打ち返すよう前記対象物を移動させる対象物移動制御部とを含む、情報処理装置。

An information processing apparatus including a touch screen that accepts an input operation by a touch operation, a control unit, and a storage unit,
The storage unit stores a game program of a sports game in which an object is alternately returned between a game character operated by a user by receiving the input operation and an opponent game character that battles the game character. Is composed of
The controller is
A character movement control unit configured to move the game character within a range in which the game character can move based on a first input operation on the touch screen;
A character action control unit that causes the game character to perform a swing action when receiving a second input operation on the touch screen;
When the second input operation for performing the swing motion is received, if the object is included in a swing area set around the game character, the range in which the game character can move Determining a movement destination for returning the target object based on the position of the game character in the game character, and returning the target object to the opponent game character by the swing action toward the determined movement destination. An information processing apparatus including an object movement control unit that moves an object.

JP2016100019A 2016-05-19 2016-05-19 Game program, method, and information processing unit with touch screen Pending JP2017205311A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016100019A JP2017205311A (en) 2016-05-19 2016-05-19 Game program, method, and information processing unit with touch screen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016100019A JP2017205311A (en) 2016-05-19 2016-05-19 Game program, method, and information processing unit with touch screen

Publications (1)

Publication Number Publication Date
JP2017205311A true JP2017205311A (en) 2017-11-24

Family

ID=60416781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016100019A Pending JP2017205311A (en) 2016-05-19 2016-05-19 Game program, method, and information processing unit with touch screen

Country Status (1)

Country Link
JP (1) JP2017205311A (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004113376A (en) * 2002-09-25 2004-04-15 Konami Co Ltd Ball landing spot determining program in game and sports game program
JP2004113377A (en) * 2002-09-25 2004-04-15 Konami Co Ltd Sports game program
JP2005349174A (en) * 2004-05-10 2005-12-22 Nintendo Co Ltd Game program and game device
JP2007244525A (en) * 2006-03-14 2007-09-27 Sony Computer Entertainment Inc Game control program, game control method and game device
JP2009112427A (en) * 2007-11-02 2009-05-28 Konami Digital Entertainment Co Ltd Game device, control method of game device, and program
JP2013039232A (en) * 2011-08-16 2013-02-28 Sega Corp Computer game device, control method and game program for controlling computer game device, and storage medium on which game program is stored
JP5865535B1 (en) * 2015-04-16 2016-02-17 株式会社コロプラ User interface program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004113376A (en) * 2002-09-25 2004-04-15 Konami Co Ltd Ball landing spot determining program in game and sports game program
JP2004113377A (en) * 2002-09-25 2004-04-15 Konami Co Ltd Sports game program
JP2005349174A (en) * 2004-05-10 2005-12-22 Nintendo Co Ltd Game program and game device
JP2007244525A (en) * 2006-03-14 2007-09-27 Sony Computer Entertainment Inc Game control program, game control method and game device
JP2009112427A (en) * 2007-11-02 2009-05-28 Konami Digital Entertainment Co Ltd Game device, control method of game device, and program
JP2013039232A (en) * 2011-08-16 2013-02-28 Sega Corp Computer game device, control method and game program for controlling computer game device, and storage medium on which game program is stored
JP5865535B1 (en) * 2015-04-16 2016-02-17 株式会社コロプラ User interface program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"【白猫攻略】"ぷにコン"の基本操作をマスターしよう", ファミ通APP, JPN6016044841, 29 August 2014 (2014-08-29), ISSN: 0003444807 *
"白猫プロジェクト", 週刊ファミ通 2014 11/27・12/4合併号, vol. 第29巻第48号通巻1354号, JPN6016044842, 13 November 2014 (2014-11-13), pages 104 - 105, ISSN: 0003444806 *

Similar Documents

Publication Publication Date Title
JP6450875B1 (en) GAME PROGRAM, GAME METHOD, AND INFORMATION PROCESSING DEVICE
JP2021041190A (en) Game program, method, and information processing device
JP7272765B2 (en) game program
JP6002345B1 (en) Information processing apparatus including game program, method, and touch screen
JP2022017984A (en) Game program, game method, and information processing device
JP2017192538A (en) Game program, method, and information processor with touch screen
JP6924564B2 (en) Game program
JP7037279B2 (en) Game programs, methods, and information processing equipment
JP2017192537A (en) Game program, method, and information processor with touch screen
JP7216154B2 (en) Game program, method and information processing device with touch screen
JP6209243B1 (en) Information processing apparatus provided with game program, method, and touch screen
JP2017205311A (en) Game program, method, and information processing unit with touch screen
JP6501814B2 (en) Game program, method, and information processing apparatus
JP6002344B1 (en) Information processing apparatus including game program, method, and touch screen
JP6174202B1 (en) Information processing apparatus provided with game program, method, and touch screen
JP6360872B2 (en) GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE
TWI599388B (en) Game processing method and game processing program
JP2018033972A (en) Game program, method and information processing device including touch screen
JP7457662B2 (en) Programs and information processing equipment
JP2018020150A (en) Game program, method, and information processor with touch screen
JP2019208920A (en) Game program, game method, and information processing device
JP2018161513A (en) Game program, method, and information processing unit
JP2017221676A (en) Game program, method, and information processor with touch screen
JP2018083057A (en) Game program, method and information processing device
JP7171403B2 (en) Program, Game Method, and Information Processing Device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170913