JP2018153616A - Information processing method, apparatus, and program for implementing that information processing method in computer - Google Patents

Information processing method, apparatus, and program for implementing that information processing method in computer Download PDF

Info

Publication number
JP2018153616A
JP2018153616A JP2017240926A JP2017240926A JP2018153616A JP 2018153616 A JP2018153616 A JP 2018153616A JP 2017240926 A JP2017240926 A JP 2017240926A JP 2017240926 A JP2017240926 A JP 2017240926A JP 2018153616 A JP2018153616 A JP 2018153616A
Authority
JP
Japan
Prior art keywords
combo
game
input operation
control unit
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017240926A
Other languages
Japanese (ja)
Other versions
JP6902461B2 (en
JP2018153616A5 (en
Inventor
拓也 本村
Takuya Motomura
拓也 本村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017053395A external-priority patent/JP6263293B1/en
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2017240926A priority Critical patent/JP6902461B2/en
Publication of JP2018153616A publication Critical patent/JP2018153616A/en
Publication of JP2018153616A5 publication Critical patent/JP2018153616A5/ja
Application granted granted Critical
Publication of JP6902461B2 publication Critical patent/JP6902461B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing method capable of enhancing game properties.SOLUTION: The information processing method is implemented in a computer to move game characters displayed on a screen in response to input operations by a user. The method comprises: a first display step for displaying on the screen a character moving with a prescribed combo movement when a prescribed combo condition is met; a guide display step for, in a condition where a first combo condition and a second combo condition are met, displaying on the screen a guide display to prompt input of a second input operation while displaying the character moving with the prescribed combo movement; and a second display step for displaying on the screen the character moving with a second combo movement upon receiving the second input operation.SELECTED DRAWING: Figure 23

Description

本開示は、情報処理方法、装置、及び当該情報処理方法をコンピュータに実行させるためのプログラムに関する。   The present disclosure relates to an information processing method, an apparatus, and a program for causing a computer to execute the information processing method.

特許文献1は、操作により特定される入力手順が、所定の基準手順に一致するか否かを判定し、入力操作の一致又は不一致を示す表示を行う方法を開示する。   Patent Document 1 discloses a method for determining whether or not an input procedure specified by an operation matches a predetermined reference procedure, and performing a display indicating whether the input operation matches or does not match.

特許5864810号公報Japanese Patent No. 5864810

特許文献1記載の方法は、多彩な操作をユーザに入力させることでゲーム性を向上させることについて、改善の余地がある。   The method described in Patent Document 1 has room for improvement in improving game performance by allowing a user to input various operations.

本開示に係る方法は、スクリーンに表示されるゲームのキャラクタをユーザによる入力操作に応じて動作させるために、コンピュータによって実行される情報処理方法であって、入力操作を受け付けた場合であって、入力操作と前回入力操作との関係が所定のコンボ条件を満たしているときには、所定のコンボ動作で動作するキャラクタをスクリーンに表示させる第一表示ステップと、入力操作と次回の第一入力操作との関係が、キャラクタを第一コンボ動作で動作させるための第一コンボ条件を満たす状況であり、かつ、入力操作と次回の第二入力操作との関係が、キャラクタを第二コンボ動作で動作させるための第二コンボ条件を満たす状況である場合には、所定のコンボ動作で動作するキャラクタの表示中において、第二入力操作の入力を促す案内表示をスクリーンに表示させる案内表示ステップと、第二入力操作を受け付けた場合には、第二コンボ動作で動作するキャラクタをスクリーンに表示させる第二表示ステップと、を備える。   A method according to the present disclosure is an information processing method executed by a computer in order to operate a game character displayed on a screen in accordance with an input operation by a user, and when an input operation is received, When the relationship between the input operation and the previous input operation satisfies a predetermined combo condition, a first display step for displaying a character operating on the predetermined combo operation on the screen, and the input operation and the next first input operation The relationship is a condition that satisfies the first combo condition for moving the character with the first combo action, and the relation between the input operation and the next second input operation is for the character to move with the second combo action. If the condition that satisfies the second combo condition is satisfied, the second input operation can be entered while the character operating with the predetermined combo action is displayed. A guide display step of displaying on the screen a guidance display prompting, when receiving the second input operation is provided with a second display step of displaying the character operates in the second combo operation screen, the.

本開示によれば、ゲーム性を高めることができる方法、装置及びプログラムが提供される。   According to the present disclosure, a method, an apparatus, and a program that can improve game performance are provided.

一実施形態のゲーム提供システムの構成を示す図である。It is a figure which shows the structure of the game provision system of one Embodiment. 携帯端末の構成を示すブロック図である。It is a block diagram which shows the structure of a portable terminal. サーバの機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of a server. 入力操作受付部が入力操作の種類を検知する処理を説明する図である。It is a figure explaining the process which an input operation reception part detects the kind of input operation. 移動方向検出部がユーザの入力操作に応じてゲームキャラクタを移動させる 方向を検出する処理を説明する図である。It is a figure explaining the process in which a moving direction detection part detects the direction which moves a game character according to a user's input operation. ドラッグ操作時に表示されるオブジェクトの一例である。It is an example of the object displayed at the time of drag operation. ドラッグ操作時に表示されるオブジェクトの一例である。It is an example of the object displayed at the time of drag operation. ドラッグ操作時に表示されるオブジェクトの変形を説明する図である。It is a figure explaining deformation | transformation of the object displayed at the time of drag operation. オブジェクトの変形時おけるポリゴン方向調整処理を説明する図である。It is a figure explaining the polygon direction adjustment process in the time of a deformation | transformation of an object. オブジェクトの変形後にタッチ位置が更新された場合について示す模式図 である。FIG. 10 is a schematic diagram showing a case where a touch position is updated after an object is deformed. カメラ配置制御部が仮想カメラを制御する処理を説明する図である。カメ ラ配置制御部が仮想カメラを制御する処理を説明する図である。It is a figure explaining the process which a camera arrangement | positioning control part controls a virtual camera. It is a figure explaining the process which a camera arrangement | positioning control part controls a virtual camera. ユーザによる入力操作に応じて変化するカメラワーク及び操作オブジェク トを説明する図である。It is a figure explaining the camera work and operation object which change according to input operation by a user. 移動操作時の処理を説明するフローチャートである。It is a flowchart explaining the process at the time of movement operation. 交戦時における仮想カメラの撮影方向を説明するための画面例である。It is an example of a screen for demonstrating the imaging | photography direction of the virtual camera at the time of a battle. 攻撃操作時の処理を説明するフローチャートである。It is a flowchart explaining the process at the time of attack operation. オブジェクト制御部がコンボデータに基づいてゲームキャラクタに攻撃動 作を実行させたときのアクションの一例を示す図である。It is a figure which shows an example of an action when an object control part makes a game character perform attack action based on combo data. フリック操作時の処理を説明するフローチャートである。It is a flowchart explaining the process at the time of a flick operation. フリック操作に基づく動作処理を説明するフローチャートである。It is a flowchart explaining the operation | movement process based on a flick operation. コンボ列を定義するテーブル群の一例である。It is an example of the table group which defines a combo column. コンボ列の分岐を説明する図である。It is a figure explaining the branch of a combo row. ドラッグ操作の案内表示となるアニメーション画像の一例である。It is an example of the animation image used as the guidance display of drag | drug operation. アニメーションを利用した案内表示の一例を説明する図である。It is a figure explaining an example of the guidance display using an animation. アニメーションを利用した案内表示の他の例を説明する図である。It is a figure explaining the other example of the guidance display using an animation. 先行入力を説明する図である。It is a figure explaining a prior | preceding input. 後発入力を説明する図である。It is a figure explaining late input. 案内表示時間について説明する図である。It is a figure explaining guidance display time. コンボ処理を説明するフローチャートである。It is a flowchart explaining a combo process. コンボ列の分岐時におけるコンボ処理のフローチャートである。It is a flowchart of the combo process at the time of branch of a combo row. 案内表示処理のフローチャートである。It is a flowchart of a guidance display process.

以下、図面を参照しつつ、本開示の一実施形態について説明する。以下の説明では、同一の部品又は構成要素には同一の符号が付される。それらの名称及び機能は同一である。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, an embodiment of the present disclosure will be described with reference to the drawings. In the following description, the same parts or components are denoted by the same reference numerals. Their names and functions are the same. Therefore, detailed description thereof will not be repeated.

[技術思想]
ゲームの一例として、ユーザによる入力操作に応じて、キャラクタがゲームの仮想空間を移動したり、ゲームの仮想空間に配置された敵キャラクタと交戦したりするゲームがある。このようなゲームにおいて、ユーザによる攻撃操作の手順が所定手順に一致する場合には、通常の攻撃操作によるダメージよりも大きなダメージを敵キャラクタに与えることができるゲームシステム(いわゆるコンボシステム)が存在する。コンボシステムを採用することにより、ゲームキャラクタに多彩な攻撃動作を行わせることができるため、ゲーム性が向上する。しかしながら、ユーザは、数多くの操作手順を理解しなければならない。したがって、多彩な操作をユーザに入力させる工夫が必要になる。このような工夫の一つとしては、ユーザに対して次の操作を案内するシステムを提供することが考えられる。このシステムを採用するにあたっては、適切なタイミングでユーザに案内する仕組みが必要になる。
[Technology]
As an example of the game, there is a game in which a character moves in a virtual space of the game or engages with an enemy character arranged in the virtual space of the game in accordance with an input operation by a user. In such a game, there is a game system (so-called combo system) that can give an enemy character more damage than a normal attack operation when the procedure of the attack operation by the user matches a predetermined procedure. . By adopting the combo system, it is possible to cause the game character to perform various attack actions, so that the game performance is improved. However, the user must understand a number of operating procedures. Therefore, a device for allowing the user to input various operations is required. As one of such devices, it is conceivable to provide a system for guiding the user to the next operation. In adopting this system, a mechanism for guiding the user at an appropriate timing is required.

ところで、スマートフォンなどのタッチスクリーンを備える情報処理装置がゲームプログラムを実行する場合、タッチスクリーンにはゲームの画面が表示される。情報処理装置は、ゲームの画面上でユーザによる入力操作を受け付ける。ユーザは、タッチスクリーンに対して指などを近接させて操作する。このため、ユーザは、操作ボタンなどを備えた一般的なコントローラと比べると、感触で入力操作の状況を理解することができない。このような背景に鑑み、入力操作の操作状況をタッチスクリーンに表示することで、ユーザに操作状況を報知するシステムが存在する。上述したコンボシステムをタッチスクリーンで提供するゲームに採用した場合には、入力操作の報知とコンボ操作の案内とを適切に行う仕組みが必要になる。   By the way, when an information processing apparatus having a touch screen such as a smartphone executes a game program, a game screen is displayed on the touch screen. The information processing apparatus accepts an input operation by the user on the game screen. The user performs an operation by bringing a finger or the like close to the touch screen. For this reason, the user cannot understand the state of the input operation by touch compared to a general controller having operation buttons and the like. In view of such a background, there is a system that notifies the user of the operation status by displaying the operation status of the input operation on a touch screen. When the above-described combo system is employed in a game that provides a touch screen, a mechanism for appropriately performing input operation notification and combo operation guidance is required.

本実施形態は、ユーザによる入力操作に応じてゲームのキャラクタを動作させるためにコンピュータによって実行される情報処理方法、情報処理装置、及び、情報処理プログラムに関連し、上述した課題の少なくとも1つを解決する。   The present embodiment relates to an information processing method, an information processing apparatus, and an information processing program executed by a computer in order to operate a game character in response to an input operation by a user. Solve.

[ゲーム提供システム]
本実施形態において、ユーザは、例えばスマートフォンなどの、タッチスクリーンを搭載した情報処理装置を操作する。ユーザは、ゲームサーバとスマートフォンとの間でゲームに関するデータを送受信させながらゲームを進行させる。
[Game provision system]
In the present embodiment, the user operates an information processing apparatus equipped with a touch screen such as a smartphone. The user advances the game while transmitting and receiving data related to the game between the game server and the smartphone.

図1は、一実施形態のゲーム提供システムの構成を示す図である。図1に示されるように、ゲーム提供システム1は、ユーザにより使用される情報処理装置と、サーバ20とを含み、これらの装置がネットワーク80によって互いに通信可能に接続されている。   FIG. 1 is a diagram illustrating a configuration of a game providing system according to an embodiment. As shown in FIG. 1, the game providing system 1 includes an information processing device used by a user and a server 20, and these devices are communicably connected to each other via a network 80.

図1の例では、ユーザにより使用される情報処理装置として、携帯端末10A、携帯端末10B及び携帯端末10Cなど複数の携帯端末を示している。以下、携帯端末10A、10B、10Cなどの携帯端末を「携帯端末10」と総称することもある。携帯端末10A及び携帯端末10Bは、無線基地局81と通信することにより、ネットワーク80と接続する。携帯端末10Cは、家屋などの施設に設置される無線ルータ82と通信することにより、ネットワーク80と接続する。携帯端末10は、例えばタッチスクリーンを備える端末であり、一例として、スマートフォン、ファブレット、タブレットなどのコンピュータである。   In the example of FIG. 1, a plurality of portable terminals such as the portable terminal 10A, the portable terminal 10B, and the portable terminal 10C are illustrated as information processing apparatuses used by the user. Hereinafter, portable terminals such as the portable terminals 10 </ b> A, 10 </ b> B, and 10 </ b> C may be collectively referred to as “mobile terminal 10”. The mobile terminal 10 </ b> A and the mobile terminal 10 </ b> B are connected to the network 80 by communicating with the radio base station 81. The mobile terminal 10C is connected to the network 80 by communicating with a wireless router 82 installed in a facility such as a house. The mobile terminal 10 is a terminal including a touch screen, for example, and as an example, is a computer such as a smartphone, a fablet, or a tablet.

携帯端末10は、ゲームプログラムを実行することにより、ゲームプログラムに応じたゲームをプレイする環境をユーザに対して提供する。携帯端末10には、例えば、アプリなどを配信するプラットフォームを介してゲームプログラムがインストールされる。携帯端末10は、携帯端末10にインストールされたゲームプログラム、又は、予めプリインストールされているゲームプログラムを実行することで、ユーザによるゲームのプレイを可能とする。携帯端末10は、ゲームプログラムを読み込んで実行することにより、サーバ20と通信接続し、ゲームの進行に応じてゲームに関連するデータをサーバ20と送受信する。   The mobile terminal 10 provides a user with an environment for playing a game according to the game program by executing the game program. For example, a game program is installed in the mobile terminal 10 via a platform that distributes applications and the like. The mobile terminal 10 enables a user to play a game by executing a game program installed in the mobile terminal 10 or a game program pre-installed in advance. The mobile terminal 10 reads and executes the game program to establish communication connection with the server 20 and transmit / receive data related to the game to / from the server 20 as the game progresses.

サーバ20は、ゲームのプレイに必要なデータを、適宜のタイミングで携帯端末10へ送信することで、携帯端末10でのゲームのプレイを進行させる。サーバ20は、ゲームをプレイする各ユーザの、ゲームに関連する各種データを管理する。サーバ20は、携帯端末10と通信し、各ユーザのゲームの進行に応じて、画像、音声、テキストデータ、その他のデータなどを携帯端末10へ送信する。   The server 20 advances the game play on the mobile terminal 10 by transmitting data necessary for playing the game to the mobile terminal 10 at an appropriate timing. The server 20 manages various data related to the game of each user who plays the game. The server 20 communicates with the mobile terminal 10 and transmits images, sounds, text data, and other data to the mobile terminal 10 in accordance with the progress of each user's game.

例えば、サーバ20は、各ユーザがゲームのストーリーを進行させた進行状況、ゲーム内に登場するキャラクタ(以下、「ゲームキャラクタ」ともいう。)のうち各ユーザが使用可能なゲームキャラクタの情報、ゲームキャラクタの能力を示すパラメータ、ゲームキャラクタが使用する道具の性能を示すパラメータ、その他の各種データなどを管理する。また、サーバ20は、ゲームの運営者によりユーザに対して行われるキャンペーン、ゲームの進行における不具合の発生、不具合の解消、その他のゲームの運営に関連する情報などをユーザに通知する処理を行う。   For example, the server 20 includes information on game characters that can be used by each user among the progress of each user's progress in the game story, characters that appear in the game (hereinafter also referred to as “game characters”), It manages parameters indicating the ability of the character, parameters indicating the performance of the tool used by the game character, and other various data. In addition, the server 20 performs a process of notifying the user of a campaign performed by the game operator for the user, occurrence of a defect in the progress of the game, resolution of the defect, other information related to game management, and the like.

ゲームプログラムは、ユーザがゲームをプレイするモードとして、一人のユーザがプレイするシングルプレイと、複数人のユーザが協同してプレイするマルチプレイとに対応している。例えば、ゲーム提供システム1において、サーバ20は、マルチプレイに参加するユーザを特定して各ユーザの各携帯端末10と通信することなどにより、マルチプレイでゲームをプレイする環境を各ユーザに提供する。   The game program corresponds to a single play in which one user plays and a multiplay in which a plurality of users play in cooperation as modes in which the user plays a game. For example, in the game providing system 1, the server 20 provides each user with an environment for playing a game in multiplay by identifying users participating in multiplay and communicating with each mobile terminal 10 of each user.

ゲーム提供システム1は、マルチプレイに対応することにより、例えば、アクションゲームであれば、各ユーザでチームを結成して、クエストモードなど比較的強力なキャラクタと対戦するゲームモードを複数のユーザがプレイすることを可能とする。また、ゲーム提供システム1は、サッカーゲームであれば、各ユーザが同一のサッカーチームのメンバーとなって試合を行うことを可能とする。また、ゲーム提供システム1は、テニスゲームであれば、各ユーザでチームを結成してダブルスの試合を行うことを可能とする。   For example, if the game providing system 1 is an action game, a plurality of users play a game mode in which each user forms a team and plays against a relatively powerful character such as a quest mode. Make it possible. Moreover, if the game providing system 1 is a soccer game, each user can play a game as a member of the same soccer team. Moreover, if it is a tennis game, the game provision system 1 will be able to form a team with each user and to play a doubles game.

[構成]
サーバ20のハードウェアの構成を説明する。サーバ20は、通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備え、これらが通信バスを介して互いに接続する。
[Constitution]
The hardware configuration of the server 20 will be described. The server 20 includes a communication IF (Interface) 22, an input / output IF 23, a memory 25, a storage 26, and a processor 29, which are connected to each other via a communication bus.

通信IF22は、通信機器であり、例えばLAN(Local Area Network)規格など各種の通信規格に対応しており、携帯端末10などの外部の通信機器との間でデータを送受信するためのインタフェースとして機能する。   The communication IF 22 is a communication device and supports various communication standards such as a LAN (Local Area Network) standard, and functions as an interface for transmitting and receiving data to and from an external communication device such as the mobile terminal 10. To do.

入出力IF23は、インタフェース機器であり、サーバ20への情報の入力を受け付けるとともに、サーバ20の外部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス、キーボードなどの情報入力機器の接続を受け付ける入力受付部と、画像などを表示するためのディスプレイなどの情報出力機器の接続を受け付ける出力部とを含む。   The input / output IF 23 is an interface device and functions as an interface for accepting input of information to the server 20 and outputting information to the outside of the server 20. The input / output IF 23 includes an input receiving unit that accepts connection of an information input device such as a mouse and a keyboard, and an output unit that accepts connection of an information output device such as a display for displaying an image or the like.

メモリ25は、記憶装置であり、例えば、処理に使用されるデータなどを記憶するために用いられる。メモリ25は、例えば、プロセッサ29が処理を行う際に一時的に使用するための作業領域をプロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)、RAM(Random Access Memory)などを含んで構成される。   The memory 25 is a storage device, and is used for storing data used for processing, for example. For example, the memory 25 provides the processor 29 with a work area for temporary use when the processor 29 performs processing. The memory 25 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

ストレージ26は、記憶装置であり、例えば、プロセッサ29が読み込んで実行するための各種プログラム及びデータを記憶するために用いられる。ストレージ26が記憶する情報は、ゲームプログラム、ゲームプログラムに関連する情報、ゲームプログラムをプレイするユーザの情報、その他の情報を含む。ストレージ26は、例えば、HDD(Hard Disk Drive)、フラッシュメモリなどを含んで構成される。   The storage 26 is a storage device, and is used for storing various programs and data to be read and executed by the processor 29, for example. Information stored in the storage 26 includes a game program, information related to the game program, information of a user who plays the game program, and other information. The storage 26 includes, for example, an HDD (Hard Disk Drive), a flash memory, and the like.

プロセッサ29は、演算装置であり、ストレージ26に記憶されるプログラムなどを読み込んで実行することにより、サーバ20の動作を制御する。プロセッサ29は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)などを含んで構成される。   The processor 29 is an arithmetic unit, and controls the operation of the server 20 by reading and executing a program stored in the storage 26. The processor 29 includes, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and the like.

図2は、携帯端末10の構成を示すブロック図である。図2に示されるように、携帯端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン130と、入出力IF140と、記憶部150と、音声処理部160と、マイク170と、スピーカ180と、制御部190とを含む。   FIG. 2 is a block diagram illustrating a configuration of the mobile terminal 10. As shown in FIG. 2, the mobile terminal 10 includes an antenna 110, a wireless communication IF 120, a touch screen 130, an input / output IF 140, a storage unit 150, a sound processing unit 160, a microphone 170, and a speaker 180. The control unit 190 is included.

アンテナ110は、携帯端末10が発する信号を電波として空間へ放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ与える。   The antenna 110 radiates a signal emitted from the mobile terminal 10 to space as a radio wave. Further, the antenna 110 receives radio waves from the space and gives a received signal to the wireless communication IF 120.

無線通信IF120は、携帯端末10が他の通信機器と通信するため、アンテナ110などを介して信号を送受信するための変復調処理などを行う。無線通信IF120は、チューナー、高周波回路などを含む無線通信用の通信モジュールであり、携帯端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。   The wireless communication IF 120 performs modulation / demodulation processing for transmitting and receiving signals via the antenna 110 and the like so that the mobile terminal 10 communicates with other communication devices. The wireless communication IF 120 is a communication module for wireless communication including a tuner, a high frequency circuit, and the like, performs modulation / demodulation and frequency conversion of a wireless signal transmitted / received by the mobile terminal 10, and provides a received signal to the control unit 190.

タッチスクリーン130は、ユーザからの入力操作を受け付けて、ユーザに対し情報をディスプレイ132に出力する。タッチスクリーン130は、ユーザの入力操作を受け付けるための部材であるタッチパネル131を含む。また、タッチスクリーン130は、メニュー画面や、ゲームの進行を画面に表示するための部材であるディスプレイ132を含む。タッチパネル131は、例えば、静電容量方式のものを用いることによって、ユーザの指などが接近したことを検出する。ディスプレイ132は、例えば、LCD(Liquid Crystal Display)、有機EL(electroluminescence)、その他の表示装置によって実現される。   The touch screen 130 receives an input operation from the user and outputs information to the display 132 to the user. The touch screen 130 includes a touch panel 131 that is a member for receiving a user input operation. The touch screen 130 includes a menu screen and a display 132 that is a member for displaying the progress of the game on the screen. The touch panel 131 detects, for example, that a user's finger or the like has approached by using a capacitance type touch panel. The display 132 is realized by, for example, an LCD (Liquid Crystal Display), an organic EL (electroluminescence), or other display device.

入出力IF140は、インタフェース機器であり、携帯端末10への情報の入力を受け付けるとともに、携帯端末10の外部へ情報を出力するためのインタフェースとして機能する。   The input / output IF 140 is an interface device, and receives an input of information to the mobile terminal 10 and functions as an interface for outputting information to the outside of the mobile terminal 10.

記憶部150は、記憶装置であり、フラッシュメモリ、RAM(Random Access Memory)などにより構成され、携帯端末10が使用するプログラム、携帯端末10がサーバ20から受信する各種データ、その他の各種データを記憶する。   The storage unit 150 is a storage device, and includes a flash memory, a RAM (Random Access Memory), and the like, and stores programs used by the mobile terminal 10, various data received by the mobile terminal 10 from the server 20, and other various data. To do.

音声処理部160は、演算装置であり、音声信号の変復調を行う。音声処理部160は、マイク170から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部160は、音声信号をスピーカ180へ与える。音声処理部160は、例えば、音声処理用のプロセッサによって実現される。マイク170は、音声信号の入力を受け付けて制御部190へ出力するための音声入力部として機能する。スピーカ180は、音声信号を、携帯端末10の外部へ出力するための音声出力部として機能する。   The audio processing unit 160 is an arithmetic device and performs modulation / demodulation of an audio signal. The audio processing unit 160 modulates the signal given from the microphone 170 and gives the modulated signal to the control unit 190. In addition, the audio processing unit 160 provides an audio signal to the speaker 180. The sound processing unit 160 is realized by, for example, a sound processing processor. The microphone 170 functions as an audio input unit for receiving an input of an audio signal and outputting it to the control unit 190. The speaker 180 functions as an audio output unit for outputting an audio signal to the outside of the mobile terminal 10.

制御部190は、演算装置であり、記憶部150に記憶されるプログラムを読み込んで実行することにより、携帯端末10の動作を制御する。制御部190は、例えば、アプリケーションプロセッサによって実現される。   The control unit 190 is an arithmetic device, and controls the operation of the mobile terminal 10 by reading and executing a program stored in the storage unit 150. The control unit 190 is realized by an application processor, for example.

携帯端末10がゲームプログラム151を実行する処理について、より詳細に説明する。ある局面において、記憶部150は、ゲームプログラム151と、ゲーム情報152と、ユーザ情報153とを記憶する。携帯端末10は、例えば、サーバ20からゲームプログラムをダウンロードして記憶部150に記憶させる。また、携帯端末10は、ゲームの進行に伴いサーバ20と通信することで、ゲーム情報152及びユーザ情報153などの各種のデータをサーバ20と送受信する。   A process in which the mobile terminal 10 executes the game program 151 will be described in more detail. In one aspect, the storage unit 150 stores a game program 151, game information 152, and user information 153. For example, the mobile terminal 10 downloads a game program from the server 20 and stores the game program in the storage unit 150. Moreover, the portable terminal 10 transmits / receives various data, such as the game information 152 and the user information 153, with the server 20 by communicating with the server 20 with progress of a game.

ゲームプログラム151は、携帯端末10においてゲームを進行させるためのプログラムである。ゲーム情報152は、ゲームプログラム151が参照する各種のデータを含む。ゲーム情報152は、例えば、ゲームにおいて仮想空間に配置されるオブジェクトの情報、オブジェクトに対応付けられた効果の情報(ゲームキャラクタに設定されるスキルの情報などを含む)基準モーションデータ、コンボデータなどを含む。基準モーションデータは、各ゲームキャラクタの動作を定義する。動作は、入力操作に対応付けて定義されてもよい。コンボデータは、所定の条件で発生するコンボによってゲームキャラクタに実行させる動作の内容(例えば、攻撃動作の種類、攻撃力、動きなど)を定義する。ユーザ情報153は、ゲームをプレイするユーザについての情報を含む。ユーザ情報153は、例えば、ゲームをプレイする携帯端末10のユーザを識別する情報、マルチプレイ時に協働してゲームをプレイする他のユーザを識別する情報、その他の情報を含む。その他の情報は、例えば、タッチパネル131の履歴データなどを含む。履歴データは、タッチパネル131の操作履歴である。   The game program 151 is a program for causing the mobile terminal 10 to advance a game. The game information 152 includes various data referred to by the game program 151. The game information 152 includes, for example, information on objects arranged in the virtual space in the game, information on effects associated with the objects (including information on skills set for game characters, etc.), reference motion data, combo data, and the like. Including. The reference motion data defines the action of each game character. The action may be defined in association with the input operation. The combo data defines the content of an action (for example, attack action type, attack power, movement, etc.) to be executed by the game character by a combo generated under a predetermined condition. The user information 153 includes information about the user who plays the game. The user information 153 includes, for example, information for identifying a user of the mobile terminal 10 playing a game, information for identifying another user who plays a game in cooperation with multi-play, and other information. Other information includes, for example, history data of the touch panel 131 and the like. The history data is an operation history of the touch panel 131.

制御部190は、ゲームプログラム151を読み込んで実行することにより、入力操作受付部191と、ゲーム進行処理部192と、移動方向検出部193と、カメラ配置制御部194と、オブジェクト制御部195と、表示制御部196と、の各機能を発揮する。   The control unit 190 reads and executes the game program 151, whereby an input operation receiving unit 191, a game progress processing unit 192, a moving direction detection unit 193, a camera arrangement control unit 194, an object control unit 195, Each function of the display control unit 196 is exhibited.

入力操作受付部191は、タッチスクリーン130の出力に基づいて、ユーザの入力操作を受け付ける。具体的には、入力操作受付部191は、ユーザの指などがタッチパネル131に接近したことを、タッチスクリーン130を構成する面の横軸及び縦軸からなる座標系の座標として検出する。   The input operation accepting unit 191 accepts a user input operation based on the output of the touch screen 130. Specifically, the input operation receiving unit 191 detects that a user's finger or the like has approached the touch panel 131 as coordinates in a coordinate system including a horizontal axis and a vertical axis of a surface constituting the touch screen 130.

入力操作受付部191は、タッチスクリーン130に対するユーザの操作を判別する。入力操作受付部191は、例えば、(1)「接近操作」、(2)「リリース操作」、(3)「タップ操作」、(4)「ダブルタップ操作」、(5)「長押し操作(ロングタッチ操作)」、(6)「ドラッグ操作(スワイプ操作)」、(7)「ムーブ操作」、(8)「フリック操作」、その他のユーザの操作を判別する。入力操作受付部191が判別するユーザの操作は、上記に限られない。例えば、タッチパネル131が、ユーザがタッチパネル131に対して押下する圧力の大きさを検出可能な機構を有する場合、入力操作受付部191は、ユーザにより押下された圧力の大きさを判別する。   The input operation reception unit 191 determines a user operation on the touch screen 130. The input operation accepting unit 191 includes, for example, (1) “approach operation”, (2) “release operation”, (3) “tap operation”, (4) “double tap operation”, (5) “long press operation ( (Long touch operation) ”, (6)“ drag operation (swipe operation) ”, (7)“ move operation ”, (8)“ flick operation ”, and other user operations. The user operation determined by the input operation receiving unit 191 is not limited to the above. For example, when the touch panel 131 has a mechanism that can detect the magnitude of the pressure that the user presses against the touch panel 131, the input operation reception unit 191 determines the magnitude of the pressure that is pressed by the user.

(1)「接近操作」とは、ユーザが指などをタッチスクリーン130に接近させる操作である。タッチスクリーン130は、ユーザの指などが接近したこと(ユーザの指などがタッチスクリーン130に接触したことを含む)をタッチパネル131により検出し、検出したタッチスクリーン130の座標に応じた信号を制御部190へ出力する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出しない状態から、接近を検出したときに、状態が「タッチオン状態」になったと判別する。   (1) The “approach operation” is an operation in which the user brings a finger or the like closer to the touch screen 130. The touch screen 130 detects that the user's finger or the like has approached (including that the user's finger or the like has touched the touch screen 130) by the touch panel 131, and outputs a signal corresponding to the detected coordinates of the touch screen 130 to the control unit. Output to 190. The control unit 190 determines that the state is the “touch-on state” when the approach is detected from the state in which the approach of the user's finger or the like to the touch screen 130 is not detected.

(2)「リリース操作」とは、ユーザがタッチスクリーン130を接近操作している状態を止める操作である。入力操作受付部191は、例えば、ユーザが指などをタッチスクリーン130に接触させている状態から、指を離す操作をしたときに、ユーザの操作を「リリース操作」と判別する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出している状態から、接近を検出しない状態になったときに、状態が「タッチオン状態」から「タッチオフ状態」になったと判別する。   (2) “Release operation” is an operation for stopping the state in which the user is operating the touch screen 130 to approach. For example, when the user performs an operation of releasing his / her finger from a state where the user touches the touch screen 130 with the finger or the like, the input operation receiving unit 191 determines that the user's operation is a “release operation”. The control unit 190 determines that the state is changed from the “touch-on state” to the “touch-off state” when the approach is not detected from the state in which the approach of the user's finger or the like to the touch screen 130 is detected. To do.

(3)「タップ操作」とは、ユーザがタッチスクリーン130に対して指などを接近させる接近操作をした後に、接近操作をした位置でリリース操作を行うことである。入力操作受付部191は、接近操作が検出されない状態(ユーザの指などがタッチパネル131から離れており、タッチパネル131がユーザの指などの接近を検出していない状態)から、タッチスクリーン130の出力に基づいて、ユーザの指などが接近したことを検出した場合に、その検出した座標を「初期タッチ位置」として保持する。入力操作受付部191は、初期タッチ位置の座標と、リリース操作をした座標とがほぼ同一である場合(接近操作が検出された座標から一定範囲内の座標においてリリース操作の座標が検出された場合)に、ユーザの操作を「タップ操作」と判別する。   (3) “Tap operation” refers to performing a release operation at a position where the user performs an approach operation after the user performs an approach operation to bring a finger or the like closer to the touch screen 130. The input operation reception unit 191 outputs the touch screen 130 from the state where the approach operation is not detected (the user's finger or the like is away from the touch panel 131 and the touch panel 131 does not detect the approach of the user's finger or the like). Based on this, when it is detected that the user's finger or the like has approached, the detected coordinates are held as the “initial touch position”. When the coordinates of the initial touch position and the coordinates of the release operation are substantially the same (when the coordinates of the release operation are detected in the coordinates within a certain range from the coordinates where the approach operation is detected) ), The user's operation is determined as a “tap operation”.

(4)「ダブルタップ操作」とは、ユーザがタップ操作を一定時間内に2回行う操作である。入力操作受付部191は、例えば、ユーザの操作をタップ操作と判別してから一定時間内に、タップ操作にかかる座標で再びタップ操作を判別した場合に、ユーザの操作を「ダブルタップ操作」と判別する。   (4) The “double tap operation” is an operation in which the user performs the tap operation twice within a predetermined time. For example, the input operation reception unit 191 determines that the user operation is “double tap operation” when the user operation is determined to be the tap operation and the tap operation is determined again with the coordinates related to the tap operation within a certain time after the user operation is determined to be the tap operation. Determine.

(5)「長押し操作」とは、ユーザがタッチスクリーン130を押し続ける操作である。タッチスクリーン130は、ユーザの操作を検出して接近操作を判別してから、接近操作が検出された座標において接近操作が継続している時間が一定時間を超えた場合に、ユーザの操作を「長押し操作」(「長押し操作」を、「ロングタッチ操作」と称することもある)と判別する。   (5) “Long press operation” is an operation in which the user continues to press the touch screen 130. The touch screen 130 detects the user's operation and discriminates the approaching operation. When the time during which the approaching operation continues at the coordinates where the approaching operation is detected exceeds a certain time, the touch screen 130 determines the user's operation as “ “Long press operation” (the “long press operation” may be referred to as “long touch operation”).

(6)「ドラッグ操作」とは、ユーザがタッチスクリーン130に指などを接近させた接近状態を維持したまま、指をスライドさせる操作である。   (6) “Drag operation” is an operation of sliding a finger while maintaining an approaching state in which the user brings a finger or the like close to the touch screen 130.

(7)「ムーブ操作」とは、ユーザがタッチスクリーン130において、接近操作を維持しつつ、タッチスクリーン130に指などを接近させている位置を移動させてリリース操作を行う一連の操作をいう。   (7) “Move operation” refers to a series of operations in which the user performs a release operation by moving a position where a finger or the like is approaching the touch screen 130 while maintaining the approach operation on the touch screen 130.

(8)「フリック操作」は、ユーザがムーブ操作を予め定められた時間よりも短い時間で行う操作をいう。フリック操作は、ユーザがタッチスクリーン130で指を弾くような操作である。   (8) “Flick operation” refers to an operation in which a user performs a move operation in a time shorter than a predetermined time. The flick operation is an operation in which the user flips a finger on the touch screen 130.

入力操作受付部191は、所定期間のユーザの入力操作の判別結果を記憶部150に操作履歴として記憶する。入力操作受付部191により行われる入力操作の種類を検知する詳細な処理は、後述する。   The input operation reception unit 191 stores the determination result of the user's input operation for a predetermined period in the storage unit 150 as an operation history. Detailed processing for detecting the type of input operation performed by the input operation receiving unit 191 will be described later.

ゲーム進行処理部192は、ユーザの操作に応じて、各種のプログラムを呼び出すなどによりゲームを進行させる処理を行う。例えば、ゲーム進行処理部192は、サーバ20と通信し、ゲームの進行に応じてサーバ20へデータを送信する処理、サーバ20からゲームに関連するデータを受信する処理、ゲームの進行に応じてユーザに報酬を付与する処理、時間の経過を計測する処理、その他の処理を行う。   The game progress processing unit 192 performs a process of advancing the game by calling various programs in accordance with a user operation. For example, the game progress processing unit 192 communicates with the server 20 to transmit data to the server 20 according to the progress of the game, to receive data related to the game from the server 20, and to the user according to the progress of the game. A process for giving a reward, a process for measuring the passage of time, and other processes are performed.

移動方向検出部193は、タッチスクリーン130に対するユーザの入力操作が移動操作である場合、ゲームに登場するキャラクタであるゲームキャラクタを移動させる入力操作の操作内容を検出する。移動操作とは、ゲームキャラクタの移動方向を指示する入力操作であり、方向性のある操作である。移動操作の一例としては、所定条件下のドラッグ操作又はフリック操作である。例えばゲームプログラム151がアクションゲームである場合、移動方向検出部193は、ユーザのドラッグ操作又はフリック操作に基づいて、ゲームキャラクタを移動させる方向を検出する。   When the user input operation on the touch screen 130 is a movement operation, the movement direction detection unit 193 detects the operation content of the input operation for moving a game character that is a character appearing in the game. The moving operation is an input operation for instructing the moving direction of the game character, and is a directional operation. An example of the moving operation is a drag operation or a flick operation under a predetermined condition. For example, when the game program 151 is an action game, the movement direction detection unit 193 detects the direction in which the game character is moved based on the user's drag operation or flick operation.

具体的には、移動方向検出部193は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させて、入力操作受付部191がタッチパネル131にユーザの指が接近したことを検出した座標を初期タッチ位置として、ユーザがドラッグ操作を行った場合に、初期タッチ位置の座標とタッチスクリーン130の検出結果とに基づいて、ゲームキャラクタの移動方向を検出する。移動方向検出部193の詳細な処理は、後述する。   Specifically, the movement direction detection unit 193 causes the user to move the finger closer to the touch screen 130 from a state in which the user's finger is separated from the touch screen 130, and the input operation reception unit 191 causes the touch panel 131 to move the user's finger. When the user performs a drag operation using the detected coordinates as the initial touch position, the moving direction of the game character is detected based on the initial touch position coordinates and the detection result of the touch screen 130. Detailed processing of the movement direction detection unit 193 will be described later.

カメラ配置制御部194は、仮想空間に配置される各オブジェクトを、どのようにユーザに見せるかを決定する。具体的には、カメラ配置制御部194は、制御部190がゲームプログラム151を読み込んで実行することで生成される仮想空間において、仮想カメラの配置及び撮影方向(カメラワーク)を制御する。仮想カメラの配置及び撮影方向は、仮想空間の座標及び方向によって定義される。制御部190は、仮想空間における仮想カメラの撮影画像をディスプレイ132に表示することで、ユーザに対しゲームのプレイ環境を提供する。   The camera placement control unit 194 determines how to show each object placed in the virtual space to the user. Specifically, the camera placement control unit 194 controls the placement and shooting direction (camera work) of the virtual camera in the virtual space generated by the control unit 190 reading and executing the game program 151. The arrangement and shooting direction of the virtual camera are defined by the coordinates and direction of the virtual space. The control unit 190 provides the game play environment to the user by displaying the captured image of the virtual camera in the virtual space on the display 132.

オブジェクト制御部195は、携帯端末10がゲームプログラム151を実行することにより進行されるゲームに登場する各種オブジェクト、及び、入力操作受付部191が受け付けたユーザの操作内容に基づいて生成される各種オブジェクト(例えば、GUI(Graphical User Interface)画面など)の生成、変形、移動などの処理を制御する。オブジェクト制御部195は、例えば、タッチスクリーン130に対する入力操作に基づいて、ユーザの操作を示す操作オブジェクトを生成する。操作オブジェクトの詳細については後述する。   The object control unit 195 includes various objects that appear in a game that is progressed by the mobile terminal 10 executing the game program 151, and various objects that are generated based on the user operation content received by the input operation receiving unit 191. Processes such as generation, transformation, and movement (for example, a GUI (Graphical User Interface) screen) are controlled. For example, the object control unit 195 generates an operation object indicating a user operation based on an input operation on the touch screen 130. Details of the operation object will be described later.

表示制御部196は、ディスプレイ132の表示を制御する。表示制御部196は、例えば、仮想カメラのカメラワークに従った画像をディスプレイ132に出力する。表示制御部196は、仮想空間内における仮想カメラの配置及び撮影方向に応じて、ディスプレイ132の表示内容を決定し、決定した表示内容に従う画像、テキストなどの各種の情報をディスプレイ132に出力する。   The display control unit 196 controls the display on the display 132. For example, the display control unit 196 outputs an image according to the camera work of the virtual camera to the display 132. The display control unit 196 determines the display content of the display 132 according to the placement and shooting direction of the virtual camera in the virtual space, and outputs various types of information such as images and text according to the determined display content to the display 132.

図3は、サーバ20の機能的な構成を示すブロック図である。図3を参照して、サーバ20の詳細な構成を説明する。サーバ20は、一般的なコンピュータとして構成され、プログラムに従って動作することにより、通信部220と、記憶部250と、制御部290としての機能を発揮する。   FIG. 3 is a block diagram illustrating a functional configuration of the server 20. The detailed configuration of the server 20 will be described with reference to FIG. The server 20 is configured as a general computer and functions as the communication unit 220, the storage unit 250, and the control unit 290 by operating according to a program.

通信部220は、通信機器であり、サーバ20が携帯端末10などの外部の通信機器と通信するためのインタフェースとして機能する。   The communication unit 220 is a communication device, and functions as an interface for the server 20 to communicate with an external communication device such as the mobile terminal 10.

記憶部250は、記憶装置であり、携帯端末10においてユーザがゲームを進行させるための各種プログラム及びデータを記憶する。ある局面において、記憶部250は、ゲームプログラム251と、ゲーム情報252と、ユーザ情報253とを記憶する。   The storage unit 250 is a storage device, and stores various programs and data for the user to advance the game in the mobile terminal 10. In one aspect, the storage unit 250 stores a game program 251, game information 252, and user information 253.

ゲームプログラム251は、サーバ20が携帯端末10と通信して、携帯端末10においてゲームを進行させるためのプログラムである。ゲームプログラム251は、ゲームを進行させるための各種データであるゲーム情報252及びユーザ情報253などを参照して、ユーザの入力操作に応じてゲームを進行させる。ゲームプログラム251は、制御部290に実行されることにより、携帯端末10とデータを送受信する処理、携帯端末10のユーザが行った操作内容に応じてゲームを進行させる処理、ゲームをプレイするユーザの情報を更新する処理、その他の処理をサーバ20に行わせる。   The game program 251 is a program for allowing the server 20 to communicate with the mobile terminal 10 and advance the game on the mobile terminal 10. The game program 251 refers to the game information 252 and user information 253 that are various data for proceeding with the game, and causes the game to proceed according to the user's input operation. The game program 251 is executed by the control unit 290, thereby processing to transmit / receive data to / from the mobile terminal 10, processing to advance the game in accordance with the operation content performed by the user of the mobile terminal 10, and user's playing the game The server 20 is caused to perform processing for updating information and other processing.

ゲーム情報252は、ゲームプログラム251が参照する各種のデータを含む。ゲーム情報252は、オブジェクト管理テーブル252Aと、パッシブスキル管理テーブル252Bと、アクティブスキル管理テーブル252Cとを含む。   The game information 252 includes various data referred to by the game program 251. The game information 252 includes an object management table 252A, a passive skill management table 252B, and an active skill management table 252C.

オブジェクト管理テーブル252Aは、ゲームの仮想空間内に配置されるオブジェクトの設定を示す。携帯端末10は、ゲームプログラム151を実行することにより、仮想空間内に配置されるオブジェクトを、仮想空間内に配置される仮想カメラによって撮影された画像をディスプレイ132に表示させることでゲームを進行させる。   The object management table 252A shows the setting of objects arranged in the virtual space of the game. By executing the game program 151, the mobile terminal 10 causes the display 132 to display an image photographed by the virtual camera disposed in the virtual space and the object disposed in the virtual space to advance the game. .

ここで、オブジェクトとしては、例えば、ユーザが操作するゲームキャラクタを示すオブジェクト、ゲームキャラクタが装着する対象物を示すオブジェクトなど様々なものがある。これらオブジェクトは、ユーザがタッチスクリーン130に対して予め定められた入力操作を行うこと、ゲームの進行に伴い一定の条件を満たすこと、その他の様々な事象の発生を契機として、オブジェクトに対応付けられた処理が行われる。   Here, there are various objects such as an object indicating a game character operated by the user and an object indicating an object worn by the game character. These objects are associated with objects when the user performs a predetermined input operation on the touch screen 130, meets certain conditions as the game progresses, and other various events occur. Processing is performed.

例えば、あるオブジェクトに対してユーザがタッチスクリーン130に対して接近操作を行うことで、オブジェクトがユーザに選択された状態となる。また、例えば、ユーザがタップ操作を行うことで、ユーザに選択されているオブジェクトがユーザの入力操作に応じて攻撃するなどの処理が行われる。また、例えば、ユーザがドラッグ操作を行うことで、ユーザに選択されているオブジェクトがユーザの入力操作に応じて移動するなどの処理が行われる。また、例えば、ユーザがオブジェクトに対してロングタッチ操作をすることで、ユーザに対し、ゲームを有利に進めるための報酬が付与されるなどの処理が行われる。   For example, when the user performs an approach operation on the touch screen 130 with respect to an object, the object is selected by the user. In addition, for example, when the user performs a tap operation, an object selected by the user attacks according to the user's input operation. Further, for example, when the user performs a drag operation, a process such as moving an object selected by the user according to the user's input operation is performed. In addition, for example, when the user performs a long touch operation on the object, a process is performed such that a reward for favoring the game is given to the user.

パッシブスキル管理テーブル252Bは、オブジェクトを識別する情報と、オブジェクトに対応付けられたパッシブスキルの情報とが対応付けられている。ここで、パッシブスキルとは、例えば、ゲームにおいて予め定められた条件が満たされたときに発動され、ユーザがゲームを有利に進行させることができるものである。例えば、パッシブスキルが発動した場合に、ゲームキャラクタの移動速度が向上するなどの、ゲームを有利に進行させられる効果を発揮させる。   In the passive skill management table 252B, information for identifying an object is associated with information on passive skills associated with the object. Here, the passive skill is activated when, for example, a predetermined condition is satisfied in the game, and the user can advantageously advance the game. For example, when the passive skill is activated, the game character can be advantageously advanced, such as the moving speed of the game character is improved.

アクティブスキル管理テーブル252Cは、オブジェクトを識別する情報と、オブジェクトに対応付けられたアクティブスキルの情報とが対応付けられている。ここで、アクティブスキルとは、例えば、ゲームにおいて予め定められた条件が満たされたときに発動可能な状態となり、ユーザから、スキルを発動させるための入力操作を受け付けることにより、ユーザがゲームを有利に進行させることができるものである。   In the active skill management table 252C, information for identifying an object is associated with information on an active skill associated with the object. Here, the active skill is, for example, in a state where it can be activated when a predetermined condition is satisfied in the game, and by receiving an input operation for activating the skill from the user, the user has an advantage in the game. It can be made to progress.

ユーザ情報253は、ゲームをプレイするユーザについての情報である。ユーザ情報253は、ユーザ管理テーブル253Aを含む。ユーザ管理テーブル253Aは、各ユーザを識別する情報と、ユーザがゲームを進行させた度合いを示す情報と、ユーザがゲーム内で保有するアイテム、ゲームキャラクタ、ゲームキャラクタが使用する装着物などの情報その他の情報を含む。   The user information 253 is information about the user who plays the game. The user information 253 includes a user management table 253A. The user management table 253A includes information for identifying each user, information indicating the degree of progress of the game by the user, information held by the user in the game, game characters, information used by the game character, and the like. Information.

制御部290は、記憶部250に記憶されるゲームプログラム251を実行することにより、送受信部291、サーバ処理部292、データ管理部293、マッチング部294、計測部295としての機能を発揮する。   The control unit 290 executes functions of the transmission / reception unit 291, the server processing unit 292, the data management unit 293, the matching unit 294, and the measurement unit 295 by executing the game program 251 stored in the storage unit 250.

送受信部291は、ゲームプログラム151を実行する携帯端末10から、各種情報を受信し、携帯端末10に対し、各種情報を送信する。携帯端末10とサーバ20とは、ユーザに関連付けられるオブジェクトを仮想空間に配置する要求、オブジェクトを削除する要求、オブジェクトを移動させる要求、ユーザが獲得する報酬に応じて各種パラメータを更新する要求、ゲームを進行させるための画像、音声その他のデータ、サーバ20から携帯端末10へ送信される通知などの情報を送受信する。   The transmission / reception unit 291 receives various types of information from the mobile terminal 10 that executes the game program 151, and transmits various types of information to the mobile terminal 10. The mobile terminal 10 and the server 20 include a request to place an object associated with the user in the virtual space, a request to delete the object, a request to move the object, a request to update various parameters according to a reward acquired by the user, Information such as an image, audio, and other data for advancing, and a notification transmitted from the server 20 to the mobile terminal 10 are transmitted and received.

サーバ処理部292は、サーバ20全体の動作を制御し、各種のプログラムを呼び出すなどによりゲームの進行に必要な処理を行う。サーバ処理部292は、例えば、携帯端末10から受信した情報に基づいて、ゲーム情報252、ユーザ情報253などのデータを更新し、携帯端末10に各種データを送信することでゲームを進行させる。   The server processing unit 292 controls the operation of the entire server 20 and performs processing necessary for the progress of the game by calling various programs. For example, the server processing unit 292 updates data such as the game information 252 and the user information 253 based on information received from the mobile terminal 10, and transmits various data to the mobile terminal 10 to advance the game.

データ管理部293は、サーバ処理部292の処理結果に従って、記憶部250に記憶される各種データを更新する処理、データベースにレコードを追加/更新/削除する処理などを行う。   The data management unit 293 performs processing for updating various data stored in the storage unit 250, processing for adding / updating / deleting records to the database, and the like according to the processing result of the server processing unit 292.

マッチング部294は、複数のユーザを関連付けるための一連の処理を行う。マッチング部294は、例えば、ユーザがマルチプレイを行うための入力操作を行った場合に、ゲームを協同してプレイさせるユーザを関連付ける処理などを行う。   The matching unit 294 performs a series of processes for associating a plurality of users. For example, when the user performs an input operation for performing multi-play, the matching unit 294 performs processing for associating a user who plays a game in cooperation.

計測部295は、時間を計測する処理を行う。計測部295は、例えば、仮想空間に配置される各オブジェクトについて時間の経過を計測する。また、計測部295は、ゲームが進行している時間を計測する。サーバ20は、携帯端末10から、携帯端末10においてゲームプログラム151を実行して計測される各種の計測結果の情報を受信し、受信した情報と、計測部295の計測結果とを照合することで、携帯端末10とサーバ20とで、各種の時間に関する情報を同期させる。   The measurement unit 295 performs processing for measuring time. For example, the measurement unit 295 measures the passage of time for each object arranged in the virtual space. Moreover, the measurement part 295 measures the time for which the game is progressing. The server 20 receives information on various measurement results measured by executing the game program 151 on the mobile terminal 10 from the mobile terminal 10, and collates the received information with the measurement results of the measurement unit 295. The information regarding various times is synchronized between the mobile terminal 10 and the server 20.

[実施形態の構成のまとめ]
以上のように、実施形態のゲーム提供システム1の構成を説明してきた。本実施形態において、ゲームプログラム151は、例えばアクションゲームであり、仮想空間内の仮想カメラの配置及び撮影方向に応じた画像をタッチスクリーン130に表示させることでゲームを進行させる。
[Summary of Configuration of Embodiment]
As described above, the configuration of the game providing system 1 according to the embodiment has been described. In the present embodiment, the game program 151 is, for example, an action game, and the game is advanced by causing the touch screen 130 to display an image corresponding to the arrangement and shooting direction of the virtual camera in the virtual space.

例えば、ゲームプログラム151がアクションゲームである場合、ゲーム進行処理部192は、ユーザの操作に応じてストーリーを進行させ、画像、テキストなどディスプレイ132に表示するデータを決定する処理、交戦相手又は仲間の選択をユーザから受け付ける処理、ユーザの操作に応じてアクションゲームを進める処理などの基本的な処理を行う。   For example, when the game program 151 is an action game, the game progress processing unit 192 advances the story according to the user's operation, determines the data to be displayed on the display 132 such as an image or text, Basic processing such as processing for accepting selection from the user and processing for advancing the action game in accordance with the user's operation is performed.

例えば、ゲームプログラム151がアクションゲームである場合、カメラ配置制御部194は、アクションゲームを行うための仮想空間における仮想カメラの配置位置及び撮影方向を、アクションゲームの進展に応じて、逐次、決定する。カメラ配置制御部194は、仮想カメラのカメラワークを制御する。カメラ配置制御部194の詳細な処理は、後述する。   For example, when the game program 151 is an action game, the camera placement control unit 194 sequentially determines the placement position and shooting direction of the virtual camera in the virtual space for playing the action game according to the progress of the action game. . The camera arrangement control unit 194 controls camera work of the virtual camera. Detailed processing of the camera arrangement control unit 194 will be described later.

例えば、表示制御部196は、ゲームキャラクタを一定領域に表示させるよう仮想カメラを配置した状態で、ゲームキャラクタに第1の動作(例えば、移動動作)を行わせるための入力操作を受け付けて、受け付けた入力操作に応じてゲームキャラクタに第1の動作を行わせる画面表示をする。   For example, the display control unit 196 receives and accepts an input operation for causing the game character to perform a first action (for example, a movement action) in a state where a virtual camera is arranged to display the game character in a certain area. In response to the input operation, the game character is displayed on the screen.

[動作]
図面を参照して、実施形態のゲーム提供システム1を構成する各装置の動作を説明する。
[Operation]
With reference to drawings, operation | movement of each apparatus which comprises the game provision system 1 of embodiment is demonstrated.

(入力操作の検知)
図4は、入力操作受付部191が入力操作の種類を検知する処理を説明する図である。図4の例では、ユーザ情報153を記憶する記憶部150の配列fp[0]〜配列fp[10]までの11個の配列のそれぞれに、タッチパネル131により検知されたタッチスクリーン130上の位置を示す履歴情報が格納されている。履歴情報は、所定の期間毎(例えば、フレームレート毎)に履歴情報テーブルに格納される。履歴情報が格納される配列の個数は限定されず、任意の個数であってよい。また、履歴情報テーブルでは、タッチオフからタッチオンになった場合に検知された履歴情報を、初期位置座標として記憶部150に記憶してもよい。
(Detection of input operation)
FIG. 4 is a diagram illustrating processing in which the input operation receiving unit 191 detects the type of input operation. In the example of FIG. 4, the position on the touch screen 130 detected by the touch panel 131 is set in each of 11 arrays from the array fp [0] to the array fp [10] of the storage unit 150 that stores the user information 153. The history information shown is stored. The history information is stored in the history information table every predetermined period (for example, every frame rate). The number of arrays in which history information is stored is not limited and may be any number. In the history information table, history information detected when touch-on is performed from touch-off may be stored in the storage unit 150 as initial position coordinates.

図4に示されるように、例えば、配列fp[0]〜配列fp[9]に、履歴情報(x0、y0)が格納されており、配列fp[10]にnull値が格納された場合、入力操作受付部191は、入力操作はタップ操作であると判別する。また、例えば、タッチナウ状態において履歴情報が変化した後に、null値が格納された場合、入力操作受付部191はnull値が格納された配列fp[5]の直前の配列fp[3]および配列fp[4]に格納されている履歴情報を参照する。そして、入力操作受付部191は、配列fp[3]および配列fp[4]の履歴情報がそれぞれ示す位置の間の距離が予め設定された閾値以上である場合、入力操作はフリック操作であると判別する。また、入力操作受付部191は、タッチナウ状態において履歴情報が変化した後に、例えば配列fp[4]〜fp[10]に履歴情報(x15、y15)が格納された場合、入力操作はドラッグ操作であると判別する。   As illustrated in FIG. 4, for example, when history information (x0, y0) is stored in the array fp [0] to the array fp [9] and a null value is stored in the array fp [10], The input operation reception unit 191 determines that the input operation is a tap operation. For example, when the null value is stored after the history information is changed in the touch now state, the input operation reception unit 191 has the array fp [3] and the array fp immediately before the array fp [5] in which the null value is stored. Refer to the history information stored in [4]. The input operation reception unit 191 determines that the input operation is a flick operation when the distance between the positions indicated by the history information of the arrays fp [3] and fp [4] is greater than or equal to a preset threshold value. Determine. Further, after the history information changes in the touch now state, for example, when the history information (x15, y15) is stored in the arrays fp [4] to fp [10], the input operation reception unit 191 performs the input operation by a drag operation. Determine that there is.

(移動方向の検知)
図5は、移動方向検出部193がユーザの入力操作に応じてゲームキャラクタを移動させる方向を検出する処理を説明する図である。移動方向検出部193は、ユーザがタッチスクリーン130を押していない状態から、指などをタッチパネル131に接近させてタッチスクリーン130を押した位置(初期タッチ位置)を起点と設定する。入力操作受付部191は、ユーザの操作をドラッグ操作と判別している場合に、起点となる座標と、タッチスクリーン130がユーザの指などの接近を検出している座標とに基づいて、ゲームキャラクタを移動させる方向を検出する。
(Detection of moving direction)
FIG. 5 is a diagram illustrating a process in which the moving direction detection unit 193 detects a direction in which the game character is moved in accordance with a user input operation. The movement direction detection unit 193 sets a position (initial touch position) where the user presses the touch screen 130 by bringing a finger or the like closer to the touch panel 131 from the state where the user is not pressing the touch screen 130 as a starting point. When the input operation reception unit 191 determines that the user's operation is a drag operation, the input operation receiving unit 191 determines the game character based on the coordinates that are the starting point and the coordinates that the touch screen 130 detects the approach of the user's finger or the like. The direction to move is detected.

図5の状態(A)は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させた状態を示す。入力操作受付部191は、ユーザの指がタッチパネル131に接近したことを検出し、検出した座標を初期タッチ位置として記憶部150にユーザ情報153として保持する。   A state (A) in FIG. 5 shows a state in which the user brings his / her finger closer to the touch screen 130 from a state in which the user's finger has left the touch screen 130. The input operation reception unit 191 detects that the user's finger has approached the touch panel 131 and stores the detected coordinates as user information 153 in the storage unit 150 as an initial touch position.

図5の例では、記憶部150が保持する初期タッチ位置の座標を、初期タッチ位置座標155として示す。入力操作受付部191は、タッチスクリーン130の検出結果(ユーザの指がタッチスクリーン130に接近している座標、及び、ユーザの指がタッチスクリーン130に接近していることを検出していないこと(検出結果「null」))を、一定フレーム分、ユーザ情報153としてバッファメモリに格納する。バッファメモリは、タッチスクリーン130における検出結果を、各フレームについて一定フレーム分(図5の例では、配列fp〔0〕〜配列fp〔10〕までの11フレーム分)、格納することができる。バッファメモリは、例えばリングバッファとして実現することができる。   In the example of FIG. 5, the coordinates of the initial touch position held by the storage unit 150 are indicated as initial touch position coordinates 155. The input operation reception unit 191 does not detect the detection result of the touch screen 130 (the coordinates at which the user's finger is approaching the touch screen 130 and the fact that the user's finger is approaching the touch screen 130 ( The detection result “null”)) is stored in the buffer memory as user information 153 for a certain number of frames. The buffer memory can store the detection results on the touch screen 130 for each frame (in the example of FIG. 5, 11 frames from the array fp [0] to the array fp [10] in the example of FIG. 5). The buffer memory can be realized as a ring buffer, for example.

図5の状態(A)の例では、ユーザがタッチスクリーン130を押した位置を、押下位置30A(タッチスクリーン130の座標(x0,y0))として示す。   In the example of the state (A) in FIG. 5, the position where the user pressed the touch screen 130 is shown as a pressed position 30A (coordinates (x0, y0) of the touch screen 130).

図5の状態(B)は、ユーザがタッチスクリーン130に対してドラッグ操作を行って、タッチスクリーン130に対する押下位置を、押下位置30Aから押下位置30B(タッチスクリーン130の座標(x9,y9))まで10フレーム(配列fp〔0〕〜配列fp〔9〕までの10フレーム分)で移動させたことを示す。入力操作受付部191は、タッチスクリーン130の検出結果をユーザ情報153としてバッファメモリに格納し、バッファメモリに保持される値を参照して、タッチスクリーン130に対するユーザの操作をドラッグ操作と判別する。   In the state (B) of FIG. 5, the user performs a drag operation on the touch screen 130, and the pressing position on the touch screen 130 is changed from the pressing position 30A to the pressing position 30B (coordinates (x9, y9) of the touch screen 130). It is shown that the frame is moved by 10 frames (10 frames from array fp [0] to array fp [9]). The input operation reception unit 191 stores the detection result of the touch screen 130 in the buffer memory as user information 153, and refers to the value held in the buffer memory to determine that the user's operation on the touch screen 130 is a drag operation.

図5の状態(C)は、ユーザがタッチスクリーン130を押している位置を、押下位置30Bから押下位置30C(タッチスクリーン130の座標(x14,y14))まで、5フレーム(配列fp〔10〕、fp〔0〕、fp〔1〕、fp〔2〕、fp〔3〕の5フレーム分)で移動させたことを示す。   In the state (C) of FIG. 5, the position where the user is pressing the touch screen 130 is set to 5 frames (array fp [10], from the pressed position 30B to the pressed position 30C (coordinates (x14, y14) of the touch screen 130), This indicates that the movement is performed by 5 frames (fp [0], fp [1], fp [2], and fp [3]).

図5の状態(D)は、移動方向検出部193が、状態(B)及び状態(C)のそれぞれにおいて、ユーザがゲームキャラクタを移動させる方向を指定する入力操作の検出結果を示す。移動方向検出部193は、バッファメモリにおいて、タッチスクリーン130が検出する押下位置の座標を書き込む対象となるメモリ領域がいずれであるかを示す情報(バッファメモリの書き込み位置)を管理している。   The state (D) of FIG. 5 shows the detection result of the input operation in which the movement direction detection unit 193 designates the direction in which the user moves the game character in each of the state (B) and the state (C). The movement direction detection unit 193 manages information (buffer memory writing position) indicating which memory area is the target of writing the coordinates of the pressed position detected by the touch screen 130 in the buffer memory.

図5の状態(B)において、移動方向検出部193は、入力操作受付部191の判別結果に基づいて、初期タッチ位置を示す座標31A(座標(x0,y0))から座標31B(座標(x9,y9))までユーザがドラッグ操作を行ったことを検出する。移動方向検出部193は、初期タッチ位置の座標31Aを起点として、座標31Aと座標31Bとによって規定されるベクトル32B((y9−y0)/(x9−x0))を、ゲームキャラクタを移動させる方向として検出する。   In the state (B) of FIG. 5, the movement direction detection unit 193 determines from the coordinates 31A (coordinates (x0, y0)) indicating the initial touch position to the coordinates 31B (coordinates (x9)) based on the determination result of the input operation reception unit 191. , Y9)), it is detected that the user has performed a drag operation. The moving direction detection unit 193 moves the game character in a vector 32B ((y9-y0) / (x9-x0)) defined by the coordinates 31A and the coordinates 31B, starting from the coordinates 31A of the initial touch position. Detect as.

図5の状態(C)において、移動方向検出部193は、入力操作受付部191の判別結果に基づいて、座標31B(座標(x9,y9))から座標31C(座標(x14,y14))までユーザがドラッグ操作を行ったことを検出する。移動方向検出部193は、初期タッチ位置の座標31Aを起点として、座標31Aと座標31Cとによって規定されるベクトル32C((y14−y0)/(x14−x0))を、ゲームキャラクタを移動させる方向として検出する。   In the state (C) of FIG. 5, the movement direction detection unit 193 moves from the coordinate 31B (coordinate (x9, y9)) to the coordinate 31C (coordinate (x14, y14)) based on the determination result of the input operation reception unit 191. Detects that the user has performed a drag operation. The movement direction detection unit 193 moves the game character along a vector 32C ((y14−y0) / (x14−x0)) defined by the coordinates 31A and the coordinates 31C, starting from the coordinates 31A of the initial touch position. Detect as.

このように、移動方向検出部193は、ユーザの指が接近していない状態からタッチスクリーン130に接近したことを検出した第1のタッチ位置から、接近していることを検出したまま第2のタッチ位置へ検出位置が移動した場合に、接近していることを検出している間、第1のタッチ位置を起点とし第2のタッチ位置へ向かう方向である操作方向を、ゲームキャラクタCA1の仮想空間における移動方向として決定する。   As described above, the moving direction detection unit 193 detects the approach from the first touch position where it is detected that the user's finger is not approaching from the state where the user's finger is approaching, while the second approach is detected. When the detection position moves to the touch position, while detecting the approach, the operation direction, which is the direction from the first touch position to the second touch position, is assumed to be the virtual character of the game character CA1. It is determined as the moving direction in space.

(操作オブジェクト)
図6はドラッグ操作時に表示されるオブジェクトの一例である。ユーザの入力済みの入力操作を示すオブジェクトを操作オブジェクトという。図6の状態(A)は、ドラッグ操作の初期タッチ位置に表示されるオブジェクトの一例である。図6の状態(A)に示されるように、操作オブジェクト400は、固定円410、および当該固定円410の内部に位置する弾性表示オブジェクト420を備えている。操作オブジェクト400は、ユーザの指がタッチスクリーン130に接近したことが検知されるとタッチスクリーン130に表示される。弾性表示オブジェクト420は、指接触時の初期形状として、タッチ位置の周囲に円形を有するように形成される。なお、図6では、弾性表示オブジェクト420は、タッチ位置を中心に円形を形成しているが、必ずしもこれに限定されない。例えば、弾性表示オブジェクト420は、初期タッチ位置から一定距離だけ上部または下部にずらして表示してもよい。表示位置を一定距離だけずらすことにより、円形の弾性表示オブジェクト420を表示する際に、ユーザの指で隠れてしまうのを防止することができる。
(Operation object)
FIG. 6 shows an example of an object displayed during the drag operation. An object indicating an input operation already input by the user is referred to as an operation object. The state (A) in FIG. 6 is an example of an object displayed at the initial touch position of the drag operation. As shown in the state (A) of FIG. 6, the operation object 400 includes a fixed circle 410 and an elastic display object 420 positioned inside the fixed circle 410. The operation object 400 is displayed on the touch screen 130 when it is detected that the user's finger approaches the touch screen 130. The elastic display object 420 is formed to have a circular shape around the touch position as an initial shape at the time of finger contact. In FIG. 6, the elastic display object 420 has a circular shape centered on the touch position, but is not necessarily limited thereto. For example, the elastic display object 420 may be displayed while being shifted upward or downward by a predetermined distance from the initial touch position. By shifting the display position by a certain distance, it is possible to prevent the circular elastic display object 420 from being hidden by the user's finger when displaying the circular elastic display object 420.

図6の状態(B)は、初期タッチ位置からドラッグ操作したときに表示されるオブジェクトの一例である。図6の状態(B)に示されるように、ユーザがタッチスクリーン130上でドラッグ操作(タッチスクリーン130上において指を第1のタッチ位置から第2のタッチ位置に移動させる操作)を行うと、ユーザの指に引っ張られるような弾性変形をした弾性表示オブジェクト420が表示される。弾性表示オブジェクト420は、ドラッグ操作の第1のタッチ位置に位置しその位置が固定されている基部430と、ドラッグ操作の第2のタッチ位置付近に位置する先端部450と、基部430と先端部450との間を接続する接続部440とを含むように構成される。このように、弾性表示オブジェクト420は、ドラッグ操作がされた方向に弾性的に延ばすように表示される。なお、図6の状態(B)では、基部430が先端部450よりも大きくなるように弾性表示オブジェクト420を表示しているが、これに限定されない。例えば、先端部450を基部430よりも大きくした弾性表示オブジェクト420を表示してもよい。また、ユーザが指を接触状態に維持しつつタッチスクリーン130上を更に移動させた場合、先端部450もそれに追従して更に移動し、弾性表示オブジェクト420の延びる向きも変化する。   The state (B) in FIG. 6 is an example of an object displayed when a drag operation is performed from the initial touch position. As shown in the state (B) of FIG. 6, when the user performs a drag operation on the touch screen 130 (an operation to move a finger from the first touch position to the second touch position on the touch screen 130). An elastic display object 420 that is elastically deformed by being pulled by the user's finger is displayed. The elastic display object 420 includes a base portion 430 that is located at the first touch position of the drag operation and the position is fixed, a tip portion 450 that is located near the second touch position of the drag operation, and the base portion 430 and the tip portion. And a connection portion 440 for connecting the device 450 to the device 450. Thus, the elastic display object 420 is displayed so as to extend elastically in the direction in which the drag operation is performed. In the state (B) of FIG. 6, the elastic display object 420 is displayed so that the base portion 430 is larger than the distal end portion 450, but is not limited thereto. For example, you may display the elastic display object 420 which made the front-end | tip part 450 larger than the base 430. FIG. Further, when the user further moves the touch screen 130 while keeping the finger in contact, the distal end portion 450 further moves following the movement, and the extending direction of the elastic display object 420 also changes.

図6の状態(C)は、ユーザの指がタッチスクリーン130から離れたときに表示されるオブジェクトの一例である。図6の状態(C)に示されるように、ユーザによるドラッグ操作が終了した際に(即ち、タッチスクリーン130からユーザの指が離れた際に)、弾性変形した弾性表示オブジェクト420が、その復元力に従って、接触開始点に向けて段階的に萎縮することにより、図6の状態(A)に示される初期形状に復元するように表示される。この際、図示されるように、復元力の反動により弾性表示オブジェクト420の伸張方向とは逆の萎縮方向において固定円410からはみ出すように表示され、その後に初期形状に復元する。なお、図示された弾性表示オブジェクト420は復元に伴って変形しているが、これに限定されない。例えば、このような変形を行わずに弾性表示オブジェクト420を初期形状に復元させ、弾性表示オブジェクト420の位置を伸張方向とは逆の萎縮方向に震わせるようにずらすこととしてもよい。   The state (C) in FIG. 6 is an example of an object that is displayed when the user's finger leaves the touch screen 130. As shown in the state (C) of FIG. 6, when the drag operation by the user is finished (that is, when the user's finger is released from the touch screen 130), the elastic display object 420 that is elastically deformed is restored. According to the force, it is displayed so as to restore the initial shape shown in the state (A) of FIG. 6 by gradually shrinking toward the contact start point. At this time, as shown in the figure, it is displayed so as to protrude from the fixed circle 410 in the atrophy direction opposite to the extension direction of the elastic display object 420 due to the reaction of the restoring force, and then restored to the initial shape. The illustrated elastic display object 420 is deformed along with the restoration, but is not limited thereto. For example, the elastic display object 420 may be restored to the initial shape without performing such deformation, and the position of the elastic display object 420 may be shifted so as to vibrate in the atrophy direction opposite to the extension direction.

図7はドラッグ操作時に表示されるオブジェクトの一例である。図7の状態(A)は、弾性表示オブジェクトの画像例である。図7の状態(A)に示めされるように、弾性表示オブジェクトは略正方形状の画像750として生成され、ゲーム画像の一部として重畳される。画像750は、半透明領域760および透明領域770を含む。半透明領域760は弾性表示オブジェクトの基本表示領域である。   FIG. 7 shows an example of an object displayed during the drag operation. The state (A) in FIG. 7 is an image example of the elastic display object. As shown in the state (A) of FIG. 7, the elastic display object is generated as a substantially square image 750 and is superimposed as a part of the game image. Image 750 includes translucent area 760 and transparent area 770. The translucent area 760 is a basic display area of the elastic display object.

図7の状態(A)は、状態(B)に示されるように、略正方形のメッシュ領域に収容され、複数のメッシュ710に分割されたポリゴンとして形成される。一例として、画像750は、4×4=16メッシュに分割され、弾性オブジェクトを収容している。メッシュに分割する数は限定的でないことが当業者に理解される。そして、弾性表示オブジェクトの変形は、画像750をゴムシートの如く伸張する処理、特に、メッシュ毎に伸張する物理演算処理を仮想的に実施することにより実現される。   The state (A) of FIG. 7 is formed as a polygon that is accommodated in a substantially square mesh region and divided into a plurality of meshes 710 as shown in the state (B). As an example, the image 750 is divided into 4 × 4 = 16 meshes and contains an elastic object. Those skilled in the art will appreciate that the number of divisions into the mesh is not limiting. The deformation of the elastic display object is realized by virtually executing a process of expanding the image 750 like a rubber sheet, in particular, a physical calculation process of expanding each mesh.

図8は、ドラッグ操作時に表示されるオブジェクトの変形を説明する図である。図8の状態(A)及び状態(B)に示されるように、弾性表示オブジェクトは、複数のメッシュ710に分割された板状のポリゴン700の各頂点720の座標を動かすことによって弾性変形を表現する。各頂点720はメッシュ状に配置されており、任意の頂点720Aの座標がドラッグ操作によって移動された場合、その他の頂点720も頂点720Aに関する移動ベクトル(例えば、移動方向および移動距離)に応じて座標が変更される。例えば、頂点720A以外の頂点720の移動距離は、頂点720Aからの距離によって重み付けをしてもよい。即ち、図8の状態(B)に示されるように、頂点720Aからの距離が大きくなるにつれて(頂点720Aから離れるにつれて)座標の変化量が小さくなるようにしてもよい。なお、図8の状態(B)における白丸は、変形前の(即ち、図8の状態(A)の)頂点の位置を表している。   FIG. 8 is a diagram for explaining deformation of an object displayed during a drag operation. As shown in the state (A) and the state (B) of FIG. 8, the elastic display object expresses elastic deformation by moving the coordinates of each vertex 720 of the plate-like polygon 700 divided into a plurality of meshes 710. To do. Each vertex 720 is arranged in a mesh shape, and when the coordinates of an arbitrary vertex 720A are moved by a drag operation, the other vertex 720 is also coordinated according to a movement vector (for example, a moving direction and a moving distance) related to the vertex 720A. Is changed. For example, the moving distance of the vertices 720 other than the vertex 720A may be weighted by the distance from the vertex 720A. That is, as shown in the state (B) of FIG. 8, the amount of change in coordinates may be reduced as the distance from the vertex 720A increases (as the distance from the vertex 720A increases). In addition, the white circle in the state (B) of FIG. 8 represents the position of the vertex before a deformation | transformation (namely, state (A) of FIG. 8).

これにより、図7の状態(C)に示されるように、ドラッグ操作の方向に沿ってタッチの開始点からタッチの終了点に向けて伸張させることにより、変形した弾性オブジェクト420a’を形成する。図7の状態(C)の例では、分割された複数のメッシュの各頂点の座標が移動した際に、当該複数のメッシュの各々は、列(#1〜#4)ごとに同一の長方形状を維持したまま(例えばメッシュ#1A〜#1Dは全て同一の長方形状を有している。)、タッチの終了点に近い列(#1)のメッシュほど、遠い列(#4)のメッシュと比べて累進的に長く伸張される。一例として、ドラッグ操作による移動距離Lに応じて、各列の伸張率を加重配分するように構成されてもよい。   Accordingly, as shown in the state (C) of FIG. 7, the deformed elastic object 420a 'is formed by extending from the touch start point toward the touch end point along the direction of the drag operation. In the example of the state (C) in FIG. 7, when the coordinates of each vertex of the plurality of divided meshes are moved, each of the plurality of meshes has the same rectangular shape for each column (# 1 to # 4). (For example, the meshes # 1A to # 1D all have the same rectangular shape), and the meshes in the column (# 1) closer to the end point of the touch, Compared to progressively longer stretches. As an example, the expansion rate of each column may be weighted and distributed according to the movement distance L by the drag operation.

図7の状態(C)の例では、各列について、#4が10%、#3が15%、#2が30%、#1が45%となるように配分されている(合計で100%)。更に例えば移動距離を2Lとした場合には、#4が1%、#3が4%、#2が35%、#1が60%といった具合に#1を更に大きくするように加重配分されてもよい。   In the example of the state (C) in FIG. 7, for each column, # 4 is 10%, # 3 is 15%, # 2 is 30%, and # 1 is 45% (total of 100). %). Further, for example, when the moving distance is 2L, weight distribution is performed so that # 1 is further increased, for example, # 4 is 1%, # 3 is 4%, # 2 is 35%, and # 1 is 60%. Also good.

図9は、オブジェクトの変形時おけるポリゴン方向調整処理を説明する図である。図9の状態(A)及び状態(B)に示されるように、ポリゴンの方向が操作方向となるように、ポリゴンの回転による調整処理(ポリゴン方向調整処理)が実施される。当該ポリゴン方向調整処理が実施されることにより、変形されたオブジェクトは、ドラッグ操作時の指の移動距離に拘わらず、ドラッグ操作方向に対して常に一定の幅を有して変形可能となる。オブジェクトは、常に一定の幅を有するように構成可能な点、および初期タッチ位置から継続するタッチ位置に向けて伸張してオブジェクトを変形することにより、非常に滑らかな曲線形状を有することが可能となる点において、従来技術と異なる表示とすることができる。   FIG. 9 is a diagram for explaining polygon direction adjustment processing when an object is deformed. As shown in the state (A) and the state (B) in FIG. 9, adjustment processing (polygon direction adjustment processing) by rotation of the polygon is performed so that the direction of the polygon becomes the operation direction. By performing the polygon direction adjustment processing, the deformed object can be deformed with a constant width with respect to the drag operation direction regardless of the movement distance of the finger during the drag operation. The object can be configured to always have a constant width, and by deforming the object by stretching from the initial touch position toward the continuous touch position, it is possible to have a very smooth curved shape In that respect, the display can be different from that of the prior art.

図10は、オブジェクトの変形後にタッチ位置が更新された場合について示す模式図である。図10の状態(A)及び状態(B)に示されるように、ユーザが接触終了点1(状態(A))から指を離すことなく、更に他の接触終了点2(状態(B))まで指をタッチスクリーン130に接触させながら移動させた場合には、継続してオブジェクトを変形させる。即ち、ドラッグ操作における接触開始点に対する、接触終了点1と接触終了点2の間の角度だけポリゴンの方向を回転させて、変形した弾性オブジェクト420a’を回転し、次いで、当該回転した弾性オブジェクトの形状を引き続き接触終了点2まで伸張して、更に変形した弾性オブジェクト420a’’を形成する。   FIG. 10 is a schematic diagram illustrating a case where the touch position is updated after the object is deformed. As shown in the state (A) and the state (B) of FIG. 10, the user does not remove his / her finger from the contact end point 1 (state (A)), and yet another contact end point 2 (state (B)). When the finger is moved while being in contact with the touch screen 130, the object is continuously deformed. That is, the direction of the polygon is rotated by an angle between the contact end point 1 and the contact end point 2 with respect to the contact start point in the drag operation, and the deformed elastic object 420a ′ is rotated. The shape is continuously extended to the contact end point 2 to form a further deformed elastic object 420a ″.

(仮想カメラの制御)
図11は、カメラ配置制御部194が仮想カメラVCを制御する処理を説明する図である。図11では、仮想カメラVCがゲームキャラクタCA1を背後から追尾するカメラワークを説明する。図11の状態(A)では、ゲームキャラクタCA1が方向D1(移動方向)に向かって移動する様子が示されている。例えば、入力操作受付部191がユーザによる入力操作をドラッグ操作と判定し、移動方向検出部193がゲームキャラクタCA1の移動方向を方向D1と検出したとき、オブジェクト制御部195は、ゲームキャラクタCA1の正面を方向D1に向け、ゲームキャラクタCA1を方向D1へ移動させる。カメラ配置制御部194は、ゲームキャラクタCA1の背後から追尾するように、仮想カメラVCの配置位置及び撮影方向を制御する。ゲームキャラクタCA1の背後から追尾する場合、カメラ配置制御部194は、撮影方向DVとゲームキャラクタCA1の向き(方向D1)とがなす角度θ1(対応関係)は0°となる。カメラ配置制御部194は、カメラ視界の中央付近にゲームキャラクタCA1が表示されるように、仮想カメラVCを配置する。
(Control of virtual camera)
FIG. 11 is a diagram illustrating processing in which the camera placement control unit 194 controls the virtual camera VC. In FIG. 11, the camera work in which the virtual camera VC tracks the game character CA1 from behind will be described. In the state (A) of FIG. 11, the game character CA1 is shown moving in the direction D1 (movement direction). For example, when the input operation accepting unit 191 determines that the input operation by the user is a drag operation and the movement direction detection unit 193 detects the movement direction of the game character CA1 as the direction D1, the object control unit 195 displays the front of the game character CA1. Is directed in the direction D1, and the game character CA1 is moved in the direction D1. The camera arrangement control unit 194 controls the arrangement position and shooting direction of the virtual camera VC so as to track from behind the game character CA1. When tracking from behind the game character CA1, the camera arrangement control unit 194 makes an angle θ1 (corresponding relationship) between the shooting direction DV and the direction of the game character CA1 (direction D1) 0 °. The camera arrangement control unit 194 arranges the virtual camera VC so that the game character CA1 is displayed near the center of the camera view.

図11の状態(B)では、ユーザによるドラッグ操作により移動方向が方向D1から方向D2へ変更された様子を示す。この場合、オブジェクト制御部195は、ゲームキャラクタCA1の正面を方向D2に向け、ゲームキャラクタCA1を方向D2へ移動させる。このとき、カメラ配置制御部194は、撮影方向DVとゲームキャラクタCA1の向き(方向D1)とがなす角度θ1(対応関係)が0°となるように、仮想カメラVCの配置位置及び撮影方向DVを変更する。なお、カメラ配置制御部194は、変化前後の移動方向の変化角度θ2を検出し、検出された変化角度θ2を仮想カメラVCの変化角度θ3としてもよい。   In the state (B) of FIG. 11, the movement direction is changed from the direction D1 to the direction D2 by the drag operation by the user. In this case, the object control unit 195 moves the game character CA1 in the direction D2 while facing the front of the game character CA1 in the direction D2. At this time, the camera arrangement control unit 194 arranges the virtual camera VC and the shooting direction DV so that an angle θ1 (corresponding relationship) between the shooting direction DV and the direction (direction D1) of the game character CA1 is 0 °. To change. Note that the camera arrangement control unit 194 may detect the change angle θ2 in the movement direction before and after the change, and may use the detected change angle θ2 as the change angle θ3 of the virtual camera VC.

このように、カメラ配置制御部194は、ユーザによる入力操作に応じて移動方向が変化するゲームキャラクタCA1を背後から追尾するようなカメラワークを提供する。   As described above, the camera arrangement control unit 194 provides camera work for tracking the game character CA1 whose movement direction changes according to the input operation by the user from behind.

(移動操作時の画面例)
図12は、ユーザによる入力操作に応じて変化するカメラワーク及び操作オブジェクトを説明する図である。画面例(A)〜画面例(C)は、タッチスクリーン130に表示された画像である。画面例(A)〜画面例(C)では、表示制御部196が、カメラ配置制御部194によりゲームキャラクタCA1の背後から撮影された画像を、タッチスクリーン130に表示させている。入力操作受付部191によりユーザによる入力操作が受け付けられたとき、オブジェクト制御部195は、ユーザの入力操作に応じて操作オブジェクトを生成する。表示制御部196は、仮想カメラVCにより撮影された画像上に操作オブジェクトを重畳させて、タッチスクリーン130に表示させる。
(Example of screen when moving)
FIG. 12 is a diagram for explaining camera work and operation objects that change according to an input operation by a user. Screen examples (A) to (C) are images displayed on the touch screen 130. In the screen examples (A) to (C), the display control unit 196 causes the touch screen 130 to display an image shot from behind the game character CA1 by the camera arrangement control unit 194. When an input operation by the user is received by the input operation receiving unit 191, the object control unit 195 generates an operation object according to the user's input operation. The display control unit 196 causes the operation object to be superimposed on the image captured by the virtual camera VC and displayed on the touch screen 130.

図12の画面例(A)は、ユーザがタッチスクリーン130に指などを接近させた操作をしたときの画面の一例である。入力操作受付部191によりユーザがタッチスクリーン130の第1位置300Aに指などを接近させた操作をしたと判定されたとき、オブジェクト制御部195は、入力操作に応答して円形の操作オブジェクト300を生成する。表示制御部196は、生成された円形の操作オブジェクト300をタッチ位置である第1位置300Aに表示させる。図12の画面例(A)では、撮影方向を方向VD1、ゲームキャラクタCA1の向きを方向CD1で示している。撮影方向である方向VD1とゲームキャラクタCA1の向きである方向CD1の対応関係(なす角度)は0°である。   The screen example (A) of FIG. 12 is an example of a screen when the user performs an operation with a finger or the like approaching the touch screen 130. When it is determined by the input operation receiving unit 191 that the user has performed an operation with a finger or the like approaching the first position 300A of the touch screen 130, the object control unit 195 moves the circular operation object 300 in response to the input operation. Generate. The display control unit 196 displays the generated circular operation object 300 at the first position 300A that is the touch position. In the screen example (A) of FIG. 12, the shooting direction is indicated by the direction VD1, and the direction of the game character CA1 is indicated by the direction CD1. The correspondence (angle formed) between the direction VD1 as the shooting direction and the direction CD1 as the direction of the game character CA1 is 0 °.

図12の画面例(B)は、図12の画面例(A)の第1位置300Aを起点としてユーザがドラッグ操作をしたときの画面の一例である。入力操作受付部191は、起点である第1位置300Aから終点である第2位置300Bまでのドラッグ操作を受け付ける。入力操作受付部191によりドラッグ操作が受け付けられた場合、オブジェクト制御部195は、ドラッグ操作の操作結果を示す操作オブジェクト300を生成する。ドラッグ操作の操作結果を示す操作オブジェクト300は、ドラッグ操作の起点となる位置と終点となる位置とを関連付けることで、操作結果(例えば操作方向)を表現する。図12の画面例(B)の例では、オブジェクト制御部195は、起点及び終点に対応する位置に操作オブジェクト300の端部がそれぞれ位置するように、第1位置300Aから第2位置300Bに至るまで引き延ばされた操作オブジェクト300を生成している。表示制御部196は、引き延ばされた操作オブジェクト300をタッチスクリーン130に表示させる。この状態における操作方向及び撮影方向が図示されている。操作方向は方向SD1(図中右上方向)であり、撮影方向は方向VD1(図中上方向)である。方向SD1と方向VD1とのなす角はθ4である。   The screen example (B) in FIG. 12 is an example of the screen when the user performs a drag operation starting from the first position 300A in the screen example (A) in FIG. The input operation accepting unit 191 accepts a drag operation from the first position 300A as a starting point to the second position 300B as an end point. When the drag operation is received by the input operation receiving unit 191, the object control unit 195 generates an operation object 300 indicating the operation result of the drag operation. The operation object 300 indicating the operation result of the drag operation expresses the operation result (for example, the operation direction) by associating the position that is the starting point of the drag operation and the position that is the end point. In the example of the screen example (B) in FIG. 12, the object control unit 195 reaches from the first position 300A to the second position 300B so that the end portions of the operation object 300 are located at the positions corresponding to the start point and the end point, respectively. The operation object 300 extended to is generated. The display control unit 196 displays the extended operation object 300 on the touch screen 130. The operation direction and shooting direction in this state are shown. The operation direction is a direction SD1 (upper right direction in the figure), and the shooting direction is a direction VD1 (upward direction in the figure). The angle formed by the direction SD1 and the direction VD1 is θ4.

さらに、移動方向検出部193は、ドラッグ操作が受け付けられた場合、ゲームキャラクタCA1の移動方向を、操作方向である方向SD1と同一の方向に決定する。オブジェクト制御部195は、ゲームキャラクタCA1を移動方向に向け、移動を開始させる。   Furthermore, when the drag operation is accepted, the movement direction detection unit 193 determines the movement direction of the game character CA1 as the same direction as the direction SD1 that is the operation direction. The object control unit 195 directs the game character CA1 in the moving direction and starts moving.

図12の画面例(B)においてゲームキャラクタCA1の向きが変更されると、カメラ配置制御部194は、ゲームキャラクタCA1の背後を追尾するように仮想カメラVCの配置位置及び撮影方向を制御する。具体的には、方向SD1と方向VD1とのなす角であるθ4分だけ、撮影方向が注視点(ゲームキャラクタCA1)を中心として右回転する。さらに、仮想カメラVCの配置位置は、ゲームキャラクタCA1又は移動目的地が画面の中央にくるように制御される。これにより、タッチスクリーン130に表示される画像は、画面例(B)から画面例(C)へ遷移する。   When the orientation of the game character CA1 is changed in the screen example (B) of FIG. 12, the camera placement control unit 194 controls the placement position and shooting direction of the virtual camera VC so as to track the back of the game character CA1. Specifically, the shooting direction rotates clockwise around the point of sight (game character CA1) by θ4, which is an angle formed by the direction SD1 and the direction VD1. Further, the arrangement position of the virtual camera VC is controlled so that the game character CA1 or the moving destination is at the center of the screen. Thereby, the image displayed on the touch screen 130 changes from the screen example (B) to the screen example (C).

このように、ユーザによる入力操作に応じてゲームキャラクタを背後から追尾するカメラワークが実行されるため、臨場感のあるゲームが提供される。また、操作方向が画面上に示されることにより、ユーザにとって理解し易いゲームが提供される。   Thus, since camera work for tracking a game character from behind is executed in accordance with an input operation by the user, a game with a sense of reality is provided. In addition, by displaying the operation direction on the screen, a game that is easy for the user to understand is provided.

(移動操作時のフローチャート)
図13は、移動操作時の処理を説明するフローチャートである。図13のフローチャートは、制御部190がゲームプログラム151を実行することによりアクションゲームを進行させる処理を示すフローチャートである。
(Flow chart for moving operation)
FIG. 13 is a flowchart for explaining processing during a moving operation. The flowchart in FIG. 13 is a flowchart illustrating a process in which the control unit 190 advances the action game by executing the game program 151.

ステップS10において、制御部190は、入力操作が受け付けられたか否かを判定する。   In step S10, the control unit 190 determines whether an input operation has been accepted.

入力操作が受け付けられたと判定されると(ステップS10:YES)、ステップS12において、制御部190は、初期タッチ位置に操作オブジェクトを表示させる(図12の画面例(A)に対応する)。オブジェクト制御部195は、入力操作に応答して円形の操作オブジェクト300を生成する。表示制御部196は、生成された円形の操作オブジェクト300をタッチ位置である第1位置300Aに表示させる。初期タッチ位置は、操作方向を決定する起点(操作オブジェクトの端部位置)の初期値となる。   If it is determined that an input operation has been accepted (step S10: YES), in step S12, the control unit 190 displays an operation object at the initial touch position (corresponding to the screen example (A) in FIG. 12). The object control unit 195 generates a circular operation object 300 in response to the input operation. The display control unit 196 displays the generated circular operation object 300 at the first position 300A that is the touch position. The initial touch position is an initial value of a starting point (end position of the operation object) for determining the operation direction.

ステップS14において、制御部190は、入力操作がドラッグ操作であるか否かを判定する。制御部190は、タッチスクリーン130の履歴情報を用いて、ドラッグ操作であるか否かを判定する(図4参照)。   In step S14, the control unit 190 determines whether or not the input operation is a drag operation. The control unit 190 determines whether the operation is a drag operation using the history information of the touch screen 130 (see FIG. 4).

入力操作がドラッグ操作であると判定されると(ステップS14:YES)、ステップS16において、制御部190は、起点(第1位置300A)からドラッグ方向(方向SD1)へ伸びる操作オブジェクト300を表示させる(図12の画面例(B)に対応する)。制御部190は、タッチスクリーン130の履歴情報を用いて、操作オブジェクト300を生成して、タッチスクリーン130に表示させる。   If it is determined that the input operation is a drag operation (step S14: YES), in step S16, the control unit 190 displays the operation object 300 extending from the starting point (first position 300A) in the drag direction (direction SD1). (Corresponding to the screen example (B) in FIG. 12). The control unit 190 generates the operation object 300 using the history information of the touch screen 130 and displays the operation object 300 on the touch screen 130.

ステップS18において、制御部190は、タッチスクリーン130の履歴情報を用いて、ドラッグ操作のドラッグ方向(方向SD1)を検出する(図5参照)。そして、制御部190は、ドラッグ方向(方向SD1)に基づいてゲームキャラクタCA1の移動方向及びゲームキャラクタCA1の向きを決定する。そして、制御部190は、移動方向に従ってゲームキャラクタCA1をドラッグ方向(方向SD1)へ移動させる(図12の画面例(B)に対応する)。さらに、制御部190は、仮想カメラVCの撮影方向をゲームキャラクタCA1の向きと一致させる(図12の画面例(C)に対応する)。   In step S18, the control unit 190 detects the drag direction (direction SD1) of the drag operation using the history information of the touch screen 130 (see FIG. 5). Then, the control unit 190 determines the moving direction of the game character CA1 and the direction of the game character CA1 based on the drag direction (direction SD1). Then, the control unit 190 moves the game character CA1 in the drag direction (direction SD1) according to the movement direction (corresponding to the screen example (B) in FIG. 12). Furthermore, the control unit 190 matches the shooting direction of the virtual camera VC with the direction of the game character CA1 (corresponding to the screen example (C) in FIG. 12).

ステップS20において、制御部190は、ドラッグ操作が完了したか否かを判定する。ドラッグ操作が完了していないと判定されると(ステップS20:NO)、制御部190は、上述したステップS16及びステップS18を再実行する。これにより、ユーザの指が接近していることをタッチスクリーン130が検出している間、つまり、ドラグ操作が継続されている間、操作オブジェクトが表示され、ゲームキャラクタCA1が移動することになる。   In step S20, the control unit 190 determines whether or not the drag operation has been completed. If it is determined that the drag operation has not been completed (step S20: NO), the control unit 190 re-executes step S16 and step S18 described above. Thereby, while the touch screen 130 detects that the user's finger is approaching, that is, while the drag operation is continued, the operation object is displayed, and the game character CA1 moves.

ドラッグ操作が完了したと判定されると(ステップS20:YES)、ステップS22として、制御部190は、ゲームキャラクタCA1の移動を終了する。そして、ステップS24として、制御部190は、操作オブジェクト300の表示を終了する。   If it is determined that the drag operation has been completed (step S20: YES), the control unit 190 ends the movement of the game character CA1 as step S22. In step S24, the control unit 190 ends the display of the operation object 300.

一方、入力操作がドラッグ操作でないと判定されると(ステップS14:NO)、ステップS26において、制御部190は、入力操作に応じた動作をゲームキャラクタCA1に実行させる。例えば、タップ操作であれば、攻撃対象を決定し、ゲームキャラクタCA1に攻撃動作を実行させる。そして、ステップS24として、制御部190は、操作オブジェクト300の表示を終了する。   On the other hand, if it is determined that the input operation is not a drag operation (step S14: NO), in step S26, the control unit 190 causes the game character CA1 to perform an action corresponding to the input operation. For example, in the case of a tap operation, an attack target is determined and the game character CA1 is caused to perform an attack action. In step S24, the control unit 190 ends the display of the operation object 300.

入力操作が受け付けられていないと判定された場合(ステップS10:NO)、又は、操作オブジェクト300の表示を終了すると、図13に示されるフローチャートは終了する。そして、制御部190は、所定の条件が満たされるまで図13に示されるフローチャートを最初から実行する。以上で、移動操作時の一連の処理が終了する。   When it is determined that the input operation is not accepted (step S10: NO), or when the display of the operation object 300 is ended, the flowchart shown in FIG. 13 is ended. Then, the control unit 190 executes the flowchart shown in FIG. 13 from the beginning until a predetermined condition is satisfied. Thus, a series of processes at the time of the moving operation is completed.

(交戦時のカメラワークの概要)
一般的なアクションゲームにおいては、ゲームキャラクタCA1が仮想空間のフィールドを移動するシーンだけでなく、仮想空間に配置された敵キャラクタ(対象キャラクタの一例)と交戦するシーンが存在する。
(Overview of camera work during engagement)
In a general action game, not only a scene in which the game character CA1 moves in a virtual space field, but also a scene in which an enemy character (an example of a target character) placed in the virtual space is engaged.

ユーザは、シーンに応じて、仮想空間においてキャラクタを移動させる移動操作だけでなく、ゲームキャラクタCA1に攻撃動作を行わせる攻撃動作を入力する。移動操作は、上述のとおり、ゲームキャラクタの移動方向を指示する入力操作であり、方向性のある操作である。移動操作の一例としては、所定条件下のドラッグ操作又はフリック操作である。一方、攻撃操作は、ゲームキャラクタCA1に攻撃動作を行わせる入力操作である。基本的な攻撃操作の一例としては、タップ操作である。なお、攻撃操作には、タップ操作と組み合わされたフリック操作を含む。詳細については後述する。   The user inputs not only a moving operation for moving the character in the virtual space but also an attacking action for causing the game character CA1 to perform an attacking action according to the scene. As described above, the moving operation is an input operation for instructing the moving direction of the game character, and is a directional operation. An example of the moving operation is a drag operation or a flick operation under a predetermined condition. On the other hand, the attack operation is an input operation for causing the game character CA1 to perform an attack action. An example of a basic attack operation is a tap operation. The attack operation includes a flick operation combined with a tap operation. Details will be described later.

カメラ配置制御部194は、ユーザによる入力操作に応じて移動方向が変化するゲームキャラクタCA1を背後から追尾するようなカメラワークを提供する。つまり、カメラ配置制御部194が仮想カメラVCの撮影方向を変更する契機(トリガ)は、ユーザによる移動操作である。ここで、カメラ配置制御部194は、仮想カメラVCの撮影方向を変更する契機(トリガ)として攻撃操作をさらに含む。これにより、敵キャラクタとの交戦時において、臨場感、迫力、キャラクタとの一体感などを演出するためのカメラワークを瞬時に提供することができる。   The camera arrangement control unit 194 provides camera work for tracking the game character CA1 whose movement direction changes according to an input operation by the user from behind. That is, the trigger (trigger) for the camera arrangement control unit 194 to change the shooting direction of the virtual camera VC is a moving operation by the user. Here, the camera arrangement control unit 194 further includes an attack operation as a trigger (trigger) for changing the shooting direction of the virtual camera VC. Thereby, at the time of a battle with an enemy character, the camera work for producing a sense of presence, power, a sense of unity with a character, etc. can be provided instantaneously.

(交戦時の画面例)
図14は、交戦時における仮想カメラVCの撮影方向を説明するための画面例である。図14の画面例(A)〜画面例(D)は、タッチスクリーン130に表示された画像である。画面例(A)〜画面例(D)では、表示制御部196が、カメラ配置制御部194により、ゲームキャラクタCA1を撮影した画像を、タッチスクリーン130に表示させている。入力操作受付部191によりユーザによる入力操作が受け付けられたとき、オブジェクト制御部195は、ユーザの入力操作に応じて操作オブジェクトを生成する。表示制御部196は、仮想カメラVCにより撮影された画像上に操作オブジェクトを重畳させて、タッチスクリーン130に表示させる。
(Screen example during engagement)
FIG. 14 is an example of a screen for explaining the shooting direction of the virtual camera VC during the battle. Screen examples (A) to (D) in FIG. 14 are images displayed on the touch screen 130. In the screen examples (A) to (D), the display control unit 196 causes the camera arrangement control unit 194 to display an image of the game character CA1 displayed on the touch screen 130. When an input operation by the user is received by the input operation receiving unit 191, the object control unit 195 generates an operation object according to the user's input operation. The display control unit 196 causes the operation object to be superimposed on the image captured by the virtual camera VC and displayed on the touch screen 130.

図14の画面例(A)は、移動操作時において敵キャラクタCA2が視界に入ったときの画面の一例である。図14の画面例(A)では、撮影方向を方向VD1、ゲームキャラクタCA1の向きを方向D3で示している。   The screen example (A) of FIG. 14 is an example of a screen when the enemy character CA2 enters the field of view during the movement operation. In the screen example (A) of FIG. 14, the shooting direction is indicated by the direction VD1, and the direction of the game character CA1 is indicated by the direction D3.

図14の画面例(B)は、図14の画面例(A)の状況において、攻撃操作であるタップ操作が行われたときの画面の一例である。オブジェクト制御部195は、タップ操作に応答して円形の操作オブジェクト300を生成する。表示制御部196は、生成された円形の操作オブジェクト300をタッチ位置に表示させる。このとき、敵キャラクタCA2とゲームキャラクタCA1との距離が予め定められた距離内にある場合、敵キャラクタCA2を攻撃対象として決定する(ロックオン)。ゲームキャラクタCA1は、ロックオンされた敵キャラクタCA2の方向D4へ向けられる。カメラ配置制御部194は、仮想カメラVCがゲームキャラクタCA1を背後から撮影するように、仮想カメラVCを制御する。仮想カメラVCの撮影方向は、ゲームキャラクタCA1の向きである方向D4と同一方向である方向VD2へ変更される。これにより、タッチスクリーン130に表示される画像は、図14の画面例(B)は図14の画面例(C)へ遷移する。   The screen example (B) of FIG. 14 is an example of a screen when a tap operation that is an attack operation is performed in the situation of the screen example (A) of FIG. The object control unit 195 generates a circular operation object 300 in response to the tap operation. The display control unit 196 displays the generated circular operation object 300 at the touch position. At this time, if the distance between the enemy character CA2 and the game character CA1 is within a predetermined distance, the enemy character CA2 is determined as an attack target (lock-on). The game character CA1 is directed in the direction D4 of the enemy character CA2 that is locked on. The camera arrangement control unit 194 controls the virtual camera VC so that the virtual camera VC captures the game character CA1 from behind. The shooting direction of the virtual camera VC is changed to the direction VD2 that is the same direction as the direction D4 that is the direction of the game character CA1. As a result, the image displayed on the touch screen 130 changes from the screen example (B) in FIG. 14 to the screen example (C) in FIG. 14.

図14の画面例(C)は、攻撃操作に応じて仮想カメラVCの撮影方向が変更されたときの画面の一例である。そして、図14の画面例(D)は、敵キャラクタに対して攻撃操作を実行しているときの画面の一例である。このように、タップ操作という方向性の無い操作がなされた場合であっても、仮想カメラVCの撮影方向が変更され、臨場感のある交戦画面が提供される。   The screen example (C) of FIG. 14 is an example of a screen when the shooting direction of the virtual camera VC is changed according to the attack operation. The screen example (D) in FIG. 14 is an example of a screen when an attack operation is performed on an enemy character. In this way, even when a non-directional operation such as a tap operation is performed, the shooting direction of the virtual camera VC is changed, and a realistic battle screen is provided.

(攻撃操作時のフローチャート)
図15は、攻撃操作時の処理を説明するフローチャートである。図15のフローチャートは、制御部190がゲームプログラム151を実行することによりアクションゲームを進行させる処理を示すフローチャートである。
(Flow chart for attack operation)
FIG. 15 is a flowchart for explaining processing during an attack operation. The flowchart in FIG. 15 is a flowchart illustrating a process in which the control unit 190 advances the action game by executing the game program 151.

ステップS30において、制御部190は、入力操作が受け付けられたか否かを判定する。制御部190は、入力操作として、仮想空間においてゲームキャラクタCA1を移動させる移動操作及びゲームキャラクタCA1に攻撃動作を行わせる攻撃操作を受け付けることができる。   In step S30, the control unit 190 determines whether an input operation has been accepted. The control unit 190 can accept a moving operation for moving the game character CA1 in the virtual space and an attacking operation for causing the game character CA1 to perform an attacking action as input operations.

入力操作が受け付けられたと判定されると(ステップS30:YES)、ステップS32において、制御部190は、初期タッチ位置に操作オブジェクトを表示させる(図14の画面例(B)に対応する)。オブジェクト制御部195は、入力操作に応答して円形の操作オブジェクト300を生成する。表示制御部196は、生成された円形の操作オブジェクト300をタッチ位置に表示させる。   If it is determined that an input operation has been received (step S30: YES), in step S32, the control unit 190 displays an operation object at the initial touch position (corresponding to the screen example (B) in FIG. 14). The object control unit 195 generates a circular operation object 300 in response to the input operation. The display control unit 196 displays the generated circular operation object 300 at the touch position.

ステップS34において、制御部190は、入力操作がタップ操作であるか否かを判定する。制御部190は、タッチスクリーン130の履歴情報を用いて、タップ操作であるか否かを判定する(図4参照)。   In step S34, the control unit 190 determines whether or not the input operation is a tap operation. The control unit 190 uses the history information on the touch screen 130 to determine whether the operation is a tap operation (see FIG. 4).

入力操作がタップ操作であると判定されると(ステップS34:YES)、ステップS36において、制御部190は、攻撃範囲内に敵キャラクタが存在するか否かを判定する。攻撃範囲は、ゲームキャラクタCA1を基準として予め設定される。   If it is determined that the input operation is a tap operation (step S34: YES), in step S36, the control unit 190 determines whether an enemy character exists within the attack range. The attack range is set in advance with the game character CA1 as a reference.

攻撃範囲内に敵キャラクタが存在すると判定されると(ステップS36:YES)、ステップS38において、制御部190は、攻撃対象となる敵キャラクタを特定する。制御部190は、攻撃範囲内に複数の敵キャラクタが存在する場合には、例えばゲームキャラクタCA1に最も近接した敵キャラクタを攻撃対象にする。   If it is determined that there is an enemy character within the attack range (step S36: YES), in step S38, the control unit 190 specifies an enemy character that is an attack target. When there are a plurality of enemy characters within the attack range, the control unit 190 sets, for example, the enemy character closest to the game character CA1 as an attack target.

ステップS40として、制御部190は、ゲームキャラクタCA1を攻撃動作の対象となる敵キャラクタCA2の位置と、ゲームキャラクタCA1の位置とに基づいて、ゲームキャラクタCA1を敵キャラクタCA2に向けさせる(図14の画面例(B)に対応する)。   As step S40, the control unit 190 directs the game character CA1 to the enemy character CA2 based on the position of the enemy character CA2 that is the target of the attack action and the position of the game character CA1 (FIG. 14). Corresponding to screen example (B)).

ステップS42として、制御部190は、仮想カメラVCの撮影方向をゲームキャラクタCA1の向きに基づいて決定する。制御部190は、ゲームキャラクタCA1の向きに対して予め定められた方向からキャラクタを撮影するように制御する。ゲームキャラクタCA1の向きに対して予め定められた方向とは、例えば、ゲームキャラクタCA1の背後から撮影する方向、ゲームキャラクタCA1の横から撮影する方向、ゲームキャラクタCA1の上から撮影する方向などである。具体的な一例として、制御部190は、仮想カメラVCの撮影方向をゲームキャラクタCA1の向きと一致させ、ゲームキャラクタCA1の背後から撮影するように、仮想カメラVCを制御する(図14の画面例(C)に対応する)。   As step S42, the control unit 190 determines the shooting direction of the virtual camera VC based on the direction of the game character CA1. The control unit 190 performs control so that the character is photographed from a predetermined direction with respect to the direction of the game character CA1. The predetermined direction with respect to the direction of the game character CA1 is, for example, a direction of shooting from behind the game character CA1, a direction of shooting from the side of the game character CA1, a direction of shooting from above the game character CA1, and the like. . As a specific example, the control unit 190 controls the virtual camera VC so that the shooting direction of the virtual camera VC matches the direction of the game character CA1 and shooting is performed from behind the game character CA1 (screen example in FIG. 14). Corresponding to (C)).

ステップS44として、制御部190は、ゲームキャラクタCA1に攻撃動作を実行させる(図14の画面例(D)に対応する)。ステップS46として、制御部190は、操作オブジェクト300の表示を終了する。   In step S44, the control unit 190 causes the game character CA1 to perform an attack action (corresponding to the screen example (D) in FIG. 14). In step S46, the control unit 190 ends the display of the operation object 300.

一方、入力操作がタップ操作でないと判定されると(ステップS34:NO)、ステップS48において、制御部190は、入力操作に応じた動作をゲームキャラクタCA1に実行させる。このとき、入力操作がドラッグ操作などの移動操作であれば、制御部190は、図13で説明したとおり、ゲームキャラクタCA1を移動させるとともに、仮想空間を移動するゲームキャラクタCA1を追尾するように仮想カメラVCを制御する。そして、ステップS46として、制御部190は、操作オブジェクト300の表示を終了する。   On the other hand, if it is determined that the input operation is not a tap operation (step S34: NO), in step S48, the control unit 190 causes the game character CA1 to perform an action corresponding to the input operation. At this time, if the input operation is a moving operation such as a drag operation, the control unit 190 moves the game character CA1 as described with reference to FIG. 13 and moves the game character CA1 moving in the virtual space. Control the camera VC. In step S46, the control unit 190 ends the display of the operation object 300.

また、攻撃範囲内に敵キャラクタが存在しないと判定されると(ステップS36:NO)、ステップS46として、制御部190は、操作オブジェクト300の表示を終了する。   If it is determined that there is no enemy character within the attack range (step S36: NO), the control unit 190 ends the display of the operation object 300 as step S46.

入力操作が受け付けられていないと判定された場合(ステップS30:NO)、又は、操作オブジェクト300の表示を終了すると、図15に示されるフローチャートは終了する。そして、制御部190は、所定の条件が満たされるまで図15に示されるフローチャートを最初から実行する。以上で、攻撃操作時の一連の処理が終了する。   When it is determined that the input operation is not accepted (step S30: NO), or when the display of the operation object 300 is finished, the flowchart shown in FIG. 15 is finished. Then, the control unit 190 executes the flowchart shown in FIG. 15 from the beginning until a predetermined condition is satisfied. Thus, a series of processing at the time of the attack operation is completed.

(交戦時における連撃攻撃)
アクションゲームにおいては、予め定められた期間内に攻撃操作を連続して受け付けた場合、連撃攻撃(いわゆるコンボ攻撃)を発生させることがある。このようなコンボ攻撃の内容は、ゲーム情報152又はゲーム情報252にコンボデータとして定義されている。コンボ攻撃に多様性を持たせるために、コンボ攻撃中の攻撃操作に方向性のある入力操作を採用することがある。例えば、タップ操作、タップ操作、フリック操作という一連の入力操作に基づくコンボ攻撃である。
(Sequential attacks during engagement)
In an action game, a continuous attack (so-called combo attack) may occur when attack operations are continuously received within a predetermined period. The content of such a combo attack is defined as combo data in the game information 152 or the game information 252. In order to give diversity to the combo attack, a directional input operation may be employed for the attack operation during the combo attack. For example, a combo attack based on a series of input operations such as a tap operation, a tap operation, and a flick operation.

図16は、オブジェクト制御部195がコンボデータに基づいてゲームキャラクタCA1に攻撃動作を実行させたときのアクション(モーションともいう)の一例を示す図である。図16の状態(A)は、アクションa1を示す。図16の状態(B)は、アクションa2を示す。図16の状態(C)は、アクションa3を示す。入力操作受付部191がタップ操作を受け付けると、オブジェクト制御部195は、図16の状態(A)に示されるように、ゲームキャラクタCA1にアクションa1を実行させる。続いて、入力操作受付部191が予め定められた期間内に再びタップ操作を受け付けると、オブジェクト制御部195は、図16の状態(B)に示すアクションa2をゲームキャラクタCA1に実行させる。続いて、入力操作受付部191が予め定められた期間内にフリック操作を受け付けると、オブジェクト制御部195は、図16の状態(C)に示すアクションa3をゲームキャラクタCA1に実行させる。アクションa3は、アクションa1、a2より演出を派手にしたり、攻撃力を大きくしたりするように設定してもよい。また、アクションa3のためのフリック操作の代わりに、タップ操作が3回続けられることによって、オブジェクト制御部195は、他の演出が派手であったり攻撃力が大きかったりするアクションをゲームキャラクタCA1に実行させてもよい。一実施形態によれば、タッチスクリーン130によるタッチ操作でコンボ攻撃をゲームキャラクタCA1に実行させるゲームであっても、コンボの流れを分岐させることができる。このように、コンボ攻撃中の攻撃操作に方向性のある入力操作を採用することで、ユーザは多様な操作によって次々と流れるようにゲームキャラクタCA1に攻撃させることができる。よって、ゲームの趣向性が向上する。   FIG. 16 is a diagram illustrating an example of an action (also referred to as motion) when the object control unit 195 causes the game character CA1 to perform an attack action based on the combo data. The state (A) in FIG. 16 shows action a1. The state (B) in FIG. 16 shows the action a2. The state (C) in FIG. 16 shows the action a3. When the input operation accepting unit 191 accepts the tap operation, the object control unit 195 causes the game character CA1 to execute the action a1, as shown in the state (A) of FIG. Subsequently, when the input operation receiving unit 191 receives the tap operation again within a predetermined period, the object control unit 195 causes the game character CA1 to execute the action a2 shown in the state (B) of FIG. Subsequently, when the input operation receiving unit 191 receives a flick operation within a predetermined period, the object control unit 195 causes the game character CA1 to execute an action a3 shown in the state (C) of FIG. The action a3 may be set so that the production is more flashy than the actions a1 and a2, or the attack power is increased. Further, instead of the flick operation for the action a3, the tap operation is continued three times, so that the object control unit 195 performs an action on the game character CA1 in which other effects are flashy or the attack power is large. You may let them. According to one embodiment, even in a game that causes the game character CA1 to execute a combo attack by a touch operation using the touch screen 130, the flow of the combo can be branched. Thus, by adopting a directional input operation for the attack operation during the combo attack, the user can cause the game character CA1 to attack so as to flow one after another by various operations. Therefore, the game preference is improved.

(連撃攻撃時のカメラワーク)
連撃攻撃時においても、制御部190は、図15に示された攻撃操作時のフローチャートに沿って処理を実行する。入力操作が連撃攻撃の最初の攻撃操作であるか否かは、2回目の攻撃操作が入力されることによって初めて確定する。したがって、タップ操作が通常のタップ操作であるか連撃操作となるかに関わらず、制御部190は、図15に示された攻撃操作時のフローチャートに沿って処理を実行する。つまり、制御部190は、事後的に連撃操作となる最初のタップ操作に応じて、図15に示された攻撃操作時のフローチャートに沿って処理を実行する。
(Camera work during continuous attack)
Even during the continuous attack, the control unit 190 executes the process according to the flowchart of the attack operation shown in FIG. Whether or not the input operation is the first attack operation of the continuous attack is determined only when the second attack operation is input. Therefore, regardless of whether the tap operation is a normal tap operation or a continuous attack operation, the control unit 190 executes the process according to the flowchart for the attack operation shown in FIG. That is, the control unit 190 executes the process according to the flowchart for the attack operation shown in FIG.

このため、ステップS40として、制御部190は、所定期間内に連続する攻撃操作が受け付けられた場合、所定期間内に連続する攻撃操作のうち最初の攻撃動作の対象となる敵キャラクタCA2にゲームキャラクタCA1を向かせることになる。そして、ステップS42として、制御部190は、予め定められた方向からゲームキャラクタCA1を撮影するように仮想カメラVCを制御する。   For this reason, as a step S40, when a continuous attack operation is received within a predetermined period, the control unit 190 sets the game character as the enemy character CA2 that is the target of the first attack action among the continuous attack operations within the predetermined period. I will turn CA1. In step S42, the control unit 190 controls the virtual camera VC so that the game character CA1 is photographed from a predetermined direction.

そして、制御部190は、2回目以降のタップ操作が行われた場合、所定期間前にタップ操作が行われていたか否かを判定する。制御部190は、所定期間前にタップ操作が行われていない場合、2回目のタップ操作については、図15に示された攻撃操作時のフローチャートに沿って処理を実行する。この場合、制御部190は、2回目のタップ操作によって攻撃対象となる敵キャラクタCA2にゲームキャラクタCA1を向かせることになる。そして、ステップS42として、制御部190は、予め定められた方向からゲームキャラクタCA1を撮影するように仮想カメラVCを制御する。   And the control part 190 determines whether tap operation was performed before the predetermined period, when the tap operation after the 2nd time was performed. When the tap operation is not performed before the predetermined period, the control unit 190 executes the process for the second tap operation according to the flowchart for the attack operation shown in FIG. In this case, the control unit 190 directs the game character CA1 to the enemy character CA2 to be attacked by the second tap operation. In step S42, the control unit 190 controls the virtual camera VC so that the game character CA1 is photographed from a predetermined direction.

一方、制御部190は、所定期間前にタップ操作が行われていた場合、当該タップ操作については、図15に示された攻撃操作時のフローチャートのうち、ステップS42については実行しない。つまり、制御部190は、予め定められた期間内に2回目以降の攻撃操作が行われた場合には、最初の攻撃操作に基づいて決定された仮想カメラVCの撮影方向を、所定期間内に連続する攻撃操作を受け付けている間は変更しない。これにより、ゲームキャラクタCA1の攻撃によって敵キャラクタCA2の位置が変化し、それに伴ってゲームキャラクタCA1の向きが変更された場合であっても、仮想カメラVCの撮影方向は変更されないことになる。制御部190は、ユーザにキャラクタの向きを一度理解させた後は、固定されたアングルで連撃の様子を提供することにより、ユーザがキャラクタの向きを見失うことが無い状態で、連撃中のキャラクタや対象キャラクタを種々の角度から確認させることができる。   On the other hand, when a tap operation has been performed before a predetermined period, the control unit 190 does not execute step S42 in the flowchart of the attack operation illustrated in FIG. 15 for the tap operation. That is, the control unit 190 determines the shooting direction of the virtual camera VC determined based on the first attack operation within a predetermined period when the second and subsequent attack operations are performed within a predetermined period. Do not change while accepting consecutive attack operations. Thereby, even if the position of the enemy character CA2 changes due to the attack of the game character CA1, and the direction of the game character CA1 is changed accordingly, the shooting direction of the virtual camera VC is not changed. After the control unit 190 makes the user understand the direction of the character once, the control unit 190 provides the state of the continuous attack at a fixed angle, so that the user does not lose sight of the direction of the character. The character and the target character can be confirmed from various angles.

同様に、制御部190は、コンボ攻撃中の攻撃操作に方向性のある入力操作が含まれていた場合であっても、最初の攻撃操作に基づいて決定された仮想カメラVCの撮影方向を、所定期間内に連続する攻撃操作を受け付けている間は変更しない。以下では、フリック操作がコンボ攻撃中の攻撃操作に含まれる場合の例を詳細に説明する。   Similarly, even when the attack operation during the combo attack includes a directional input operation, the control unit 190 determines the shooting direction of the virtual camera VC determined based on the first attack operation. It is not changed while accepting consecutive attack operations within a predetermined period. Hereinafter, an example in which the flick operation is included in the attack operation during the combo attack will be described in detail.

図17は、フリック操作時の処理を説明するフローチャートである。図17のフローチャートは、制御部190がゲームプログラム151を実行することによりアクションゲームを進行させる処理を示すフローチャートである。   FIG. 17 is a flowchart for explaining processing during a flick operation. The flowchart in FIG. 17 is a flowchart illustrating a process in which the control unit 190 advances the action game by executing the game program 151.

ステップS50において、制御部190は、入力操作が受け付けられたか否かを判定する。制御部190は、入力操作として、仮想空間においてゲームキャラクタCA1を移動させる移動操作及びゲームキャラクタCA1に攻撃動作を行わせる攻撃操作を受け付けることができる。   In step S50, the control unit 190 determines whether an input operation has been accepted. The control unit 190 can accept a moving operation for moving the game character CA1 in the virtual space and an attacking operation for causing the game character CA1 to perform an attacking action as input operations.

入力操作が受け付けられたと判定されると(ステップS50:YES)、ステップS32において、制御部190は、初期タッチ位置に操作オブジェクトを表示させる(図14の画面例(B)に対応する)。オブジェクト制御部195は、入力操作に応答して円形の操作オブジェクト300を生成する。表示制御部196は、生成された円形の操作オブジェクト300をタッチ位置に表示させる。   If it is determined that the input operation has been accepted (step S50: YES), in step S32, the control unit 190 displays an operation object at the initial touch position (corresponding to the screen example (B) in FIG. 14). The object control unit 195 generates a circular operation object 300 in response to the input operation. The display control unit 196 displays the generated circular operation object 300 at the touch position.

ステップS54において、制御部190は、入力操作がフリック操作であるか否かを判定する。制御部190は、タッチスクリーン130の履歴情報を用いて、フリック操作であるか否かを判定する(図4参照)。   In step S54, the control unit 190 determines whether or not the input operation is a flick operation. The control unit 190 determines whether the operation is a flick operation using the history information of the touch screen 130 (see FIG. 4).

入力操作がフリック操作であると判定されると(ステップS54:YES)、ステップS56において、制御部190は、初期タッチ位置からフリック方向へ延びる操作オブジェクトを表示させる。   If it is determined that the input operation is a flick operation (step S54: YES), in step S56, the control unit 190 displays an operation object extending in the flick direction from the initial touch position.

ステップS58において、制御部190は、ゲームキャラクタCA1が向いている方向を特定する。例えば記憶部150には、ゲームキャラクタCA1の顔が向いている方向または直前の移動操作の進行方向等を示す情報が記憶されている。制御部190は、ゲームキャラクタCA1に実行させたアクション、他のオブジェクトからの作用などに基づいて、記憶部150に記憶された情報が示す方向の中からゲームキャラクタCA1が向いている方向を選択する。次に、制御部190は、選択した結果に基づき、記憶部150を参照してゲームキャラクタCA1の向いている方向を特定する。   In step S58, the control unit 190 specifies the direction in which the game character CA1 is facing. For example, the storage unit 150 stores information indicating the direction in which the face of the game character CA1 is facing or the traveling direction of the previous movement operation. Control unit 190 selects the direction in which game character CA1 is facing from the directions indicated by the information stored in storage unit 150 based on the action executed by game character CA1 and the action from other objects. . Next, based on the selected result, the control unit 190 refers to the storage unit 150 and identifies the direction in which the game character CA1 is facing.

ステップS60において、制御部190は、フリック操作の方向とタッチスクリーン130に表示される画面においてゲームキャラクタCA1が向いている方向とを比較する。   In step S60, control unit 190 compares the direction of the flick operation with the direction in which game character CA1 is facing on the screen displayed on touch screen 130.

ステップS62において、制御部190は、ステップS60における比較結果に応じたアクションを、ゲームキャラクタCA1に実行させる。この処理の詳細は、図18に示されたフローチャートを用いて後述する。   In step S62, the control unit 190 causes the game character CA1 to perform an action corresponding to the comparison result in step S60. Details of this processing will be described later with reference to the flowchart shown in FIG.

ステップS46として、制御部190は、操作オブジェクト300の表示を終了する。   In step S46, the control unit 190 ends the display of the operation object 300.

一方、入力操作がフリック操作でないと判定されると(ステップS54:NO)、ステップS66において、制御部190は、入力操作に応じた動作をゲームキャラクタCA1に実行させる。そして、ステップS46として、制御部190は、操作オブジェクト300の表示を終了する。   On the other hand, when it is determined that the input operation is not a flick operation (step S54: NO), in step S66, the control unit 190 causes the game character CA1 to perform an action corresponding to the input operation. In step S46, the control unit 190 ends the display of the operation object 300.

入力操作が受け付けられていないと判定された場合(ステップS50:NO)、又は、操作オブジェクト300の表示を終了すると、図17に示されるフローチャートは終了する。そして、制御部190は、所定の条件が満たされるまで図17に示されるフローチャートを最初から実行する。以上で、攻撃操作時の一連の処理が終了する。   When it is determined that the input operation is not accepted (step S50: NO), or when the display of the operation object 300 is finished, the flowchart shown in FIG. 17 is finished. Then, the control unit 190 executes the flowchart shown in FIG. 17 from the beginning until a predetermined condition is satisfied. Thus, a series of processing at the time of the attack operation is completed.

図18は、図17に示されたフリック操作に基づく動作処理を説明するフローチャートである。制御部190は、図18に示されるフローチャートに従い、比較結果に応じたアクションをゲームキャラクタCA1に実行させる。   FIG. 18 is a flowchart for explaining an operation process based on the flick operation shown in FIG. The control unit 190 causes the game character CA1 to perform an action according to the comparison result according to the flowchart shown in FIG.

ステップS70において、制御部190は、図18に示されたステップS50においてフリック操作を受け付ける前の所定期間内に、攻撃動作を行なうためのタップ操作を受け付けたか否かを判定する。   In step S70, control unit 190 determines whether or not a tap operation for performing an attack operation has been received within a predetermined period before the flick operation is received in step S50 shown in FIG.

フリック操作の所定期間前に攻撃動作を行なうためのタップ操作を受け付けたと判定されると(ステップS70:YES)、ステップS72において、制御部190は、フリック操作の方向はゲームキャラクタCA1が向いている方向と所定関係にあるか否かを判定する。所定関係は、例えばゲームキャラクタCA1が向いている方向を軸として、フリック操作の方向が当該軸から左右一定の範囲(例えば、左右それぞれに30度以内、45度以内等)となることとしてもよい。   If it is determined that a tap operation for performing an attack action has been received before a predetermined period of the flick operation (step S70: YES), in step S72, the control unit 190 is directed to the game character CA1 in the direction of the flick operation. It is determined whether or not there is a predetermined relationship with the direction. The predetermined relationship may be such that, for example, the direction in which the game character CA1 is facing is an axis, and the direction of the flick operation is within a certain range from the axis to the left and right (for example, within 30 degrees and 45 degrees within each of the left and right). .

フリック操作の方向はゲームキャラクタCA1が向いている方向により定まる一定範囲の方向に含まれていると判定されると(ステップS72:YES)、ステップS74として、制御部190は、前回の攻撃動作に対応する操作がタップ操作であり、且つ、今回の操作がフリック操作であることに基づく攻撃動作を、ゲームキャラクタCA1に実行させる。このように、連続してゲームキャラクタCA1に攻撃動作を実行させる場合、毎回同じ攻撃動作をゲームキャラクタCA1に実行させるのではなく、異なる攻撃動作をゲームキャラクタCA1に実行させることができる。従って、攻撃動作が多様になる。ステップS72が終了すると、図18に示されるフローチャートが終了する。   If it is determined that the direction of the flick operation is included in a certain range of directions determined by the direction in which the game character CA1 is facing (step S72: YES), the control unit 190 performs the previous attack action as step S74. The game character CA1 is caused to perform an attack action based on the corresponding operation being a tap operation and the current operation being a flick operation. As described above, when the game character CA1 continuously executes the attack action, the game character CA1 can execute different attack actions instead of causing the game character CA1 to execute the same attack action each time. Therefore, the attacking action becomes diverse. When step S72 ends, the flowchart shown in FIG. 18 ends.

一方、フリック操作の方向はゲームキャラクタCA1が向いている方向と所定関係にないと判定されると(ステップS72:NO)、ステップS76として、制御部190は、ゲームキャラクタCA1に、攻撃動作を実行することなくフリック操作の方向に移動するための回避動作を実行させる。それに続けて、ステップS78として、制御部190は、ゲームキャラクタCA1に攻撃動作を実行させる。ステップS78において制御部190がゲームキャラクタCA1に実行させる攻撃動作は、タップ操作に基づく攻撃動作とは異なってもよい。この場合、ゲームキャラクタCA1による攻撃動作がより多様となり、ゲームの趣向性が向上する。ステップS78が終了すると、図18に示されるフローチャートが終了する。   On the other hand, if it is determined that the direction of the flick operation is not in a predetermined relationship with the direction in which the game character CA1 is facing (step S72: NO), as step S76, the control unit 190 performs an attack action on the game character CA1 The avoidance operation for moving in the direction of the flick operation is performed without performing the operation. Subsequently to step S78, the control unit 190 causes the game character CA1 to perform an attack action. In step S78, the attack action that the control unit 190 causes the game character CA1 to execute may be different from the attack action based on the tap operation. In this case, the attacking action by the game character CA1 becomes more diverse, and the game preference is improved. When step S78 ends, the flowchart shown in FIG. 18 ends.

一方、フリック操作の所定期間前に攻撃動作を行なうためのタップ操作を受け付けていないと判定されると(ステップS70:NO)、ステップS80において、制御部190は、ゲームキャラクタCA1に回避動作を実行させ、攻撃動作を実行させない。そして、ステップS82において、制御部190は、仮想カメラVCの向きをゲームキャラクタCA1の向きに基づいて決定する。ステップS82が終了すると、図18に示されるフローチャートが終了する。   On the other hand, when it is determined that the tap operation for performing the attacking operation is not received before the predetermined period of the flick operation (step S70: NO), in step S80, control unit 190 performs the avoidance operation on game character CA1. And do not execute the attack action. In step S82, the control unit 190 determines the orientation of the virtual camera VC based on the orientation of the game character CA1. When step S82 ends, the flowchart shown in FIG. 18 ends.

このように、制御部190は、ゲームキャラクタCA1が向いている方向とフリック操作の方向とに応じて、ゲームキャラクタCA1に攻撃動作を実行させたり回避動作を実行させたりするなど、アクションを分けることができるので、ゲームの趣向性が向上する。特に、攻撃対象に対する入力操作に多様性を持たせることができる。   In this way, the control unit 190 divides actions such as causing the game character CA1 to perform an attack action or an avoidance action in accordance with the direction in which the game character CA1 is facing and the direction of the flick operation. Can improve the taste of the game. In particular, it is possible to give diversity to the input operation for the attack target.

また、制御部190は、コンボ攻撃の最初の攻撃操作に基づいて仮想カメラVCの撮影方向を決定し、コンボ攻撃中においては撮影方向を変更しない。このため、ユーザにゲームキャラクタCA1の向きを一度理解させた後は、固定されたアングルで連撃の様子を提供することにより、フリック操作が入力し易くなる。   Further, the control unit 190 determines the shooting direction of the virtual camera VC based on the first attack operation of the combo attack, and does not change the shooting direction during the combo attack. For this reason, after letting the user understand the orientation of the game character CA1 once, flicking operation becomes easy to input by providing the state of continuous attack at a fixed angle.

また、フリック操作は、ゲーム中の素早い操作が必要とされる場面において、ユーザが直感的に素早く入力する操作である。本実施形態では、フリック操作の方向に応じて攻撃動作または回避動作を選択できるため、直感的に攻撃と回避とを選択することができる。よって、ゲームの趣向性が向上する。   Further, the flick operation is an operation that the user inputs intuitively and quickly in a scene where a quick operation is required during the game. In the present embodiment, since the attack action or the avoidance action can be selected according to the direction of the flick operation, the attack and the avoidance can be selected intuitively. Therefore, the game preference is improved.

(コンボ攻撃のパターン)
コンボ攻撃は、上述した操作手順に限定されることはなく、種々の操作手順が採用され得る。コンボ攻撃の種類が増えるほどゲームキャラクタCA1に多彩な攻撃をさせることができるので、ゲーム性が向上する。
(Combo attack pattern)
The combo attack is not limited to the operation procedure described above, and various operation procedures can be adopted. As the types of combo attacks increase, the game character CA1 can be attacked in various ways, so that the game performance is improved.

図19は、コンボ列を定義するテーブル群の一例である。このようなテーブル群は、ゲーム情報152又はゲーム情報252にコンボデータとして含まれる。図19のテーブル例(A)は、コンボの手順を定義するコンボテーブルTB1である。図19のテーブル例(A)に示されるように、コンボテーブルTB1は、コンボ列ごとに、操作内容の順番を定義する。コンボ列は、コンボが成立する手順通りに入力操作を並べた列である。一例として、「第一コンボ列」は、タップ操作が二回続けて入力されたときにコンボが成立することが定義されている。また、「第二コンボ列」は、タップ操作が三回続けて入力されたときにコンボが成立することが定義されている。また、「第三コンボ列」は、タップ操作が三回続けて入力されたときにコンボが成立することが定義されている。また、「第四コンボ列」は、タップ操作が二回続けて入力され、その後フリック操作が入力されたときにコンボが成立することが定義されている。また、「第五コンボ列」は、タップ操作が二回続けて入力され、その後フリック操作及びタップ操作が続けて入力されたときにコンボが成立することが定義されている。また、図示を省略するが、それぞれの入力操作には、入力操作を受け付け可能な時間が設定されている。つまり、コンボは、それぞれの受付時間内において上述した手順が実行されたときに成立する。なお、全ての入力操作に対して共通する受付時間が設定されていてもよい。以下では、このような時間的要素を含めたコンボの手順をコンボ条件ともいう。受付時間の詳細については後述する。   FIG. 19 is an example of a table group defining a combo string. Such a table group is included in the game information 152 or the game information 252 as combo data. The table example (A) in FIG. 19 is a combo table TB1 that defines a combo procedure. As shown in the table example (A) in FIG. 19, the combo table TB1 defines the order of operation contents for each combo row. The combo column is a column in which input operations are arranged according to the procedure for establishing a combo. As an example, the “first combo row” is defined such that a combo is established when a tap operation is input twice in succession. In addition, the “second combo row” is defined such that a combo is established when a tap operation is input three times in succession. In addition, the “third combo row” is defined such that a combo is established when a tap operation is input three times in succession. In addition, the “fourth combo row” is defined such that a combo is established when a tap operation is input twice in succession and then a flick operation is input. In addition, the “fifth combo row” is defined such that a combo is established when a tap operation is input twice in succession and then a flick operation and a tap operation are input continuously. Although not shown, each input operation is set with a time during which the input operation can be accepted. That is, the combo is established when the above-described procedure is executed within each reception time. A common reception time may be set for all input operations. Hereinafter, the combo procedure including such a temporal element is also referred to as a combo condition. Details of the reception time will be described later.

コンボ条件が満たされた場合、ゲーム上の効果が奏される。ゲーム上の効果は、コンボ列ごとに予め定められている。ゲーム上の効果の一例は、ゲームパラメータの増減である。ゲームパラメータは、例えば、攻撃ダメージ値、攻撃軽減値、ゲームキャラクタCA1又は敵キャラクタの攻撃力、防御力、HP、属性などである。ゲーム上の効果の他の例は、ゲームキャラクタの攻撃モーションの変更である。ゲーム上の効果の一例として、ゲームキャラクタの攻撃モーションは、コンボ条件が満たされた場合と満たされていない場合とで変更されてもよい。なお、第一コンボ列〜第三コンボ列は、同じ入力操作が繰り返されることがある。この場合に、当該入力にゲーム上の効果を付加しない場合には、コンボの成立が判定されなくてもよい。   When the combo condition is satisfied, an effect on the game is achieved. The effects on the game are predetermined for each combo row. An example of a game effect is an increase or decrease in game parameters. The game parameter is, for example, an attack damage value, an attack mitigation value, an attack power, defense power, HP, attribute, etc. of the game character CA1 or enemy character. Another example of the effect on the game is a change of the attack motion of the game character. As an example of the effect on the game, the attack motion of the game character may be changed depending on whether the combo condition is satisfied or not. In the first combo row to the third combo row, the same input operation may be repeated. In this case, when no effect on the game is added to the input, it is not necessary to determine whether the combo is established.

図19のテーブル例(B)は、コンボ列と当該コンボ列のコンボ条件が満たされたときに奏されるゲーム上の効果とを関連付けたコンボテーブルTB2である。図19のテーブル例(B)に示されるように、コンボ列それぞれにゲーム上の効果が関連付けられている。一例として、「第一コンボ列」には、攻撃ダメージ値が10%増加すること、及び、第二モーションで動作することがゲーム上の効果として関連付けられている。第一コンボ列のコンボ条件は、第一コンボ列の最後の手順である「タップ操作」時において満たされるため、このタップ操作時において、攻撃ダメージ値が10%増加し、かつ、第二モーションとなることが定義されている。同様に、「第二コンボ列」には、攻撃ダメージ値が15%増加すること、及び、第一モーションで動作することがゲーム上の効果として関連付けられている。「第三コンボ列」には、攻撃ダメージ値が20%増加すること、及び、第二モーションで動作することがゲーム上の効果として関連付けられている。「第四コンボ列」には、攻撃ダメージ値が25%増加すること、また、第三モーションで動作することがゲーム上の効果として関連付けられている。「第五コンボ列」には、攻撃ダメージ値が30%増加すること、また、第三モーションで動作することがゲーム上の効果として関連付けられている。   The table example (B) of FIG. 19 is a combo table TB2 that associates a combo row with game effects that are played when the combo condition of the combo row is satisfied. As shown in the example table (B) in FIG. 19, a game effect is associated with each combo row. As an example, in the “first combo row”, an attack damage value is increased by 10% and an operation in the second motion is associated with the game effect. Since the combo condition of the first combo row is satisfied at the time of “tap operation” which is the last procedure of the first combo row, the attack damage value increases by 10% at the time of this tap operation, and the second motion and It is defined that Similarly, the “second combo row” is associated with an increase in attack damage value by 15% and an action in the first motion as game effects. In the “third combo row”, an attack damage value is increased by 20% and an operation in the second motion is associated with the game effect. In the “fourth combo row”, an attack damage value is increased by 25%, and an action in the third motion is associated as an effect on the game. In the “fifth combo row”, an attack damage value is increased by 30%, and an action in the third motion is associated as an effect on the game.

(コンボ列の分岐)
図20は、コンボ列の分岐を説明する図である。図20の画面例(A)〜画面例(F)は、タッチスクリーン130に表示された画像の一部である。画面例(A)は、所定時間前に攻撃操作がない状態でタップ操作が行われた場合のゲームキャラクタCA1のモーションを示している。
(Combo column branch)
FIG. 20 is a diagram for explaining the branching of the combo row. A screen example (A) to a screen example (F) in FIG. 20 are part of an image displayed on the touch screen 130. Screen example (A) shows the motion of game character CA1 when a tap operation is performed in a state where there is no attack operation a predetermined time ago.

画面例(B)は、画面例(A)で示すモーション中の受付時間内にタップ操作が行われた場合のゲームキャラクタCA1のモーションを示している。つまり、画面例(B)は、図19のコンボテーブルTB2において定義された「第一コンボ列」のコンボ条件が満たされたときの画面の一部である。画面例(B)は、第二モーションで攻撃するゲームキャラクタCA1が表示されている。   Screen example (B) shows the motion of game character CA1 when a tap operation is performed within the reception time during the motion shown in screen example (A). That is, the screen example (B) is a part of the screen when the combo condition of the “first combo row” defined in the combo table TB2 of FIG. 19 is satisfied. In the screen example (B), the game character CA1 attacking with the second motion is displayed.

図19のコンボテーブルTB2の例では、タップ操作が2回連続した場合、受付時間内に次に入力される攻撃操作の種別に応じて、満たされるコンボ条件が異なる。例えば、受付時間内に次の攻撃操作としてタップ操作が入力される場合には、図19のコンボテーブルTB2において定義された「第二コンボ列」のコンボ条件を満たす。この場合、画面例(C)に示されるように、第一モーションで攻撃するゲームキャラクタCA1が表示される。一方、受付時間内に次の攻撃操作としてフリック操作が入力される場合には、図19のコンボテーブルTB2において定義された「第四コンボ列」のコンボ条件を満たす。この場合、画面例(E)に示されるように、第三モーションで攻撃するゲームキャラクタCA1が表示されている。このように、画面例(B)においては、次の攻撃操作の種別に応じて画面例(C)へ遷移するのか、画面例(E)へ遷移するのかが決定される。このような状況を「コンボ列の分岐」という。   In the example of the combo table TB2 of FIG. 19, when the tap operation is continued twice, the combo conditions that are satisfied differ depending on the type of the attack operation that is input next within the reception time. For example, when a tap operation is input as the next attack operation within the reception time, the combo condition of the “second combo row” defined in the combo table TB2 of FIG. 19 is satisfied. In this case, as shown in the screen example (C), the game character CA1 attacking with the first motion is displayed. On the other hand, when the flick operation is input as the next attack operation within the reception time, the “fourth combo column” combo condition defined in the combo table TB2 of FIG. 19 is satisfied. In this case, as shown in the screen example (E), the game character CA1 attacking with the third motion is displayed. As described above, in the screen example (B), whether to transition to the screen example (C) or the screen example (E) is determined according to the type of the next attack operation. This situation is called “branch of combo row”.

なお、画面例(D)は、画面例(C)で示すモーション中の受付時間内にタップ操作が行われた場合のゲームキャラクタCA1のモーションを示している(図19のコンボテーブルTB2の第三コンボ列)。画面例(F)は、画面例(E)で示すモーション中の受付時間内にタップ操作が行われた場合のゲームキャラクタCA1のモーションを示している(図19のコンボテーブルTB2の第五コンボ列)。   Screen example (D) shows the motion of game character CA1 when the tap operation is performed within the reception time during the motion shown in screen example (C) (third of combo table TB2 in FIG. 19). Combo column). Screen example (F) shows the motion of game character CA1 when the tap operation is performed within the reception time during the motion shown in screen example (E) (the fifth combo row in combo table TB2 in FIG. 19). ).

(コンボ列の分岐時の案内表示)
図20の画面例(B)の状況(コンボ列の分岐時)において、ユーザに対して、コンボ条件が満たされる次の入力操作の案内が表示される。以下では、コンボ条件が満たされる次の入力操作を案内する画面上の表示を案内表示という。また、コンボ列が分岐するタイミングを分岐タイミングという。案内表示は、分岐タイミングにおいて所定の案内表示時間の間、表示される。案内表示時間(表示時間の一例)の詳細については後述する。分岐タイミングにおける案内表示は、ユーザに対して、コンボを成立させるために次に入力すべき入力操作を提示する。よって、コンボ列の種類を増加させたことによる操作の複雑さが緩和され得る。
(Guidance display when branching combo line)
In the situation of the screen example (B) in FIG. 20 (when the combo row is branched), the user is guided to the next input operation that satisfies the combo condition. Hereinafter, the display on the screen for guiding the next input operation that satisfies the combo condition is referred to as a guidance display. The timing at which the combo row branches is called branch timing. The guidance display is displayed for a predetermined guidance display time at the branch timing. Details of the guidance display time (an example of display time) will be described later. The guidance display at the branch timing presents the user with an input operation to be input next in order to establish the combo. Therefore, the complexity of the operation due to the increased number of combo rows can be reduced.

案内表示を提示する手法は、以下の四つの手法が存在する。第一の手法は、案内表示を吹き出し形式で表示する手法である。例えば、案内表示時間において、タッチスクリーン130にゲームキャラクタCA1の吹き出しとして次の入力操作を示す案内表示が表示される。案内すべき次の入力操作は、複数の候補が存在する。案内する入力操作は、取り得る全ての候補であってもよいし、選択された候補であってもよい。選択基準としては、例えば、取り得るコンボ列のうちゲーム上の効果が最も高いコンボ列となる入力操作が選択されてもよい。あるいは、複数の候補のうち直前の入力操作とは異なる入力操作が選択されてもよい。第一の手法は、案内表示がタッチスクリーン130上に案内表示時間だけに出現することから、ゲームの他のオブジェクトやキャラクタとの重なりを抑えることができる。このため、第一の手法は、スマートフォンのように表示領域が狭いデバイスにも採用することができる。また、第一の手法では、操作対象の近傍に操作対象に関連付けて案内表示が出現するため、操作対象に着目しているユーザは気付きやすい。   There are the following four methods for presenting the guidance display. The first method is a method of displaying a guidance display in a balloon format. For example, during the guidance display time, a guidance display indicating the next input operation is displayed on the touch screen 130 as a balloon of the game character CA1. There are a plurality of candidates for the next input operation to be guided. The guiding input operation may be all possible candidates or selected candidates. As a selection criterion, for example, an input operation that becomes a combo row having the highest game effect among possible combo rows may be selected. Alternatively, an input operation different from the immediately preceding input operation may be selected from among a plurality of candidates. In the first method, since the guidance display appears on the touch screen 130 only during the guidance display time, it is possible to suppress the overlap with other objects and characters of the game. For this reason, the first method can also be adopted for a device having a narrow display area such as a smartphone. In the first method, since a guidance display appears in association with the operation target in the vicinity of the operation target, a user who focuses on the operation target is likely to notice.

第二の手法は、コンボ列をノードとエッジとを用いたグラフとして画面に予め表示する手法である。ノードは入力操作を示し、エッジはコンボ順番を示す。第二の手法では、案内表示時間において、次の入力操作を示すノードが強調表示される。第二の手法では、案内表示に必要な表示領域が第一の手法よりも大きくなる反面、ユーザはコンボ列の入力操作の初期段階から、コンボ列の全体を理解することができる。   The second method is a method of displaying a combo string in advance on a screen as a graph using nodes and edges. A node indicates an input operation, and an edge indicates a combo order. In the second method, a node indicating the next input operation is highlighted in the guidance display time. In the second method, the display area necessary for guidance display is larger than that in the first method, but the user can understand the entire combo row from the initial stage of the combo row input operation.

第三の手法は、第一の手法を改良した手法である。第一の手法では、吹き出しを用いて次の入力操作を案内するため、画面表示領域の有効利用はできるものの、吹き出しは、操作状況を表示する操作オブジェクトと比べて、外観が大きく異なる。操作オブジェクトは、操作履歴という操作情報を用いて、入力操作に基づいた表示形態でオブジェクトを表示する。操作情報を、ゲームを表示するスクリーンにユーザによる入力操作に関する情報であると定義すると、次に案内すべき入力操作も操作情報の一種である。このため、案内表示と操作オブジェクトとは、共に操作情報を表示するために画面上に出現するものである。このため、案内表示と操作オブジェクトとの両者を同一又は類似する外観にした方がユーザに受け入れやすい。   The third method is a method obtained by improving the first method. In the first method, since the next input operation is guided using a balloon, the screen display area can be used effectively, but the appearance of the balloon is significantly different from that of the operation object displaying the operation status. The operation object displays the object in a display form based on the input operation using operation information called operation history. If the operation information is defined as information relating to an input operation by the user on the screen displaying the game, the input operation to be guided next is also a kind of operation information. For this reason, both the guidance display and the operation object appear on the screen in order to display the operation information. For this reason, it is easier for the user to accept the guidance display and the operation object if they have the same or similar appearance.

第三の手法の一例としては、操作オブジェクトの変形を利用して、操作オブジェクトを案内表示に利用する手法である。案内表示に利用された操作オブジェクトは、ユーザの入力状況を表示するものではなくなるため、案内オブジェクトとなる。案内オブジェクトは、一例として、ユーザによる前回のタッチ位置を表示位置とし、入力操作を促すように変形する。例えば、ドラッグ操作を案内する案内オブジェクトは、ドラッグ操作方向に沿って所定周期で伸縮する。このような案内オブジェクトは、操作オブジェクトを利用するユーザによって理解しやすく、受け入れやすい。   An example of the third method is a method of using an operation object for guidance display by using deformation of the operation object. Since the operation object used for the guidance display does not display the user's input status, it becomes a guidance object. For example, the guidance object is deformed so as to prompt the input operation with the previous touch position by the user as the display position. For example, a guide object that guides a drag operation expands and contracts in a predetermined cycle along the drag operation direction. Such a guide object is easy to understand and accept by a user who uses the operation object.

第四の手法は、第三の手法を改良した手法である。第三の手法の一例を実現するためには、操作オブジェクトの表示及び変形に係るプログラムを大幅に変更する必要がある。第四の手法は、操作オブジェクトのプログラムの改変を極力抑えるために採用され得る。第四の手法において、案内表示時間では、操作オブジェクトの表示を中断し、アニメーションの表示に切り替える。つまり、案内表示時間よりも前の期間においては、入力操作に応じて変形する操作オブジェクト(入力操作に基づいた表示形態の一例)でタッチスクリーン130に操作履歴(操作情報の一例)を表示させておき、案内表示時間においては、操作オブジェクトを表示させず、アニメーション(入力操作に基づかない表示形態の一例)で案内表示(操作情報の一例)を表示させる。なお、「入力操作に基づく表示形態」とは、入力操作に応じてオブジェクトの形状パラメータ又は色パラメータが制御される形態のことである。ユーザの入力操作によってアニメーションの再生開始、終了が行われた結果、タッチスクリーン130上の図形の形状・色が変更されることがあるが、このような操作は、形状パラメータ又は色パラメータを制御するものではないため、「入力操作に基づかない表示形態」の一例である。   The fourth method is a method obtained by improving the third method. In order to realize an example of the third technique, it is necessary to drastically change a program related to display and deformation of the operation object. The fourth method can be adopted to suppress the modification of the operation object program as much as possible. In the fourth method, during the guidance display time, the display of the operation object is interrupted and switched to the animation display. That is, in a period before the guidance display time, an operation history (an example of operation information) is displayed on the touch screen 130 with an operation object (an example of a display form based on the input operation) that is deformed according to the input operation. In the guidance display time, an operation object is not displayed, and a guidance display (an example of operation information) is displayed in an animation (an example of a display form not based on an input operation). The “display mode based on the input operation” is a mode in which the shape parameter or the color parameter of the object is controlled according to the input operation. As a result of starting and ending animation reproduction by a user input operation, the shape and color of the graphic on the touch screen 130 may be changed. Such an operation controls the shape parameter or the color parameter. Since it is not a thing, it is an example of a “display mode not based on an input operation”.

(アニメーションの一例)
図21は、ドラッグ操作の案内表示となるアニメーション画像の一例である。図21の画像例(A)〜画像例(C)は、タッチスクリーン130に表示された画像の一部である。画像例(A)は、操作オブジェクトの形状に類似する図形500Aを含む。画像例(B)は、図形500Aよりも横幅のある図形500Bを含む。画像例(C)は、図形500Bよりも横幅のある図形500Cを含む。画像例(A)、画像例(B)及び画像例(C)の順に切り替えられることで、横方向に延びる図形が案内表示として表現される。また、画像例(C)、画像例(B)及び画像例(A)の順に切り替えられることで、横方向に縮む図形が案内表示として表現される。このように、画像例(A)〜画像例(C)が切り替えられることで、図形が左右方向に伸縮するアニメーションとなり、案内表示時間においてドラッグ操作を案内する。
(Example of animation)
FIG. 21 is an example of an animation image serving as a drag operation guidance display. An image example (A) to an image example (C) in FIG. 21 are a part of images displayed on the touch screen 130. The image example (A) includes a graphic 500A similar to the shape of the operation object. The image example (B) includes a graphic 500B having a width wider than that of the graphic 500A. The image example (C) includes a graphic 500C having a width wider than that of the graphic 500B. By switching in the order of the image example (A), the image example (B), and the image example (C), a graphic extending in the horizontal direction is expressed as a guidance display. Further, by switching in the order of the image example (C), the image example (B), and the image example (A), a figure that shrinks in the horizontal direction is expressed as a guidance display. Thus, by switching the image example (A) to the image example (C), the figure becomes an animation that expands and contracts in the left-right direction, and guides the drag operation during the guidance display time.

(案内表示が行われる画面の遷移例)
図22は、アニメーションを利用した案内表示の一例を説明する図である。図22の画面例(A)〜画面例(F)は、タッチスクリーン130に表示された画像の一部である。画面例(A)〜画面例(F)は、順に時系列で遷移する。
(Example of screen transition for guidance display)
FIG. 22 is a diagram illustrating an example of guidance display using animation. Screen examples (A) to (F) in FIG. 22 are a part of images displayed on the touch screen 130. The screen example (A) to the screen example (F) transition in time series.

図22の画面例(A)は、ユーザによるタップ操作が行われたタイミングの画像である。タップ操作によって、操作オブジェクト300が表示されるとともに、ゲームキャラクタCA1は、タップ操作に応じて予め定められた攻撃モーション(例えば、第一モーション)を開始する。一例として、タップ操作の入力前の所定期間に入力操作を受け付けていない場合、ゲームキャラクタCA1は、タップ操作に応じて第一モーションで動作する。   The screen example (A) in FIG. 22 is an image at the timing when the tap operation by the user is performed. The operation object 300 is displayed by the tap operation, and the game character CA1 starts an attack motion (for example, a first motion) that is predetermined according to the tap operation. As an example, when the input operation is not received during a predetermined period before the tap operation is input, the game character CA1 operates in the first motion in response to the tap operation.

図22の画面例(B)は、図22の画面例(A)にて入力されたタップ操作に応じた攻撃モーション中のゲームキャラクタCA1を表示する画像である。図22の画面例(B)では、攻撃モーション中(第一モーション中)のゲームキャラクタCA1にタップ操作が入力され、操作オブジェクト300が表示される。二連続のタップ操作は、図19のテーブル例(A)の「第一コンボ列」に係るコンボ条件を満たす。なお、コンボ条件は、時間的要素を含むが、図22の説明においては、時間的要素に関するコンボ条件は省略し、詳細は後述する。「第一コンボ列」に係るコンボ条件が満たされた場合、図19のテーブル例(B)の「第一コンボ列」に係るゲーム上の効果として、次の攻撃モーションが「第二モーション」となる。ゲームキャラクタCA1は、第二モーションを開始する。   The screen example (B) in FIG. 22 is an image that displays the game character CA1 in the attack motion corresponding to the tap operation input in the screen example (A) in FIG. In the screen example (B) of FIG. 22, the tap operation is input to the game character CA1 during the attack motion (during the first motion), and the operation object 300 is displayed. The two consecutive tap operations satisfy the combo condition related to the “first combo row” in the table example (A) of FIG. Although the combo condition includes a temporal element, in the description of FIG. 22, the combo condition related to the temporal element is omitted, and details will be described later. When the combo condition related to the “first combo row” is satisfied, the next attack motion is “second motion” as an effect on the game related to the “first combo row” in the table example (B) of FIG. Become. The game character CA1 starts the second motion.

図22の画面例(C)は、図22の画面例(B)にて入力されたタップ操作に応じた攻撃モーション中(第二モーション中)のゲームキャラクタCA1を表示する画像である。「第一コンボ列」のコンボ条件が満たされたとき、次の入力操作がタップ操作であれば、「第二コンボ列」のコンボ条件を満たし、次の入力操作がフリック操作であれば「第四コンボ列」のコンボ条件を満たす。つまり、図22の画面例(C)は、分岐タイミングにおける画面例である。このとき、設定された所定期間に、図21のアニメーションによる案内表示500が表示される。以下では、上記所定期間を案内表示時間ともいう。案内表示500は、図21の図形500A〜500Cを所定の順番で再生した結果である。   The screen example (C) of FIG. 22 is an image that displays the game character CA1 during the attack motion (during the second motion) corresponding to the tap operation input in the screen example (B) of FIG. When the combo condition of the “first combo row” is satisfied, if the next input operation is a tap operation, the combo condition of the “second combo row” is satisfied, and if the next input operation is a flick operation, Satisfy the combo condition of “4 Combo Rows”. That is, the screen example (C) in FIG. 22 is a screen example at the branch timing. At this time, the guidance display 500 by the animation of FIG. 21 is displayed for the set predetermined period. Below, the said predetermined period is also called guidance display time. The guidance display 500 is a result of reproducing the figures 500A to 500C in FIG. 21 in a predetermined order.

図22の画面例(D)は、図22の画面例(C)に対して、タップ操作が入力されたタイミングの画像である。案内表示500は、アニメーションであるため、タップ操作に応じて変形しない。また、操作オブジェクトの表示も禁止されているため、タップ操作に応じた操作状況の表示も行われない。しかしながら、タップ操作が入力されているため、第二コンボ列のコンボ条件は満たされる。このため、図19のテーブル例(B)の「第二コンボ列」に係るゲーム上の効果として、次の攻撃モーションが「第一モーション」となる。ゲームキャラクタCA1は、第一モーションを開始する。   The screen example (D) in FIG. 22 is an image at the timing when the tap operation is input with respect to the screen example (C) in FIG. 22. Since the guidance display 500 is an animation, it does not deform in response to a tap operation. In addition, since the display of the operation object is also prohibited, the operation status according to the tap operation is not displayed. However, since the tap operation is input, the combo condition of the second combo row is satisfied. Therefore, the next attack motion is the “first motion” as an effect on the game related to the “second combo row” in the table example (B) of FIG. The game character CA1 starts the first motion.

図22の画面例(E)は、図22の画面例(D)にて入力されたタップ操作に応じた攻撃モーション中(第一モーション中)のゲームキャラクタCA1を表示する画像である。図22の画面例(E)では、案内表示時間が経過し、案内表示500を示すアニメーションは終了している。そして、攻撃モーション中(第一モーション中)のゲームキャラクタCA1にタップ操作が入力され、操作オブジェクト300が表示される。四連続のタップ操作は、図19のテーブル例(A)の「第三コンボ列」に係るコンボ条件を満たす。「第三コンボ列」に係るコンボ条件が満たされた場合、図19のテーブル例(B)の「第三コンボ列」に係るゲーム上の効果として、次の攻撃モーションが「第二モーション」となる。ゲームキャラクタCA1は、第二モーションを開始する。   The screen example (E) in FIG. 22 is an image that displays the game character CA1 during the attack motion (during the first motion) corresponding to the tap operation input in the screen example (D) in FIG. In the screen example (E) of FIG. 22, the guidance display time has elapsed, and the animation showing the guidance display 500 has ended. Then, the tap operation is input to the game character CA1 during the attack motion (during the first motion), and the operation object 300 is displayed. The four consecutive tap operations satisfy the combo condition related to the “third combo row” in the table example (A) of FIG. When the combo condition related to the “third combo row” is satisfied, the next attack motion is “second motion” as an effect on the game related to the “third combo row” in the table example (B) of FIG. Become. The game character CA1 starts the second motion.

図22の画面例(F)は、図22の画面例(E)にて入力されたタップ操作に応じた攻撃モーション中(第二モーション中)のゲームキャラクタCA1を表示する画像である。   The screen example (F) in FIG. 22 is an image that displays the game character CA1 during the attack motion (during the second motion) corresponding to the tap operation input in the screen example (E) in FIG.

以上、連続するタップ操作に応じて、ゲーム上の効果が変更され、かつ、案内表示時間ではアニメーションの案内表示500が表示される。   As described above, the effect on the game is changed according to successive tap operations, and the animation guidance display 500 is displayed during the guidance display time.

図23は、アニメーションを利用した案内表示の他の例を説明する図である。図23の画面例(A)〜画面例(F)は、タッチスクリーン130に表示された画像の一部である。画面例(A)〜画面例(F)は、順に時系列で遷移する。   FIG. 23 is a diagram for explaining another example of guidance display using animation. Screen examples (A) to (F) in FIG. 23 are part of an image displayed on the touch screen 130. The screen example (A) to the screen example (F) transition in time series.

図23の画面例(A)〜画面例(C)は、図22の画面例(A)〜画面例(C)と同一である。   Screen examples (A) to (C) in FIG. 23 are the same as screen examples (A) to (C) in FIG.

図23の画面例(D)は、図23の画面例(C)に対して、フリック操作が入力されたタイミングの画像である。案内表示500は、アニメーションであるため、フリック操作に応じて変形しない。また、操作オブジェクトの表示も禁止されているため、フリック操作に応じた操作状況の表示も行われない。しかしながら、フリック操作が入力されているため、第四コンボ列のコンボ条件は満たされる。このため、図19のテーブル例(B)の「第四コンボ列」に係るゲーム上の効果として、次の攻撃モーションが「第三モーション」となる。ゲームキャラクタCA1は、第三モーションを開始する。   A screen example (D) in FIG. 23 is an image at a timing when a flick operation is input with respect to the screen example (C) in FIG. Since the guidance display 500 is an animation, it does not deform according to the flick operation. In addition, since the display of the operation object is also prohibited, the operation status corresponding to the flick operation is not displayed. However, since the flick operation is input, the combo condition of the fourth combo row is satisfied. Therefore, the next attack motion is the “third motion” as an effect on the game related to the “fourth combo row” in the table example (B) of FIG. The game character CA1 starts the third motion.

図23の画面例(E)は、図23の画面例(D)にて入力されたフリック操作に応じた攻撃モーション中(第三モーション中)のゲームキャラクタCA1を表示する画像である。図23の画面例(E)では、案内表示時間が経過し、案内表示500を示すアニメーションは終了している。そして、攻撃モーション中(第三モーション中)のゲームキャラクタCA1にタップ操作が入力され、操作オブジェクト300が表示される。二連続のタップ操作とフリック操作とに続いて、さらにタップ操作された場合には、図19のテーブル例(A)の「第五コンボ列」に係るコンボ条件を満たす。「第五コンボ列」に係るコンボ条件が満たされた場合、図19のテーブル例(B)の「第五コンボ列」に係るゲーム上の効果として、次の攻撃モーションが「第三モーション」となる。ゲームキャラクタCA1は、第三モーションを開始する。   The screen example (E) in FIG. 23 is an image that displays the game character CA1 during the attack motion (during the third motion) according to the flick operation input in the screen example (D) in FIG. In the screen example (E) of FIG. 23, the guidance display time has elapsed, and the animation showing the guidance display 500 has ended. Then, the tap operation is input to the game character CA1 during the attack motion (during the third motion), and the operation object 300 is displayed. When the tap operation is further performed after the two consecutive tap operations and the flick operation, the combo condition related to the “fifth combo row” in the table example (A) of FIG. 19 is satisfied. When the combo condition related to the “fifth combo row” is satisfied, the next attack motion is “third motion” as an effect on the game related to the “fifth combo row” in the table example (B) of FIG. Become. The game character CA1 starts the third motion.

図23の画面例(F)は、図23の画面例(E)にて入力されたタップ操作に応じた攻撃モーション中(第三モーション中)のゲームキャラクタCA1を表示する画像である。   The screen example (F) in FIG. 23 is an image that displays the game character CA1 during the attack motion (during the third motion) according to the tap operation input in the screen example (E) in FIG.

以上、タップ操作及びフリック操作に応じて、ゲーム上の効果が変更され、かつ、案内表示時間ではアニメーションの案内表示500が表示される。   As described above, the effect on the game is changed according to the tap operation and the flick operation, and the animation guide display 500 is displayed during the guide display time.

(コンボ条件の時間的要素、先行入力及び後発入力)
図24は、先行入力を説明する図である。図24は、図23の画面例(B)から画面例(E)に至るまでのゲームキャラクタCA1の動作を詳細に説明する図である。
(Temporal elements of combo conditions, prior input and subsequent input)
FIG. 24 is a diagram for explaining prior input. FIG. 24 is a diagram for explaining in detail the operation of the game character CA1 from the screen example (B) to the screen example (E) in FIG.

図24に示されるように、タップ操作に応じて第二モーションが開始される。第二モーションの再生は、開始時刻t1から開始され、終了時刻t2で終了する。第二モーションの再生中に、次の入力操作を受け付けるための受付時間が設定される。受付時間は、第二モーションの再生時間(第一コンボ動作で動作するキャラクタを表示させる期間の一例)である開始時刻t1から終了時刻t2までの間に設定される。図中では、受付時間は、開始時刻t3から開始され、終了時刻t4で終了する。   As shown in FIG. 24, the second motion is started in response to the tap operation. The reproduction of the second motion starts from the start time t1 and ends at the end time t2. During the reproduction of the second motion, an acceptance time for accepting the next input operation is set. The reception time is set between the start time t1 and the end time t2, which is a playback time of the second motion (an example of a period during which a character that moves in the first combo motion is displayed). In the figure, the reception time starts from the start time t3 and ends at the end time t4.

受付時間内にコンボ攻撃に係る入力操作が受け付けられた場合に、コンボ条件が満たされたと判定される。このため、受付時間外にコンボ攻撃に係る入力操作が受け付けられた場合であっても、当該入力操作はコンボ条件を満たすか否かの判定には考慮されない。つまり、コンボ条件は時間的要素を含む。図22及び図23の説明では、時間的要素は省略したが、全ての操作について受付時間が設定され、コンボ条件として時間的要素の条件を満たすか否かが判定される。   When an input operation related to a combo attack is received within the reception time, it is determined that the combo condition is satisfied. For this reason, even if an input operation related to a combo attack is received outside the reception time, the input operation is not considered in determining whether the combo condition is satisfied. That is, the combo condition includes a temporal element. In the description of FIGS. 22 and 23, the time element is omitted, but the reception time is set for all operations, and it is determined whether or not the condition of the time element is satisfied as a combo condition.

また、受付時間内にコンボ攻撃に係る入力操作が受け付けられた場合、先行入力か後発入力かに応じて、次のモーションの再生時間の開始時刻が変更される。受付時間には、分岐可能タイミングTA(第一タイミングの一例)が予め設定されている。分岐可能タイミングTAは、分岐されたコンボに係るモーションの再生が可能となるタイミングである。受付時間内に受け付けられたコンボ攻撃に係る入力操作が、受付時間の開始時刻t3から分岐可能タイミングTAまでに受け付けられた場合には、当該入力操作は先行入力として判定される。図24の例では、フリック操作が先行入力となる。コンボ攻撃に係る入力操作が先行入力である場合、次のモーション再生は、分岐可能タイミングTAから開始される。図24の例では、第三モーション再生の開始時刻t5が分岐可能タイミングTAと同一の時刻になる。   In addition, when an input operation related to a combo attack is received within the reception time, the start time of the playback time of the next motion is changed depending on whether the input is a preceding input or a subsequent input. In the reception time, a branchable timing TA (an example of a first timing) is set in advance. The branchable timing TA is a timing at which the motion related to the branched combo can be reproduced. When the input operation related to the combo attack received within the reception time is received from the start time t3 of the reception time to the branchable timing TA, the input operation is determined as the preceding input. In the example of FIG. 24, the flick operation is the preceding input. When the input operation related to the combo attack is the preceding input, the next motion reproduction is started from the branchable timing TA. In the example of FIG. 24, the start time t5 of the third motion reproduction is the same time as the branchable timing TA.

図25は、後発入力を説明する図である。入力操作に関して図24と比較すると、フリック操作が分岐可能タイミングTAの後に受け付けられる点を除き、同一である。図25に示されるように、受付時間内に受け付けられたコンボ攻撃に係る入力操作が、分岐可能タイミングTAから受付時間の終了時刻t4までに受け付けられた場合には、当該入力操作は後発入力として判定される。図25の例では、フリック操作が後発入力となる。コンボ攻撃に係る入力操作が後発入力である場合、次のモーション再生は、後発入力のあったタイミングから開始される。図25の例では、第三モーション再生の開始時刻t5がフリック操作のあったタイミングと同一の時刻になる。   FIG. 25 is a diagram for explaining late input. The input operation is the same as that shown in FIG. 24 except that the flick operation is accepted after the branchable timing TA. As shown in FIG. 25, when an input operation related to the combo attack received within the reception time is received from the branchable timing TA to the end time t4 of the reception time, the input operation is a subsequent input. Determined. In the example of FIG. 25, the flick operation is a subsequent input. When the input operation related to the combo attack is a subsequent input, the next motion reproduction is started from the timing when the subsequent input is made. In the example of FIG. 25, the start time t5 of the third motion playback is the same as the timing when the flick operation is performed.

(案内表示時間)
図26は、案内表示時間について説明する図である。案内表示時間は、受付時間に基づいて設定される。図26に示されるように、受付時間の開始時刻t3に、案内表示時間の開始時刻t7が設定される。また、案内表示時間の終了時刻t8は、コンボ攻撃に係る入力操作が先行入力の場合には分岐可能タイミングTAを基準に設定される。例えば、案内表示時間の終了時刻t8は、分岐可能タイミングTAより第一期間M1前に終了するように設定される。第一期間M1は0を含む。このため、案内表示時間の終了時刻t8は、分岐可能タイミングTAと同時であってもよい。このように、コンボ攻撃に係る入力操作が先行入力の場合には、分岐可能タイミングTAにおいてモーション再生がスタートするため、少なくとも分岐可能タイミングTAまでに案内表示を終了させることで、映像と案内表示が同期するため、ユーザにとって理解しやすい案内表示が提供される。
(Guidance display time)
FIG. 26 is a diagram for explaining the guidance display time. The guidance display time is set based on the reception time. As shown in FIG. 26, the start time t7 of the guidance display time is set to the start time t3 of the reception time. Further, the guidance display time end time t8 is set based on the branchable timing TA when the input operation related to the combo attack is a preceding input. For example, the guidance display time end time t8 is set to end before the first period M1 from the branchable timing TA. The first period M1 includes zero. For this reason, the end time t8 of the guidance display time may be simultaneous with the branchable timing TA. As described above, when the input operation related to the combo attack is a preceding input, the motion playback starts at the branchable timing TA, so that the video and the guidance display are displayed by ending the guidance display at least by the branchable timing TA. In order to synchronize, a guidance display that is easy for the user to understand is provided.

また、案内表示時間の終了時刻t8は、コンボ攻撃に係る入力操作が後発入力の場合には受付時間の終了時刻t4を基準に設定される。例えば、案内表示時間の終了時刻t8は、受付時間の終了時刻t4より第二期間M2前に終了するように設定される。第二期間M2は0を含む。このため、案内表示時間の終了時刻t8は、受付時間の終了時刻t4と同時であってもよい。このように、コンボ攻撃に係る入力操作が後発入力の場合には、受付時間の終了時刻t4を基準として案内表示時間を設定することにより、受付時間の終了タイミングをユーザが学習することができる。   In addition, the guidance display time end time t8 is set based on the reception time end time t4 when the input operation related to the combo attack is a subsequent input. For example, the guidance display time end time t8 is set to end before the second period M2 from the reception time end time t4. The second period M2 includes 0. For this reason, the end time t8 of the guidance display time may be simultaneously with the end time t4 of the reception time. As described above, when the input operation related to the combo attack is a later input, the user can learn the end timing of the reception time by setting the guidance display time with reference to the end time t4 of the reception time.

なお、案内表示時間の終了時刻t8は、後発入力が受け付けられたタイミングで終了するようにしてもよい。この場合、映像と案内表示が同期するため、ユーザにとって理解しやすい案内表示が提供される。   Note that the guidance display time end time t8 may end at a timing when a later input is accepted. In this case, since the video and the guidance display are synchronized, a guidance display that is easy for the user to understand is provided.

(コンボ処理のフローチャート)
図27は、コンボ処理を説明するフローチャートである。図27のフローチャートは、制御部190がゲームプログラム151を実行することによりアクションゲームを進行させる処理を示すフローチャートである。図27に示されるフローチャートは、後述する分岐フラグが「0」のときに開始される。分岐フラグは、コンボ列に分岐があるときに「1」に設定され、コンボ列に分岐がないときに「0」に設定されるフラグである。
(Combo processing flowchart)
FIG. 27 is a flowchart for explaining the combo process. The flowchart in FIG. 27 is a flowchart illustrating a process for causing the control unit 190 to advance the action game by executing the game program 151. The flowchart shown in FIG. 27 is started when a later-described branch flag is “0”. The branch flag is a flag that is set to “1” when there is a branch in the combo row, and is set to “0” when there is no branch in the combo row.

ステップS90において、制御部190は、入力操作が受け付けられたか否かを判定する。   In step S90, the control unit 190 determines whether an input operation has been accepted.

入力操作が受け付けられたと判定されると(ステップS90:YES)、ステップS92において、制御部190は、操作オブジェクト300を表示するとともに、入力操作と前回入力操作との関係がコンボ条件を満たすか否かを判定する。前回入力操作とは、直前に入力された入力操作であってもよいし、所定回数前までに入力された入力操作であってもよい。制御部190は、例えば、図19に示されるテーブル例(A)のコンボテーブルTB1を参照し、ステップS90にて受け付けられた入力操作と、操作履歴に格納されている前回入力操作との関係が、何れかのコンボ列の手順と一致しているか否かを判定する。さらに、制御部190は、ステップS90にて受け付けられた入力操作が前回入力操作時に設定された受付時間内に受け付けられたものであるか否かを判定する。制御部190は、上記二つの判定が肯定的な場合、入力操作と前回入力操作との関係がコンボ条件を満たすと判定する。   If it is determined that the input operation has been accepted (step S90: YES), in step S92, the control unit 190 displays the operation object 300, and whether the relationship between the input operation and the previous input operation satisfies the combo condition. Determine whether. The previous input operation may be an input operation input immediately before or may be an input operation input a predetermined number of times before. For example, the control unit 190 refers to the combo table TB1 in the table example (A) illustrated in FIG. 19, and the relationship between the input operation accepted in step S90 and the previous input operation stored in the operation history is as follows. Then, it is determined whether or not it matches the procedure of any combo string. Further, control unit 190 determines whether or not the input operation received in step S90 is received within the reception time set at the time of the previous input operation. When the above two determinations are affirmative, the control unit 190 determines that the relationship between the input operation and the previous input operation satisfies the combo condition.

一例として、ステップS90にて受け付けられた入力操作がタップ操作であり、操作履歴に格納されている前回入力操作がタップ操作であり、前回入力操作に設定された受付時間内に入力されたものであるとする。この場合、制御部190は、「第一コンボ列」に係るコンボ条件が満たされたと判定する(図19のコンボテーブルTB1)。また、一例として、ステップS90にて受け付けられた入力操作がタップ操作であり、操作履歴に格納されている前回入力操作がタップ操作であるものの、前回入力操作に設定された受付時間外に入力されたものであるとする。この場合、制御部190は、コンボ条件が満たされていないと判定する。   As an example, the input operation received in step S90 is a tap operation, the previous input operation stored in the operation history is a tap operation, and is input within the reception time set for the previous input operation. Suppose there is. In this case, the control unit 190 determines that the combo condition related to the “first combo row” is satisfied (the combo table TB1 in FIG. 19). Further, as an example, the input operation received in step S90 is a tap operation, and the previous input operation stored in the operation history is a tap operation, but is input outside the reception time set for the previous input operation. Suppose that In this case, the control unit 190 determines that the combo condition is not satisfied.

コンボ条件が満たされていないと判定されると(ステップS92:NO)、ステップS96において、制御部190は、入力操作に応じて動作するキャラクタの表示を開始する。制御部190は、例えば、図20の画面例(A)に示されるように、第一モーションで動作するゲームキャラクタCA1の表示を開始する。   If it is determined that the combo condition is not satisfied (step S92: NO), in step S96, the control unit 190 starts displaying a character that operates in response to the input operation. For example, as illustrated in a screen example (A) in FIG. 20, the control unit 190 starts displaying the game character CA <b> 1 that operates in the first motion.

コンボ条件が満たされたと判定されると(ステップS92:YES)、ステップS94において、制御部190は、コンボ動作で動作するキャラクタの表示を開始する。制御部190は、例えば、図20の画面例(B)に示されるように、第二モーションで動作するゲームキャラクタCA1の表示を開始する(図19のコンボテーブルTB2)。   When it is determined that the combo condition is satisfied (step S92: YES), in step S94, the control unit 190 starts displaying a character that operates by a combo action. For example, as shown in the screen example (B) of FIG. 20, the control unit 190 starts displaying the game character CA1 that operates in the second motion (the combo table TB2 of FIG. 19).

ゲームキャラクタCA1の動作の表示が開始されると(ステップS94又はステップS96)、ステップS97において、制御部97は、次の入力操作のための受付時間を設定する(図24,図25)。   When the display of the action of the game character CA1 is started (step S94 or step S96), in step S97, the control unit 97 sets a reception time for the next input operation (FIGS. 24 and 25).

続いて、ステップS98において、制御部190は、コンボ列の分岐が存在するか否かを判定する。制御部190は、一例として、図19に示されるテーブル例(A)のコンボテーブルTB1及び操作履歴を参照し、ステップS90にて受け付けられた入力操作と、次回の入力操作との関係が複数のコンボ条件を満たす状況であるか否かを判定する。一例として、前回のタップ操作が1回、ステップS90にて受け付けられた入力操作がタップ操作である場合を説明する。このような二連続のタップ操作が受け付けられたとき、図19のコンボテーブルTB1に示されるように、次の入力操作がタップ操作であれば「第二コンボ列」を満たし、次の入力操作がフリック操作であれば「第四コンボ列」を満たす。このような場合、制御部190は、コンボ列の分岐があると判定する。   Subsequently, in step S98, the control unit 190 determines whether or not a combo string branch exists. For example, the control unit 190 refers to the combo table TB1 and the operation history in the table example (A) illustrated in FIG. 19, and there are a plurality of relationships between the input operation accepted in step S90 and the next input operation. It is determined whether the situation satisfies the combo condition. As an example, a case will be described in which the previous tap operation is once and the input operation accepted in step S90 is a tap operation. When such two consecutive tap operations are accepted, as shown in the combo table TB1 of FIG. 19, if the next input operation is a tap operation, the “second combo row” is satisfied, and the next input operation is performed. If it is a flick operation, the “fourth combo row” is satisfied. In such a case, the control unit 190 determines that there is a combo string branch.

コンボ列の分岐があると判定されると(S98:YES)、ステップS100において、制御部190は、分岐フラグを「1」に設定する。一方、コンボ列の分岐がないと判定されると(S98:YES)、ステップS102において、制御部190は、分岐フラグを「0」に設定する。   If it is determined that there is a combo string branch (S98: YES), in step S100, the control unit 190 sets the branch flag to “1”. On the other hand, if it is determined that there is no branch in the combo row (S98: YES), the control unit 190 sets the branch flag to “0” in step S102.

入力操作が受け付けられていないと判定された場合(ステップS90:NO)、又は、分岐フラグの設定が終了した場合(ステップS100又はステップS102)には、図27に示されるフローチャートは、終了する。そして、制御部190は、分岐フラグが「0」である場合、図27に示されるフローチャートを最初から実行する。   When it is determined that the input operation has not been accepted (step S90: NO), or when the setting of the branch flag is finished (step S100 or step S102), the flowchart shown in FIG. 27 is finished. Then, when the branch flag is “0”, the control unit 190 executes the flowchart shown in FIG. 27 from the beginning.

(コンボ列の分岐時におけるコンボ処理のフローチャート)
図28は、コンボ列の分岐時におけるコンボ処理のフローチャートである。図28のフローチャートは、制御部190がゲームプログラム151を実行することによりアクションゲームを進行させる処理を示すフローチャートである。図28に示されるフローチャートは、分岐フラグが「1」のときに開始される。なお、以下ではコンボ列の分岐先が二つである場合、例えば、図20の画面例(B)における状況を一例として説明する。
(Flow chart of combo process when branching combo line)
FIG. 28 is a flowchart of the combo process when the combo string is branched. The flowchart in FIG. 28 is a flowchart illustrating a process for causing the control unit 190 to advance the action game by executing the game program 151. The flowchart shown in FIG. 28 is started when the branch flag is “1”. In the following, when there are two branch destinations in the combo row, for example, the situation in the screen example (B) in FIG. 20 will be described as an example.

ステップS110において、制御部190は、入力操作が受け付けられたか否かを判定する。   In step S110, the control unit 190 determines whether an input operation has been accepted.

入力操作が受け付けられたと判定されると(ステップS110:YES)、ステップS112において、制御部190は、入力操作と前回入力操作との関係が第一コンボ条件を満たすか否かを判定する。第一コンボ条件は、分岐する二つのコンボ列のうち、一方のコンボ列に係るコンボ条件である。制御部190は、例えば、図19に示されるテーブル例(A)のコンボテーブルTB1を参照し、ステップS110にて受け付けられた入力操作と、操作履歴に格納されている前回入力操作との関係が、「第二コンボ列」の手順と一致しているか否かを判定する(第一コンボ条件の一例)。さらに、制御部190は、ステップS110にて受け付けられた入力操作が前回入力操作時に設定された受付時間内に受け付けられたものであるか否かを判定する(第一コンボ条件の一例)。制御部190は、上記二つの判定が肯定的な場合、入力操作と前回入力操作との関係が第一コンボ条件を満たすと判定する。   If it is determined that the input operation has been accepted (step S110: YES), in step S112, the control unit 190 determines whether or not the relationship between the input operation and the previous input operation satisfies the first combo condition. The first combo condition is a combo condition related to one of the two combo strings to be branched. For example, the control unit 190 refers to the combo table TB1 of the table example (A) shown in FIG. 19 and the relationship between the input operation accepted in step S110 and the previous input operation stored in the operation history is as follows. , It is determined whether or not the procedure matches the “second combo row” (an example of a first combo condition). Furthermore, the control unit 190 determines whether or not the input operation received in step S110 is received within the reception time set during the previous input operation (an example of a first combo condition). When the two determinations are positive, the control unit 190 determines that the relationship between the input operation and the previous input operation satisfies the first combo condition.

第一コンボ条件が満たされたと判定されると(ステップS112:YES)、ステップS114において、制御部190は、第一コンボ動作で動作するキャラクタの表示を開始する。一例として、「第二コンボ列」に係るコンボ条件が満たされたとすると、制御部190は、例えば、図20の画面例(C)に示されるように、第一モーション(第一コンボ動作の一例)で動作するゲームキャラクタCA1の表示を開始する。   When it is determined that the first combo condition is satisfied (step S112: YES), in step S114, the control unit 190 starts displaying a character that operates in the first combo action. As an example, if the combo condition related to the “second combo row” is satisfied, the control unit 190 may display the first motion (an example of the first combo operation) as illustrated in the screen example (C) of FIG. 20, for example. ) Starts the display of the game character CA1 that operates.

第一コンボ条件が満たされていないと判定されると(ステップS112:NO)、ステップS116において、制御部190は、入力操作と前回入力操作との関係が第二コンボ条件を満たすか否かを判定する。第二コンボ条件は、分岐する二つのコンボ列のうち、他方のコンボ列に係るコンボ条件である。制御部190は、例えば、図19に示されるテーブル例(A)のコンボテーブルTB1を参照し、ステップS110にて受け付けられた入力操作と、操作履歴に格納されている前回入力操作との関係が、「第四コンボ列」の手順と一致しているか否かを判定する(第二コンボ条件の一例)。さらに、制御部190は、ステップS110にて受け付けられた入力操作が前回入力操作時に設定された受付時間内に受け付けられたものであるか否かを判定する(第二コンボ条件の一例)。制御部190は、上記二つの判定が肯定的な場合、入力操作と前回入力操作との関係が第二コンボ条件を満たすと判定する。   If it is determined that the first combo condition is not satisfied (step S112: NO), in step S116, the control unit 190 determines whether the relationship between the input operation and the previous input operation satisfies the second combo condition. judge. The second combo condition is a combo condition related to the other combo row of the two combo rows to be branched. For example, the control unit 190 refers to the combo table TB1 of the table example (A) shown in FIG. 19 and the relationship between the input operation accepted in step S110 and the previous input operation stored in the operation history is as follows. , It is determined whether or not the procedure matches the “fourth combo row” (an example of a second combo condition). Furthermore, the control unit 190 determines whether or not the input operation received in step S110 is received within the reception time set during the previous input operation (an example of a second combo condition). When the two determinations are positive, the control unit 190 determines that the relationship between the input operation and the previous input operation satisfies the second combo condition.

第二コンボ条件が満たされたと判定されると(ステップS116:YES)、ステップS118において、制御部190は、第二コンボ動作で動作するキャラクタの表示を開始する。一例として、「第四コンボ列」に係るコンボ条件が満たされたとすると、制御部190は、例えば、図20の画面例(E)に示されるように、第三モーション(第二コンボ動作の一例)で動作するゲームキャラクタCA1の表示を開始する。   If it is determined that the second combo condition is satisfied (step S116: YES), in step S118, the control unit 190 starts displaying a character that operates in the second combo action. As an example, when the combo condition related to the “fourth combo row” is satisfied, the control unit 190, for example, as shown in the screen example (E) of FIG. ) Starts the display of the game character CA1 that operates.

第二コンボ条件が満たされていないと判定されると(ステップS116:NO)、ステップS120において、制御部190は、入力操作に応じて動作するキャラクタの表示を開始する。制御部190は、例えば、図20の画面例(A)に示されるように、第一モーションで動作するゲームキャラクタCA1の表示を開始する。   If it is determined that the second combo condition is not satisfied (step S116: NO), in step S120, the control unit 190 starts displaying a character that operates in response to an input operation. For example, as illustrated in a screen example (A) in FIG. 20, the control unit 190 starts displaying the game character CA <b> 1 that operates in the first motion.

ゲームキャラクタCA1の動作の表示が開始されると(ステップS114、ステップS118又はステップS120)、ステップS122において、制御部97は、次の入力操作のための受付時間を設定する(図24,図25)。   When the display of the action of the game character CA1 is started (step S114, step S118 or step S120), in step S122, the control unit 97 sets a reception time for the next input operation (FIGS. 24 and 25). ).

続いて、ステップS124において、制御部190は、分岐フラグ処理を行う。分岐フラグ処理は、図27のステップS98、ステップS100及びステップS102と同一である。   Subsequently, in step S124, the control unit 190 performs a branch flag process. The branch flag process is the same as steps S98, S100, and S102 in FIG.

入力操作が受け付けられていないと判定された場合(ステップS110:NO)、又は、分岐フラグの設定が終了した場合(ステップS124)には、図28に示されるフローチャートは、終了する。そして、制御部190は、分岐フラグが「1」である場合、図28に示されるフローチャートを最初から実行する。   When it is determined that the input operation has not been accepted (step S110: NO), or when the setting of the branch flag is completed (step S124), the flowchart shown in FIG. 28 ends. Then, when the branch flag is “1”, the control unit 190 executes the flowchart shown in FIG. 28 from the beginning.

(案内表示処理のフローチャート)
図29は、案内表示処理のフローチャートである。図29のフローチャートは、制御部190がゲームプログラム151を実行することによりアクションゲームを進行させる処理を示すフローチャートである。図29に示されるフローチャートは、分岐フラグが「1」のときに開始される。このため、図28に示されるフローチャートと並行して行われる。また、以下では、図20の画面例(B)における状況を一例として説明する。そして、案内表示は、ゲーム上の効果が大きい第四コンボ列に係る操作を案内するものとする。
(Flowchart of guidance display processing)
FIG. 29 is a flowchart of the guidance display process. The flowchart in FIG. 29 is a flowchart illustrating a process for causing the control unit 190 to advance the action game by executing the game program 151. The flowchart shown in FIG. 29 is started when the branch flag is “1”. For this reason, it is performed in parallel with the flowchart shown in FIG. Hereinafter, the situation in the screen example (B) of FIG. 20 will be described as an example. And guidance display shall guide operation which concerns on the 4th combo row | line with a big effect on a game.

ステップS132において、制御部190は、分岐可能タイミングTAを設定する(図24,図25)。制御部190は、直前に入力された入力操作に設定された受付時間に対して、分岐可能タイミングTAを設定する。一例として、制御部190は、受付時間の開始から所定時間の間隔を空けて分岐可能タイミングTAを設定する。   In step S132, the control unit 190 sets a branchable timing TA (FIGS. 24 and 25). The control unit 190 sets the branchable timing TA for the reception time set for the input operation input immediately before. As an example, the control unit 190 sets the branchable timing TA with a predetermined time interval from the start of the reception time.

続いて、ステップS134において、制御部190は、案内表示を開始する。制御部190は、一例として、直前に入力された入力操作に設定された受付時間の開始とともに、図21に示されたアニメーションの再生を行う。この場合、受付時間の開始とともに次の入力操作(第四コンボ列のフリック操作)の入力を促すアニメーションが表示される。なお、案内表示時間の開始を、受付時間の開始よりも所定時間遅らせてもよい。   Subsequently, in step S134, the control unit 190 starts displaying guidance. For example, the control unit 190 reproduces the animation shown in FIG. 21 together with the start of the reception time set for the input operation input immediately before. In this case, an animation that prompts input of the next input operation (flick operation of the fourth combo row) is displayed as the reception time starts. The start of the guidance display time may be delayed by a predetermined time from the start of the reception time.

続いて、ステップS136において、制御部190は、入力操作と前回入力操作との関係が第二コンボ条件を満たすか否かを判定する。この処理は、図28のステップS116と同一である。   Subsequently, in step S136, the control unit 190 determines whether or not the relationship between the input operation and the previous input operation satisfies the second combo condition. This process is the same as step S116 in FIG.

第二コンボ条件が満たされたと判定されると(ステップS136:YES)、ステップS138において、制御部190は、次の入力操作(第四コンボ列のフリック操作)が先行入力であるか後発入力であるかを判定する(図24,図25)。次の入力操作が先行入力である場合、制御部190は、分岐可能タイミングTAを基準に案内表示時間の終了タイミングを設定する。例えば、制御部190は、分岐可能タイミングTAより第一期間M1前に案内表示時間の終了時刻t8を設定する(図26)。次の入力操作が後発入力である場合、制御部190は、受付時間の終了時刻を基準に案内表示時間の終了タイミングを設定する。例えば、制御部190は、受付時間の終了時刻t4より第二期間M2前に案内表示時間の終了時刻t8を設定する(図26)。あるいは、制御部190は、後発入力を基準に案内表示時間の終了タイミングを設定してもよい。例えば、制御部190は、後発入力と同一又は所定時間経過後のタイミングに案内表示時間の終了時刻t8を設定する。   If it is determined that the second combo condition is satisfied (step S136: YES), in step S138, the control unit 190 determines whether the next input operation (flick operation of the fourth combo row) is a preceding input or a subsequent input. It is determined whether there is any (FIGS. 24 and 25). When the next input operation is a preceding input, the control unit 190 sets the end timing of the guidance display time based on the branchable timing TA. For example, the control unit 190 sets the end time t8 of the guidance display time before the first period M1 from the branchable timing TA (FIG. 26). When the next input operation is a late input, the control unit 190 sets the end timing of the guidance display time based on the end time of the reception time. For example, the control unit 190 sets the guidance display time end time t8 before the second period M2 from the reception time end time t4 (FIG. 26). Or the control part 190 may set the completion | finish timing of guidance display time on the basis of late input. For example, the control unit 190 sets the end time t8 of the guidance display time at the same timing as the later input or after a predetermined time has elapsed.

一方、第二コンボ条件が満たされていないと判定されると(ステップS136:NO)、ステップS140において、制御部190は、受付時間の終了時刻を基準に案内表示時間の終了タイミングを設定する。例えば、制御部190は、受付時間の終了時刻t4より第二期間M2前に案内表示時間の終了時刻t8を設定する。   On the other hand, if it is determined that the second combo condition is not satisfied (step S136: NO), in step S140, the control unit 190 sets the end timing of the guidance display time based on the end time of the reception time. For example, the control unit 190 sets the guidance display time end time t8 before the second period M2 from the reception time end time t4.

終了タイミングの設定が終了すると、ステップS142として、制御部190は、設定されたタイミングで案内表示を終了する。以上で図29に示されるフローチャートは、終了する。そして、制御部190は、分岐フラグが「1」である場合、図29に示されるフローチャートを最初から実行する。   When the setting of the end timing is completed, in step S142, the control unit 190 ends the guidance display at the set timing. This is the end of the flowchart shown in FIG. Then, when the branch flag is “1”, the control unit 190 executes the flowchart shown in FIG. 29 from the beginning.

(案内表示のまとめ)
案内表示は、コンボ列が分岐するタイミングで表示される。案内表示は、一例として、操作オブジェクトに類似したアニメーションが再生される。また、アニメーション再生時においては、操作オブジェクトは表示させない。
(Summary of guidance display)
The guidance display is displayed at the timing when the combo row branches. As an example of the guidance display, an animation similar to an operation object is reproduced. Also, the operation object is not displayed during animation playback.

(変形例1)
制御部190は、コンボの手順を定義するコンボテーブルTB1を参照してコンボ列の分岐を判定していたが、これに限定されるものではない。例えば、制御部190は、操作内容と分岐フラグとが関連付けられた分岐タイミングテーブルを参照してもよい。分岐タイミングテーブルは、コンボテーブルTB1から予め作成することができる。
(Modification 1)
The control unit 190 refers to the combo table TB1 that defines the combo procedure, and determines the branch of the combo row. However, the control unit 190 is not limited to this. For example, the control unit 190 may refer to a branch timing table in which an operation content and a branch flag are associated. The branch timing table can be created in advance from the combo table TB1.

(変形例2)
さらに、実施形態では、カメラ配置制御部194は、コンボ攻撃中においてはコンボ攻撃の最初の攻撃操作に基づいて仮想カメラVCの撮影方向を決定し、以降のコンボ攻撃中の撮影方向を固定する例を説明したが、これに限定されない。例えば、カメラ配置制御部194は、攻撃操作(コンボ攻撃操作を含む)を受け付けた場合には、常にゲームキャラクタCA1をその背後から撮影するように仮想カメラVCを制御してもよい。つまり、コンボ攻撃中においては、最初の攻撃操作に基づいて決定された仮想カメラVCの撮影方向(ゲームキャラクタCA1をその背後から撮影する方向)を維持するように、仮想カメラの撮影方向を変更し続ける。この場合、制御部190は、図18のステップS74、ステップS78の攻撃時において、攻撃対象となる敵キャラクタCA2にゲームキャラクタCA1を向かせ、ゲームキャラクタCA1の向きに応じて仮想カメラVCの撮影方向を制御する(図15のステップS40及びS42に相当する処理が行われる)。これにより、戦闘シーンにおいては、ゲームキャラクタCA1は常に敵キャラクタCA2に正面から対峙し、常にゲームキャラクタCA1の背後から観察するゲーム画面が提供される。このようなカメラワークとすることにより、ユーザがキャラクタの向きを見失うことが無いため、攻撃操作に方向性のある入力操作が含まれる場合であっても、操作性を向上させることができる。
(Modification 2)
Furthermore, in the embodiment, the camera arrangement control unit 194 determines the shooting direction of the virtual camera VC based on the first attack operation of the combo attack during the combo attack, and fixes the shooting direction during the subsequent combo attack. However, the present invention is not limited to this. For example, when an attack operation (including a combo attack operation) is accepted, the camera arrangement control unit 194 may control the virtual camera VC so that the game character CA1 is always shot from behind. That is, during the combo attack, the shooting direction of the virtual camera is changed so as to maintain the shooting direction of the virtual camera VC determined based on the first attack operation (the direction in which the game character CA1 is shot from behind). to continue. In this case, the control unit 190 directs the game character CA1 to the enemy character CA2 to be attacked at the time of the attack in step S74 and step S78 in FIG. 18, and the shooting direction of the virtual camera VC according to the direction of the game character CA1. (The processing corresponding to steps S40 and S42 in FIG. 15 is performed). Thereby, in the battle scene, a game screen is provided in which the game character CA1 always faces the enemy character CA2 from the front and is always observed from behind the game character CA1. By using such camera work, the user does not lose sight of the character's direction, so that the operability can be improved even when the attack operation includes a directional input operation.

(変形例3)
ドラッグ操作の操作結果を示す操作オブジェクト300は、複数のオブジェクトを用いて操作結果が表現されもよい。
(Modification 3)
The operation object 300 indicating the operation result of the drag operation may be expressed using a plurality of objects.

(変形例4)
連撃操作中に含まれている操作は、フリック操作である例を説明したが、ドラッグ操作であってもよい。
(Modification 4)
The operation included during the continuous hit operation has been described as an example of a flick operation, but may be a drag operation.

(変形例5)
タッチスクリーン130は、モーションセンサ及びディスプレイ装置からなるデバイスに置き換えてもよい。
(Modification 5)
The touch screen 130 may be replaced with a device including a motion sensor and a display device.

(変形例6)
上述したゲーム処理の全てを携帯端末10又はサーバ20が単体で実行してもよい。
(Modification 6)
The mobile terminal 10 or the server 20 may execute all the game processes described above alone.

以上、本開示の実施形態について説明したが、本開示の技術的範囲は、本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲の記載事項に基づいて、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本開示の技術的範囲は、特許請求の範囲の記載事項及びその均等の範囲に基づいて定められるべきである。   As mentioned above, although embodiment of this indication was described, the technical scope of this indication should not be interpreted limitedly by explanation of this embodiment. This embodiment is an example, and it is understood by those skilled in the art that various embodiments can be changed based on the description in the claims. The technical scope of the present disclosure should be determined based on the matters described in the claims and the equivalents thereof.

本開示の主題は、例えば以下のような項目として示される。   The subject matter of the present disclosure is indicated as, for example, the following items.

(項目1)
スクリーン(例えばタッチスクリーン130)に表示されるゲームのキャラクタ(例えばゲームキャラクタ)をユーザによる入力操作に応じて動作させるために、コンピュータによって実行される情報処理方法であって、
前記入力操作を受け付けた場合であって、前記入力操作と前回入力操作との関係が所定のコンボ条件(例えば第一コンボ列に係るコンボ条件)を満たしているときには、所定のコンボ動作(例えば第二モーション)で動作する前記キャラクタを前記スクリーンに表示させる第一表示ステップ(例えばステップS92、ステップS94)と、
前記入力操作と次回の第一入力操作(例えばタップ操作)との関係が、前記所定のコンボ動作で動作する前記キャラクタを表示させる第一コンボ条件(例えば第二コンボ列に係るコンボ条件)を満たす状況であり、かつ、前記入力操作と次回の第二入力操作(例えばフリック操作)との関係が、前記キャラクタを第二コンボ動作で動作させるための第二コンボ条件(例えば第四コンボ列に係るコンボ条件)を満たす状況である場合には、前記所定のコンボ動作で動作する前記キャラクタの表示中において、前記第二入力操作の入力を促す案内表示を前記スクリーンに表示させる案内表示ステップ(例えばステップS134)と、
前記第二入力操作を受け付けた場合には、第二コンボ動作(例えば第三モーション)で動作する前記キャラクタを前記スクリーンに表示させる第二表示ステップ(例えばステップS118)と、
を備える情報処理方法。
(Item 1)
An information processing method executed by a computer to operate a game character (for example, a game character) displayed on a screen (for example, a touch screen 130) in accordance with an input operation by a user,
When the input operation is accepted and the relationship between the input operation and the previous input operation satisfies a predetermined combo condition (for example, a combo condition related to the first combo row), a predetermined combo operation (for example, a first combo operation) A first display step (for example, step S92, step S94) for displaying the character operating in two motions on the screen;
The relationship between the input operation and the next first input operation (for example, a tap operation) satisfies a first combo condition (for example, a combo condition related to the second combo row) for displaying the character that operates in the predetermined combo operation. And the relationship between the input operation and the next second input operation (for example, flick operation) is related to a second combo condition (for example, a fourth combo row) for causing the character to move with the second combo operation. When the situation satisfies the combo condition), a guidance display step (for example, step) is performed to display a guidance display for prompting the input of the second input operation on the screen while the character operating in the predetermined combo motion is displayed. S134)
When receiving the second input operation, a second display step (for example, step S118) for displaying the character that operates in a second combo operation (for example, third motion) on the screen;
An information processing method comprising:

この情報処理方法によれば、コンボ列の分岐タイミングにおいて案内表示をスクリーンに表示させることができるので、適切なタイミングでユーザに次の入力操作を案内することができる。   According to this information processing method, since the guidance display can be displayed on the screen at the branch timing of the combo row, the next input operation can be guided to the user at an appropriate timing.

(項目2)
前記案内表示ステップでは、前記所定のコンボ動作で動作する前記キャラクタを表示させる期間(例えば、第二モーション再生期間:時刻t1〜時刻t2)に前記第二入力操作の受付時間(例えば、時刻t3〜時刻t4)が設定され、前記受付時間に基づいて前記案内表示の表示時間(例えば、時刻t7〜時刻t8)が設定される、項目1に記載の情報処理方法。
(Item 2)
In the guidance display step, the reception time of the second input operation (for example, the time t3 to the time t3) is displayed in a period (for example, the second motion reproduction period: time t1 to time t2) for displaying the character that operates in the predetermined combo motion The information processing method according to item 1, wherein time t4) is set, and a display time of the guidance display (for example, time t7 to time t8) is set based on the reception time.

この情報処理方法によれば、受付時間外の入力操作を、コンボ判定から除外することができる。   According to this information processing method, an input operation outside the reception time can be excluded from the combo determination.

(項目3)
前記受付時間には第一タイミング(例えば分岐可能タイミングTA)が設定され、
前記第二表示ステップでは、前記受付時間の開始から前記第一タイミングまでに前記第二入力操作が受け付けられた場合(例えば先行入力)には、第二コンボ動作で動作する前記キャラクタを前記第一タイミングから前記スクリーンに表示させ、前記第一タイミングから前記受付時間の終了までに前記第二入力操作が受け付けられた場合(例えば後発入力)には、第二コンボ動作で動作する前記キャラクタを前記第二入力操作が受け付けられたタイミングから前記スクリーンに表示させる、項目2に記載の情報処理方法。
(Item 3)
A first timing (for example, a branchable timing TA) is set for the reception time,
In the second display step, when the second input operation is received between the start of the reception time and the first timing (for example, preceding input), the character that moves in the second combo motion is When the second input operation is received from the first timing to the end of the reception time from the timing (for example, late input), the character operating in the second combo action is displayed on the screen. The information processing method according to item 2, wherein the information is displayed on the screen from a timing when a two-input operation is received.

この情報処理方法によれば、コンボ動作をするキャラクタの動きの開始タイミングを、先行入力と後発入力とで変更することができる。   According to this information processing method, the start timing of the movement of the character performing the combo action can be changed between the preceding input and the subsequent input.

(項目4)
前記案内表示ステップでは、前記表示時間の終了は、前記受付時間の終了時、又は、前記受付時間の終了よりも所定時間前に設定される、項目2又は3に記載の情報処理方法。
(Item 4)
4. The information processing method according to item 2 or 3, wherein, in the guidance display step, the end of the display time is set at the end of the reception time or a predetermined time before the end of the reception time.

この情報処理方法によれば、受付終了した操作を案内表示によって案内することを回避することができる。   According to this information processing method, it is possible to avoid guiding an operation for which reception has been completed by guidance display.

(項目5)
前記案内表示ステップでは、前記受付時間の開始から前記第一タイミングまでに前記第二入力操作が受け付けられた場合には、前記表示時間の終了は、前記第一タイミング、又は、前記第一タイミングよりも所定時間前(例えば第一期間M1)に設定され、前記第一タイミングから前記受付時間の終了までに前記第二入力操作が受け付けられた場合には、前記表示時間の終了は、前記第二入力操作が受け付けられたタイミング、前記受付時間の終了、又は、前記受付時間の終了よりも所定時間前(例えば第二期間M2)に設定される、項目2〜4の何れか一項に記載の情報処理方法。
(Item 5)
In the guidance display step, when the second input operation is received from the start of the reception time to the first timing, the end of the display time is from the first timing or the first timing. Is set a predetermined time before (for example, the first period M1), and when the second input operation is received from the first timing to the end of the reception time, the end of the display time is Item 5. The item according to any one of Items 2 to 4, which is set at a timing when an input operation is received, the end of the reception time, or a predetermined time before the end of the reception time (for example, the second period M2). Information processing method.

この情報処理方法によれば、少なくとも第一タイミングまでに案内表示を終了させることで、映像と案内表示が同期するため、ユーザにとって理解しやすい案内表示が提供される。また、この情報処理方法によれば、受付時間の終了時刻を基準として案内表示時間を設定することにより、受付時間の終了タイミングをユーザに学習させることができる。   According to this information processing method, by terminating the guidance display at least by the first timing, the video and the guidance display are synchronized, so that a guidance display that is easy for the user to understand is provided. Further, according to this information processing method, by setting the guidance display time based on the end time of the reception time, the user can learn the end timing of the reception time.

(項目6)
前記案内表示は、前記キャラクタの近傍に前記キャラクタと関連付けて表示される、項目1〜5の何れか一項に記載の情報処理方法。
(Item 6)
The information processing method according to any one of Items 1 to 5, wherein the guidance display is displayed in association with the character in the vicinity of the character.

この情報処理方法によれば、操作対象に着目しているユーザに対しても案内することができる。   According to this information processing method, it is possible to provide guidance to a user who is paying attention to the operation target.

(項目7)
前記案内表示は、前記スクリーンの所定位置に、ノードとエッジとを用いたグラフとして表示される、項目1〜5の何れか一項に記載の情報処理方法。
(Item 7)
The information processing method according to any one of Items 1 to 5, wherein the guidance display is displayed as a graph using nodes and edges at a predetermined position on the screen.

この情報処理方法によれば、ユーザはコンボ列の入力操作の初期段階から、コンボ列の全体を理解することができる。   According to this information processing method, the user can understand the entire combo string from the initial stage of the combo string input operation.

(項目8)
前記案内表示は、前記スクリーンがタッチスクリーンである場合に、操作オブジェクトを変形させることによって生成される、項目1〜5の何れか一項に記載の情報処理方法。
(Item 8)
The information processing method according to any one of Items 1 to 5, wherein the guidance display is generated by deforming an operation object when the screen is a touch screen.

この情報処理方法によれば、操作オブジェクトを利用するユーザによって理解しやすく、受け入れやすい。   According to this information processing method, it is easy to understand and accept by the user who uses the operation object.

(項目9)
項目1〜8の何れか一項に記載の方法をコンピュータに実行させる、プログラム。
(Item 9)
A program that causes a computer to execute the method according to any one of items 1 to 8.

(項目10)
メモリと、
前記メモリに結合されたプロセッサとを備え、
前記プロセッサの制御により項目1〜8の何れか一項に記載の方法を実行する、装置。
(Item 10)
Memory,
A processor coupled to the memory;
The apparatus which performs the method as described in any one of the items 1-8 by control of the said processor.

1…ゲーム提供システム、10…携帯端末、20…サーバ、25…メモリ、26…スト
レージ、29…プロセッサ、130…タッチスクリーン、150…記憶部、151…ゲー
ムプログラム、190…制御部、191…入力操作受付部、192…ゲーム進行処理部、
193…移動方向検出部、194…カメラ配置制御部、195…オブジェクト制御部、1
96…表示制御部、220…通信部、250…記憶部、251…ゲームプログラム、29
0…制御部、291…送受信部、292…サーバ処理部、293…データ管理部、294
…マッチング部、295…計測部、300,400…操作オブジェクト、500…案内表
示、CA1…ゲームキャラクタ(キャラクタの一例)。

DESCRIPTION OF SYMBOLS 1 ... Game provision system, 10 ... Portable terminal, 20 ... Server, 25 ... Memory, 26 ... Storage, 29 ... Processor, 130 ... Touch screen, 150 ... Memory | storage part, 151 ... Game program, 190 ... Control part, 191 ... Input Operation accepting unit, 192 ... game progress processing unit,
193: Movement direction detection unit, 194: Camera arrangement control unit, 195 ... Object control unit, 1
96 ... Display control unit, 220 ... Communication unit, 250 ... Storage unit, 251 ... Game program, 29
DESCRIPTION OF SYMBOLS 0 ... Control part, 291 ... Transmission / reception part, 292 ... Server processing part, 293 ... Data management part, 294
... matching unit, 295 ... measuring unit, 300, 400 ... operation object, 500 ... guidance display, CA1 ... game character (an example of a character).

Claims (10)

スクリーンに表示されるゲームのキャラクタをユーザによる入力操作に応じて動作させるために、コンピュータによって実行される情報処理方法であって、
前記入力操作を受け付けた場合であって、前記入力操作と前回入力操作との関係が所定のコンボ条件を満たしているときには、所定のコンボ動作で動作する前記キャラクタを前記スクリーンに表示させる第一表示ステップと、
前記入力操作と次回の第一入力操作との関係が、前記キャラクタを第一コンボ動作で動作させるための第一コンボ条件を満たす状況であり、かつ、前記入力操作と次回の第二入力操作との関係が、前記キャラクタを第二コンボ動作で動作させるための第二コンボ条件を満たす状況である場合には、前記所定のコンボ動作で動作する前記キャラクタの表示中において、前記第二入力操作の入力を促す案内表示を前記スクリーンに表示させる案内表示ステップと、
前記第二入力操作を受け付けた場合には、前記第二コンボ動作で動作する前記キャラクタを前記スクリーンに表示させる第二表示ステップと、
を備える情報処理方法。
An information processing method executed by a computer to operate a game character displayed on a screen in accordance with an input operation by a user,
When the input operation is accepted and the relationship between the input operation and the previous input operation satisfies a predetermined combo condition, a first display that displays the character that operates in a predetermined combo operation on the screen Steps,
The relationship between the input operation and the next first input operation is a condition that satisfies a first combo condition for moving the character in the first combo operation, and the input operation and the next second input operation are Is a situation that satisfies the second combo condition for moving the character with the second combo action, the second input operation is performed while the character operating with the predetermined combo action is being displayed. A guidance display step for displaying a guidance display prompting input on the screen;
When receiving the second input operation, a second display step of displaying the character operating in the second combo action on the screen;
An information processing method comprising:
前記案内表示ステップでは、前記所定のコンボ動作で動作する前記キャラクタを表示させる期間に前記第二入力操作の受付時間が設定され、前記受付時間に基づいて前記案内表示の表示時間が設定される、請求項1に記載の情報処理方法。   In the guidance display step, a reception time for the second input operation is set during a period for displaying the character that operates in the predetermined combo action, and a display time for the guidance display is set based on the reception time. The information processing method according to claim 1. 前記受付時間には第一タイミングが設定され、
前記第二表示ステップでは、前記受付時間の開始から前記第一タイミングまでに前記第二入力操作が受け付けられた場合には、第二コンボ動作で動作する前記キャラクタを前記第一タイミングから前記スクリーンに表示させ、前記第一タイミングから前記受付時間の終了までに前記第二入力操作が受け付けられた場合には、第二コンボ動作で動作する前記キャラクタを前記第二入力操作が受け付けられたタイミングから前記スクリーンに表示させる、請求項2に記載の情報処理方法。
A first timing is set for the reception time,
In the second display step, when the second input operation is received from the start of the reception time to the first timing, the character operating in the second combo action is transferred from the first timing to the screen. And when the second input operation is received from the first timing to the end of the reception time, the character operating in the second combo action is displayed from the timing when the second input operation is received. The information processing method according to claim 2, wherein the information processing method is displayed on a screen.
前記案内表示ステップでは、前記表示時間の終了は、前記受付時間の終了時、又は、前記受付時間の終了よりも所定時間前に設定される、請求項2又は3に記載の情報処理方法。   The information processing method according to claim 2 or 3, wherein in the guidance display step, the end of the display time is set at the end of the reception time or a predetermined time before the end of the reception time. 前記案内表示ステップでは、前記受付時間の開始から前記第一タイミングまでに前記第二入力操作が受け付けられた場合には、前記表示時間の終了は、前記第一タイミング、又は、前記第一タイミングよりも所定時間前に設定され、前記第一タイミングから前記受付時間の終了までに前記第二入力操作が受け付けられた場合には、前記表示時間の終了は、前記第二入力操作が受け付けられたタイミング、前記受付時間の終了、又は、前記受付時間の終了よりも所定時間前に設定される、請求項3に記載の情報処理方法。   In the guidance display step, when the second input operation is received from the start of the reception time to the first timing, the end of the display time is from the first timing or the first timing. Is set before a predetermined time, and when the second input operation is received from the first timing to the end of the reception time, the end of the display time is the timing at which the second input operation is received. The information processing method according to claim 3, wherein the information processing method is set at a predetermined time before the end of the reception time or the end of the reception time. 前記案内表示は、前記キャラクタの近傍に前記キャラクタと関連付けて表示される、請求項1〜5の何れか一項に記載の情報処理方法。   The information processing method according to any one of claims 1 to 5, wherein the guidance display is displayed in association with the character in the vicinity of the character. 前記案内表示は、前記スクリーンの所定位置に、ノードとエッジとを用いたグラフとして表示される、請求項1〜5の何れか一項に記載の情報処理方法。   The information processing method according to claim 1, wherein the guidance display is displayed as a graph using nodes and edges at predetermined positions on the screen. 前記案内表示は、前記スクリーンがタッチスクリーンである場合に、操作オブジェクトを変形させることによって生成される、請求項1〜5の何れか一項に記載の情報処理方法。   The information processing method according to any one of claims 1 to 5, wherein the guidance display is generated by deforming an operation object when the screen is a touch screen. 請求項1〜8の何れか一項に記載の方法をコンピュータに実行させる、プログラム。   The program which makes a computer perform the method as described in any one of Claims 1-8. メモリと、
前記メモリに結合されたプロセッサとを備え、
前記プロセッサの制御により請求項1〜8の何れか一項に記載の方法を実行する、装置。

Memory,
A processor coupled to the memory;
An apparatus for performing the method according to claim 1 under the control of the processor.

JP2017240926A 2017-03-17 2017-12-15 An information processing method, a device, and a program for causing a computer to execute the information processing method. Active JP6902461B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017240926A JP6902461B2 (en) 2017-03-17 2017-12-15 An information processing method, a device, and a program for causing a computer to execute the information processing method.

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017053395A JP6263293B1 (en) 2017-03-17 2017-03-17 Information processing method, apparatus, and program for causing computer to execute information processing method
JP2017240926A JP6902461B2 (en) 2017-03-17 2017-12-15 An information processing method, a device, and a program for causing a computer to execute the information processing method.

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017053395A Division JP6263293B1 (en) 2017-03-17 2017-03-17 Information processing method, apparatus, and program for causing computer to execute information processing method

Publications (3)

Publication Number Publication Date
JP2018153616A true JP2018153616A (en) 2018-10-04
JP2018153616A5 JP2018153616A5 (en) 2020-01-23
JP6902461B2 JP6902461B2 (en) 2021-07-14

Family

ID=63715940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017240926A Active JP6902461B2 (en) 2017-03-17 2017-12-15 An information processing method, a device, and a program for causing a computer to execute the information processing method.

Country Status (1)

Country Link
JP (1) JP6902461B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022176678A1 (en) * 2021-02-18 2022-08-25 富士フイルム株式会社 Information processing device and information processing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017023581A (en) * 2015-07-27 2017-02-02 株式会社バンダイナムコエンターテインメント Program and game system
JP6263203B2 (en) * 2013-02-18 2018-01-17 サフラン・ヘリコプター・エンジンズ Method for monitoring clogging of a turbine engine start injector
JP6263293B1 (en) * 2017-03-17 2018-01-17 株式会社コロプラ Information processing method, apparatus, and program for causing computer to execute information processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6263203B2 (en) * 2013-02-18 2018-01-17 サフラン・ヘリコプター・エンジンズ Method for monitoring clogging of a turbine engine start injector
JP2017023581A (en) * 2015-07-27 2017-02-02 株式会社バンダイナムコエンターテインメント Program and game system
JP6263293B1 (en) * 2017-03-17 2018-01-17 株式会社コロプラ Information processing method, apparatus, and program for causing computer to execute information processing method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
スターグラディエイター 必勝攻略法, vol. 第1刷, JPN6017043254, 10 December 1996 (1996-12-10), JP, pages 11 - 24, ISSN: 0004422480 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022176678A1 (en) * 2021-02-18 2022-08-25 富士フイルム株式会社 Information processing device and information processing program

Also Published As

Publication number Publication date
JP6902461B2 (en) 2021-07-14

Similar Documents

Publication Publication Date Title
JP6318279B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
US10695661B2 (en) Game control device, game system, and information storage medium
JP6318228B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6263293B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6244445B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6902461B2 (en) An information processing method, a device, and a program for causing a computer to execute the information processing method.
JP6002345B1 (en) Information processing apparatus including game program, method, and touch screen
JP6907148B2 (en) An information processing method, a device, and a program for causing a computer to execute the information processing method.
JP6336168B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6924564B2 (en) Game program
JP2017192538A (en) Game program, method, and information processor with touch screen
JP2018153639A (en) Information processing method, apparatus, and program for implementing information processing method in computer
JP6554506B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING DEVICE, AND INFORMATION PROCESSING PROGRAM
KR102205901B1 (en) Method for providing augmented reality, and the computing device
JP6174202B1 (en) Information processing apparatus provided with game program, method, and touch screen
JP6306771B1 (en) Information processing method, information processing apparatus, and information processing program
JP2021178183A (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6554125B2 (en) Game method and game program
JP2018102909A (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6002344B1 (en) Information processing apparatus including game program, method, and touch screen
JP2017221676A (en) Game program, method, and information processor with touch screen
JP6948283B2 (en) An information processing method, a device, and a program for causing a computer to execute the information processing method.
JP7086899B2 (en) Information processing method, information processing device and information processing program
JP3768223B1 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP2018183423A (en) Information processing method, device and program for causing computer to execute information processing method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210621

R150 Certificate of patent or registration of utility model

Ref document number: 6902461

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150