JP6190505B1 - GAME PROGRAM, RECORDING MEDIUM, METHOD, AND INFORMATION PROCESSING DEVICE - Google Patents

GAME PROGRAM, RECORDING MEDIUM, METHOD, AND INFORMATION PROCESSING DEVICE Download PDF

Info

Publication number
JP6190505B1
JP6190505B1 JP2016171246A JP2016171246A JP6190505B1 JP 6190505 B1 JP6190505 B1 JP 6190505B1 JP 2016171246 A JP2016171246 A JP 2016171246A JP 2016171246 A JP2016171246 A JP 2016171246A JP 6190505 B1 JP6190505 B1 JP 6190505B1
Authority
JP
Japan
Prior art keywords
action
input operation
touch
game character
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016171246A
Other languages
Japanese (ja)
Other versions
JP2018033796A (en
Inventor
大輔 村野
大輔 村野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2016171246A priority Critical patent/JP6190505B1/en
Application granted granted Critical
Publication of JP6190505B1 publication Critical patent/JP6190505B1/en
Priority to PCT/JP2017/031526 priority patent/WO2018043693A1/en
Publication of JP2018033796A publication Critical patent/JP2018033796A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】入力操作に多様性を持たせる。【解決手段】ユーザ端末の制御部(110)は、タッチスクリーン(15)に対する入力操作を受け付け、仮想カメラの配置を制御し、仮想カメラの撮影画像をタッチスクリーンに表示させ、タッチスクリーンに対するタッチ位置を移動させることにより入力される操作を受け付けた場合に、タッチ操作の方向と、ゲームキャラクタが向いている方向との比較結果に応じたアクションを、ゲームキャラクタに実行させる。【選択図】図1A variety of input operations are provided. A control unit (110) of a user terminal receives an input operation on a touch screen (15), controls placement of a virtual camera, displays a captured image of the virtual camera on the touch screen, and touches the touch screen. When an operation input by moving is received, the game character is caused to execute an action according to a comparison result between the direction of the touch operation and the direction in which the game character is facing. [Selection] Figure 1

Description

本開示は、ゲームプログラム、記録媒体、方法および情報処理装置に関する。   The present disclosure relates to a game program, a recording medium, a method, and an information processing apparatus.

特許文献1には、ユーザによるタッチ入力によりゲームを進行するインターフェース・プログラムが記載されている。   Patent Document 1 describes an interface program that progresses a game by a touch input by a user.

特許第5815143号公報(2015年11月17日発行)Japanese Patent No. 5815143 (issued on November 17, 2015)

特許文献1に開示のインターフェース・プログラムによれば、ユーザはタイミングに合わせてタッチ入力しようとするため、高い趣向性のゲームを提供できる。しかし、さらに趣向性を向上させる技術が求められている。   According to the interface program disclosed in Patent Document 1, since the user tries to perform touch input in accordance with the timing, a highly interesting game can be provided. However, there is a need for a technique that further improves the taste.

本開示の目的は、より趣向性の高いアクションゲームを提供することにある。   An object of the present disclosure is to provide a more interesting action game.

本開示に示す一実施形態によれば、プロセッサと、メモリと、タッチスクリーンとを備えるコンピュータにおいて実行されるゲームプログラムが提供される。ゲームプログラムは、プロセッサに、タッチスクリーンに対する入力操作を受け付けるステップと、ゲーム空間における仮想カメラの配置を制御するステップと、仮想カメラの撮影画像をタッチスクリーンに表示させるステップと、タッチスクリーンに対するタッチ位置を第1の位置から第2の位置へ移動させることにより入力される第1の入力操作を受け付けた場合に、第1の位置と当該第2の位置とにより定まるタッチ操作の方向と、タッチスクリーンに表示される画面においてゲームキャラクタが向いている方向とを比較し、比較結果に応じたアクションを、ゲームキャラクタに実行させるステップと、を実行させる。   According to one embodiment shown in the present disclosure, a game program is provided that is executed on a computer including a processor, a memory, and a touch screen. The game program includes: a step of accepting an input operation on the touch screen; a step of controlling placement of the virtual camera in the game space; a step of displaying a captured image of the virtual camera on the touch screen; and a touch position on the touch screen. When a first input operation input by moving from the first position to the second position is received, the direction of the touch operation determined by the first position and the second position, and the touch screen The game character is compared with the direction the game character is facing on the displayed screen, and the game character is caused to execute an action according to the comparison result.

別の実施形態によると、コンピュータがゲームプログラムを実行するための方法が提供される。コンピュータは、プロセッサと、メモリと、タッチスクリーンとを備え、ゲームプログラムを実行するものである。方法は、コンピュータが、タッチスクリーンに対する入力操作を受け付けるステップと、ゲーム空間における仮想カメラの配置を制御するステップと、仮想カメラの撮影画像をタッチスクリーンに表示させるステップと、タッチスクリーンに対するタッチ位置を第1の位置から第2の位置へ移動させることにより入力される第1の入力操作を受け付けた場合に、第1の位置と第2の位置とにより定まるタッチ操作の方向と、タッチスクリーンに表示される画面においてゲームキャラクタが向いている方向とを比較し、比較結果に応じたアクションを、ゲームキャラクタに実行させるステップと、を実行することを含む。   According to another embodiment, a method is provided for a computer to execute a game program. The computer includes a processor, a memory, and a touch screen, and executes a game program. The method includes: a step of accepting an input operation on the touch screen; a step of controlling placement of the virtual camera in the game space; a step of displaying a captured image of the virtual camera on the touch screen; and a touch position on the touch screen. When the first input operation input by moving from the first position to the second position is received, the direction of the touch operation determined by the first position and the second position is displayed on the touch screen. And a step of causing the game character to execute an action according to the comparison result.

別の実施形態によると、情報処理装置が提供される。情報処理装置は、ゲームプログラムを記憶するように構成された記憶部と、情報処理装置の動作を制御するように構成された制御部と、タッチスクリーンとを備える。制御部は、タッチスクリーンに対する入力操作を受け付け、ゲーム空間における仮想カメラの配置を制御し、仮想カメラの撮影画像をタッチスクリーンに表示させ、タッチスクリーンに対するタッチ位置を第1の位置から第2の位置へ移動させることにより入力される第1の入力操作を受け付けた場合に、第1の位置と第2の位置とにより定まるタッチ操作の方向と、タッチスクリーンに表示される画面においてゲームキャラクタが向いている方向とを比較し、比較結果に応じたアクションを、ゲームキャラクタに実行させる。   According to another embodiment, an information processing apparatus is provided. The information processing device includes a storage unit configured to store a game program, a control unit configured to control the operation of the information processing device, and a touch screen. The control unit receives an input operation on the touch screen, controls the placement of the virtual camera in the game space, displays a captured image of the virtual camera on the touch screen, and changes the touch position on the touch screen from the first position to the second position. When the first input operation input by moving to the position is received, the direction of the touch operation determined by the first position and the second position, and the game character faces on the screen displayed on the touch screen The game character is caused to execute an action corresponding to the comparison result.

本開示によれば、より趣向性の高いアクションゲームを提供することができる。   According to the present disclosure, it is possible to provide a more interesting action game.

ユーザ端末およびゲームサーバの構成を示す図である。It is a figure which shows the structure of a user terminal and a game server. ユーザ端末の機能的構成を示す図である。It is a figure which shows the functional structure of a user terminal. 入力操作の種類を検知するために入力操作受付部が参照する履歴情報テーブルの一例を示す図である。It is a figure which shows an example of the log | history information table which an input operation reception part refers in order to detect the kind of input operation. ゲームシステムによって実行される処理の流れを示すフローチャートの一例である。It is an example of the flowchart which shows the flow of the process performed by a game system. 表示制御部がタッチスクリーンに表示させるゲーム空間画像の一例を模式的に示す図である。It is a figure which shows typically an example of the game space image which a display control part displays on a touch screen. ゲームシステムによって実行される処理の流れを示すフローチャートの他の例である。It is another example of the flowchart which shows the flow of the process performed by a game system. オブジェクト制御部がコンボデータに基づいてキャラクタに攻撃動作を実行させたときのアクションの一例を示す図である。It is a figure which shows an example of an action when an object control part makes a character perform attack action based on combo data.

本開示の実施形態に係るゲームプログラム、記録媒体、方法および情報処理装置の具体例を、以下に図面を参照しつつ説明する。本開示はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が本開示に含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を繰り返さない。   Specific examples of the game program, the recording medium, the method, and the information processing apparatus according to the embodiment of the present disclosure will be described below with reference to the drawings. The present disclosure is not limited to these exemplifications, but is defined by the claims, and is intended to include all modifications within the meaning and scope equivalent to the claims. In the following description, the same reference numerals are given to the same elements in the description of the drawings, and repeated description is not repeated.

<ユーザ端末とゲーム端末との関係及び構成>
図1は、ユーザ端末100(情報処理装置)およびゲームサーバ200の構成を示す図である。まず、図1を用いて、ゲームシステム1で用いられるユーザ端末100(情報処理装置)とゲームサーバ200との関係及びそれぞれの構成について説明する。ゲームシステム1は、複数のユーザ端末100と、ゲームサーバ200と、を含む。各ユーザ端末100とゲームサーバ200とは、ネットワーク2を介して接続されている。ネットワーク2は、インターネット、図示しない無線基地局によって構築される各種移動通信システム(例えば、所謂3G、4G移動通信システム、LTE(Long Term Evolution))、または、所定のアクセスポイントによってインターネットに接続可能な無線ネットワーク(例えば、WiFi(登録商標))を含み得る。
<Relationship and configuration between user terminal and game terminal>
FIG. 1 is a diagram illustrating a configuration of a user terminal 100 (information processing apparatus) and a game server 200. First, the relationship between the user terminal 100 (information processing apparatus) and the game server 200 used in the game system 1 and the configuration of each will be described with reference to FIG. The game system 1 includes a plurality of user terminals 100 and a game server 200. Each user terminal 100 and the game server 200 are connected via the network 2. The network 2 can be connected to the Internet via the Internet, various mobile communication systems constructed by wireless base stations (not shown) (for example, so-called 3G and 4G mobile communication systems, LTE (Long Term Evolution)), or predetermined access points. A wireless network (e.g., WiFi) may be included.

ユーザ端末100は、スマートフォン、フィーチャーフォン、PDA(Personal Digital Assistant)、または、タブレット型コンピュータ等の携帯端末であることがより好ましい。ユーザ端末100は、通信バスによって互いに電気的に接続されたプロセッサ10と、メモリ11と、ストレージ12と、通信インターフェース(IF)13と、入出力IF14と、タッチスクリーン15とを備える。   The user terminal 100 is more preferably a mobile terminal such as a smartphone, a feature phone, a PDA (Personal Digital Assistant), or a tablet computer. The user terminal 100 includes a processor 10, a memory 11, a storage 12, a communication interface (IF) 13, an input / output IF 14, and a touch screen 15 that are electrically connected to each other via a communication bus.

入出力IF14は、USB(Universal Serial Bus)等を介した各種データ入出力機能および音声入出力機能を備える。   The input / output IF 14 has various data input / output functions and audio input / output functions via a USB (Universal Serial Bus) or the like.

タッチスクリーン15は、入力部151と表示部152とを組み合わせた電子部品である。入力部151は、タッチセンシティブなデバイスであり、例えば、タッチパッド等によって構成される。また、表示部152は、例えば、液晶ディスプレイ、または、有機EL(electro-luminescence)ディスプレイ等によって構成される。入力部151は、タッチスクリーン15に対するユーザの指またはスタイラスといった物体の接触を検知し、検知結果を入力操作として受け付ける。なお、入力部151は、物体の接触に加えて、物体の近接も検知する構成であってもよい。入力部151は、当該操作入力に含まれるユーザの作用(主に、スワイプ操作、フリック操作、及びタップ操作等の物理的接触操作)が入力された画面位置の情報を検知して、該情報を外部へ情報信号として出力する機能を備える。タッチスクリーン15はタッチセンシティブであればよい。タッチセンシティブなデバイスは、静電容量方式、または、抵抗膜方式等のどのような方式を採用したものであってもよい。   The touch screen 15 is an electronic component that combines the input unit 151 and the display unit 152. The input unit 151 is a touch-sensitive device, and includes, for example, a touch pad. The display unit 152 is configured by, for example, a liquid crystal display or an organic EL (electro-luminescence) display. The input unit 151 detects contact of an object such as a user's finger or stylus with respect to the touch screen 15 and receives a detection result as an input operation. The input unit 151 may be configured to detect the proximity of an object in addition to the contact of the object. The input unit 151 detects information on the screen position where the user's action (mainly physical contact operation such as swipe operation, flick operation, and tap operation) included in the operation input is input, A function to output information signals to the outside is provided. The touch screen 15 may be touch sensitive. The touch-sensitive device may adopt any method such as a capacitance method or a resistance film method.

ゲームサーバ200は、ゲームに関する各種サービスを各ユーザ端末100に提供する。ゲームサーバ200は、ワークステーション、パーソナルコンピュータ等の汎用コンピュータであることがより好ましい。ゲームサーバ200は、通信バスにより互いに電気的に接続されたプロセッサ20と、メモリ21と、ストレージ22と、通信インターフェース(IF)23と、入出力IF24とを備える。   The game server 200 provides various services related to the game to each user terminal 100. The game server 200 is more preferably a general-purpose computer such as a workstation or a personal computer. The game server 200 includes a processor 20, a memory 21, a storage 22, a communication interface (IF) 23, and an input / output IF 24 that are electrically connected to each other via a communication bus.

プロセッサ10、20は、CPU(Central Processing Unit)やMPU(Micro processing unit)、GPU(Graphics Processing Unit)等を含んで構成される。プロセッサ10は、ユーザ端末100全体の動作を制御する。プロセッサ20は、ゲームサーバ200全体の動作を制御する。メモリ11、21は、主記憶装置であり、ROM(Read Only Memory)およびRAM(Random Access Memory)等を含んで構成される。ストレージ12、22は、補助記憶装置であり、フラッシュメモリまたはHDD(Hard Disk Drive)などの不揮発性記憶装置を含んで構成される。メモリ11には、プロセッサ10がストレージ12からロードした各種プログラム及びデータが一時的に記憶される。メモリ21には、プロセッサ20がストレージ22からロードした各種プログラム及びデータが一時的に記憶される。これによりメモリ11はプロセッサ10に対して作業領域を提供する。メモリ21は、プロセッサ20に対して作業領域を提供する。   The processors 10 and 20 include a central processing unit (CPU), a micro processing unit (MPU), a graphics processing unit (GPU), and the like. The processor 10 controls the operation of the entire user terminal 100. The processor 20 controls the overall operation of the game server 200. The memories 11 and 21 are main storage devices and include a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The storages 12 and 22 are auxiliary storage devices, and include a nonvolatile storage device such as a flash memory or an HDD (Hard Disk Drive). Various programs and data loaded from the storage 12 by the processor 10 are temporarily stored in the memory 11. The memory 21 temporarily stores various programs and data loaded from the storage 22 by the processor 20. As a result, the memory 11 provides a work area to the processor 10. The memory 21 provides a work area for the processor 20.

ゲームサーバ200のストレージ22にはゲームプログラム等のゲームデータが格納される。ユーザ端末100のストレージ12には、ゲームサーバ200からダウンロードされるゲームプログラム等のゲームデータが格納される。当該ゲームプログラムは、メモリ11、21に展開される。プロセッサ10は、メモリ11に展開されるゲームプログラムを実行する。プロセッサ20は、メモリ21に展開されるゲームプログラムを実行する。メモリ11には、プロセッサ10が当該ゲームプログラムに従って動作している間に生成した各種ゲームデータも一時的に格納される。メモリ21には、プロセッサ20が当該ゲームプログラムに従って動作している間に生成した各種ゲームデータも一時的に格納される。本実施形態では、前記各種データは所定のゲームプログラム、ユーザ情報、ゲーム情報等のゲームデータ、それらをユーザ端末100とゲームサーバ200との間に送受信させる指示、ゲームを進行させるための指示を含む。   Game data such as a game program is stored in the storage 22 of the game server 200. The storage 12 of the user terminal 100 stores game data such as a game program downloaded from the game server 200. The game program is expanded in the memories 11 and 21. The processor 10 executes a game program developed in the memory 11. The processor 20 executes a game program developed in the memory 21. The memory 11 also temporarily stores various game data generated while the processor 10 is operating in accordance with the game program. Various types of game data generated while the processor 20 is operating according to the game program are also temporarily stored in the memory 21. In the present embodiment, the various data includes a predetermined game program, user information, game data such as game information, an instruction to transmit and receive them between the user terminal 100 and the game server 200, and an instruction to advance the game. .

通信IF13、23は、ユーザ端末100とゲームサーバ200との間で各種データを送受信するための通信制御機能を備える。通信制御機能には、例えば、無線LAN(Local Area Network)接続機能、有線LAN、無線LAN、携帯電話回線網を介したインターネット接続機能、および近距離無線通信機能等が含まれる。   The communication IFs 13 and 23 have a communication control function for transmitting and receiving various data between the user terminal 100 and the game server 200. The communication control function includes, for example, a wireless LAN (Local Area Network) connection function, a wired LAN, a wireless LAN, an Internet connection function via a mobile phone network, a short-range wireless communication function, and the like.

ゲームサーバ200の入出力IF24は、マウス、キーボード等の情報入力機器である入力部、および、液晶ディスプレイ等の出力部を備えており、コンピュータの情報をモニタリングするために用いられる。   The input / output IF 24 of the game server 200 includes an input unit that is an information input device such as a mouse and a keyboard, and an output unit such as a liquid crystal display, and is used for monitoring computer information.

図2は、ユーザ端末100の機能的構成を示す図である。図2を用いてユーザ端末100の機能的構成について説明する。ユーザ端末100は、プロセッサ10、メモリ11、ストレージ12、通信IF13、入出力IF14等の協働により、制御部110及び記憶部120として機能し得る。記憶部120に格納されたゲームプログラムは主記憶上に展開され、制御部110において実行される。制御部110は、当該ゲームプログラムによって、入力操作受付部111、カメラ配置制御部112、表示制御部113およびオブジェクト制御部114として機能し得る。なお、主記憶上には、制御部110が当該プログラムに従って動作している間に生成した各種ゲームデータおよび制御部110によって利用される各種ゲームデータも一時的に格納される。記憶部120には、制御部110が前記各部として機能するために必要なデータが記憶されている。当該データとしては、例えば、ゲームプログラム、ゲーム情報、ユーザ情報が含まれる。ゲーム情報としては、オブジェクト管理テーブル、スキル管理テーブル、基準モーションデータ121、コンボデータ122、履歴情報テーブル(後述)、ユーザ管理テーブルが挙げられる。オブジェクト管理テーブルは、各種ゲームオブジェクトを管理するためのテーブルである。スキル管理テーブルは、ゲームキャラクタの各種スキルを管理するためのテーブルである。基準モーションデータ121は、各ゲームキャラクタのモーションを定義するためのテーブルである。コンボデータ122は、所定の条件で発生するコンボによってキャラクタに実行させる攻撃動作の内容(例えば、攻撃力、モーション等)を管理するためのテーブルである。履歴情報テーブルは、入力部151が検知した接触の位置を示す情報を複数含むテーブルである。ユーザ管理テーブルは、ゲームキャラクタに実行させたアクションの履歴等を含むテーブルである。   FIG. 2 is a diagram illustrating a functional configuration of the user terminal 100. A functional configuration of the user terminal 100 will be described with reference to FIG. The user terminal 100 can function as the control unit 110 and the storage unit 120 through the cooperation of the processor 10, the memory 11, the storage 12, the communication IF 13, the input / output IF 14, and the like. The game program stored in the storage unit 120 is developed on the main memory and executed by the control unit 110. The control unit 110 can function as the input operation receiving unit 111, the camera arrangement control unit 112, the display control unit 113, and the object control unit 114 according to the game program. In the main memory, various game data generated while the control unit 110 is operating according to the program and various game data used by the control unit 110 are also temporarily stored. The storage unit 120 stores data necessary for the control unit 110 to function as each unit. Examples of the data include game programs, game information, and user information. The game information includes an object management table, a skill management table, reference motion data 121, combo data 122, a history information table (described later), and a user management table. The object management table is a table for managing various game objects. The skill management table is a table for managing various skills of game characters. The reference motion data 121 is a table for defining the motion of each game character. The combo data 122 is a table for managing the contents (for example, attack power, motion, etc.) of the attacking action that is performed by the character by the combo generated under a predetermined condition. The history information table is a table including a plurality of pieces of information indicating contact positions detected by the input unit 151. The user management table is a table including a history of actions executed by the game character.

制御部110は、ユーザ端末100全体の動作を制御し、各要素間におけるデータの送受信、ゲームの実行に必要な演算処理その他の処理を行う。制御部110は、例えば、入力操作受付部111で検知された入力操作に基づいてゲームプログラムに従ったゲームを展開させ、その結果を示すゲーム画像を描画する。制御部110は、ゲームサーバ200から受信したユーザ情報、ゲームプログラムによる演算結果、入力操作受付部111で検知された入力操作に基づいてゲーム空間内におけるオブジェクトを操作する。オブジェクトとしては、例えば、キャラクタオブジェクト(ゲームキャラクタ)、対象オブジェクト(他のオブジェクト)が挙げられる。キャラクタオブジェクトとはゲームにおける、ユーザによる操作対象のオブジェクトである。また、対象オブジェクトとは、キャラクタオブジェクトが作用を及ぼす対象のオブジェクトである。また、制御部110は、ゲーム空間を撮影する仮想カメラの撮影画像を生成する。また、制御部110は、タッチスクリーン15に対する入力操作及び演算処理の結果等に基づいて、記憶部120に記憶されている各種データの更新等の処理を行なう。また、制御部110は、記憶部120に記憶された各種ユーザ情報及びゲーム情報を参照し、ゲーム進行に必要な各種判定を実行する。   The control unit 110 controls the operation of the entire user terminal 100 and performs data transmission / reception between elements, arithmetic processing necessary for game execution, and other processing. For example, the control unit 110 develops a game according to the game program based on the input operation detected by the input operation reception unit 111, and draws a game image indicating the result. The control unit 110 operates an object in the game space based on the user information received from the game server 200, the calculation result of the game program, and the input operation detected by the input operation receiving unit 111. Examples of the object include a character object (game character) and a target object (other object). A character object is an object to be operated by a user in a game. The target object is a target object on which the character object acts. In addition, the control unit 110 generates a captured image of a virtual camera that captures the game space. Further, the control unit 110 performs processing such as updating various data stored in the storage unit 120 based on the input operation on the touch screen 15 and the result of the arithmetic processing. In addition, the control unit 110 refers to various user information and game information stored in the storage unit 120 and executes various determinations necessary for the game progress.

入力操作受付部111は、入力部151に対するユーザの入力操作の種類を検知する。入力操作受付部111は、入力部151及びその他の入出力IF14を介したコンソールによる操作指示等から、いかなる操作がなされたかを判別する。入力操作受付部111は、判別した結果をカメラ配置制御部112等の必要な要素に出力する。入力操作受付部111が判別する入力操作の種類として、例えば、第1の入力操作、第2の入力操作が挙げられる。第1の入力操作は、タッチスクリーン15に対するタッチ位置を或る位置(第1の位置)から或る位置(第2の位置)へ移動させることにより入力される操作である。第1の入力操作としては、例えば、フリック操作、スワイプ操作が挙げられる。入力操作受付部111は、例えば、ユーザがタッチスクリーン15に対する第1の位置から或る位置へ、所定の時間よりも短い時間で移動させた後、接触を解除することにより入力される操作を「フリック操作」とする。また、入力操作受付部111は、タッチスクリーン15に対するタッチ位置を或る位置(第3の位置)から或る位置(第4の位置)へ移動させた後、タッチ位置を移動させた後の位置に維持させることにより入力される操作(第3の入力操作)を、「スワイプ操作」としてもよい。第2の入力操作は、タッチスクリーン15に対するタッチ位置を変化させずに入力される操作である。第2の入力操作としては、例えば、タップ操作が挙げられる。   The input operation receiving unit 111 detects the type of user input operation performed on the input unit 151. The input operation reception unit 111 determines what operation has been performed from an operation instruction or the like by the console via the input unit 151 and other input / output IFs 14. The input operation reception unit 111 outputs the determined result to necessary elements such as the camera arrangement control unit 112. Examples of the types of input operations that are determined by the input operation receiving unit 111 include a first input operation and a second input operation. The first input operation is an operation input by moving the touch position on the touch screen 15 from a certain position (first position) to a certain position (second position). Examples of the first input operation include a flick operation and a swipe operation. For example, the input operation receiving unit 111 moves an operation input by releasing the contact after moving the user from the first position to the touch screen 15 to a certain position in a time shorter than a predetermined time. "Flick operation". The input operation reception unit 111 moves the touch position on the touch screen 15 from a certain position (third position) to a certain position (fourth position), and then moves the touch position. The operation (third input operation) input by maintaining the above may be a “swipe operation”. The second input operation is an operation that is input without changing the touch position on the touch screen 15. An example of the second input operation is a tap operation.

入力操作受付部111は、タッチスクリーン15に対する物体の接触を検出しない状態から接触を検出したとき、「タッチオン状態」になったと判別する。また、入力操作受付部111は、タッチスクリーン15に対する物体の接触を検出していないとき、「タッチオフ状態」になったと判別する。また、入力操作受付部111は、逐次タッチスクリーン15に対するタッチ位置を示す履歴情報を、「タッチナウ状態」の履歴情報として受け付ける。   The input operation reception unit 111 determines that the state is the “touch-on state” when the contact is detected from the state in which the contact of the object with the touch screen 15 is not detected. In addition, the input operation reception unit 111 determines that the “touch-off state” has occurred when the contact of the object with the touch screen 15 is not detected. Further, the input operation accepting unit 111 sequentially accepts history information indicating a touch position on the touch screen 15 as history information of the “touch now state”.

図3は、入力操作の種類を検知するために入力操作受付部111が参照する履歴情報テーブルの一例を示す図である。入力操作受付部111が入力操作の種類を判別する方法の一例を、図3を用いて説明する。図3では、配列fp[0]〜配列fp[10]までの11個の配列のそれぞれに、入力部151が検知したタッチスクリーン15上の位置を示す履歴情報が格納されている。履歴情報は、所定の期間毎(例えば、フレームレート毎)に履歴情報テーブルに格納される。履歴情報が格納される配列の個数は限定されず、任意の個数であってよい。また、履歴情報テーブルでは、タッチオフからタッチオンになった場合に検知された履歴情報を、初期位置座標として記憶部120に構成される構成が好ましい。   FIG. 3 is a diagram illustrating an example of a history information table referred to by the input operation receiving unit 111 in order to detect the type of input operation. An example of a method for the input operation receiving unit 111 to determine the type of input operation will be described with reference to FIG. In FIG. 3, history information indicating the position on the touch screen 15 detected by the input unit 151 is stored in each of the 11 arrays from the array fp [0] to the array fp [10]. The history information is stored in the history information table every predetermined period (for example, every frame rate). The number of arrays in which history information is stored is not limited and may be any number. In the history information table, it is preferable that history information detected when touch-on is performed from touch-off is configured in the storage unit 120 as initial position coordinates.

図3のテーブルにおいて、例えば、配列fp[0]〜配列fp[9]に、履歴情報(x0、y0)が格納されており、配列fp[10]にnull値が格納された場合、入力操作受付部111は、入力操作はタップ操作であると判別する。また、例えば、タッチナウ状態において履歴情報が変化した後に、null値が格納された場合、入力操作受付部111はnull値が格納された配列fp[5]の直前の配列fp[3]および配列fp[4]に格納されている履歴情報を参照する。そして、入力操作受付部111は、配列fp[3]および配列fp[4]の履歴情報がそれぞれ示す位置の間の距離が予め設定された閾値以上である場合、入力操作はフリック操作であると判別する。また、入力操作受付部111は、タッチナウ状態において履歴情報が変化した後に、例えば配列fp[4]〜fp[10]に履歴情報(x15、y15)が格納された場合、入力操作はスワイプ操作であると判別する。   In the table of FIG. 3, for example, when the history information (x0, y0) is stored in the array fp [0] to the array fp [9] and the null value is stored in the array fp [10], an input operation is performed. The accepting unit 111 determines that the input operation is a tap operation. For example, when the null value is stored after the history information has changed in the touch now state, the input operation reception unit 111 sets the array fp [3] and the array fp immediately before the array fp [5] in which the null value is stored. Refer to the history information stored in [4]. Then, the input operation reception unit 111 determines that the input operation is a flick operation when the distance between the positions indicated by the history information of the arrays fp [3] and fp [4] is greater than or equal to a preset threshold value. Determine. Further, after the history information changes in the touch now state, for example, when the history information (x15, y15) is stored in the arrays fp [4] to fp [10], the input operation accepting unit 111 performs the swipe operation. Determine that there is.

カメラ配置制御部112は、ゲーム空間を撮影する仮想カメラの配置を制御する。カメラ配置制御部112は、記憶部120に記憶されたユーザ情報、ゲームプログラムによる演算結果、および入力操作受付部111が検知した操作の種類に基づいて、ゲーム空間の視野を指定するための仮想カメラの配置を制御する。カメラ配置制御部112は、中央付近にキャラクタオブジェクトが表示されるように、仮想カメラを配置する構成が好ましい。カメラ配置制御部112は、仮想カメラの撮影画像を、表示制御部113に出力する。   The camera arrangement control unit 112 controls the arrangement of virtual cameras that shoot the game space. The camera arrangement control unit 112 is a virtual camera for designating the visual field of the game space based on the user information stored in the storage unit 120, the calculation result of the game program, and the type of operation detected by the input operation receiving unit 111 Control the placement of The camera arrangement control unit 112 preferably has a configuration in which a virtual camera is arranged so that a character object is displayed near the center. The camera arrangement control unit 112 outputs the captured image of the virtual camera to the display control unit 113.

表示制御部113は、仮想カメラの撮影画像を、表示部152に表示する。また、表示制御部113は、オブジェクト制御部114の指示により、オブジェクトを表示部152に表示させる。   The display control unit 113 displays the captured image of the virtual camera on the display unit 152. Further, the display control unit 113 causes the display unit 152 to display the object in accordance with an instruction from the object control unit 114.

オブジェクト制御部114は、ユーザによる入力操作、および/または、ゲームプログラムに基づいて、キャラクタオブジェクト、対象オブジェクト等のオブジェクトを制御する。例えば、オブジェクト制御部114は、キャラクタオブジェクトを移動させる制御、対象オブジェクトに対して作用を及ぼすためのアクションをキャラクタオブジェクトに実行させる制御等を行なう。また、オブジェクト制御部114は、入力操作受付部111が受け付けた入力操作に応じたオブジェクトを表示部152に表示するよう表示制御部113に指示する。   The object control unit 114 controls objects such as a character object and a target object based on an input operation by a user and / or a game program. For example, the object control unit 114 performs control for moving the character object, control for causing the character object to perform an action for acting on the target object, and the like. Further, the object control unit 114 instructs the display control unit 113 to display an object according to the input operation received by the input operation receiving unit 111 on the display unit 152.

<ゲームシステムの処理の態様例>
次に、ユーザ端末100が、ユーザからの入力操作に応じて様々なアクションをキャラクタC(キャラクタオブジェクト)に実行させるゲームについて図4および5を用いて説明する。図4は、ゲームシステム1によって実行される処理の流れを示すフローチャートの一例である。図5は、表示制御部113がタッチスクリーン15に表示させるゲーム空間画像の一例を模式的に示す図である。キャラクタCに実行させるアクションとしては、例えば、対象オブジェクトに作用を及ぼすためのアクション、移動するためのアクション等が挙げられる。作用としては、例えば、攻撃が挙げられる。対象オブジェクトに作用を及ぼすためのアクションとしては、例えば、攻撃動作が挙げられる。また、対象オブジェクトの種類としては、例えば、キャラクタCに対して攻撃動作等を行なう敵キャラクタオブジェクト、図5に示す扉Oなどの障害物のオブジェクトが挙げられる。また、移動とは、ゲーム空間におけるキャラクタCの位置を変更するためのアクションである。移動するためのアクションとしては、例えば、歩行、走行、他のオブジェクトまたは他のオブジェクトによる攻撃動作を避けるための回避動作が挙げられる。
<Examples of Game System Processing>
Next, a game in which the user terminal 100 causes the character C (character object) to execute various actions in accordance with an input operation from the user will be described with reference to FIGS. FIG. 4 is an example of a flowchart showing a flow of processing executed by the game system 1. FIG. 5 is a diagram schematically illustrating an example of a game space image displayed on the touch screen 15 by the display control unit 113. As an action to be executed by the character C, for example, an action for acting on a target object, an action for moving, and the like can be mentioned. Examples of the action include an attack. As an action for exerting an action on the target object, for example, an attack action can be cited. Examples of the target object include an enemy character object that performs an attacking action on the character C, and an obstacle object such as a door O shown in FIG. Moreover, the movement is an action for changing the position of the character C in the game space. Examples of the action for moving include walking, running, and avoiding action for avoiding attacking action by other objects or other objects.

ステップS101において、入力操作受付部111がゲームを開始する旨の操作を受け付けると、制御部110はゲームを開始する。次に、カメラ配置制御部112は、ゲーム情報等を参照してゲーム空間における仮想カメラの配置を制御する。ステップS102において、表示制御部113は、仮想カメラが撮影したゲーム空間画像をタッチスクリーン15に表示する。   In step S101, when the input operation receiving unit 111 receives an operation to start the game, the control unit 110 starts the game. Next, the camera arrangement control unit 112 controls the arrangement of virtual cameras in the game space with reference to game information and the like. In step S <b> 102, the display control unit 113 displays the game space image captured by the virtual camera on the touch screen 15.

ステップS103において、入力操作受付部111は、タッチスクリーン15に対する入力操作を受け付けたか否かを判定する。ステップS103においてNOの場合、入力操作受付部111はステップS103の処理を繰り返す。   In step S <b> 103, the input operation reception unit 111 determines whether an input operation on the touch screen 15 has been received. If NO in step S103, the input operation accepting unit 111 repeats the process in step S103.

ステップS103においてYESの場合、ステップS104において入力操作受付部111は、ステップS103において受け付けた入力操作が、第1の入力操作であるか否かを判定する。以下では、第1の入力操作がフリック操作である場合について説明する。図5に示す画像において、第1の位置は位置L1であり、第2の位置は位置L2である。入力操作受付部111は、タッチスクリーン15に対するフリック操作を受け付けた場合に、位置L1と位置L2とにより定まるタッチ操作の方向を特定する。   If YES in step S103, the input operation reception unit 111 in step S104 determines whether or not the input operation received in step S103 is the first input operation. Hereinafter, a case where the first input operation is a flick operation will be described. In the image shown in FIG. 5, the first position is the position L1, and the second position is the position L2. When the input operation reception unit 111 receives a flick operation on the touch screen 15, the input operation reception unit 111 specifies the direction of the touch operation determined by the position L1 and the position L2.

ステップS104においてYESの場合、ステップS105において表示制御部113は、タッチ操作の方向を示すオブジェクトをタッチスクリーン15に表示する。例えば表示制御部113は、図5に示すように、位置L1から位置L2へ伸びるオブジェクト等をタッチスクリーン15に表示する構成であってもよい。本実施形態では、まず、入力操作受付部111が位置L1にてタッチオンを受け付けると、表示制御部113は位置L1を中心とする弾性オブジェクトE1をタッチスクリーン15に表示させる。次に、入力操作受付部111がタッチナウの状態でタッチ位置が位置L2へ移動する操作を受け付けると、表示制御部113は、弾性オブジェクトE1をタッチ操作の方向側に引き伸ばすように変形させた弾性オブジェクトE2をタッチスクリーン15に表示させる。   If YES in step S104, the display control unit 113 displays an object indicating the direction of the touch operation on the touch screen 15 in step S105. For example, the display control unit 113 may be configured to display an object or the like extending from the position L1 to the position L2 on the touch screen 15, as shown in FIG. In the present embodiment, first, when the input operation accepting unit 111 accepts a touch-on at the position L1, the display control unit 113 displays the elastic object E1 centered on the position L1 on the touch screen 15. Next, when the input operation accepting unit 111 accepts an operation of moving the touch position to the position L2 in the state of the touch now, the display control unit 113 deforms the elastic object E1 so as to extend in the direction of the touch operation. E2 is displayed on the touch screen 15.

ステップS106において、オブジェクト制御部114は、キャラクタCが向いている方向を特定する。例えば記憶部120には、キャラクタCの顔が向いている方向または直前の移動操作の進行方向等を示す情報が記憶されている。オブジェクト制御部114は、キャラクタCに実行させたアクション、他のオブジェクトからの作用等に基づいて、前記情報が示す方向の内、どれをキャラクタCが向いている方向とするかを選択する。次に、オブジェクト制御部114は、選択した結果に基づき、記憶部120を参照してキャラクタCの向いている方向を特定する。   In step S106, the object control unit 114 specifies the direction in which the character C is facing. For example, the storage unit 120 stores information indicating the direction in which the face of the character C is facing or the traveling direction of the last moving operation. The object control unit 114 selects which of the directions indicated by the information is the direction in which the character C is facing based on the action performed by the character C, the action from another object, and the like. Next, the object control unit 114 refers to the storage unit 120 based on the selected result and identifies the direction in which the character C is facing.

ステップS107においてオブジェクト制御部114は、タッチ操作の方向と、タッチスクリーン15に表示される画面においてキャラクタCが向いている方向とを比較する。   In step S <b> 107, the object control unit 114 compares the direction of the touch operation with the direction in which the character C is facing on the screen displayed on the touch screen 15.

ステップS108においてオブジェクト制御部114は、ステップS107における比較結果に応じたアクションを、キャラクタCに実行させる。例えば、オブジェクト制御部114は、タッチ操作の方向が、キャラクタCが向いている方向により定まる一定範囲の方向に含まれていれば、攻撃動作をキャラクタCに実行させる。一定範囲の方向は特に限定されないが、キャラクタCが向いている方向を軸として、当該軸から左右一定の範囲(例えば、左右それぞれに30度以内、45度以内等)の方向としてもよい。   In step S108, the object control unit 114 causes the character C to execute an action corresponding to the comparison result in step S107. For example, if the direction of the touch operation is included in a certain range of directions determined by the direction in which the character C is facing, the object control unit 114 causes the character C to perform an attack action. The direction of the certain range is not particularly limited, but the direction in which the character C faces may be set as the axis and the direction may be a certain range on the left and right from the axis (for example, within 30 degrees, 45 degrees, etc. on the left and right respectively).

また、ステップS108においてオブジェクト制御部114は、タッチ操作の方向が一定範囲の方向に含まれていなければ、キャラクタCにタッチ操作の方向へ移動する回避動作を実行させ、攻撃動作を実行させない。ステップS108の後、ステップS103に戻る。   In step S108, if the direction of the touch operation is not included in a certain range, the object control unit 114 causes the character C to perform an avoidance operation that moves in the direction of the touch operation, and does not perform an attack operation. After step S108, the process returns to step S103.

また、ステップS104においてNOの場合、ステップS109においてオブジェクト制御部114は、入力操作に応じたアクションをキャラクタCに実行させる。例えば、入力操作がタップ操作であった場合、オブジェクト制御部114は、キャラクタCに攻撃動作を実行させる。タップ操作に応じた攻撃動作は、ステップS108においてキャラクタCに実行させた攻撃動作とは異なっていることが好ましい。この構成により、多様な操作によってキャラクタCに多様な攻撃動作を実行させることができるので、ゲームの趣向性が向上する。ステップS109の後、ステップS103に戻る。   If NO in step S104, the object control unit 114 causes the character C to execute an action corresponding to the input operation in step S109. For example, when the input operation is a tap operation, the object control unit 114 causes the character C to perform an attack action. The attack action according to the tap operation is preferably different from the attack action executed by the character C in step S108. With this configuration, the character C can be made to perform various attack actions by various operations, so that the game preference is improved. After step S109, the process returns to step S103.

このように、オブジェクト制御部114は、キャラクタCが向いている方向とタッチ操作の方向とに応じて、キャラクタCに攻撃動作を実行させたり回避動作を実行させたりするなど、アクションを分けることができるので、ゲームの趣向性が向上する。特に、攻撃対象に対する入力操作に多様性を持たせることができる。   As described above, the object control unit 114 can divide actions such as causing the character C to perform an attacking action or an avoiding action depending on the direction in which the character C is facing and the direction of the touch operation. Since it can, the taste of the game is improved. In particular, it is possible to give diversity to the input operation for the attack target.

また、ステップS105の処理により、表示制御部113は、タッチ操作の方向を可視化させることができる。これにより、ユーザはキャラクタCに攻撃動作をさせたいときに、キャラクタCが向いている方向とタッチ操作の方向とを両方とも視認できる。従って、ユーザはキャラクタCが向いている方向を参考にしながら、所望の方向にタッチ位置を移動させ易い。   In addition, the display control unit 113 can visualize the direction of the touch operation by the process of step S105. Thereby, when the user wants the character C to perform an attacking action, the user can visually recognize both the direction in which the character C is facing and the direction of the touch operation. Therefore, the user can easily move the touch position in a desired direction while referring to the direction in which the character C is facing.

また、フリック操作は、ゲーム中の素早い操作が必要とされる場面において、ユーザが直感的に素早く入力する操作である。本実施形態では、フリック操作の方向に応じて攻撃動作または回避動作を選択できるため、直感的に攻撃と回避とを選択することができる。よって、ゲームの趣向性が向上する。   Further, the flick operation is an operation that the user inputs intuitively and quickly in a scene where a quick operation is required during the game. In the present embodiment, since the attack action or the avoidance action can be selected according to the direction of the flick operation, the attack and the avoidance can be selected intuitively. Therefore, the game preference is improved.

(変形例1)
以上の説明では、第1の入力操作がフリック操作である場合について説明したが、第1の入力操作がスワイプ操作である場合に、同様の処理を行なってもよい。つまり、入力操作受付部111が、一定範囲の方向に含まれる方向のスワイプ操作を受け付けた場合、オブジェクト制御部114はキャラクタCに攻撃動作を実行させてもよい。また、入力操作受付部111が、一定範囲外の方向のスワイプ操作を受け付けた場合、オブジェクト制御部114はキャラクタCに移動動作を実行させてもよい。
(Modification 1)
Although the case where the first input operation is a flick operation has been described above, the same processing may be performed when the first input operation is a swipe operation. That is, when the input operation reception unit 111 receives a swipe operation in a direction included in a certain range of directions, the object control unit 114 may cause the character C to perform an attack action. Further, when the input operation accepting unit 111 accepts a swipe operation in a direction outside a certain range, the object control unit 114 may cause the character C to perform a moving action.

(変形例2)
制御部110は、入力操作受付部111が第1の入力操作を受け付けた場合、第1の入力操作がフリック操作であるか、スワイプ操作であるかに応じて、キャラクタCに実行させるアクションを変えてもよい。
(Modification 2)
When the input operation receiving unit 111 receives the first input operation, the control unit 110 changes the action to be performed by the character C depending on whether the first input operation is a flick operation or a swipe operation. May be.

例えば、制御部110は、入力操作受付部111が受け付けた操作がフリック操作である場合には、ステップS105〜ステップS108を実行する。一方、制御部110は、入力操作受付部111が受け付けた操作がスワイプ操作である場合には、ステップS105〜ステップS108に替えて、以下の処理を実行する。   For example, when the operation received by the input operation receiving unit 111 is a flick operation, the control unit 110 executes steps S105 to S108. On the other hand, when the operation received by the input operation receiving unit 111 is a swipe operation, the control unit 110 executes the following process instead of step S105 to step S108.

入力操作受付部111がスワイプ操作を受け付けた場合に、表示制御部113は、スワイプ操作における第3の位置と第4の位置とにより定まるタッチ操作の方向を示すオブジェクトをタッチスクリーン15に表示する。例えば、第3の位置および第4の位置がそれぞれ図5に示す位置L1および位置L2である場合、表示制御部113は、図5に示す弾性オブジェクトE2と同様の弾性オブジェクトをタッチスクリーン15に表示する。   When the input operation accepting unit 111 accepts the swipe operation, the display control unit 113 displays an object indicating the direction of the touch operation determined by the third position and the fourth position in the swipe operation on the touch screen 15. For example, when the third position and the fourth position are the position L1 and the position L2 shown in FIG. 5, respectively, the display control unit 113 displays an elastic object similar to the elastic object E2 shown in FIG. To do.

次にオブジェクト制御部114は、キャラクタCをタッチ操作の方向に移動するためのアクションを実行させる。例えば、タッチ操作の方向が右方向の場合、オブジェクト制御部114は、右方向に移動するためのアクションをキャラクタCに実行させる。スワイプ操作は長時間タッチスクリーン15に接触し続ける操作であるため、キャラクタCが俊敏に動作する攻撃動作、回避動作等より、移動の方がユーザに操作内容とキャラクタCの反応とを直感的に認識させやすい。よって、ゲームの趣向性をより向上させることができる。   Next, the object control unit 114 causes an action for moving the character C in the direction of the touch operation. For example, when the direction of the touch operation is the right direction, the object control unit 114 causes the character C to perform an action for moving in the right direction. Since the swipe operation is an operation that keeps touching the touch screen 15 for a long time, it is more intuitive for the user to move the operation content and the response of the character C than the attack operation and the avoidance operation in which the character C operates quickly. Easy to recognize. Therefore, the game preference can be further improved.

また、オブジェクト制御部114は、キャラクタCが向いている方向を、スワイプ操作に対応するタッチ操作の方向に基づいて定まる方向に変更する。これにより、直前の移動操作における進行方向がキャラクタCの向いている方向となる。ユーザは、自身が直前に行った移動操作の進行方向が、キャラクタCが向いている方向と認識することが多いと考えられる。そのため、ユーザが認識しているキャラクタCが向いている方向と、オブジェクト制御部114が設定するキャラクタCが向いている方向とが、一致する。よって、移動するためのアクションに続いて、ユーザがキャラクタCの向いている方向を基準に、攻撃させるための操作をしたり、他のアクションをさせるための操作をしたりする場合に、誤操作を発生し難くすることができる。   Further, the object control unit 114 changes the direction in which the character C is facing to a direction determined based on the direction of the touch operation corresponding to the swipe operation. Thereby, the advancing direction in the last moving operation is the direction in which the character C is facing. It is considered that the user often recognizes that the traveling direction of the moving operation performed immediately before is the direction in which the character C is facing. For this reason, the direction in which the character C recognized by the user is facing and the direction in which the character C set by the object control unit 114 is facing match. Therefore, if the user performs an operation for making an attack or an operation for making another action based on the direction in which the character C is facing after the action for moving, an erroneous operation is performed. It can be made difficult to occur.

このように、或る位置から或る位置へ移動させることにより入力される入力操作であっても、フリック操作の場合とスワイプ操作の場合とでキャラクタCに実行させるアクションを変えることにより、より多様なアクションをキャラクタCに行わせることができる。   In this way, even if an input operation is input by moving from a certain position to a certain position, the action to be executed by the character C is changed depending on whether the operation is a flick operation or a swipe operation. Character C can be performed.

また、表示制御部113は、タッチ操作の方向を示すオブジェクトをタッチスクリーン15に表示するので、スワイプ操作の方向を可視化させることができる。そのため、所望の方向にキャラクタCを移動させ易い。従って、ユーザビリティを向上させることができる。   Further, since the display control unit 113 displays an object indicating the direction of the touch operation on the touch screen 15, the direction of the swipe operation can be visualized. Therefore, it is easy to move the character C in a desired direction. Therefore, usability can be improved.

(変形例3)
入力操作受付部111が入力操作を所定の期間内に複数回受け付けた場合、オブジェクト制御部114が今回の入力操作を受け付けてキャラクタCに実行させるアクションは、前回以前の入力操作の少なくとも一部および今回の入力操作に関連付けられていてもよい。つまり、オブジェクト制御部114はキャラクタCに、いわゆるコンボ攻撃の動作を実行させてもよい。例えば、入力操作受付部111が所定の期間内にタップ操作、フリック操作の順で入力操作を受け付けた場合、オブジェクト制御部114がフリック操作に応じてキャラクタCに実行させるアクションは、前回がタップ操作であったことおよび今回がフリック操作であることに基づくアクションであってもよい。
(Modification 3)
When the input operation receiving unit 111 receives an input operation a plurality of times within a predetermined period, the action that the object control unit 114 receives the current input operation and causes the character C to execute is at least a part of the previous input operation and It may be associated with the current input operation. That is, the object control unit 114 may cause the character C to perform a so-called combo attack operation. For example, when the input operation reception unit 111 receives an input operation in the order of a tap operation and a flick operation within a predetermined period, the action that the object control unit 114 causes the character C to execute in response to the flick operation is the tap operation last time. And an action based on the fact that this time is a flick operation.

図6は、ゲームシステム1によって実行される処理の流れを示すフローチャートの他の例である。ステップS101〜ステップS107、およびステップS109の処理は、上述した処理と同じであるため、説明を繰り返さない。   FIG. 6 is another example of a flowchart showing a flow of processing executed by the game system 1. Since the process of step S101-step S107 and step S109 is the same as the process mentioned above, description is not repeated.

オブジェクト制御部114は、ステップS107を実行した後、比較結果に応じたアクションをキャラクタCに実行させる。まず、ステップS201においてオブジェクト制御部114は、タッチ操作の方向が、キャラクタCが向いている方向により定まる一定範囲の方向に含まれているか否かを判定する。   After executing step S107, the object control unit 114 causes the character C to perform an action according to the comparison result. First, in step S201, the object control unit 114 determines whether the direction of the touch operation is included in a certain range of directions determined by the direction in which the character C is facing.

ステップS201においてYESの場合、ステップS202においてオブジェクト制御部114は、ステップS103においてフリック操作を受け付ける前の一定期間内に、攻撃動作を行なうためのタップ操作を受け付けたか否かを判定する。   In the case of YES in step S201, in step S202, the object control unit 114 determines whether or not a tap operation for performing an attack operation has been received within a certain period before the flick operation is received in step S103.

ステップS202においてYESの場合、ステップS203において、オブジェクト制御部114は、前回の攻撃動作に対応する操作がタップ操作であり、且つ、今回の操作がフリック操作であることに基づく攻撃動作を、キャラクタCに実行させる。このように、連続してキャラクタCに攻撃動作を実行させる場合、毎回同じ攻撃動作をキャラクタCに実行させるのではなく、異なる攻撃動作をキャラクタCに実行させることができる。従って、攻撃動作が多様になる。ステップS203の後、ステップS103に戻る。   In the case of YES in step S202, in step S203, the object control unit 114 performs an attack action based on the fact that the operation corresponding to the previous attack action is a tap operation and the current operation is a flick operation. To run. As described above, when the character C is continuously made to perform the attack action, the character C can be made to execute different attack actions instead of causing the character C to execute the same attack action every time. Therefore, the attacking action becomes diverse. After step S203, the process returns to step S103.

ステップS202においてNOの場合、ステップS204においてオブジェクト制御部114は、コンボデータ122を参照することなく、キャラクタCにフリック操作に基づく攻撃動作を実行させる。ステップS204の後、ステップS103に戻る。   If NO in step S202, the object control unit 114 causes the character C to perform an attack action based on the flick operation without referring to the combo data 122 in step S204. After step S204, the process returns to step S103.

また、ステップS201においてNOの場合、ステップS205においてオブジェクト制御部114は、ステップS103において受け付けたフリック操作を受け付ける前の一定期間内にタップ操作を受け付けたか否かを判定する。   If NO in step S201, in step S205, the object control unit 114 determines whether a tap operation has been received within a certain period before the flick operation received in step S103 is received.

ステップS205においてYESの場合、ステップS206においてオブジェクト制御部114は、キャラクタCに、攻撃動作を実行することなくタッチ操作の方向に移動するための回避動作を実行させる。それに続けて、ステップS207においてオブジェクト制御部114は、キャラクタCに攻撃動作を実行させる。ステップS207においてオブジェクト制御部114がキャラクタCに実行させる攻撃動作は、タップ操作に基づく攻撃動作とは異なってもよい。この場合、キャラクタCによる攻撃動作がより多様となり、ゲームの趣向性が向上する。ステップS207の後、ステップS103に戻る。   If YES in step S205, in step S206, the object control unit 114 causes the character C to perform an avoidance action for moving in the direction of the touch operation without executing an attack action. Subsequently, in step S207, the object control unit 114 causes the character C to perform an attack action. The attack action that the object control unit 114 causes the character C to execute in step S207 may be different from the attack action based on the tap operation. In this case, the attacking action by the character C becomes more diverse, and the game preference is improved. After step S207, the process returns to step S103.

ステップS205においてNOの場合、ステップS208においてオブジェクト制御部114は、キャラクタCに回避動作を実行させ、攻撃動作を実行させない。ステップS208の後、ステップS103に戻る。   In the case of NO in step S205, in step S208, the object control unit 114 causes the character C to perform an avoidance action and not to perform an attack action. After step S208, the process returns to step S103.

このように、ユーザは、第1の入力操作を入力する前の入力操作、および第1の入力操作の方向に応じて、キャラクタCに多様なアクションを実行させることができるため、趣向性がさらに向上する。   As described above, the user can cause the character C to perform various actions according to the input operation before inputting the first input operation and the direction of the first input operation. improves.

また、ステップS104においてNOの場合、ステップS109において入力操作受付部111は、ステップS103において受け付けた入力操作がタップ操作であったか否かを判定してもよい。さらに、入力操作受付部111が、受け付けた入力操作はタップ操作であると判定した場合、当該タップ操作を受け付ける前の一定期間内にタップ操作を受け付けたか否かをさらに判定してもよい。ステップS109の後、ステップS103に戻る。   Further, in the case of NO in step S104, the input operation reception unit 111 in step S109 may determine whether or not the input operation received in step S103 is a tap operation. Furthermore, when the input operation reception unit 111 determines that the received input operation is a tap operation, it may further determine whether or not the tap operation has been received within a certain period before the tap operation is received. After step S109, the process returns to step S103.

また、例えば、ステップS103に戻った後、一定期間内に入力操作受付部111がフリック操作を受け付けて、ステップS202、S203が実行されることで、タップ操作、タップ操作、フリック操作という一連の入力操作に基づくコンボ攻撃が成立する。このコンボ攻撃においてキャラクタCが実行するアクションを、図7を用いて説明する。   Further, for example, after returning to step S103, the input operation reception unit 111 receives a flick operation within a certain period, and steps S202 and S203 are executed, so that a series of inputs such as a tap operation, a tap operation, and a flick operation are performed. A combo attack based on the operation is established. An action performed by the character C in this combo attack will be described with reference to FIG.

図7は、オブジェクト制御部114がコンボデータ122に基づいてキャラクタに攻撃動作を実行させたときのアクションの一例を示す図である。図7の状態(A)は、アクションa1を示す。図7の状態(B)は、アクションa2を示す。図7の状態(C)は、アクションa3を示す。入力操作受付部111がタップ操作を受け付けると、オブジェクト制御部114はまず、図7の状態(A)に示すキャラクタCにアクションa1を実行させる。続いて、入力操作受付部111が一定期間内に再びタップ操作を受け付けると、オブジェクト制御部114は、図7の状態(B)に示すアクションa2をキャラクタCに実行させる。続いて、入力操作受付部111が一定期間内にフリック操作を受け付けると、オブジェクト制御部114は、図7の状態(C)に示すアクションa3をキャラクタCに実行させる。アクションa3は、アクションa1、a2より演出を派手にしたり、攻撃力を大きくしたりするように設定してもよい。また、アクションa3のためのフリック操作の代わりに、タップ操作が3回続けられることによって、オブジェクト制御部114は、他の演出が派手であったり攻撃力が大きかったりするアクションをキャラクタCに実行させてもよい。本開示の一実施形態によれば、タッチスクリーン15によるタッチ操作でコンボ攻撃をキャラクタCに実行させるゲームであっても、コンボの流れを分岐させることができる。   FIG. 7 is a diagram illustrating an example of an action when the object control unit 114 causes the character to execute an attack action based on the combo data 122. The state (A) in FIG. 7 shows action a1. The state (B) of FIG. 7 shows action a2. The state (C) of FIG. 7 shows action a3. When the input operation accepting unit 111 accepts the tap operation, the object control unit 114 first causes the character C shown in the state (A) of FIG. 7 to execute the action a1. Subsequently, when the input operation accepting unit 111 accepts the tap operation again within a certain period, the object control unit 114 causes the character C to execute the action a2 shown in the state (B) of FIG. Subsequently, when the input operation receiving unit 111 receives a flick operation within a certain period, the object control unit 114 causes the character C to execute an action a3 shown in the state (C) of FIG. The action a3 may be set so that the production is more flashy than the actions a1 and a2, or the attack power is increased. Further, instead of the flick operation for the action a3, the tap operation is continued three times, so that the object control unit 114 causes the character C to perform an action in which other effects are flashy or the attack power is large. May be. According to an embodiment of the present disclosure, even in a game in which the character C performs a combo attack by a touch operation using the touch screen 15, the flow of the combo can be branched.

このように、ユーザは、多様な操作によって、次々と流れるようにキャラクタCに攻撃させることができるので、ゲームの趣向性が向上する。   In this way, the user can cause the character C to attack so as to flow one after another by various operations, so that the game preference is improved.

また、図6に示すフローチャートが終了すると、制御部110は、ステップS103の処理に戻る。この構成により、入力操作受付部111が入力操作を所定の期間内に複数回受け付けた場合、オブジェクト制御部114は、3回目以降の入力操作に対しても、キャラクタCにコンボを実行させることができる。   When the flowchart shown in FIG. 6 ends, the control unit 110 returns to the process of step S103. With this configuration, when the input operation receiving unit 111 receives an input operation a plurality of times within a predetermined period, the object control unit 114 can cause the character C to execute a combo for the third and subsequent input operations. it can.

また、制御部110は、キャラクタCが攻撃動作のアクションを開始してからアクションを終了する前のアクション実行期間において、ステップS103以降の処理を並行して実行してもよい。例えば、オブジェクト制御部114がステップS203を実行している期間の少なくとも一部において、入力操作受付部111がフリック操作を受け付けた場合、制御部110は、ステップS103以降の処理を実行する。そして、制御部110は、コンボデータ122を参照し、当該フリック操作に応じたアクションを記憶部120に記憶させる。オブジェクト制御部114は、ステップS203の処理を終えると、当該アクションを記憶部120から読み出して、キャラクタCに実行させる。この構成であっても、オブジェクト制御部114は、キャラクタCにコンボを実行させることができる。また、制御部110は、キャラクタCにコンボを実行させることで、コンボ数をタッチスクリーン15に表示することとしてもよい。制御部110は、キャラクタCがアクションを連続して実行している回数を、アクションを行う都度カウントアップし、カウント値をコンボ数としてタッチスクリーン15に表示することとしてもよい。   In addition, the control unit 110 may execute the processes after step S103 in parallel in the action execution period after the character C starts the action of the attack action and before the action is ended. For example, when the input operation reception unit 111 receives a flick operation during at least a part of the period in which the object control unit 114 executes step S203, the control unit 110 executes the processing after step S103. Then, the control unit 110 refers to the combo data 122 and causes the storage unit 120 to store an action corresponding to the flick operation. After completing the process of step S203, the object control unit 114 reads the action from the storage unit 120 and causes the character C to execute it. Even with this configuration, the object control unit 114 can cause the character C to perform a combo. Further, the control unit 110 may display the number of combos on the touch screen 15 by causing the character C to perform combos. The control unit 110 may count up the number of times that the character C continuously executes the action each time the action is performed, and display the count value as the number of combos on the touch screen 15.

〔ソフトウェアによる実現例〕
ユーザ端末100、ゲームサーバ200の制御ブロック(制御部110等)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
Control blocks (such as the control unit 110) of the user terminal 100 and the game server 200 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or a CPU (Central Processing Unit) may be implemented. And may be realized by software.

後者の場合、ユーザ端末100、ゲームサーバ200は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本開示の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本開示は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the user terminal 100 and the game server 200 include a CPU that executes instructions of a program that is software that implements each function, and a ROM (Read Only Memory) or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like. And the objective of this indication is achieved when a computer (or CPU) reads and runs the said program from the said recording medium. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. Note that the present disclosure can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.

〔付記事項〕
本開示の内容を列記すると以下の通りである。
[Additional Notes]
The contents of the present disclosure are listed as follows.

(項目1)本実施形態において、プロセッサ(10)と、メモリ(11)と、タッチスクリーン(15)とを備えるコンピュータ(100)において実行されるゲームプログラムについて説明した。本実施形態のある局面によると、ゲームプログラムは、プロセッサ(10)に、タッチスクリーン(15)に対する入力操作を受け付けるステップ(ステップS103)と、ゲーム空間における仮想カメラの配置を制御するステップ(ステップS102)と、仮想カメラの撮影画像をタッチスクリーン(15)に表示させるステップ(ステップS102)と、タッチスクリーン(15)に対するタッチ位置を第1の位置(L1)から第2の位置(L2)へ移動させることにより入力される第1の入力操作を受け付けた場合に、第1の位置(L1)と第2の位置(L2)とにより定まるタッチ操作の方向と、タッチスクリーン(15)に表示される画面においてゲームキャラクタ(C)が向いている方向とを比較し、比較結果に応じたアクションを、ゲームキャラクタ(C)に実行させるステップ(ステップS108)と、を実行させる。アクションゲームにおいて、ゲームキャラクタの向いている方向とタッチ操作の方向とに応じてアクションを分けることができるので、ゲームの趣向性が向上する。   (Item 1) In this embodiment, the game program executed in the computer (100) including the processor (10), the memory (11), and the touch screen (15) has been described. According to an aspect of the present embodiment, the game program accepts an input operation to the touch screen (15) to the processor (10) (step S103), and controls the placement of the virtual camera in the game space (step S102). ), A step of displaying a captured image of the virtual camera on the touch screen (15) (step S102), and a touch position on the touch screen (15) is moved from the first position (L1) to the second position (L2). When the first input operation that is input is received, the direction of the touch operation determined by the first position (L1) and the second position (L2) and the touch screen (15) are displayed. Compare the direction in which the game character (C) is facing on the screen, and take action according to the comparison result. And a step (step S108) to be executed by the game character (C), is running. In the action game, since the actions can be divided according to the direction in which the game character is facing and the direction of the touch operation, the game preference is improved.

(項目2) (項目1)において、実行させるステップは、第1の入力操作を受け付けた場合に、タッチ操作の方向が、ゲームキャラクタ(C)が向いている方向により定まる一定範囲の方向に含まれていれば、他のオブジェクトに作用を及ぼすためのアクションを、ゲームキャラクタに実行させることを含む。ゲームキャラクタに攻撃動作を実行させるための操作がより多様となる。   (Item 2) In (Item 1), when the first input operation is accepted, the step to be executed includes the direction of the touch operation within a certain range determined by the direction in which the game character (C) is facing. If so, this includes causing the game character to perform an action for acting on another object. The operations for causing the game character to execute an attacking action become more diverse.

(項目3) (項目2)において、実行させるステップは、第1の入力操作を受け付けており、第1の入力操作を受け付ける前の一定期間内に、タッチスクリーン(15)に対するタッチ位置を変化させずに入力される第2の入力操作を受け付けておらず、かつ、タッチ操作の方向が、一定範囲の方向に含まれていない場合に、他のオブジェクトに作用を及ぼすためのアクションを実行することなくタッチ操作の方向へ移動するためのアクションを、ゲームキャラクタ(C)に実行させることと、第1の入力操作を受け付けており、第1の入力操作を受け付ける前の一定期間内に第2の入力操作を受け付けており、かつ、タッチ操作の方向が、一定範囲の方向に含まれていない場合に、他のオブジェクトに作用を及ぼすためのアクションを実行することなくタッチ操作の方向へ移動するためのアクションを、ゲームキャラクタ(C)に実行させ、それに続けて、他のオブジェクトに作用を及ぼすためのアクションを、ゲームキャラクタ(C)に実行させることとを含む。ゲームキャラクタに多様な動作を実行させることができるため、ゲームの趣向性が向上する。   (Item 3) In (Item 2), the step to be executed accepts the first input operation, and changes the touch position on the touch screen (15) within a certain period before accepting the first input operation. When the second input operation input without being received is not received and the direction of the touch operation is not included in the range of the certain range, an action for acting on another object is executed. Without causing the game character (C) to perform an action for moving in the direction of the touch operation and the first input operation, and the second input within a certain period before the first input operation is received. When an input operation is accepted and the direction of the touch operation is not included in a certain range of direction, an action is performed to affect other objects. Causing the game character (C) to execute an action for moving in the direction of the touch operation without performing the action, and subsequently causing the game character (C) to perform an action for acting on another object. including. Since various actions can be performed by the game character, the taste of the game is improved.

(項目4) (項目3)において、実行させるステップは、第2の入力操作を受け付けた場合に、第2の入力操作に応じた他のアクションを、ゲームキャラクタ(C)に実行させることと、第1の入力操作を受け付けており、第1の入力操作を受け付ける前の一定期間内に第2の入力操作を受け付けており、かつ、タッチ操作の方向が、一定範囲の方向に含まれていない場合に、他のオブジェクトに作用を及ぼすためのアクションを実行することなくタッチ操作の方向へ移動するためのアクションを、ゲームキャラクタ(C)に実行させ、それに続けて、他のオブジェクトに作用を及ぼすための、他のアクションとは異なるアクションを、ゲームキャラクタ(C)に実行させることとを含む。多様な操作によって、ゲームキャラクタに攻撃および回避させることができるので、ゲームの趣向性が向上する。   (Item 4) In (Item 3), when the second input operation is received, the step to be executed causes the game character (C) to execute another action according to the second input operation; The first input operation is received, the second input operation is received within a certain period before the first input operation is received, and the direction of the touch operation is not included in a certain range of directions. In some cases, the game character (C) is caused to execute an action for moving in the direction of the touch operation without performing an action for acting on another object, and subsequently, the action is exerted on the other object. For causing the game character (C) to execute an action different from other actions. Since the game character can be attacked and avoided by various operations, the taste of the game is improved.

(項目5) (項目1)〜(項目4)の何れかにおいて、ゲームプログラムは、プロセッサ(10)に、タッチスクリーン(15)に対するタッチ位置を第3の位置から第4の位置へ移動させた後、タッチ位置を第4の位置に維持させることにより入力される第3の入力操作を受け付けた場合に、第3の位置と第4の位置とにより定まるタッチ操作の方向に移動するためのアクションを、ゲームキャラクタ(C)に実行させるステップをさらに実行させる。タッチ位置の維持を必要とする操作の場合、ゲームキャラクタに攻撃させるよりは移動させる方が、ユーザに操作内容とゲームキャラクタの反応とを直感的に認識させやすい。よって、ゲームの趣向性をより向上させることができる。   (Item 5) In any one of (Item 1) to (Item 4), the game program causes the processor (10) to move the touch position on the touch screen (15) from the third position to the fourth position. After that, when a third input operation input by maintaining the touch position at the fourth position is received, an action for moving in the direction of the touch operation determined by the third position and the fourth position Is further executed by the game character (C). In the case of an operation that requires the touch position to be maintained, it is easier for the user to intuitively recognize the operation content and the reaction of the game character than moving the game character to attack. Therefore, the game preference can be further improved.

(項目6) (項目5)において、ゲームプログラムは、プロセッサ(10)に、ゲームキャラクタ(C)が向いている方向を、第3の入力操作に対応するタッチ操作の方向に基づいて定まる方向に変更するステップをさらに実行させる。ユーザがゲームキャラクタの向いている方向を基準に、攻撃させるための操作をしたり、他のアクションをさせるための操作をしたりする場合に、誤操作を発生し難くすることができる。   (Item 6) In (Item 5), the game program sets the direction in which the game character (C) is directed to the processor (10) based on the direction of the touch operation corresponding to the third input operation. The change step is further executed. When the user performs an operation for causing an attack or an operation for performing another action based on the direction in which the game character is facing, an erroneous operation can be made difficult to occur.

(項目7) (項目5)または(項目6)において、ゲームプログラムは、プロセッサ(10)に、第3の入力操作を受け付けた場合に、第3の位置と第4の位置とにより定まるタッチ操作の方向を示すオブジェクトをタッチスクリーン(15)に表示させるステップをさらに実行させる。所望の方向にゲームキャラクタを移動させ易い。従って、ユーザビリティを向上させることができる。   (Item 7) In (Item 5) or (Item 6), when the game program accepts a third input operation to the processor (10), the touch operation is determined by the third position and the fourth position. The step of displaying on the touch screen (15) an object indicating the direction of the is further executed. It is easy to move the game character in a desired direction. Therefore, usability can be improved.

(項目8) (項目5)〜(項目7)の何れかにおいて、第1の入力操作はフリック操作であり、第3の入力操作はスワイプ操作である。より多様なアクションをゲームキャラクタに実行させることができる。   (Item 8) In any one of (Item 5) to (Item 7), the first input operation is a flick operation, and the third input operation is a swipe operation. More various actions can be executed by the game character.

(項目9) (項目8)において、実行させるステップは、フリック操作を受け付けた場合に、タッチ操作の方向が、ゲームキャラクタ(C)が向いている方向により定まる一定範囲の方向に含まれていれば、他のオブジェクトに作用を及ぼすためのアクションを、ゲームキャラクタ(C)に実行させることと、タッチスクリーン(15)に対するタッチ位置を変化させずに入力される第2の入力操作を受け付けた場合に、フリック操作を受け付けた場合に実行される他のオブジェクトに作用を及ぼすためのアクションとは異なる、他のオブジェクトに作用を及ぼすための他のアクションを、ゲームキャラクタ(C)に実行させることとを含む。多様な操作によって、ゲームキャラクタに攻撃動作を実行させることができるので、ゲームの趣向性が向上する。   (Item 9) In (Item 8), when the flick operation is received, the step to be executed is included in a certain range of directions determined by the direction in which the game character (C) is facing. For example, when the game character (C) is caused to execute an action for acting on another object and a second input operation that is input without changing the touch position on the touch screen (15) is received. And causing the game character (C) to execute another action for acting on another object, which is different from the action for acting on another object executed when a flick operation is received. including. Since the game character can execute an attacking action by various operations, the game preference is improved.

(項目10) (項目9)において、実行させるステップは、フリック操作を受け付けた場合に、タッチ操作の方向が、ゲームキャラクタ(C)が向いている方向により定まる一定範囲の方向に含まれていなければ、他のオブジェクトに作用を及ぼすためのアクションを実行することなく移動するためのアクションを、ゲームキャラクタ(C)に実行させる。フリック操作は、素早い操作が必要とされるゲームにおいて、ユーザが直感的に素早く入力する操作であるので、直感的に攻撃と回避とを選択することができる。よって、ゲームの趣向性が向上する。   (Item 10) In (Item 9), when the flick operation is received, the step to be executed must include the direction of the touch operation within a certain range determined by the direction in which the game character (C) is facing. For example, the game character (C) is caused to perform an action for moving without performing an action for acting on another object. Since the flick operation is an operation that the user intuitively and quickly inputs in a game that requires a quick operation, it is possible to intuitively select between attack and avoidance. Therefore, the game preference is improved.

(項目11) (項目2)において、実行させるステップは、タッチスクリーンに対するタッチ位置を変化させずに入力される第2の入力操作を受け付けた場合に、第2の入力操作に応じて、他のオブジェクトに作用を及ぼすための他のアクションをゲームキャラクタに実行させることと、第1の入力操作または第2の入力操作を受け付けることに応じてゲームキャラクタがアクションを実行開始してから実行終了するまでのアクション実行期間の少なくとも一部において第1の入力操作または第2の入力操作を受け付けることにより、アクションの実行終了に続けて、アクション実行期間の少なくとも一部において受け付けた入力操作に応じたアクションをゲームキャラクタに実行させることとを含む。   (Item 11) In (Item 2), when the second input operation input without changing the touch position on the touch screen is received, another step is executed according to the second input operation. In response to causing the game character to perform another action for acting on the object and accepting the first input operation or the second input operation until the game character starts executing the action until the execution ends By accepting the first input operation or the second input operation in at least a part of the action execution period, an action corresponding to the input operation accepted in at least a part of the action execution period can be performed following the end of the execution of the action. Causing the game character to execute.

(項目12) (項目11)において、実行させるステップは、ゲームキャラクタが第1の入力操作または第2の入力操作に応じて他のオブジェクトに作用を及ぼすためのアクションを実行開始してから実行終了した後に第1の入力操作を受け付けた場合に、タッチ操作の方向が、一定範囲の方向に含まれていないとき、他のオブジェクトに作用を及ぼすためのアクションを実行することなくタッチ操作の方向へ移動するためのアクションを、ゲームキャラクタに実行させることと、ゲームキャラクタが第1の入力操作または第2の入力操作に応じて他のオブジェクトに作用を及ぼすためのアクションを実行開始してから実行終了するまでのアクション実行期間の少なくとも一部において第1の入力操作を受け付けた場合に、タッチ操作の方向が、一定範囲の方向に含まれていないとき、他のオブジェクトに作用を及ぼすためのアクションを実行することなくタッチ操作の方向へ移動するためのアクションを、ゲームキャラクタに実行させ、それに続けて、他のオブジェクトに作用を及ぼすためのアクションを、ゲームキャラクタに実行させることを含む。   (Item 12) In (Item 11), the step to be executed ends after the game character starts executing an action for acting on another object in accordance with the first input operation or the second input operation. When the first input operation is accepted after that, and the direction of the touch operation is not included in the direction of the certain range, the direction of the touch operation is performed without executing an action for acting on another object. Execute the action for moving by the game character, and start executing the action for the game character to act on other objects in response to the first input operation or the second input operation When the first input operation is accepted during at least a part of the action execution period until the touch operation, Is not included in a certain range of directions, the game character is caused to perform an action for moving in the direction of the touch operation without performing an action for acting on another object, and subsequently, This includes causing the game character to perform an action for acting on another object.

(項目13) 実行させるステップは、他のオブジェクトに作用を及ぼすためのアクションを実行開始してから実行終了するまでのアクション実行期間の少なくとも一部において第1の入力操作または第2の入力操作を受け付けることにより、他のオブジェクトに作用を及ぼすためのアクションをゲームキャラクタに連続して実行させ、アクションの実行に応じて他のオブジェクトに作用を及ぼす都度、カウントアップする表示をタッチスクリーンに対して行うことを含む。   (Item 13) The step of executing the first input operation or the second input operation in at least a part of the action execution period from the start of execution of an action for acting on another object to the end of execution. By accepting, the game character continuously performs an action for acting on another object, and when the action is performed on the other object according to the execution of the action, a count-up display is performed on the touch screen. Including that.

(項目14) (項目1)〜(項目13)の何れかに記載のゲームプログラムを記録したコンピュータ読み取り可能な記録媒体。   (Item 14) A computer-readable recording medium on which the game program according to any one of (Item 1) to (Item 13) is recorded.

(項目15)本実施形態において、コンピュータ(100)がゲームプログラムを実行するための方法について説明した。コンピュータは、プロセッサと、メモリと、タッチスクリーンとを備え、ゲームプログラムを実行するものである。本実施形態のある局面によると、方法は、コンピュータ(100)が、タッチスクリーン(15)に対する入力操作を受け付けるステップと、ゲーム空間における仮想カメラの配置を制御するステップと、仮想カメラの撮影画像をタッチスクリーン(15)に表示させるステップと、タッチスクリーン(15)に対するタッチ位置を第1の位置(L1)から第2の位置(L2)へ移動させることにより入力される第1の入力操作を受け付けた場合に、第1の位置と第2の位置とにより定まるタッチ操作の方向と、タッチスクリーン(15)に表示される画面においてゲームキャラクタが向いている方向とを比較し、比較結果に応じたアクションを、ゲームキャラクタ(C)に実行させるステップと、を実行することを含む。   (Item 15) In this embodiment, the method for the computer (100) to execute a game program was demonstrated. The computer includes a processor, a memory, and a touch screen, and executes a game program. According to an aspect of this embodiment, the method includes: a step in which the computer (100) receives an input operation on the touch screen (15); a step in which the placement of the virtual camera in the game space is controlled; The step of displaying on the touch screen (15) and the first input operation input by moving the touch position on the touch screen (15) from the first position (L1) to the second position (L2) are accepted. The direction of the touch operation determined by the first position and the second position is compared with the direction in which the game character is facing on the screen displayed on the touch screen (15), and according to the comparison result Performing an action on the game character (C).

(項目16)本実施形態において、情報処理装置(100)について説明した。情報処理装置(100)は、ゲームプログラムを記憶するように構成された記憶部(120)と、情報処理装置(100)の動作を制御するように構成された制御部(110)と、タッチスクリーン(15)とを備える。本実施形態のある局面によると、制御部は、タッチスクリーン(15)に対する入力操作を受け付け、ゲーム空間における仮想カメラの配置を制御し、仮想カメラの撮影画像をタッチスクリーン(15)に表示させ、タッチスクリーン(15)に対するタッチ位置を第1の位置から第2の位置へ移動させることにより入力される第1の入力操作を受け付けた場合に、第1の位置と第2の位置とにより定まるタッチ操作の方向と、タッチスクリーン(15)に表示される画面においてゲームキャラクタ(C)が向いている方向とを比較し、比較結果に応じたアクションを、ゲームキャラクタ(C)に実行させる。   (Item 16) In the present embodiment, the information processing apparatus (100) has been described. The information processing device (100) includes a storage unit (120) configured to store a game program, a control unit (110) configured to control the operation of the information processing device (100), and a touch screen. (15). According to an aspect of the present embodiment, the control unit accepts an input operation on the touch screen (15), controls the placement of the virtual camera in the game space, displays the captured image of the virtual camera on the touch screen (15), A touch determined by the first position and the second position when a first input operation input by moving the touch position on the touch screen (15) from the first position to the second position is received. The direction of operation is compared with the direction in which the game character (C) is facing on the screen displayed on the touch screen (15), and the game character (C) is caused to perform an action according to the comparison result.

1 ゲームシステム、2 ネットワーク、10、20 プロセッサ、11、21 メモリ、12、22 ストレージ、15 タッチスクリーン、100 ユーザ端末、110 制御部、111 入力操作受付部、112 カメラ配置制御部、113 表示制御部、114 オブジェクト制御部、120 記憶部、121 基準モーションデータ、122 コンボデータ、151 入力部、152 表示部、200 ゲームサーバ、a1、a2、a3 アクション DESCRIPTION OF SYMBOLS 1 Game system, 2 networks, 10, 20 Processor, 11, 21 Memory, 12, 22 Storage, 15 Touch screen, 100 User terminal, 110 Control part, 111 Input operation reception part, 112 Camera arrangement control part, 113 Display control part , 114 Object control unit, 120 storage unit, 121 reference motion data, 122 combo data, 151 input unit, 152 display unit, 200 game server, a1, a2, a3 action

Claims (21)

ゲームプログラムであって、
前記ゲームプログラムは、プロセッサと、メモリと、タッチスクリーンとを備えるコンピュータにおいて実行されるものであり、
前記ゲームプログラムは、前記プロセッサに、
前記タッチスクリーンに対する入力操作を受け付けるステップと、
ゲーム空間における仮想カメラの配置を制御するステップと、
前記仮想カメラの撮影画像を前記タッチスクリーンに表示させるステップと、
前記タッチスクリーンに対するタッチ位置を第1の位置から第2の位置へ移動させることにより入力される第1の入力操作を受け付けた場合に、当該第1の位置と当該第2の位置とにより定まるタッチ操作の方向と、前記タッチスクリーンに表示される画面においてゲームキャラクタが向いている方向とを比較し、比較結果に応じたアクションを、前記ゲームキャラクタに実行させるステップと、を実行させ、
前記実行させるステップは、前記第1の入力操作を受け付けた場合に、前記タッチ操作の方向が、前記ゲームキャラクタが向いている方向により定まる一定範囲の方向に含まれていれば、他のオブジェクトに作用を及ぼすためのアクションを、前記ゲームキャラクタに実行させることを含む、ゲームプログラム。
A game program,
The game program is executed in a computer including a processor, a memory, and a touch screen,
The game program is stored in the processor.
Receiving an input operation on the touch screen;
Controlling the placement of virtual cameras in the game space;
Displaying a captured image of the virtual camera on the touch screen;
A touch determined by the first position and the second position when a first input operation input by moving the touch position on the touch screen from the first position to the second position is received. Comparing the direction of operation with the direction in which the game character is facing on the screen displayed on the touch screen, and causing the game character to execute an action according to the comparison result;
In the step of executing, when the first input operation is received, if the direction of the touch operation is included in a certain range of directions determined by the direction in which the game character is facing, A game program comprising causing the game character to execute an action for exerting an action .
ゲームプログラムであって、
前記ゲームプログラムは、プロセッサと、メモリと、タッチスクリーンとを備えるコンピュータにおいて実行されるものであり、
前記ゲームプログラムは、前記プロセッサに、
前記タッチスクリーンに対する入力操作を受け付けるステップと、
ゲーム空間における仮想カメラの配置を制御するステップと、
前記仮想カメラの撮影画像を前記タッチスクリーンに表示させるステップと、
前記タッチスクリーンに対するタッチ位置を第1の位置から第2の位置へ移動させることにより入力される第1の入力操作を受け付けた場合に、当該第1の位置と当該第2の位置とにより定まるタッチ操作の方向と、前記タッチスクリーンに表示される画面においてゲームキャラクタが向いている方向とを比較し、比較結果に応じたアクションを、前記ゲームキャラクタに実行させるステップと、を実行させ、
前記実行させるステップは、前記第1の入力操作を受け付けた場合に、前記タッチ操作の方向が、前記ゲームキャラクタが向いている方向により定まる一定範囲の方向に含まれていれば、他のオブジェクトに作用を及ぼすためのアクションを、前記ゲームキャラクタに実行させることを含み、
前記実行させるステップは、
前記第1の入力操作を受け付けており、前記第1の入力操作を受け付ける前の一定期間内に、前記タッチスクリーンに対する前記タッチ位置を変化させずに入力される第2の入力操作を受け付けておらず、かつ、前記タッチ操作の方向が、前記一定範囲の方向に含まれていない場合に、前記他のオブジェクトに作用を及ぼすためのアクションを実行することなく前記タッチ操作の方向へ移動するためのアクションを、前記ゲームキャラクタに実行させることと、
前記第1の入力操作を受け付けており、前記第1の入力操作を受け付ける前の一定期間内に前記第2の入力操作を受け付けており、かつ、前記タッチ操作の方向が、前記一定範囲の方向に含まれていない場合に、前記他のオブジェクトに作用を及ぼすためのアクションを実行することなく前記タッチ操作の方向へ移動するためのアクションを、前記ゲームキャラクタに実行させ、それに続けて、前記他のオブジェクトに作用を及ぼすためのアクションを、前記ゲームキャラクタに実行させることとを含む、ゲームプログラム。
A game program,
The game program is executed in a computer including a processor, a memory, and a touch screen,
The game program is stored in the processor.
Receiving an input operation on the touch screen;
Controlling the placement of virtual cameras in the game space;
Displaying a captured image of the virtual camera on the touch screen;
A touch determined by the first position and the second position when a first input operation input by moving the touch position on the touch screen from the first position to the second position is received. Comparing the direction of operation with the direction in which the game character is facing on the screen displayed on the touch screen, and causing the game character to execute an action according to the comparison result;
In the step of executing, when the first input operation is received, if the direction of the touch operation is included in a certain range of directions determined by the direction in which the game character is facing, Including causing the game character to execute an action for exerting an action,
The step of executing includes
The first input operation is received, and the second input operation input without changing the touch position with respect to the touch screen is received within a certain period before the first input operation is received. And when the direction of the touch operation is not included in the direction of the predetermined range, the movement to move in the direction of the touch operation without performing an action for acting on the other object. Causing the game character to perform an action;
The first input operation is received, the second input operation is received within a certain period before the first input operation is received, and the direction of the touch operation is a direction within the certain range. The game character performs an action for moving in the direction of the touch operation without performing an action for exerting an action on the other object. the actions to act on the object, and a be executed by the game character, gate arm program.
前記実行させるステップは、
前記第2の入力操作を受け付けた場合に、前記第2の入力操作に応じた他のアクションを、前記ゲームキャラクタに実行させることと、
前記第1の入力操作を受け付けており、前記第1の入力操作を受け付ける前の一定期間内に前記第2の入力操作を受け付けており、かつ、前記タッチ操作の方向が、前記一定範囲の方向に含まれていない場合に、前記他のオブジェクトに作用を及ぼすためのアクションを実行することなく前記タッチ操作の方向へ移動するためのアクションを、前記ゲームキャラクタに実行させ、それに続けて、前記他のオブジェクトに作用を及ぼすための、前記他のアクションとは異なるアクションを、前記ゲームキャラクタに実行させることとを含む、請求項に記載のゲームプログラム。
The step of executing includes
Causing the game character to perform another action according to the second input operation when the second input operation is received;
The first input operation is received, the second input operation is received within a certain period before the first input operation is received, and the direction of the touch operation is a direction within the certain range. The game character performs an action for moving in the direction of the touch operation without performing an action for exerting an action on the other object. The game program according to claim 2 , further comprising: causing the game character to execute an action different from the other actions for exerting an action on the object.
ゲームプログラムであって、
前記ゲームプログラムは、プロセッサと、メモリと、タッチスクリーンとを備えるコンピュータにおいて実行されるものであり、
前記ゲームプログラムは、前記プロセッサに、
前記タッチスクリーンに対する入力操作を受け付けるステップと、
ゲーム空間における仮想カメラの配置を制御するステップと、
前記仮想カメラの撮影画像を前記タッチスクリーンに表示させるステップと、
前記タッチスクリーンに対するタッチ位置を第1の位置から第2の位置へ移動させることにより入力される第1の入力操作を受け付けた場合に、当該第1の位置と当該第2の位置とにより定まるタッチ操作の方向と、前記タッチスクリーンに表示される画面においてゲームキャラクタが向いている方向とを比較し、比較結果に応じたアクションを、前記ゲームキャラクタに実行させるステップと、を実行させ、
前記ゲームプログラムは、前記プロセッサに、
前記タッチスクリーンに対するタッチ位置を第3の位置から第4の位置へ移動させた後、前記タッチ位置を前記第4の位置に維持させることにより入力される第3の入力操作を受け付けた場合に、当該第3の位置と当該第4の位置とにより定まるタッチ操作の方向に
移動するためのアクションを、前記ゲームキャラクタに実行させるステップをさらに実行させる、ゲームプログラム。
A game program,
The game program is executed in a computer including a processor, a memory, and a touch screen,
The game program is stored in the processor.
Receiving an input operation on the touch screen;
Controlling the placement of virtual cameras in the game space;
Displaying a captured image of the virtual camera on the touch screen;
A touch determined by the first position and the second position when a first input operation input by moving the touch position on the touch screen from the first position to the second position is received. Comparing the direction of operation with the direction in which the game character is facing on the screen displayed on the touch screen, and causing the game character to execute an action according to the comparison result;
The game program is stored in the processor.
When a third input operation input by maintaining the touch position at the fourth position after moving the touch position on the touch screen from the third position to the fourth position is received, action to move in the direction of the touch operation determined by the position of the third position and the fourth, further perform the steps to be executed by the game character, gate arm program.
前記ゲームプログラムは、前記プロセッサに、
前記ゲームキャラクタが向いている方向を、前記第3の入力操作に対応する前記タッチ操作の方向に基づいて定まる方向に変更するステップをさらに実行させる、請求項4に記載のゲームプログラム。
The game program is stored in the processor.
The game program according to claim 4, further causing a step of changing a direction in which the game character is facing to a direction determined based on a direction of the touch operation corresponding to the third input operation.
前記ゲームプログラムは、前記プロセッサに、
前記第3の入力操作を受け付けた場合に、前記第3の位置と前記第4の位置とにより定まるタッチ操作の方向を示すオブジェクトを前記タッチスクリーンに表示させるステップをさらに実行させる、請求項またはに記載のゲームプログラム。
The game program is stored in the processor.
When receiving the third input operation, the third position and further to perform the step of displaying an object that indicates the direction of the touch operation determined by said fourth position on the touch screen, according to claim 4 or 5. The game program according to 5 .
前記第1の入力操作はフリック操作であり、前記第3の入力操作はスワイプ操作である、請求項の何れか1項に記載のゲームプログラム。 The game program according to any one of claims 4 to 6 , wherein the first input operation is a flick operation, and the third input operation is a swipe operation. 前記実行させるステップは、
前記フリック操作を受け付けた場合に、前記タッチ操作の方向が、前記ゲームキャラクタが向いている方向により定まる一定範囲の方向に含まれていれば、他のオブジェクトに作用を及ぼすためのアクションを、前記ゲームキャラクタに実行させることと、
前記タッチスクリーンに対する前記タッチ位置を変化させずに入力される第2の入力操作を受け付けた場合に、前記フリック操作を受け付けた場合に実行される前記他のオブジェクトに作用を及ぼすためのアクションとは異なる、前記他のオブジェクトに作用を及ぼすための他のアクションを、前記ゲームキャラクタに実行させることとを含む、請求項に記載のゲームプログラム。
The step of executing includes
If the direction of the touch operation is included in a certain range of directions determined by the direction in which the game character is facing when the flick operation is received, an action for acting on another object is performed. Letting the game character execute,
What is an action for acting on the other object that is executed when the flick operation is received when a second input operation input without changing the touch position on the touch screen is received? The game program according to claim 7 , further comprising causing the game character to execute another action that is different and acts on the other object.
前記実行させるステップは、前記フリック操作を受け付けた場合に、前記タッチ操作の方向が、前記ゲームキャラクタが向いている方向により定まる一定範囲の方向に含まれていなければ、前記他のオブジェクトに作用を及ぼすためのアクションを実行することなく移動するためのアクションを、前記ゲームキャラクタに実行させる、請求項に記載のゲームプログラム。 In the step of executing, when the flick operation is received, if the direction of the touch operation is not included in a certain range of directions determined by the direction in which the game character is facing, the action is performed on the other objects. The game program according to claim 8 , wherein the game character is caused to execute an action for moving without performing an action for exerting. 前記実行させるステップは、
前記タッチスクリーンに対する前記タッチ位置を変化させずに入力される第2の入力操作を受け付けた場合に、前記第2の入力操作に応じて、他のオブジェクトに作用を及ぼすための他のアクションを前記ゲームキャラクタに実行させることと、
前記第1の入力操作または前記第2の入力操作を受け付けることに応じて前記ゲームキャラクタがアクションを実行開始してから実行終了するまでのアクション実行期間の少なくとも一部において前記第1の入力操作または前記第2の入力操作を受け付けることにより、前記アクションの実行終了に続けて、前記アクション実行期間の少なくとも一部において受け付けた入力操作に応じたアクションを前記ゲームキャラクタに実行させることとを含む、請求項に記載のゲームプログラム。
The step of executing includes
When a second input operation input without changing the touch position with respect to the touch screen is received, another action for acting on another object is performed according to the second input operation. Letting the game character execute,
In response to receiving the first input operation or the second input operation, the first input operation or at least a part of the action execution period from when the game character starts executing to when the action ends Receiving the second input operation, causing the game character to execute an action corresponding to the input operation received during at least a part of the action execution period, following the end of execution of the action. Item 4. A game program according to item 1 .
ゲームプログラムであって、
前記ゲームプログラムは、プロセッサと、メモリと、タッチスクリーンとを備えるコンピュータにおいて実行されるものであり、
前記ゲームプログラムは、前記プロセッサに、
前記タッチスクリーンに対する入力操作を受け付けるステップと、
ゲーム空間における仮想カメラの配置を制御するステップと、
前記仮想カメラの撮影画像を前記タッチスクリーンに表示させるステップと、
前記タッチスクリーンに対するタッチ位置を第1の位置から第2の位置へ移動させることにより入力される第1の入力操作を受け付けた場合に、当該第1の位置と当該第2の位置とにより定まるタッチ操作の方向と、前記タッチスクリーンに表示される画面においてゲームキャラクタが向いている方向とを比較し、比較結果に応じたアクションを、前記ゲームキャラクタに実行させるステップと、を実行させ、
前記実行させるステップは、前記第1の入力操作を受け付けた場合に、前記タッチ操作の方向が、前記ゲームキャラクタが向いている方向により定まる一定範囲の方向に含まれていれば、他のオブジェクトに作用を及ぼすためのアクションを、前記ゲームキャラクタに実行させることを含み、
前記実行させるステップは、
前記タッチスクリーンに対する前記タッチ位置を変化させずに入力される第2の入力操作を受け付けた場合に、前記第2の入力操作に応じて、他のオブジェクトに作用を及ぼすための他のアクションを前記ゲームキャラクタに実行させることと、
前記第1の入力操作または前記第2の入力操作を受け付けることに応じて前記ゲームキャラクタがアクションを実行開始してから実行終了するまでのアクション実行期間の少なくとも一部において前記第1の入力操作または前記第2の入力操作を受け付けることにより、前記アクションの実行終了に続けて、前記アクション実行期間の少なくとも一部において受け付けた入力操作に応じたアクションを前記ゲームキャラクタに実行させることとを含み、
前記実行させるステップは、
前記ゲームキャラクタが前記第1の入力操作または前記第2の入力操作に応じて他のオブジェクトに作用を及ぼすためのアクションを実行開始してから実行終了した後に前記第1の入力操作を受け付けた場合に、前記タッチ操作の方向が、前記一定範囲の方向に含まれていないとき、前記他のオブジェクトに作用を及ぼすためのアクションを実行することなく前記タッチ操作の方向へ移動するためのアクションを、前記ゲームキャラクタに実行させることと、
前記ゲームキャラクタが前記第1の入力操作または前記第2の入力操作に応じて他のオブジェクトに作用を及ぼすためのアクションを実行開始してから実行終了するまでの前記アクション実行期間の少なくとも一部において前記第1の入力操作を受け付けた場合に、前記タッチ操作の方向が、前記一定範囲の方向に含まれていないとき、前記他のオブジェクトに作用を及ぼすためのアクションを実行することなく前記タッチ操作の方向へ移動するためのアクションを、前記ゲームキャラクタに実行させ、それに続けて、前記他のオブジェクトに作用を及ぼすためのアクションを、前記ゲームキャラクタに実行させることを含む、ゲームプログラム。
A game program,
The game program is executed in a computer including a processor, a memory, and a touch screen,
The game program is stored in the processor.
Receiving an input operation on the touch screen;
Controlling the placement of virtual cameras in the game space;
Displaying a captured image of the virtual camera on the touch screen;
A touch determined by the first position and the second position when a first input operation input by moving the touch position on the touch screen from the first position to the second position is received. Comparing the direction of operation with the direction in which the game character is facing on the screen displayed on the touch screen, and causing the game character to execute an action according to the comparison result;
In the step of executing, when the first input operation is received, if the direction of the touch operation is included in a certain range of directions determined by the direction in which the game character is facing, Including causing the game character to execute an action for exerting an action,
The step of executing includes
When a second input operation input without changing the touch position with respect to the touch screen is received, another action for acting on another object is performed according to the second input operation. Letting the game character execute,
In response to receiving the first input operation or the second input operation, the first input operation or at least a part of the action execution period from when the game character starts executing to when the action ends Receiving the second input operation, causing the game character to execute an action corresponding to the input operation received in at least a part of the action execution period following the end of execution of the action,
The step of executing includes
When the game character accepts the first input operation after the execution of the action for effecting another object in response to the first input operation or the second input operation is started, and then the execution ends. When the direction of the touch operation is not included in the direction of the certain range, an action for moving in the direction of the touch operation without performing an action for acting on the other object, Causing the game character to execute;
In at least part of the action execution period from the start of execution of an action for causing the game character to act on another object in response to the first input operation or the second input operation to the end of execution When the first input operation is received and the direction of the touch operation is not included in the direction of the certain range, the touch operation is performed without performing an action for acting on the other object. action to move in the direction, is performed on the game character, followed by it, the action to act on the said other object, causing execution to said game character, gate arm program.
前記実行させるステップは、
前記他のオブジェクトに作用を及ぼすためのアクションを実行開始してから実行終了するまでの前記アクション実行期間の少なくとも一部において前記第1の入力操作または前記第2の入力操作を受け付けることにより、前記他のオブジェクトに作用を及ぼすためのアクションを前記ゲームキャラクタに連続して実行させ、前記アクションの実行に応じて前記他のオブジェクトに作用を及ぼす都度、カウントアップする表示を前記タッチスクリーンに対して行うことを含む、請求項10又は11に記載のゲームプログラム。
The step of executing includes
By accepting the first input operation or the second input operation in at least a part of the action execution period from the start of execution of an action for acting on the other object to the end of execution, The game character is caused to continuously execute an action for acting on another object, and a count-up display is performed on the touch screen every time the action is performed on the other object according to the execution of the action. The game program according to claim 10 or 11 , further comprising:
請求項1〜12の何れか1項に記載のゲームプログラムを記録したコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium a game program according to any one of claims 1 to 12. コンピュータがゲームプログラムを実行するための方法であって、
前記コンピュータは、プロセッサと、メモリと、タッチスクリーンとを備え、前記ゲームプログラムを実行するものであり、
前記方法は、前記コンピュータが、
前記タッチスクリーンに対する入力操作を受け付けるステップと、
ゲーム空間における仮想カメラの配置を制御するステップと、
前記仮想カメラの撮影画像を前記タッチスクリーンに表示させるステップと、
前記タッチスクリーンに対するタッチ位置を第1の位置から第2の位置へ移動させることにより入力される第1の入力操作を受け付けた場合に、当該第1の位置と当該第2の位置とにより定まるタッチ操作の方向と、前記タッチスクリーンに表示される画面においてゲームキャラクタが向いている方向とを比較し、比較結果に応じたアクションを、前記ゲームキャラクタに実行させるステップと、を実行することを含み、
前記実行させるステップは、前記第1の入力操作を受け付けた場合に、前記タッチ操作の方向が、前記ゲームキャラクタが向いている方向により定まる一定範囲の方向に含まれていれば、他のオブジェクトに作用を及ぼすためのアクションを、前記ゲームキャラクタに実行させることを含む、方法。
A method for a computer to execute a game program,
The computer includes a processor, a memory, and a touch screen, and executes the game program.
In the method, the computer
Receiving an input operation on the touch screen;
Controlling the placement of virtual cameras in the game space;
Displaying a captured image of the virtual camera on the touch screen;
A touch determined by the first position and the second position when a first input operation input by moving the touch position on the touch screen from the first position to the second position is received. the direction of operation, the comparing the direction in which the game character is facing in the touch screen to the screen displayed, viewed including to perform actions in accordance with the comparison result, the steps to be executed by the game character, a ,
In the step of executing, when the first input operation is received, if the direction of the touch operation is included in a certain range of directions determined by the direction in which the game character is facing, A method comprising causing the game character to perform an action for exerting an action .
コンピュータがゲームプログラムを実行するための方法であって、
前記コンピュータは、プロセッサと、メモリと、タッチスクリーンとを備え、前記ゲームプログラムを実行するものであり、
前記方法は、前記コンピュータが、
前記タッチスクリーンに対する入力操作を受け付けるステップと、
ゲーム空間における仮想カメラの配置を制御するステップと、
前記仮想カメラの撮影画像を前記タッチスクリーンに表示させるステップと、
前記タッチスクリーンに対するタッチ位置を第1の位置から第2の位置へ移動させることにより入力される第1の入力操作を受け付けた場合に、当該第1の位置と当該第2の位置とにより定まるタッチ操作の方向と、前記タッチスクリーンに表示される画面においてゲームキャラクタが向いている方向とを比較し、比較結果に応じたアクションを、前記ゲームキャラクタに実行させるステップと、を実行することを含み、
前記実行させるステップは、前記第1の入力操作を受け付けた場合に、前記タッチ操作の方向が、前記ゲームキャラクタが向いている方向により定まる一定範囲の方向に含まれていれば、他のオブジェクトに作用を及ぼすためのアクションを、前記ゲームキャラクタに実行させることを含み、
前記実行させるステップは、
前記第1の入力操作を受け付けており、前記第1の入力操作を受け付ける前の一定期間内に、前記タッチスクリーンに対する前記タッチ位置を変化させずに入力される第2の入力操作を受け付けておらず、かつ、前記タッチ操作の方向が、前記一定範囲の方向に含まれていない場合に、前記他のオブジェクトに作用を及ぼすためのアクションを実行することなく前記タッチ操作の方向へ移動するためのアクションを、前記ゲームキャラクタに実行させることと、
前記第1の入力操作を受け付けており、前記第1の入力操作を受け付ける前の一定期間内に前記第2の入力操作を受け付けており、かつ、前記タッチ操作の方向が、前記一定範囲の方向に含まれていない場合に、前記他のオブジェクトに作用を及ぼすためのアクションを実行することなく前記タッチ操作の方向へ移動するためのアクションを、前記ゲームキャラクタに実行させ、それに続けて、前記他のオブジェクトに作用を及ぼすためのアクションを、前記ゲームキャラクタに実行させることとを含む、方法。
A method for a computer to execute a game program,
The computer includes a processor, a memory, and a touch screen, and executes the game program.
In the method, the computer
Receiving an input operation on the touch screen;
Controlling the placement of virtual cameras in the game space;
Displaying a captured image of the virtual camera on the touch screen;
A touch determined by the first position and the second position when a first input operation input by moving the touch position on the touch screen from the first position to the second position is received. the direction of operation, the comparing the direction in which the game character is facing in the touch screen to the screen displayed, viewed including to perform actions in accordance with the comparison result, the steps to be executed by the game character, a ,
In the step of executing, when the first input operation is received, if the direction of the touch operation is included in a certain range of directions determined by the direction in which the game character is facing, Including causing the game character to execute an action for exerting an action,
The step of executing includes
The first input operation is received, and the second input operation input without changing the touch position with respect to the touch screen is received within a certain period before the first input operation is received. And when the direction of the touch operation is not included in the direction of the predetermined range, the movement to move in the direction of the touch operation without performing an action for acting on the other object. Causing the game character to perform an action;
The first input operation is received, the second input operation is received within a certain period before the first input operation is received, and the direction of the touch operation is a direction within the certain range. The game character performs an action for moving in the direction of the touch operation without performing an action for exerting an action on the other object. And causing the game character to perform an action for acting on the object.
コンピュータがゲームプログラムを実行するための方法であって、A method for a computer to execute a game program,
前記コンピュータは、プロセッサと、メモリと、タッチスクリーンとを備え、前記ゲームプログラムを実行するものであり、The computer includes a processor, a memory, and a touch screen, and executes the game program.
前記方法は、前記コンピュータが、In the method, the computer
前記タッチスクリーンに対する入力操作を受け付けるステップと、Receiving an input operation on the touch screen;
ゲーム空間における仮想カメラの配置を制御するステップと、Controlling the placement of virtual cameras in the game space;
前記仮想カメラの撮影画像を前記タッチスクリーンに表示させるステップと、Displaying a captured image of the virtual camera on the touch screen;
前記タッチスクリーンに対するタッチ位置を第1の位置から第2の位置へ移動させることにより入力される第1の入力操作を受け付けた場合に、当該第1の位置と当該第2の位置とにより定まるタッチ操作の方向と、前記タッチスクリーンに表示される画面においてゲームキャラクタが向いている方向とを比較し、比較結果に応じたアクションを、前記ゲームキャラクタに実行させるステップと、を実行することを含み、A touch determined by the first position and the second position when a first input operation input by moving the touch position on the touch screen from the first position to the second position is received. Comparing the direction of operation with the direction in which the game character is facing on the screen displayed on the touch screen, and causing the game character to execute an action according to the comparison result,
前記ゲームプログラムは、前記プロセッサに、The game program is stored in the processor.
前記タッチスクリーンに対するタッチ位置を第3の位置から第4の位置へ移動させた後、前記タッチ位置を前記第4の位置に維持させることにより入力される第3の入力操作を受け付けた場合に、当該第3の位置と当該第4の位置とにより定まるタッチ操作の方向にWhen a third input operation input by maintaining the touch position at the fourth position after moving the touch position on the touch screen from the third position to the fourth position is received, In the direction of the touch operation determined by the third position and the fourth position
移動するためのアクションを、前記ゲームキャラクタに実行させるステップをさらに実行させる、方法。A method of causing the game character to further execute an action for moving.
コンピュータがゲームプログラムを実行するための方法であって、A method for a computer to execute a game program,
前記コンピュータは、プロセッサと、メモリと、タッチスクリーンとを備え、前記ゲームプログラムを実行するものであり、The computer includes a processor, a memory, and a touch screen, and executes the game program.
前記方法は、前記コンピュータが、In the method, the computer
前記タッチスクリーンに対する入力操作を受け付けるステップと、Receiving an input operation on the touch screen;
ゲーム空間における仮想カメラの配置を制御するステップと、Controlling the placement of virtual cameras in the game space;
前記仮想カメラの撮影画像を前記タッチスクリーンに表示させるステップと、Displaying a captured image of the virtual camera on the touch screen;
前記タッチスクリーンに対するタッチ位置を第1の位置から第2の位置へ移動させることにより入力される第1の入力操作を受け付けた場合に、当該第1の位置と当該第2の位置とにより定まるタッチ操作の方向と、前記タッチスクリーンに表示される画面においてゲームキャラクタが向いている方向とを比較し、比較結果に応じたアクションを、前記ゲームキャラクタに実行させるステップと、を実行することを含み、A touch determined by the first position and the second position when a first input operation input by moving the touch position on the touch screen from the first position to the second position is received. Comparing the direction of operation with the direction in which the game character is facing on the screen displayed on the touch screen, and causing the game character to execute an action according to the comparison result,
前記実行させるステップは、前記第1の入力操作を受け付けた場合に、前記タッチ操作の方向が、前記ゲームキャラクタが向いている方向により定まる一定範囲の方向に含まれていれば、他のオブジェクトに作用を及ぼすためのアクションを、前記ゲームキャラクタに実行させることを含み、In the step of executing, when the first input operation is received, if the direction of the touch operation is included in a certain range of directions determined by the direction in which the game character is facing, Including causing the game character to execute an action for exerting an action,
前記実行させるステップは、The step of executing includes
前記タッチスクリーンに対する前記タッチ位置を変化させずに入力される第2の入力操作を受け付けた場合に、前記第2の入力操作に応じて、他のオブジェクトに作用を及ぼすための他のアクションを前記ゲームキャラクタに実行させることと、When a second input operation input without changing the touch position with respect to the touch screen is received, another action for acting on another object is performed according to the second input operation. Letting the game character execute,
前記第1の入力操作または前記第2の入力操作を受け付けることに応じて前記ゲームキャラクタがアクションを実行開始してから実行終了するまでのアクション実行期間の少なくとも一部において前記第1の入力操作または前記第2の入力操作を受け付けることにより、前記アクションの実行終了に続けて、前記アクション実行期間の少なくとも一部において受け付けた入力操作に応じたアクションを前記ゲームキャラクタに実行させることとを含み、In response to receiving the first input operation or the second input operation, the first input operation or at least a part of the action execution period from when the game character starts executing to when the action ends Receiving the second input operation, causing the game character to execute an action corresponding to the input operation received in at least a part of the action execution period following the end of execution of the action,
前記実行させるステップは、The step of executing includes
前記ゲームキャラクタが前記第1の入力操作または前記第2の入力操作に応じて他のオブジェクトに作用を及ぼすためのアクションを実行開始してから実行終了した後に前記第1の入力操作を受け付けた場合に、前記タッチ操作の方向が、前記一定範囲の方向に含まれていないとき、前記他のオブジェクトに作用を及ぼすためのアクションを実行することなく前記タッチ操作の方向へ移動するためのアクションを、前記ゲームキャラクタに実行させることと、When the game character accepts the first input operation after the execution of the action for effecting another object in response to the first input operation or the second input operation is started, and then the execution ends. When the direction of the touch operation is not included in the direction of the certain range, an action for moving in the direction of the touch operation without performing an action for acting on the other object, Causing the game character to execute;
前記ゲームキャラクタが前記第1の入力操作または前記第2の入力操作に応じて他のオブジェクトに作用を及ぼすためのアクションを実行開始してから実行終了するまでの前記アクション実行期間の少なくとも一部において前記第1の入力操作を受け付けた場合に、前記タッチ操作の方向が、前記一定範囲の方向に含まれていないとき、前記他のオブジェクトに作用を及ぼすためのアクションを実行することなく前記タッチ操作の方向へ移動するためのアクションを、前記ゲームキャラクタに実行させ、それに続けて、前記他のオブジェクトに作用を及ぼすためのアクションを、前記ゲームキャラクタに実行させることを含む、方法。In at least part of the action execution period from the start of execution of an action for causing the game character to act on another object in response to the first input operation or the second input operation to the end of execution When the first input operation is received and the direction of the touch operation is not included in the direction of the certain range, the touch operation is performed without performing an action for acting on the other object. The method includes causing the game character to perform an action for moving in the direction of the game, and subsequently causing the game character to perform an action for acting on the other object.
情報処理装置であって、
前記情報処理装置は、
ゲームプログラムを記憶するように構成された記憶部と、
前記情報処理装置の動作を制御するように構成された制御部と、
タッチスクリーンとを備え、
前記制御部は、
前記タッチスクリーンに対する入力操作を受け付け、
ゲーム空間における仮想カメラの配置を制御し、
前記仮想カメラの撮影画像を前記タッチスクリーンに表示させ、
前記タッチスクリーンに対するタッチ位置を第1の位置から第2の位置へ移動させることにより入力される第1の入力操作を受け付けた場合に、当該第1の位置と当該第2の位置とにより定まるタッチ操作の方向と、前記タッチスクリーンに表示される画面においてゲームキャラクタが向いている方向とを比較し、比較結果に応じたアクションを、前記ゲームキャラクタに実行させ、
前記比較結果に応じたアクションを、前記ゲームキャラクタに実行させるとき、前記第1の入力操作を受け付けた場合に、前記タッチ操作の方向が、前記ゲームキャラクタが向いている方向により定まる一定範囲の方向に含まれていれば、他のオブジェクトに作用を及ぼすためのアクションを、前記ゲームキャラクタに実行させることを含む、情報処理装置。
An information processing apparatus,
The information processing apparatus includes:
A storage unit configured to store a game program;
A control unit configured to control the operation of the information processing apparatus;
With a touch screen,
The controller is
Receiving an input operation on the touch screen;
Control the placement of virtual cameras in the game space,
Displaying the captured image of the virtual camera on the touch screen,
A touch determined by the first position and the second position when a first input operation input by moving the touch position on the touch screen from the first position to the second position is received. Comparing the direction of operation with the direction in which the game character is facing on the screen displayed on the touch screen, causing the game character to execute an action according to the comparison result,
When causing the game character to execute an action according to the comparison result, the direction of the touch operation is determined by the direction in which the game character is facing when the first input operation is received. An information processing apparatus including causing the game character to execute an action for acting on another object .
情報処理装置であって、An information processing apparatus,
前記情報処理装置は、The information processing apparatus includes:
ゲームプログラムを記憶するように構成された記憶部と、A storage unit configured to store a game program;
前記情報処理装置の動作を制御するように構成された制御部と、A control unit configured to control the operation of the information processing apparatus;
タッチスクリーンとを備え、With a touch screen,
前記制御部は、The controller is
前記タッチスクリーンに対する入力操作を受け付け、Receiving an input operation on the touch screen;
ゲーム空間における仮想カメラの配置を制御し、Control the placement of virtual cameras in the game space,
前記仮想カメラの撮影画像を前記タッチスクリーンに表示させ、Displaying the captured image of the virtual camera on the touch screen,
前記タッチスクリーンに対するタッチ位置を第1の位置から第2の位置へ移動させることにより入力される第1の入力操作を受け付けた場合に、当該第1の位置と当該第2の位置とにより定まるタッチ操作の方向と、前記タッチスクリーンに表示される画面においてゲームキャラクタが向いている方向とを比較し、比較結果に応じたアクションを、前記ゲームキャラクタに実行させ、A touch determined by the first position and the second position when a first input operation input by moving the touch position on the touch screen from the first position to the second position is received. Comparing the direction of operation with the direction in which the game character is facing on the screen displayed on the touch screen, causing the game character to execute an action according to the comparison result,
前記比較結果に応じたアクションを、前記ゲームキャラクタに実行させるとき、前記第1の入力操作を受け付けた場合に、前記タッチ操作の方向が、前記ゲームキャラクタが向いている方向により定まる一定範囲の方向に含まれていれば、他のオブジェクトに作用を及ぼすためのアクションを、前記ゲームキャラクタに実行させることを含み、When causing the game character to execute an action according to the comparison result, the direction of the touch operation is determined by the direction in which the game character is facing when the first input operation is received. The game character is caused to perform an action for acting on another object.
前記比較結果に応じたアクションを、前記ゲームキャラクタに実行させるとき、When causing the game character to execute an action according to the comparison result,
前記第1の入力操作を受け付けており、前記第1の入力操作を受け付ける前の一定期間内に、前記タッチスクリーンに対する前記タッチ位置を変化させずに入力される第2の入力操作を受け付けておらず、かつ、前記タッチ操作の方向が、前記一定範囲の方向に含まれていない場合に、前記他のオブジェクトに作用を及ぼすためのアクションを実行することなく前記タッチ操作の方向へ移動するためのアクションを、前記ゲームキャラクタに実行させることと、The first input operation is received, and the second input operation input without changing the touch position with respect to the touch screen is received within a certain period before the first input operation is received. And when the direction of the touch operation is not included in the direction of the predetermined range, the movement to move in the direction of the touch operation without performing an action for acting on the other object. Causing the game character to perform an action;
前記第1の入力操作を受け付けており、前記第1の入力操作を受け付ける前の一定期間内に前記第2の入力操作を受け付けており、かつ、前記タッチ操作の方向が、前記一定範囲の方向に含まれていない場合に、前記他のオブジェクトに作用を及ぼすためのアクションを実行することなく前記タッチ操作の方向へ移動するためのアクションを、前記ゲームキャラクタに実行させ、それに続けて、前記他のオブジェクトに作用を及ぼすためのアクションを、前記ゲームキャラクタに実行させることとを含む、情報処理装置。The first input operation is received, the second input operation is received within a certain period before the first input operation is received, and the direction of the touch operation is a direction within the certain range. The game character performs an action for moving in the direction of the touch operation without performing an action for exerting an action on the other object. An information processing apparatus including causing the game character to execute an action for acting on the object.
情報処理装置であって、An information processing apparatus,
前記情報処理装置は、The information processing apparatus includes:
ゲームプログラムを記憶するように構成された記憶部と、A storage unit configured to store a game program;
前記情報処理装置の動作を制御するように構成された制御部と、A control unit configured to control the operation of the information processing apparatus;
タッチスクリーンとを備え、With a touch screen,
前記制御部は、The controller is
前記タッチスクリーンに対する入力操作を受け付け、Receiving an input operation on the touch screen;
ゲーム空間における仮想カメラの配置を制御し、Control the placement of virtual cameras in the game space,
前記仮想カメラの撮影画像を前記タッチスクリーンに表示させ、Displaying the captured image of the virtual camera on the touch screen,
前記タッチスクリーンに対するタッチ位置を第1の位置から第2の位置へ移動させることにより入力される第1の入力操作を受け付けた場合に、当該第1の位置と当該第2の位置とにより定まるタッチ操作の方向と、前記タッチスクリーンに表示される画面においてゲームキャラクタが向いている方向とを比較し、比較結果に応じたアクションを、前記ゲームキャラクタに実行させ、A touch determined by the first position and the second position when a first input operation input by moving the touch position on the touch screen from the first position to the second position is received. Comparing the direction of operation with the direction in which the game character is facing on the screen displayed on the touch screen, causing the game character to execute an action according to the comparison result,
前記制御部は、The controller is
前記タッチスクリーンに対するタッチ位置を第3の位置から第4の位置へ移動させた後、前記タッチ位置を前記第4の位置に維持させることにより入力される第3の入力操作を受け付けた場合に、当該第3の位置と当該第4の位置とにより定まるタッチ操作の方向にWhen a third input operation input by maintaining the touch position at the fourth position after moving the touch position on the touch screen from the third position to the fourth position is received, In the direction of the touch operation determined by the third position and the fourth position
移動するためのアクションを、前記ゲームキャラクタにさらに実行させる、情報処理装置。An information processing apparatus that causes the game character to further execute an action for moving.
情報処理装置であって、An information processing apparatus,
前記情報処理装置は、The information processing apparatus includes:
ゲームプログラムを記憶するように構成された記憶部と、A storage unit configured to store a game program;
前記情報処理装置の動作を制御するように構成された制御部と、A control unit configured to control the operation of the information processing apparatus;
タッチスクリーンとを備え、With a touch screen,
前記制御部は、The controller is
前記タッチスクリーンに対する入力操作を受け付け、Receiving an input operation on the touch screen;
ゲーム空間における仮想カメラの配置を制御し、Control the placement of virtual cameras in the game space,
前記仮想カメラの撮影画像を前記タッチスクリーンに表示させ、Displaying the captured image of the virtual camera on the touch screen,
前記タッチスクリーンに対するタッチ位置を第1の位置から第2の位置へ移動させることにより入力される第1の入力操作を受け付けた場合に、当該第1の位置と当該第2の位置とにより定まるタッチ操作の方向と、前記タッチスクリーンに表示される画面においてゲームキャラクタが向いている方向とを比較し、比較結果に応じたアクションを、前記ゲームキャラクタに実行させ、A touch determined by the first position and the second position when a first input operation input by moving the touch position on the touch screen from the first position to the second position is received. Comparing the direction of operation with the direction in which the game character is facing on the screen displayed on the touch screen, causing the game character to execute an action according to the comparison result,
前記比較結果に応じたアクションを、前記ゲームキャラクタに実行させるとき、前記第1の入力操作を受け付けた場合に、前記タッチ操作の方向が、前記ゲームキャラクタが向いている方向により定まる一定範囲の方向に含まれていれば、他のオブジェクトに作用を及ぼすためのアクションを、前記ゲームキャラクタに実行させることを含み、When causing the game character to execute an action according to the comparison result, the direction of the touch operation is determined by the direction in which the game character is facing when the first input operation is received. The game character is caused to perform an action for acting on another object.
前記比較結果に応じたアクションを、前記ゲームキャラクタに実行させるとき、前記タッチスクリーンに対する前記タッチ位置を変化させずに入力される第2の入力操作を受け付けた場合に、前記第2の入力操作に応じて、他のオブジェクトに作用を及ぼすための他のアクションを前記ゲームキャラクタに実行させることと、When the game character is caused to execute an action according to the comparison result, when the second input operation input without changing the touch position on the touch screen is received, the second input operation is performed. In response, causing the game character to perform other actions to affect other objects;
前記第1の入力操作または前記第2の入力操作を受け付けることに応じて前記ゲームキャラクタがアクションを実行開始してから実行終了するまでのアクション実行期間の少なくとも一部において前記第1の入力操作または前記第2の入力操作を受け付けることにより、前記アクションの実行終了に続けて、前記アクション実行期間の少なくとも一部において受け付けた入力操作に応じたアクションを前記ゲームキャラクタに実行させることとを含み、In response to receiving the first input operation or the second input operation, the first input operation or at least a part of the action execution period from when the game character starts executing to when the action ends Receiving the second input operation, causing the game character to execute an action corresponding to the input operation received in at least a part of the action execution period following the end of execution of the action,
前記比較結果に応じたアクションを、前記ゲームキャラクタに実行させるとき、前記ゲームキャラクタが前記第1の入力操作または前記第2の入力操作に応じて他のオブジェクトに作用を及ぼすためのアクションを実行開始してから実行終了した後に前記第1の入力操作を受け付けた場合に、前記タッチ操作の方向が、前記一定範囲の方向に含まれていないとき、前記他のオブジェクトに作用を及ぼすためのアクションを実行することなく前記タッチ操作の方向へ移動するためのアクションを、前記ゲームキャラクタに実行させることと、When the game character is caused to execute an action corresponding to the comparison result, the game character starts executing an action for acting on another object in accordance with the first input operation or the second input operation. Then, when the first input operation is received after the execution is finished, an action for acting on the other object is performed when the direction of the touch operation is not included in the direction of the certain range. Causing the game character to execute an action for moving in the direction of the touch operation without executing,
前記ゲームキャラクタが前記第1の入力操作または前記第2の入力操作に応じて他のオブジェクトに作用を及ぼすためのアクションを実行開始してから実行終了するまでの前記アクション実行期間の少なくとも一部において前記第1の入力操作を受け付けた場合に、前記タッチ操作の方向が、前記一定範囲の方向に含まれていないとき、前記他のオブジェクトに作用を及ぼすためのアクションを実行することなく前記タッチ操作の方向へ移動するためのアクションを、前記ゲームキャラクタに実行させ、それに続けて、前記他のオブジェクトに作用を及ぼすためのアクションを、前記ゲームキャラクタに実行させることを含む、情報処理装置。  In at least part of the action execution period from the start of execution of an action for causing the game character to act on another object in response to the first input operation or the second input operation to the end of execution When the first input operation is received and the direction of the touch operation is not included in the direction of the certain range, the touch operation is performed without performing an action for acting on the other object. An information processing apparatus including causing the game character to execute an action for moving in the direction of the image, and subsequently causing the game character to execute an action for acting on the other object.
JP2016171246A 2016-09-01 2016-09-01 GAME PROGRAM, RECORDING MEDIUM, METHOD, AND INFORMATION PROCESSING DEVICE Active JP6190505B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016171246A JP6190505B1 (en) 2016-09-01 2016-09-01 GAME PROGRAM, RECORDING MEDIUM, METHOD, AND INFORMATION PROCESSING DEVICE
PCT/JP2017/031526 WO2018043693A1 (en) 2016-09-01 2017-09-01 Game program, method, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016171246A JP6190505B1 (en) 2016-09-01 2016-09-01 GAME PROGRAM, RECORDING MEDIUM, METHOD, AND INFORMATION PROCESSING DEVICE

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017146506A Division JP2018033950A (en) 2017-07-28 2017-07-28 Game program, recording medium, method, and information processing device

Publications (2)

Publication Number Publication Date
JP6190505B1 true JP6190505B1 (en) 2017-08-30
JP2018033796A JP2018033796A (en) 2018-03-08

Family

ID=59720373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016171246A Active JP6190505B1 (en) 2016-09-01 2016-09-01 GAME PROGRAM, RECORDING MEDIUM, METHOD, AND INFORMATION PROCESSING DEVICE

Country Status (1)

Country Link
JP (1) JP6190505B1 (en)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006314632A (en) * 2005-05-13 2006-11-24 Nintendo Co Ltd Game program and game device
JP2006325695A (en) * 2005-05-24 2006-12-07 Nintendo Co Ltd Game program using input to pointing device and game apparatus
JP2007102504A (en) * 2005-10-04 2007-04-19 Square Enix Co Ltd Image generation device and method, program and recording medium
JP2007130367A (en) * 2005-11-14 2007-05-31 Nintendo Co Ltd Game machine and game program
JP2009101061A (en) * 2007-10-25 2009-05-14 Copcom Co Ltd Operation control apparatus, program to achieve the same, and record media having recorded the program
JP2009536566A (en) * 2006-05-09 2009-10-15 ディズニー エンタープライゼス インコーポレイテッド Interactive animation control method, storage medium, program, control system, and controller
JP2014083395A (en) * 2012-10-26 2014-05-12 Dna:Kk Game-providing device
JP5727655B1 (en) * 2014-09-17 2015-06-03 株式会社Pgユニバース Information processing apparatus, information processing method, and program
JP2015147064A (en) * 2015-03-31 2015-08-20 株式会社バンダイナムコエンターテインメント Program, game device, and server system
JP2015150234A (en) * 2014-02-14 2015-08-24 株式会社セガゲームス Game program and game apparatus
JP2016041238A (en) * 2015-02-06 2016-03-31 株式会社 ディー・エヌ・エー System, server device, and program
JP2016052428A (en) * 2014-09-03 2016-04-14 株式会社コロプラ Game program

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006314632A (en) * 2005-05-13 2006-11-24 Nintendo Co Ltd Game program and game device
JP2006325695A (en) * 2005-05-24 2006-12-07 Nintendo Co Ltd Game program using input to pointing device and game apparatus
JP2007102504A (en) * 2005-10-04 2007-04-19 Square Enix Co Ltd Image generation device and method, program and recording medium
JP2007130367A (en) * 2005-11-14 2007-05-31 Nintendo Co Ltd Game machine and game program
JP2009536566A (en) * 2006-05-09 2009-10-15 ディズニー エンタープライゼス インコーポレイテッド Interactive animation control method, storage medium, program, control system, and controller
JP2009101061A (en) * 2007-10-25 2009-05-14 Copcom Co Ltd Operation control apparatus, program to achieve the same, and record media having recorded the program
JP2014083395A (en) * 2012-10-26 2014-05-12 Dna:Kk Game-providing device
JP2015150234A (en) * 2014-02-14 2015-08-24 株式会社セガゲームス Game program and game apparatus
JP2016052428A (en) * 2014-09-03 2016-04-14 株式会社コロプラ Game program
JP5727655B1 (en) * 2014-09-17 2015-06-03 株式会社Pgユニバース Information processing apparatus, information processing method, and program
JP2016041238A (en) * 2015-02-06 2016-03-31 株式会社 ディー・エヌ・エー System, server device, and program
JP2015147064A (en) * 2015-03-31 2015-08-20 株式会社バンダイナムコエンターテインメント Program, game device, and server system

Also Published As

Publication number Publication date
JP2018033796A (en) 2018-03-08

Similar Documents

Publication Publication Date Title
US11188226B2 (en) Display device, display controlling method, and computer program
US20200155941A1 (en) Information processing device and method of causing computer to perform game program
US9870144B2 (en) Graph display apparatus, graph display method and storage medium
JP7150108B2 (en) Game program, information processing device, information processing system, and game processing method
US20150186004A1 (en) Multimode gesture processing
WO2018216078A1 (en) Game program, information processing device, information processing system, and game processing method
KR102096070B1 (en) Method for improving touch recognition and an electronic device thereof
JP6457984B2 (en) GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE
WO2018216079A1 (en) Game program, information processing device, information processing system, and game processing method
JP2019013297A (en) Game program, recording medium, method, and information processing device
JP2016095716A (en) Information processing apparatus, information processing method, and program
KR20140117979A (en) Method for selecting items using a touch screen and system thereof
JP2019051297A (en) Information processing device and program
JP6190505B1 (en) GAME PROGRAM, RECORDING MEDIUM, METHOD, AND INFORMATION PROCESSING DEVICE
JP7171802B2 (en) Program, method, and information processor
JP2018033950A (en) Game program, recording medium, method, and information processing device
KR20200015045A (en) Electronic device and method for providing virtual input tool
US9635170B2 (en) Apparatus and method for controlling terminal to expand available display region to a virtual display space
CN111694626A (en) Application skipping method and device, terminal and storage medium
KR20170103378A (en) Display control method for mobile game application
JP2018050937A (en) Game program, method, and information processor
CN110825280A (en) Method, apparatus and computer-readable storage medium for controlling position movement of virtual object
JP6446149B1 (en) Program, processing apparatus, and processing method
JP5968510B1 (en) Interface program and computer
JP2020052620A (en) Program, processing device and processing method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170804

R150 Certificate of patent or registration of utility model

Ref document number: 6190505

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250