JP6726230B2 - Information processing method, apparatus, and program for causing computer to execute the information processing method - Google Patents

Information processing method, apparatus, and program for causing computer to execute the information processing method Download PDF

Info

Publication number
JP6726230B2
JP6726230B2 JP2018089801A JP2018089801A JP6726230B2 JP 6726230 B2 JP6726230 B2 JP 6726230B2 JP 2018089801 A JP2018089801 A JP 2018089801A JP 2018089801 A JP2018089801 A JP 2018089801A JP 6726230 B2 JP6726230 B2 JP 6726230B2
Authority
JP
Japan
Prior art keywords
game
character
user
unit
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018089801A
Other languages
Japanese (ja)
Other versions
JP2019195399A (en
Inventor
大輔 村野
大輔 村野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2018089801A priority Critical patent/JP6726230B2/en
Publication of JP2019195399A publication Critical patent/JP2019195399A/en
Application granted granted Critical
Publication of JP6726230B2 publication Critical patent/JP6726230B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本開示は、情報処理方法、装置、及び当該情報処理方法をコンピュータに実行させるためのプログラムに関する。 The present disclosure relates to an information processing method, an apparatus, and a program that causes a computer to execute the information processing method.

特許文献1は、ユーザの操作に応じてオブジェクトの一例のキャラクタが崖から飛び降りて地面に落下するゲームを開示する。 Patent Document 1 discloses a game in which a character, which is an example of an object, jumps off a cliff and falls to the ground in response to a user operation.

特開2009−95437JP, 2009-95437, A

特許文献1記載のものにおいては、単にキャラクタが下の地面に自由落下するだけであり、面白みに欠ける虞があった。 In the device described in Patent Document 1, the character simply falls freely on the ground below, which may be uninteresting.

本開示に係る方法は、ユーザによるタッチスクリーンへの入力操作に応じてゲームを進行させるためにコンピュータによって実行される情報処理方法であって、ゲーム用のオブジェクトが空中を飛んで落下する滑空画面を表示可能なステップを含み、前記滑空画面を表示可能なステップは、前記ユーザの前記タッチスクリーンへの入力操作に応じて落下の態様を変化させる。 A method according to the present disclosure is an information processing method executed by a computer for advancing a game in response to an input operation on a touch screen by a user, and includes a gliding screen in which a game object flies and falls in the air. The step of displaying the gliding screen includes a step of displaying, and a mode of falling is changed according to an input operation of the user on the touch screen.

本開示によれば、ゲーム性を高めることができる方法、装置及びプログラムが提供される。 According to the present disclosure, there are provided a method, an apparatus, and a program capable of enhancing the game property.

一実施形態のゲーム提供システムの構成を示す図である。It is a figure which shows the structure of the game provision system of one Embodiment. 携帯端末の構成を示すブロック図である。It is a block diagram which shows the structure of a portable terminal. サーバの機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of a server. 入力操作受付部が入力操作の種類を検知する処理を説明する図である。It is a figure explaining the process which an input operation reception part detects the kind of input operation. 移動方向検出部がユーザの入力操作に応じてゲームキャラクタを移動させる方向を検出する処理を説明する図である。It is a figure explaining the process which a moving direction detection part detects the direction which moves a game character according to a user's input operation. カメラ配置制御部が仮想カメラを制御する処理を説明する図である。It is a figure explaining the process which a camera arrangement control part controls a virtual camera. ユーザによる入力操作に応じて変化するカメラワーク及び操作オブジェクトを説明する図である。It is a figure explaining camerawork and an operation object which change according to an input operation by a user. (A)はゲームの舞台となる仮想のゲームフィールドをキャラクタが自由に移動できるオープンワールドのゲーム空間を生成するためのオープンワールド処理を説明するフローチャートであり、(B)はユーザキャラクタと敵キャラクタとが闘うバトル画面図であり、(C)は(B)のバトル画面を表示するためのフローチャートである。(A) is a flowchart illustrating an open world process for generating an open world game space in which a character can freely move in a virtual game field, which is a stage of a game, and (B) is a flowchart illustrating a user character and an enemy character. Is a battle screen diagram for fighting, and (C) is a flowchart for displaying the battle screen of (B). キャラクタユニットの構成の一例を説明する図である。It is a figure explaining an example of composition of a character unit. キャラクタユニットの構成処理を説明するフローチャートである。It is a flow chart explaining composition processing of a character unit. キャラクタユニットの動作の第一態様及び第二態様の一例を説明する図である。It is a figure explaining an example of the 1st mode and 2nd mode of operation of a character unit. キャラクタユニットの動作の第二態様の一例を説明する図である。It is a figure explaining an example of the 2nd mode of operation of a character unit. キャラクタユニットの動作の第二態様の一例を説明する図である。It is a figure explaining an example of the 2nd mode of operation of a character unit. 入力操作に応じた処理を説明するフローチャートである。It is a flow chart explaining processing according to input operation. 移動操作時の処理を説明するフローチャートである。It is a flow chart explaining processing at the time of movement operation. 第二態様で動作するキャラクタユニットの接触処理を説明するフローチャートである。It is a flow chart explaining contact processing of a character unit which operates in the second mode. 第一態様と第二態様とを切り替えるためのフラグ更新処理を説明するフローチャートである。It is a flow chart explaining flag update processing for switching the 1st mode and the 2nd mode. (A)はキャラクタユニットが高台から飛び降りる瞬間を示した画面図であり、(B)はキャラクタユニットが高台から飛び降りて滑空している画面図である。(A) is a screen view showing the moment when the character unit jumps off the hill, and (B) is a screen view showing the character unit jumping off the hill and gliding. キャラクタユニットが高台から飛び降りて滑空する軌跡を示した説明図である。It is explanatory drawing which showed the locus|trajectory which the character unit jumps down from a hill and glides. 滑空中のキャラクタユニットの滑空方向と翼の角度及びカメラの角度を示しており、(A)は翼の角度及びカメラの角度が比較的小さい状態の図であり、(B)は翼の角度及びカメラの角度が比較的大きい状態の図である。The glide direction of the character unit during gliding, the wing angle, and the camera angle are shown. (A) is a view in which the wing angle and the camera angle are relatively small, and (B) is the wing angle and the camera angle. It is a figure in the state where the angle of a camera is comparatively large. 滑空処理を説明するフローチャートである。It is a flowchart explaining a glide process. 滑空処理の続きを説明するフローチャートである。It is a flowchart explaining the continuation of a gliding process. 滑空処理の変形例を説明するフローチャートである。It is a flow chart explaining the modification of gliding processing.

以下、図面を参照しつつ、本開示の一実施形態について説明する。以下の説明では、同一の部品又は構成要素には同一の符号が付される。それらの名称及び機能は同一である。したがって、それらについての詳細な説明は繰り返さない。
[ゲーム提供システム]
本実施形態において、ユーザは、例えばスマートフォンなどの、タッチスクリーンを搭載した情報処理装置を操作する。ユーザは、ゲームサーバとスマートフォンとの間でゲームに関するデータを送受信させながらゲームを進行させる。
Hereinafter, an embodiment of the present disclosure will be described with reference to the drawings. In the following description, the same parts or components are designated by the same reference numerals. Their names and functions are the same. Therefore, detailed description thereof will not be repeated.
[Game provision system]
In the present embodiment, the user operates an information processing device, such as a smartphone, having a touch screen. The user advances the game while transmitting and receiving data regarding the game between the game server and the smartphone.

図1は、一実施形態のゲーム提供システムの構成を示す図である。図1に示されるように、ゲーム提供システム1は、ユーザにより使用される情報処理装置と、サーバ20とを含み、これらの装置がネットワーク80によって互いに通信可能に接続されている。 FIG. 1 is a diagram showing a configuration of a game providing system according to an embodiment. As shown in FIG. 1, the game providing system 1 includes an information processing device used by a user and a server 20, and these devices are communicably connected to each other via a network 80.

図1の例では、ユーザにより使用される情報処理装置として、携帯端末10A、携帯端末10B及び携帯端末10Cなど複数の携帯端末を示している。以下、携帯端末10A、10B、10Cなどの携帯端末を「携帯端末10」と総称することもある。携帯端末10A及び携帯端末10Bは、無線基地局81と通信することにより、ネットワーク80と接続する。携帯端末10Cは、家屋などの施設に設置される無線ルータ82と通信することにより、ネットワーク80と接続する。携帯端末10は、例えばタッチスクリーンを備える端末であり、一例として、スマートフォン、ファブレット、タブレットなどのコンピュータである。 In the example of FIG. 1, a plurality of mobile terminals such as a mobile terminal 10A, a mobile terminal 10B, and a mobile terminal 10C are shown as information processing apparatuses used by a user. Hereinafter, mobile terminals such as mobile terminals 10A, 10B, and 10C may be collectively referred to as "mobile terminal 10". The mobile terminal 10A and the mobile terminal 10B are connected to the network 80 by communicating with the wireless base station 81. The mobile terminal 10C connects to the network 80 by communicating with a wireless router 82 installed in a facility such as a house. The mobile terminal 10 is a terminal including a touch screen, for example, and is a computer such as a smartphone, a phablet, or a tablet.

携帯端末10は、ゲームプログラムを実行することにより、ゲームプログラムに応じたゲームをプレイする環境をユーザに対して提供する。携帯端末10には、例えば、アプリなどを配信するプラットフォームを介してゲームプログラムがインストールされる。携帯端末10は、携帯端末10にインストールされたゲームプログラム、又は、予めプリインストールされているゲームプログラムを実行することで、ユーザによるゲームのプレイを可能とする。携帯端末10は、ゲームプログラムを読み込んで実行することにより、サーバ20と通信接続し、ゲームの進行に応じてゲームに関連するデータをサーバ20と送受信する。 The mobile terminal 10 provides the user with an environment for playing a game according to the game program by executing the game program. For example, the game program is installed in the mobile terminal 10 via a platform that distributes an application or the like. The mobile terminal 10 enables a user to play a game by executing a game program installed in the mobile terminal 10 or a game program preinstalled in advance. The mobile terminal 10 communicates with the server 20 by reading and executing the game program, and transmits/receives data related to the game to/from the server 20 according to the progress of the game.

サーバ20は、ゲームのプレイに必要なデータを、適宜のタイミングで携帯端末10へ送信することで、携帯端末10でのゲームのプレイを進行させる。サーバ20は、ゲームをプレイする各ユーザの、ゲームに関連する各種データを管理する。サーバ20は、携帯端末10と通信し、各ユーザのゲームの進行に応じて、画像、音声、テキストデータ、その他のデータなどを携帯端末10へ送信する。 The server 20 advances the play of the game on the mobile terminal 10 by transmitting the data necessary for playing the game to the mobile terminal 10 at an appropriate timing. The server 20 manages various data related to the game of each user who plays the game. The server 20 communicates with the mobile terminal 10 and transmits images, sounds, text data, other data, and the like to the mobile terminal 10 according to the progress of the game of each user.

例えば、サーバ20は、各ユーザがゲームのストーリーを進行させた進行状況、ゲーム内に登場するオブジェクトの一例のキャラクタ(以下、「ゲームキャラクタ」ともいう。)のうち各ユーザが使用可能なゲームキャラクタの情報、ゲームキャラクタの能力を示すパラメータ、ゲームキャラクタが使用する道具の性能を示すパラメータ、その他の各種データなどを管理する。また、サーバ20は、ゲームの運営者によりユーザに対して行われるキャンペーン、ゲームの進行における不具合の発生、不具合の解消、その他のゲームの運営に関連する情報などをユーザに通知する処理を行う。 For example, the server 20 may be a game character that can be used by each user among the characters of an example of an object that appears in the game (hereinafter, also referred to as a “game character”), the progress of the progress of each user in the game story. Information, parameters indicating the ability of the game character, parameters indicating the performance of the tool used by the game character, and other various data. In addition, the server 20 performs a process of notifying the user of a campaign conducted by the game operator for the user, occurrence of a defect in the progress of the game, elimination of the defect, and other information related to the operation of the game.

ゲームプログラムは、ユーザがゲームをプレイするモードとして、一人のユーザがプレイするシングルプレイと、複数人のユーザが協同してプレイするマルチプレイとに対応している。例えば、ゲーム提供システム1において、サーバ20は、マルチプレイに参加するユーザを特定して各ユーザの各携帯端末10と通信することなどにより、マルチプレイでゲームをプレイする環境を各ユーザに提供する。 The game program supports, as modes in which the user plays the game, single play played by one user and multiplay played by a plurality of users in cooperation. For example, in the game providing system 1, the server 20 provides each user with an environment in which a game is played in multiplayer by identifying a user participating in multiplay and communicating with each mobile terminal 10 of each user.

ゲーム提供システム1は、マルチプレイに対応することにより、例えば、アクションゲームであれば、各ユーザでチームを結成して、クエストモードなど比較的強力なキャラクタと対戦するゲームモードを複数のユーザがプレイすることを可能とする。また、ゲーム提供システム1は、サッカーゲームであれば、各ユーザが同一のサッカーチームのメンバーとなって試合を行うことを可能とする。また、ゲーム提供システム1は、テニスゲームであれば、各ユーザでチームを結成してダブルスの試合を行うことを可能とする。
[構成]
サーバ20のハードウェアの構成を説明する。サーバ20は、通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備え、これらが通信バスを介して互いに接続する。
The game providing system 1 is compatible with multi-play so that, for example, in the case of an action game, each user forms a team and a plurality of users play a game mode such as a quest mode in which a relatively powerful character is played. It is possible. In addition, the game providing system 1 enables each user to play a game as a member of the same soccer team in the case of a soccer game. Further, the game providing system 1 enables each user to form a team and play a doubles game in the case of a tennis game.
[Constitution]
The hardware configuration of the server 20 will be described. The server 20 includes a communication IF (Interface) 22, an input/output IF 23, a memory 25, a storage 26, and a processor 29, which are connected to each other via a communication bus.

通信IF22は、通信機器であり、例えばLAN(Local Area Network)規格など各種の通信規格に対応しており、携帯端末10などの外部の通信機器との間でデータを送受信するためのインタフェースとして機能する。 The communication IF 22 is a communication device, supports various communication standards such as a LAN (Local Area Network) standard, and functions as an interface for transmitting/receiving data to/from an external communication device such as the mobile terminal 10. To do.

入出力IF23は、インタフェース機器であり、サーバ20への情報の入力を受け付けるとともに、サーバ20の外部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス、キーボードなどの情報入力機器の接続を受け付ける入力受付部と、画像などを表示するためのディスプレイなどの情報出力機器の接続を受け付ける出力部とを含む。 The input/output IF 23 is an interface device, and functions as an interface for receiving information input to the server 20 and outputting information to the outside of the server 20. The input/output IF 23 includes an input receiving unit that receives a connection of an information input device such as a mouse and a keyboard, and an output unit that receives a connection of an information output device such as a display for displaying an image.

メモリ25は、記憶装置であり、例えば、処理に使用されるデータなどを記憶するために用いられる。メモリ25は、例えば、プロセッサ29が処理を行う際に一時的に使用するための作業領域をプロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)、RAM(Random Access Memory)などを含んで構成される。 The memory 25 is a storage device, and is used to store, for example, data used for processing. The memory 25 provides the processor 29 with a work area for temporary use when the processor 29 performs processing, for example. The memory 25 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

ストレージ26は、記憶装置であり、例えば、プロセッサ29が読み込んで実行するための各種プログラム及びデータを記憶するために用いられる。ストレージ26が記憶する情報は、ゲームプログラム、ゲームプログラムに関連する情報、ゲームプログラムをプレイするユーザの情報、その他の情報を含む。ストレージ26は、例えば、HDD(Hard Disk Drive)、フラッシュメモリなどを含んで構成される。 The storage 26 is a storage device and is used, for example, to store various programs and data to be read and executed by the processor 29. The information stored in the storage 26 includes a game program, information related to the game program, information on a user who plays the game program, and other information. The storage 26 is configured to include, for example, an HDD (Hard Disk Drive), a flash memory, and the like.

プロセッサ29は、演算装置であり、ストレージ26に記憶されるプログラムなどを読み込んで実行することにより、サーバ20の動作を制御する。プロセッサ29は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)などを含んで構成される。 The processor 29 is an arithmetic unit and controls the operation of the server 20 by reading and executing a program or the like stored in the storage 26. The processor 29 is configured to include, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and the like.

図2は、携帯端末10の構成を示すブロック図である。図2に示されるように、携帯端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン130と、入出力IF140と、記憶部150と、音声処理部160と、マイク170と、スピーカ180と、制御部190とを含む。 FIG. 2 is a block diagram showing the configuration of the mobile terminal 10. As shown in FIG. 2, the mobile terminal 10 includes an antenna 110, a wireless communication IF 120, a touch screen 130, an input/output IF 140, a storage unit 150, a voice processing unit 160, a microphone 170, and a speaker 180. , And a control unit 190.

アンテナ110は、携帯端末10が発する信号を電波として空間へ放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ与える。 The antenna 110 radiates the signal emitted by the mobile terminal 10 into space as a radio wave. Further, the antenna 110 receives radio waves from space and gives a received signal to the wireless communication IF 120.

無線通信IF120は、携帯端末10が他の通信機器と通信するため、アンテナ110などを介して信号を送受信するための変復調処理などを行う。無線通信IF120は、チューナー、高周波回路などを含む無線通信用の通信モジュールであり、携帯端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。 Since the mobile terminal 10 communicates with other communication devices, the wireless communication IF 120 performs modulation/demodulation processing for transmitting/receiving a signal via the antenna 110 or the like. The wireless communication IF 120 is a communication module for wireless communication including a tuner, a high frequency circuit, etc., performs modulation/demodulation and frequency conversion of a wireless signal transmitted/received by the mobile terminal 10, and gives a received signal to the control unit 190.

タッチスクリーン130は、ユーザからの入力操作を受け付けて、ユーザに対し情報をディスプレイ132に出力する。タッチスクリーン130は、ユーザの入力操作を受け付けるための部材であるタッチパネル131を含む。また、タッチスクリーン130は、メニュー画面や、ゲームの進行を画面に表示するための部材であるディスプレイ132を含む。タッチパネル131は、例えば、静電容量方式のものを用いることによって、ユーザの指などが接近したことを検出する。ディスプレイ132は、例えば、LCD(Liquid Crystal Display)、有機EL(electroluminescence)、その他の表示装置によって実現される。 The touch screen 130 receives an input operation from the user and outputs information to the user on the display 132. The touch screen 130 includes a touch panel 131 which is a member for receiving an input operation by the user. The touch screen 130 also includes a menu screen and a display 132 that is a member for displaying the progress of the game on the screen. The touch panel 131 uses, for example, an electrostatic capacitance type touch panel 131 to detect that the user's finger or the like has approached. The display 132 is realized by, for example, an LCD (Liquid Crystal Display), an organic EL (electroluminescence), or another display device.

入出力IF140は、インタフェース機器であり、携帯端末10への情報の入力を受け付けるとともに、携帯端末10の外部へ情報を出力するためのインタフェースとして機能する。 The input/output IF 140 is an interface device and functions as an interface for receiving information input to the mobile terminal 10 and outputting information to the outside of the mobile terminal 10.

記憶部150は、記憶装置であり、フラッシュメモリ、RAM(Random Access Memory)などにより構成され、携帯端末10が使用するプログラム、携帯端末10がサーバ20から受信する各種データ、その他の各種データを記憶する。 The storage unit 150 is a storage device and is configured by a flash memory, a RAM (Random Access Memory), and the like, and stores programs used by the mobile terminal 10, various data received by the mobile terminal 10 from the server 20, and other various data. To do.

音声処理部160は、演算装置であり、音声信号の変復調を行う。音声処理部160は、マイク170から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部160は、音声信号をスピーカ180へ与える。音声処理部160は、例えば、音声処理用のプロセッサによって実現される。マイク170は、音声信号の入力を受け付けて制御部190へ出力するための音声入力部として機能する。スピーカ180は、音声信号を、携帯端末10の外部へ出力するための音声出力部として機能する。 The voice processing unit 160 is a computing device and performs modulation/demodulation of a voice signal. The voice processing unit 160 modulates the signal given from the microphone 170 and gives the modulated signal to the control unit 190. Further, the audio processing unit 160 gives an audio signal to the speaker 180. The voice processing unit 160 is realized by, for example, a processor for voice processing. The microphone 170 functions as a voice input unit for receiving an input of a voice signal and outputting it to the control unit 190. The speaker 180 functions as an audio output unit for outputting an audio signal to the outside of the mobile terminal 10.

制御部190は、演算装置であり、記憶部150に記憶されるプログラムを読み込んで実行することにより、携帯端末10の動作を制御する。制御部190は、例えば、アプリケーションプロセッサによって実現される。 The control unit 190 is an arithmetic device, and controls the operation of the mobile terminal 10 by reading and executing a program stored in the storage unit 150. The control unit 190 is realized by, for example, an application processor.

携帯端末10がゲームプログラム151を実行する処理について、より詳細に説明する。ある局面において、記憶部150は、ゲームプログラム151と、ゲーム情報152と、ユーザ情報153とを記憶する。携帯端末10は、例えば、サーバ20からゲームプログラムをダウンロードして記憶部150に記憶させる。また、携帯端末10は、ゲームの進行に伴いサーバ20と通信することで、ゲーム情報152及びユーザ情報153などの各種のデータをサーバ20と送受信する。 The process in which the mobile terminal 10 executes the game program 151 will be described in more detail. In one aspect, the storage unit 150 stores the game program 151, the game information 152, and the user information 153. The mobile terminal 10 downloads the game program from the server 20 and stores it in the storage unit 150, for example. Further, the mobile terminal 10 communicates with the server 20 as the game progresses, thereby transmitting and receiving various data such as the game information 152 and the user information 153 to and from the server 20.

ゲームプログラム151は、携帯端末10においてゲームを進行させるためのプログラムである。ゲーム情報152は、ゲームプログラム151が参照する各種のデータを含む。ゲーム情報152は、例えば、ゲームにおいて仮想空間に配置されるオブジェクトの情報、オブジェクトに対応付けられた効果の情報(ゲームキャラクタに設定されるスキルの情報などを含む)基準モーションデータ、コンボデータなどを含む。基準モーションデータは、各ゲームキャラクタの動作を定義する。動作は、入力操作に対応付けて定義されてもよい。コンボデータは、所定の条件で発生するコンボによってゲームキャラクタに実行させる動作の内容(例えば、攻撃動作の種類、攻撃力、動きなど)を定義する。ユーザ情報153は、ゲームをプレイするユーザについての情報を含む。ユーザ情報153は、例えば、ゲームをプレイする携帯端末10のユーザを識別する情報、マルチプレイ時に協働してゲームをプレイする他のユーザを識別する情報、その他の情報を含む。その他の情報は、例えば、タッチパネル131の履歴データなどを含む。履歴データは、タッチパネル131の操作履歴である。 The game program 151 is a program for advancing a game on the mobile terminal 10. The game information 152 includes various data referenced by the game program 151. The game information 152 includes, for example, information about an object placed in a virtual space in a game, information about effects associated with the object (including information about skills set for a game character), reference motion data, combo data, and the like. Including. The reference motion data defines the motion of each game character. The operation may be defined in association with the input operation. The combo data defines the contents of the action to be performed by the game character by a combo generated under a predetermined condition (for example, the type of attack action, attack power, movement, etc.). The user information 153 includes information about users who play the game. The user information 153 includes, for example, information for identifying a user of the mobile terminal 10 who plays a game, information for identifying another user who plays a game in cooperation with each other during multi-play, and other information. The other information includes, for example, history data of the touch panel 131. The history data is the operation history of the touch panel 131.

制御部190は、ゲームプログラム151を読み込んで実行することにより、入力操作受付部191と、ゲーム進行処理部192と、移動方向検出部193と、カメラ配置制御部194と、オブジェクト制御部195と、表示制御部196と、の各機能を発揮する。 The control unit 190 reads and executes the game program 151 to execute an input operation reception unit 191, a game progress processing unit 192, a moving direction detection unit 193, a camera placement control unit 194, an object control unit 195, Each function of the display control unit 196 is exhibited.

入力操作受付部191は、タッチスクリーン130の出力に基づいて、ユーザの入力操作を受け付ける。具体的には、入力操作受付部191は、ユーザの指などがタッチパネル131に接近したことを、タッチスクリーン130を構成する面の横軸及び縦軸からなる座標系の座標として検出する。 The input operation receiving unit 191 receives the input operation of the user based on the output of the touch screen 130. Specifically, the input operation receiving unit 191 detects that the user's finger or the like has approached the touch panel 131, as coordinates of a coordinate system composed of the horizontal axis and the vertical axis of the surface forming the touch screen 130.

入力操作受付部191は、タッチスクリーン130に対するユーザの操作を判別する。入力操作受付部191は、例えば、(1)「接近操作」、(2)「リリース操作」、(3)「タップ操作」、(4)「ダブルタップ操作」、(5)「長押し操作(ロングタッチ操作)」、(6)「ドラッグ操作(スワイプ操作)」、(7)「ムーブ操作」、(8)「フリック操作」、その他のユーザの操作を判別する。入力操作受付部191が判別するユーザの操作は、上記に限られない。例えば、タッチパネル131が、ユーザがタッチパネル131に対して押下する圧力の大きさを検出可能な機構を有する場合、入力操作受付部191は、ユーザにより押下された圧力の大きさを判別する。 The input operation receiving unit 191 determines the user's operation on the touch screen 130. The input operation reception unit 191 may, for example, (1) “approach operation”, (2) “release operation”, (3) “tap operation”, (4) “double tap operation”, (5) “long press operation ( Long touch operation), (6) "drag operation (swipe operation)", (7) "move operation", (8) "flick operation", and other user operations. The user operation determined by the input operation reception unit 191 is not limited to the above. For example, when the touch panel 131 has a mechanism capable of detecting the amount of pressure that the user presses on the touch panel 131, the input operation reception unit 191 determines the amount of pressure that the user has pressed.

(1)「接近操作」とは、ユーザが指などをタッチスクリーン130に接近させる操作である。タッチスクリーン130は、ユーザの指などが接近したこと(ユーザの指などがタッチスクリーン130に接触したことを含む)をタッチパネル131により検出し、検出したタッチスクリーン130の座標に応じた信号を制御部190へ出力する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出しない状態から、接近を検出したときに、状態が「タッチオン状態」になったと判別する。 (1) The “approaching operation” is an operation in which the user brings his or her finger closer to the touch screen 130. The touch screen 130 detects, by the touch panel 131, that a user's finger or the like has approached (including that the user's finger or the like has touched the touch screen 130), and a control unit that outputs a signal according to the detected coordinates of the touch screen 130. Output to 190. The control unit 190 determines that the state is the “touch-on state” when the approach is detected from the state where the approach of the user's finger or the like to the touch screen 130 is not detected.

(2)「リリース操作」とは、ユーザがタッチスクリーン130を接近操作している状態を止める操作である。入力操作受付部191は、例えば、ユーザが指などをタッチスクリーン130に接触させている状態から、指を離す操作をしたときに、ユーザの操作を「リリース操作」と判別する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出している状態から、接近を検出しない状態になったときに、状態が「タッチオン状態」から「タッチオフ状態」になったと判別する。 (2) “Release operation” is an operation for stopping the state in which the user is approaching the touch screen 130. The input operation receiving unit 191 determines that the user's operation is a “release operation”, for example, when the user releases the finger from the state where the user touches the touch screen 130 with the finger or the like. The control unit 190 determines that the state has changed from the “touch-on state” to the “touch-off state” when the state in which the approach of the user's finger or the like to the touch screen 130 is detected is changed to the state in which the approach is not detected. To do.

(3)「タップ操作」とは、ユーザがタッチスクリーン130に対して指などを接近させる接近操作をした後に、接近操作をした位置でリリース操作を行うことである。入力操作受付部191は、接近操作が検出されない状態(ユーザの指などがタッチパネル131から離れており、タッチパネル131がユーザの指などの接近を検出していない状態)から、タッチスクリーン130の出力に基づいて、ユーザの指などが接近したことを検出した場合に、その検出した座標を「初期タッチ位置」として保持する。入力操作受付部191は、初期タッチ位置の座標と、リリース操作をした座標とがほぼ同一である場合(接近操作が検出された座標から一定範囲内の座標においてリリース操作の座標が検出された場合)に、ユーザの操作を「タップ操作」と判別する。 (3) The “tap operation” is to perform a release operation at the position where the user performs an approach operation after the user performs an approach operation of approaching the touch screen 130 with a finger or the like. The input operation reception unit 191 outputs from the state in which the approach operation is not detected (the state in which the user's finger or the like is away from the touch panel 131 and the touch panel 131 does not detect the approach of the user's finger or the like) to the output of the touch screen 130. Based on this, when it is detected that the user's finger or the like is approaching, the detected coordinates are held as the “initial touch position”. The input operation reception unit 191 determines that the coordinates of the initial touch position and the coordinates of the release operation are substantially the same (when the coordinates of the release operation are detected in the coordinates within a certain range from the coordinates at which the approach operation is detected). ), the user operation is determined to be a “tap operation”.

(4)「ダブルタップ操作」とは、ユーザがタップ操作を一定時間内に2回行う操作である。入力操作受付部191は、例えば、ユーザの操作をタップ操作と判別してから一定時間内に、タップ操作にかかる座標で再びタップ操作を判別した場合に、ユーザの操作を「ダブルタップ操作」と判別する。 (4) The "double tap operation" is an operation in which the user performs the tap operation twice within a fixed time. For example, when the input operation reception unit 191 determines that the user's operation is a tap operation and then determines the tap operation again at the coordinates of the tap operation within a certain period of time, the user operation is referred to as a “double-tap operation”. To determine.

(5)「長押し操作」とは、ユーザがタッチスクリーン130を押し続ける操作である。タッチスクリーン130は、ユーザの操作を検出して接近操作を判別してから、接近操作が検出された座標において接近操作が継続している時間が一定時間を超えた場合に、ユーザの操作を「長押し操作」(「長押し操作」を、「ロングタッチ操作」と称することもある)と判別する。 (5) “Long press operation” is an operation in which the user continues to press the touch screen 130. The touch screen 130 detects the operation of the user and determines the approach operation, and then, when the time during which the approach operation continues at the coordinates where the approach operation is detected exceeds a certain time, the touch screen 130 indicates the operation of the user. Long-press operation” (“long-press operation” is sometimes referred to as “long-touch operation”).

(6)「ドラッグ操作」とは、ユーザがタッチスクリーン130に指などを接近させた接近状態を維持したまま、指をスライドさせる操作である。 (6) The “drag operation” is an operation in which the user slides his/her finger while maintaining the approaching state in which the user approaches the touch screen 130 with his/her finger or the like.

(7)「ムーブ操作」とは、ユーザがタッチスクリーン130において、接近操作を維持しつつ、タッチスクリーン130に指などを接近させている位置を移動させてリリース操作を行う一連の操作をいう。 (7) "Move operation" refers to a series of operations in which the user performs a release operation by moving a position where a finger or the like is approaching the touch screen 130 while maintaining the approach operation on the touch screen 130.

(8)「フリック操作」は、ユーザがムーブ操作を予め定められた時間よりも短い時間で行う操作をいう。フリック操作は、ユーザがタッチスクリーン130で指を弾くような操作である。 (8) "Flick operation" refers to an operation in which the user performs a move operation in a time shorter than a predetermined time. The flick operation is an operation in which the user flips his/her finger on the touch screen 130.

入力操作受付部191は、所定期間のユーザの入力操作の判別結果を記憶部150に操作履歴として記憶する。入力操作受付部191により行われる入力操作の種類を検知する詳細な処理は、後述する。 The input operation receiving unit 191 stores the determination result of the user's input operation for a predetermined period in the storage unit 150 as an operation history. Detailed processing for detecting the type of input operation performed by the input operation receiving unit 191 will be described later.

ゲーム進行処理部192は、ユーザの操作に応じて、各種のプログラムを呼び出すなどによりゲームを進行させる処理を行う。例えば、ゲーム進行処理部192は、サーバ20と通信し、ゲームの進行に応じてサーバ20へデータを送信する処理、サーバ20からゲームに関連するデータを受信する処理、ゲームの進行に応じてユーザに報酬を付与する処理、時間の経過を計測する処理、その他の処理を行う。 The game progress processing unit 192 performs a process of advancing the game by calling various programs according to the user's operation. For example, the game progress processing unit 192 communicates with the server 20 and transmits data to the server 20 according to the progress of the game, a process of receiving data related to the game from the server 20, and a user according to the progress of the game. The process of giving a reward to, the process of measuring the passage of time, and other processes.

移動方向検出部193は、タッチスクリーン130に対するユーザの入力操作が移動操作である場合、ゲームに登場するキャラクタであるゲームキャラクタを移動させる入力操作の操作内容を検出する。移動操作とは、ゲームキャラクタの移動方向を指示する入力操作であり、方向性のある操作である。移動操作の一例としては、所定条件下のドラッグ操作又はフリック操作である。例えばゲームプログラム151がアクションゲームである場合、移動方向検出部193は、ユーザのドラッグ操作又はフリック操作に基づいて、ゲームキャラクタを移動させる方向を検出する。 When the user's input operation on the touch screen 130 is a moving operation, the moving direction detecting unit 193 detects the operation content of the input operation for moving the game character that is a character appearing in the game. The moving operation is an input operation for instructing the moving direction of the game character, and is a directional operation. An example of the moving operation is a drag operation or a flick operation under a predetermined condition. For example, when the game program 151 is an action game, the moving direction detection unit 193 detects the direction in which the game character is moved based on the user's drag operation or flick operation.

具体的には、移動方向検出部193は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させて、入力操作受付部191がタッチパネル131にユーザの指が接近したことを検出した座標を初期タッチ位置として、ユーザがドラッグ操作を行った場合に、初期タッチ位置の座標とタッチスクリーン130の検出結果とに基づいて、ゲームキャラクタの移動方向を検出する。移動方向検出部193の詳細な処理は、後述する。 Specifically, the moving direction detection unit 193 moves the user's finger close to the touch screen 130 from a state where the user's finger is separated from the touch screen 130, and the input operation reception unit 191 causes the touch panel 131 to touch the user's finger. When the user performs a drag operation with the coordinates at which the approach is detected as the initial touch position, the moving direction of the game character is detected based on the coordinates of the initial touch position and the detection result of the touch screen 130. Detailed processing of the moving direction detection unit 193 will be described later.

カメラ配置制御部194は、仮想空間に配置される各オブジェクトを、どのようにユーザに見せるかを決定する。具体的には、カメラ配置制御部194は、制御部190がゲームプログラム151を読み込んで実行することで生成される仮想空間において、仮想カメラの配置及び撮影方向(カメラワーク)を制御する。仮想カメラの配置及び撮影方向は、仮想空間の座標及び方向によって定義される。制御部190は、仮想空間における仮想カメラの撮影画像をディスプレイ132に表示することで、ユーザに対しゲームのプレイ環境を提供する。 The camera placement control unit 194 determines how to show each object placed in the virtual space to the user. Specifically, the camera placement control unit 194 controls the placement and shooting direction (camera work) of the virtual camera in the virtual space generated by the control unit 190 reading and executing the game program 151. The placement and shooting direction of the virtual camera are defined by the coordinates and direction of the virtual space. The control unit 190 provides the user with a game playing environment by displaying a captured image of the virtual camera in the virtual space on the display 132.

オブジェクト制御部195は、携帯端末10がゲームプログラム151を実行することにより進行されるゲームに登場する各種オブジェクト、及び、入力操作受付部191が受け付けたユーザの操作内容に基づいて生成される各種オブジェクト(例えば、GUI(Graphical User Interface)画面など)の生成、変形、移動などの処理を制御する。オブジェクト制御部195は、例えば、タッチスクリーン130に対する入力操作に基づいて、ユーザの操作を示す操作オブジェクトを生成する。操作オブジェクトの詳細については後述する。 The object control unit 195 includes various objects that appear in a game that is executed when the mobile terminal 10 executes the game program 151, and various objects that are generated based on the user operation content received by the input operation reception unit 191. It controls processing such as generation (for example, GUI (Graphical User Interface) screen), transformation, movement, and the like. The object control unit 195, for example, generates an operation object indicating a user operation based on an input operation on the touch screen 130. Details of the operation object will be described later.

表示制御部196は、ディスプレイ132の表示を制御する。表示制御部196は、例えば、仮想カメラのカメラワークに従った画像をディスプレイ132に出力する。表示制御部196は、仮想空間内における仮想カメラの配置及び撮影方向に応じて、ディスプレイ132の表示内容を決定し、決定した表示内容に従う画像、テキストなどの各種の情報をディスプレイ132に出力する。 The display control unit 196 controls the display on the display 132. The display control unit 196 outputs an image according to the camerawork of the virtual camera to the display 132, for example. The display control unit 196 determines the display content of the display 132 according to the arrangement of the virtual cameras and the shooting direction in the virtual space, and outputs various information such as an image and text according to the determined display content to the display 132.

図3は、サーバ20の機能的な構成を示すブロック図である。図3を参照して、サーバ20の詳細な構成を説明する。サーバ20は、一般的なコンピュータとして構成され、プログラムに従って動作することにより、通信部220と、記憶部250と、制御部290としての機能を発揮する。 FIG. 3 is a block diagram showing a functional configuration of the server 20. The detailed configuration of the server 20 will be described with reference to FIG. The server 20 is configured as a general computer, and functions as the communication unit 220, the storage unit 250, and the control unit 290 by operating according to a program.

通信部220は、通信機器であり、サーバ20が携帯端末10などの外部の通信機器と通信するためのインタフェースとして機能する。 The communication unit 220 is a communication device, and functions as an interface for the server 20 to communicate with an external communication device such as the mobile terminal 10.

記憶部250は、記憶装置であり、携帯端末10においてユーザがゲームを進行させるための各種プログラム及びデータを記憶する。ある局面において、記憶部250は、ゲームプログラム251と、ゲーム情報252と、ユーザ情報253とを記憶する。 The storage unit 250 is a storage device, and stores various programs and data for the user to progress the game on the mobile terminal 10. In one aspect, the storage unit 250 stores a game program 251, game information 252, and user information 253.

ゲームプログラム251は、サーバ20が携帯端末10と通信して、携帯端末10においてゲームを進行させるためのプログラムである。ゲームプログラム251は、ゲームを進行させるための各種データであるゲーム情報252及びユーザ情報253などを参照して、ユーザの入力操作に応じてゲームを進行させる。ゲームプログラム251は、制御部290に実行されることにより、携帯端末10とデータを送受信する処理、携帯端末10のユーザが行った操作内容に応じてゲームを進行させる処理、ゲームをプレイするユーザの情報を更新する処理、その他の処理をサーバ20に行わせる。 The game program 251 is a program for causing the server 20 to communicate with the mobile terminal 10 and progress the game on the mobile terminal 10. The game program 251 refers to the game information 252, the user information 253, and the like, which are various data for advancing the game, and advances the game in accordance with the user's input operation. The game program 251 is executed by the control unit 290 to transmit and receive data to and from the mobile terminal 10, process the game according to the operation content performed by the user of the mobile terminal 10, and execute the game of the user who plays the game. The server 20 is caused to perform processing of updating information and other processing.

ゲーム情報252は、ゲームプログラム251が参照する各種のデータを含む。ゲーム情報252は、オブジェクト管理テーブル252Aと、パッシブスキル管理テーブル252Bと、アクティブスキル管理テーブル252Cと、オープンワールド用のゲーム空間を表示するためのオープンワールドデータ252Dとを含む。オープンワールドとは、ゲームの舞台となる仮想のゲームフィールドをキャラクタが自由に移動できるシームレスなゲーム空間のことである。 The game information 252 includes various data referenced by the game program 251. The game information 252 includes an object management table 252A, a passive skill management table 252B, an active skill management table 252C, and open world data 252D for displaying a game space for open world. The open world is a seamless game space in which a character can freely move in a virtual game field, which is the stage of a game.

オブジェクト管理テーブル252Aは、ゲームの仮想空間内に配置されるオブジェクトの設定を示す。携帯端末10は、ゲームプログラム151を実行することにより、仮想空間内に配置されるオブジェクトを、仮想空間内に配置される仮想カメラによって撮影された画像をディスプレイ132に表示させることでゲームを進行させる。 The object management table 252A shows the settings of the objects arranged in the virtual space of the game. By executing the game program 151, the mobile terminal 10 causes the object placed in the virtual space to display an image captured by a virtual camera placed in the virtual space on the display 132 to progress the game. ..

ここで、オブジェクトとしては、例えば、ユーザが操作するゲームキャラクタを示すオブジェクト、ゲームキャラクタが装着する対象物を示すオブジェクトなど様々なものがある。これらオブジェクトは、ユーザがタッチスクリーン130に対して予め定められた入力操作を行うこと、ゲームの進行に伴い一定の条件を満たすこと、その他の様々な事象の発生を契機として、オブジェクトに対応付けられた処理が行われる。 Here, as the object, there are various objects such as an object representing a game character operated by a user and an object representing an object worn by the game character. These objects are associated with the objects when the user performs a predetermined input operation on the touch screen 130, when a certain condition is satisfied as the game progresses, and when various other events occur. Processing is performed.

例えば、あるオブジェクトに対してユーザがタッチスクリーン130に対して接近操作を行うことで、オブジェクトがユーザに選択された状態となる。また、例えば、ユーザがタップ操作を行うことで、ユーザに選択されているオブジェクトがユーザの入力操作に応じて攻撃するなどの処理が行われる。また、例えば、ユーザがドラッグ操作を行うことで、ユーザに選択されているオブジェクトがユーザの入力操作に応じて移動するなどの処理が行われる。また、例えば、ユーザがオブジェクトに対してロングタッチ操作をすることで、ユーザに対し、ゲームを有利に進めるための報酬が付与されるなどの処理が行われる。 For example, when the user performs an approach operation on the touch screen 130 with respect to an object, the object is in a state selected by the user. In addition, for example, when the user performs a tap operation, the object selected by the user attacks the object according to the input operation of the user. Further, for example, when the user performs a drag operation, the object selected by the user is moved in accordance with the user's input operation. In addition, for example, when the user performs a long-touch operation on the object, a process of giving a reward to the user to advantageously advance the game is performed.

パッシブスキル管理テーブル252Bは、オブジェクトを識別する情報と、オブジェクトに対応付けられたパッシブスキルの情報とが対応付けられている。ここで、パッシブスキルとは、例えば、ゲームにおいて予め定められた条件が満たされたときに発動され、ユーザがゲームを有利に進行させることができるものである。例えば、パッシブスキルが発動した場合に、ゲームキャラクタの移動速度が向上するなどの、ゲームを有利に進行させられる効果を発揮させる。 In the passive skill management table 252B, information for identifying an object and information for a passive skill associated with the object are associated with each other. Here, the passive skill is, for example, activated when a predetermined condition is satisfied in the game, and the user can advantageously progress the game. For example, when the passive skill is activated, the moving speed of the game character is improved, and the effect of advancing the game is exhibited.

アクティブスキル管理テーブル252Cは、オブジェクトを識別する情報と、オブジェクトに対応付けられたアクティブスキルの情報とが対応付けられている。ここで、アクティブスキルとは、例えば、ゲームにおいて予め定められた条件が満たされたときに発動可能な状態となり、ユーザから、スキルを発動させるための入力操作を受け付けることにより、ユーザがゲームを有利に進行させることができるものである。 The active skill management table 252C associates information for identifying an object with information on an active skill associated with the object. Here, the active skill is, for example, a state in which the game can be activated when a predetermined condition is satisfied in the game, and the user can enjoy the game by accepting an input operation for activating the skill. It is something that can be advanced to.

ユーザ情報253は、ゲームをプレイするユーザについての情報である。ユーザ情報253は、ユーザ管理テーブル253Aを含む。ユーザ管理テーブル253Aは、各ユーザを識別する情報と、ユーザがゲームを進行させた度合いを示す情報と、ユーザがゲーム内で保有するアイテム、ゲームキャラクタ、ゲームキャラクタが使用する装着物などの情報その他の情報を含む。 The user information 253 is information about the user who plays the game. The user information 253 includes a user management table 253A. The user management table 253A includes information for identifying each user, information indicating the degree to which the user has progressed the game, information such as items held by the user in the game, game characters, and attachments used by the game character, and the like. Including information of.

制御部290は、記憶部250に記憶されるゲームプログラム251を実行することにより、送受信部291、サーバ処理部292、データ管理部293、マッチング部294、計測部295としての機能を発揮する。 By executing the game program 251 stored in the storage unit 250, the control unit 290 exerts the functions of the transmission/reception unit 291, the server processing unit 292, the data management unit 293, the matching unit 294, and the measurement unit 295.

送受信部291は、ゲームプログラム151を実行する携帯端末10から、各種情報を受信し、携帯端末10に対し、各種情報を送信する。携帯端末10とサーバ20とは、ユーザに関連付けられるオブジェクトを仮想空間に配置する要求、オブジェクトを削除する要求、オブジェクトを移動させる要求、ユーザが獲得する報酬に応じて各種パラメータを更新する要求、ゲームを進行させるための画像、音声その他のデータ、サーバ20から携帯端末10へ送信される通知などの情報を送受信する。 The transmission/reception unit 291 receives various information from the mobile terminal 10 that executes the game program 151, and transmits various information to the mobile terminal 10. The mobile terminal 10 and the server 20 request the object associated with the user to be placed in the virtual space, the request to delete the object, the request to move the object, the request to update various parameters according to the reward acquired by the user, the game. And information such as images, voices and other data for advancing the server, notifications transmitted from the server 20 to the mobile terminal 10, and the like.

サーバ処理部292は、サーバ20全体の動作を制御し、各種のプログラムを呼び出すなどによりゲームの進行に必要な処理を行う。サーバ処理部292は、例えば、携帯端末10から受信した情報に基づいて、ゲーム情報252、ユーザ情報253などのデータを更新し、携帯端末10に各種データを送信することでゲームを進行させる。 The server processing unit 292 controls the operation of the entire server 20 and performs processing necessary for the progress of the game by calling various programs. The server processing unit 292 updates the data such as the game information 252 and the user information 253 based on the information received from the mobile terminal 10, and transmits the various data to the mobile terminal 10 to advance the game.

データ管理部293は、サーバ処理部292の処理結果に従って、記憶部250に記憶される各種データを更新する処理、データベースにレコードを追加/更新/削除する処理などを行う。 The data management unit 293 performs a process of updating various data stored in the storage unit 250, a process of adding/updating/deleting a record in the database, etc., according to the processing result of the server processing unit 292.

マッチング部294は、複数のユーザを関連付けるための一連の処理を行う。マッチング部294は、例えば、ユーザがマルチプレイを行うための入力操作を行った場合に、ゲームを協同してプレイさせるユーザを関連付ける処理などを行う。 The matching unit 294 performs a series of processes for associating a plurality of users. The matching unit 294 performs, for example, a process of associating the users who play the game cooperatively when the user performs an input operation for performing multi-play.

計測部295は、時間を計測する処理を行う。計測部295は、例えば、仮想空間に配置される各オブジェクトについて時間の経過を計測する。また、計測部295は、ゲームが進行している時間を計測する。サーバ20は、携帯端末10から、携帯端末10においてゲームプログラム151を実行して計測される各種の計測結果の情報を受信し、受信した情報と、計測部295の計測結果とを照合することで、携帯端末10とサーバ20とで、各種の時間に関する情報を同期させる。
[実施形態の構成のまとめ]
以上のように、実施形態のゲーム提供システム1の構成を説明してきた。本実施形態において、ゲームプログラム151は、例えばアクションゲームであり、仮想空間内の仮想カメラの配置及び撮影方向に応じた画像をタッチスクリーン130に表示させることでゲームを進行させる。
The measuring unit 295 performs a process of measuring time. The measuring unit 295 measures the passage of time for each object arranged in the virtual space, for example. Further, the measuring unit 295 measures the time during which the game is progressing. The server 20 receives, from the mobile terminal 10, information on various measurement results measured by executing the game program 151 on the mobile terminal 10, and collates the received information with the measurement result of the measurement unit 295. , The mobile terminal 10 and the server 20 synchronize information regarding various times.
[Summary of Configuration of Embodiment]
The configuration of the game providing system 1 according to the embodiment has been described above. In the present embodiment, the game program 151 is, for example, an action game, and progresses the game by displaying an image according to the arrangement and shooting direction of the virtual camera in the virtual space on the touch screen 130.

例えば、ゲームプログラム151がアクションゲームである場合、ゲーム進行処理部192は、ユーザの操作に応じてストーリーを進行させ、画像、テキストなどディスプレイ132に表示するデータを決定する処理、交戦相手又は仲間の選択をユーザから受け付ける処理、ユーザの操作に応じてアクションゲームを進める処理などの基本的な処理を行う。 For example, when the game program 151 is an action game, the game progress processing unit 192 advances the story according to the operation of the user, determines the data to be displayed on the display 132 such as images and texts, the opponent or the companion. Basic processing such as processing for accepting a selection from the user and processing for advancing an action game according to the user's operation is performed.

例えば、ゲームプログラム151がアクションゲームである場合、カメラ配置制御部194は、アクションゲームを行うための仮想空間における仮想カメラの配置位置及び撮影方向を、アクションゲームの進展に応じて、逐次、決定する。カメラ配置制御部194は、仮想カメラのカメラワークを制御する。カメラ配置制御部194の詳細な処理は、後述する。 For example, when the game program 151 is an action game, the camera placement control unit 194 sequentially determines the placement position and shooting direction of the virtual camera in the virtual space for playing the action game according to the progress of the action game. .. The camera placement control unit 194 controls the camera work of the virtual camera. Detailed processing of the camera placement control unit 194 will be described later.

例えば、表示制御部196は、ゲームキャラクタを一定領域に表示させるよう仮想カメラを配置した状態で、ゲームキャラクタに第1の動作(例えば、移動動作)を行わせるための入力操作を受け付けて、受け付けた入力操作に応じてゲームキャラクタに第1の動作を行わせる画面表示をする。
[動作]
図面を参照して、実施形態のゲーム提供システム1を構成する各装置の動作を説明する。
For example, the display control unit 196 receives and receives an input operation for causing the game character to perform the first motion (for example, the moving motion) in a state where the virtual camera is arranged to display the game character in a certain area. The screen display is made to cause the game character to perform the first motion according to the input operation.
[motion]
The operation of each device included in the game providing system 1 according to the embodiment will be described with reference to the drawings.

(入力操作の検知)
図4は、入力操作受付部191が入力操作の種類を検知する処理を説明する図である。図4の例では、ユーザ情報153を記憶する記憶部150の配列fp[0]〜配列fp[10]までの11個の配列のそれぞれに、タッチパネル131により検知されたタッチスクリーン130上の位置を示す履歴情報が格納されている。履歴情報は、所定の期間毎(例えば、フレームレート毎)に履歴情報テーブルに格納される。履歴情報が格納される配列の個数は限定されず、任意の個数であってよい。また、履歴情報テーブルでは、タッチオフからタッチオンになった場合に検知された履歴情報を、初期位置座標として記憶部150に記憶してもよい。
(Detection of input operation)
FIG. 4 is a diagram illustrating a process in which the input operation receiving unit 191 detects the type of input operation. In the example of FIG. 4, the position on the touch screen 130 detected by the touch panel 131 is assigned to each of 11 arrays from the array fp[0] to the array fp[10] of the storage unit 150 that stores the user information 153. The history information shown is stored. The history information is stored in the history information table every predetermined period (for example, every frame rate). The number of arrays in which history information is stored is not limited and may be any number. Further, in the history information table, history information detected when the touch-off state is changed to the touch-on state may be stored in the storage unit 150 as initial position coordinates.

図4に示されるように、例えば、配列fp[0]〜配列fp[9]に、履歴情報(x0、y0)が格納されており、配列fp[10]にnull値が格納された場合、入力操作受付部191は、入力操作はタップ操作であると判別する。また、例えば、タッチナウ状態において履歴情報が変化した後に、null値が格納された場合、入力操作受付部191はnull値が格納された配列fp[5]の直前の配列fp[3]および配列fp[4]に格納されている履歴情報を参照する。そして、入力操作受付部191は、配列fp[3]および配列fp[4]の履歴情報がそれぞれ示す位置の間の距離が予め設定された閾値以上である場合、入力操作はフリック操作であると判別する。また、入力操作受付部191は、タッチナウ状態において履歴情報が変化した後に、例えば配列fp[4]〜fp[10]に履歴情報(x15、y15)が格納された場合、入力操作はドラッグ操作であると判別する。 As shown in FIG. 4, for example, when the history information (x0, y0) is stored in the array fp[0] to the array fp[9], and the null value is stored in the array fp[10], The input operation receiving unit 191 determines that the input operation is a tap operation. Further, for example, when the null value is stored after the history information has changed in the touch now state, the input operation reception unit 191 causes the input operation reception unit 191 to immediately precede the array fp[5] in which the null value is stored and the array fp[3] and the array fp. The history information stored in [4] is referenced. Then, when the distance between the positions indicated by the history information of the array fp[3] and the history information of the array fp[4] is greater than or equal to a preset threshold, the input operation receiving unit 191 determines that the input operation is a flick operation. To determine. Further, when the history information (x15, y15) is stored in the arrays fp[4] to fp[10] after the history information has changed in the touch-now state, the input operation reception unit 191 can input the drag operation. Determine that there is.

(移動方向の検知)
図5は、移動方向検出部193がユーザの入力操作に応じてゲームキャラクタを移動させる方向を検出する処理を説明する図である。移動方向検出部193は、ユーザがタッチスクリーン130を押していない状態から、指などをタッチパネル131に接近させてタッチスクリーン130を押した位置(初期タッチ位置)を起点と設定する。入力操作受付部191は、ユーザの操作をドラッグ操作と判別している場合に、起点となる座標と、タッチスクリーン130がユーザの指などの接近を検出している座標とに基づいて、ゲームキャラクタを移動させる方向を検出する。
(Detection of moving direction)
FIG. 5 is a diagram illustrating a process in which the moving direction detection unit 193 detects a direction in which the game character is moved according to a user's input operation. The moving direction detection unit 193 sets a position (initial touch position) at which the user touches the touch screen 131 with a finger or the like in a state where the touch screen 130 is not pressed by the user as a starting point. The input operation receiving unit 191 determines the game character based on the coordinates as the starting point and the coordinates at which the touch screen 130 detects the approach of the user's finger when the user's operation is determined as the drag operation. To detect the direction to move.

図5の状態(A)は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させた状態を示す。入力操作受付部191は、ユーザの指がタッチパネル131に接近したことを検出し、検出した座標を初期タッチ位置として記憶部150にユーザ情報153として保持する。 The state (A) of FIG. 5 shows a state in which the user has moved his or her finger closer to the touch screen 130 from the state in which the user's finger is separated from the touch screen 130. The input operation reception unit 191 detects that the user's finger approaches the touch panel 131, and stores the detected coordinates as the initial touch position in the storage unit 150 as user information 153.

図5の例では、記憶部150が保持する初期タッチ位置の座標を、初期タッチ位置座標155として示す。入力操作受付部191は、タッチスクリーン130の検出結果(ユーザの指がタッチスクリーン130に接近している座標、及び、ユーザの指がタッチスクリーン130に接近していることを検出していないこと(検出結果「null」))を、一定フレーム分、ユーザ情報153としてバッファメモリに格納する。バッファメモリは、タッチスクリーン130における検出結果を、各フレームについて一定フレーム分(図5の例では、配列fp〔0〕〜配列fp〔10〕までの11フレーム分)、格納することができる。バッファメモリは、例えばリングバッファとして実現することができる。 In the example of FIG. 5, the coordinates of the initial touch position stored in the storage unit 150 are shown as the initial touch position coordinates 155. The input operation reception unit 191 does not detect the detection result of the touch screen 130 (coordinates where the user's finger is approaching the touch screen 130 and that the user's finger is approaching the touch screen 130 ( The detection result “null”)) is stored in the buffer memory as user information 153 for a certain number of frames. The buffer memory can store the detection result on the touch screen 130 for a certain number of frames for each frame (in the example of FIG. 5, 11 frames from array fp[0] to array fp[10]). The buffer memory can be realized as a ring buffer, for example.

図5の状態(A)の例では、ユーザがタッチスクリーン130を押した位置を、押下位置30A(タッチスクリーン130の座標(x0,y0))として示す。 In the example of the state (A) of FIG. 5, the position where the user has pressed the touch screen 130 is shown as the pressed position 30A (coordinates (x0, y0) of the touch screen 130).

図5の状態(B)は、ユーザがタッチスクリーン130に対してドラッグ操作を行って、タッチスクリーン130に対する押下位置を、押下位置30Aから押下位置30B(タッチスクリーン130の座標(x9,y9))まで10フレーム(配列fp〔0〕〜配列fp〔9〕までの10フレーム分)で移動させたことを示す。入力操作受付部191は、タッチスクリーン130の検出結果をユーザ情報153としてバッファメモリに格納し、バッファメモリに保持される値を参照して、タッチスクリーン130に対するユーザの操作をドラッグ操作と判別する。 In the state (B) of FIG. 5, the user performs a drag operation on the touch screen 130 to change the pressed position on the touch screen 130 from the pressed position 30A to the pressed position 30B (coordinates (x9, y9) on the touch screen 130). Up to 10 frames (10 frames from array fp[0] to array fp[9]) are moved. The input operation reception unit 191 stores the detection result of the touch screen 130 in the buffer memory as the user information 153, refers to the value held in the buffer memory, and determines the user's operation on the touch screen 130 as a drag operation.

図5の状態(C)は、ユーザがタッチスクリーン130を押している位置を、押下位置30Bから押下位置30C(タッチスクリーン130の座標(x14,y14))まで、5フレーム(配列fp〔10〕、fp〔0〕、fp〔1〕、fp〔2〕、fp〔3〕の5フレーム分)で移動させたことを示す。 In the state (C) of FIG. 5, the position where the user is pressing the touch screen 130 is 5 frames (array fp[10], from the pressed position 30B to the pressed position 30C (coordinates (x14, y14) of the touch screen 130)). 5 frames of fp[0], fp[1], fp[2], and fp[3]).

図5の状態(D)は、移動方向検出部193が、状態(B)及び状態(C)のそれぞれにおいて、ユーザがゲームキャラクタを移動させる方向を指定する入力操作の検出結果を示す。移動方向検出部193は、バッファメモリにおいて、タッチスクリーン130が検出する押下位置の座標を書き込む対象となるメモリ領域がいずれであるかを示す情報(バッファメモリの書き込み位置)を管理している。 The state (D) of FIG. 5 shows the detection result of the input operation in which the moving direction detection unit 193 specifies the direction in which the user moves the game character in each of the state (B) and the state (C). The moving direction detection unit 193 manages information (write position of the buffer memory) indicating which memory area is the target of writing the coordinates of the pressed position detected by the touch screen 130 in the buffer memory.

図5の状態(B)において、移動方向検出部193は、入力操作受付部191の判別結果に基づいて、初期タッチ位置を示す座標31A(座標(x0,y0))から座標31B(座標(x9,y9))までユーザがドラッグ操作を行ったことを検出する。移動方向検出部193は、初期タッチ位置の座標31Aを起点として、座標31Aと座標31Bとによって規定されるベクトル32B((y9−y0)/(x9−x0))を、ゲームキャラクタを移動させる方向として検出する。 In the state (B) of FIG. 5, the moving direction detection unit 193, based on the determination result of the input operation reception unit 191, the coordinates 31A (coordinates (x0, y0)) to the coordinates 31B (coordinates (x9 , Y9)) is detected by the user. The movement direction detection unit 193 is a direction in which the game character moves in a vector 32B ((y9-y0)/(x9-x0)) defined by the coordinates 31A and 31B, starting from the coordinates 31A of the initial touch position. To detect as.

図5の状態(C)において、移動方向検出部193は、入力操作受付部191の判別結果に基づいて、座標31B(座標(x9,y9))から座標31C(座標(x14,y14))までユーザがドラッグ操作を行ったことを検出する。移動方向検出部193は、初期タッチ位置の座標31Aを起点として、座標31Aと座標31Cとによって規定されるベクトル32C((y14−y0)/(x14−x0))を、ゲームキャラクタを移動させる方向として検出する。 In the state (C) of FIG. 5, the movement direction detection unit 193 determines from the coordinate 31B (coordinates (x9, y9)) to the coordinate 31C (coordinates (x14, y14)) based on the determination result of the input operation reception unit 191. It is detected that the user has performed a drag operation. The movement direction detection unit 193 is a direction in which the game character is moved with the vector 32C ((y14-y0)/(x14-x0)) defined by the coordinates 31A and 31C starting from the coordinates 31A of the initial touch position. To detect as.

このように、移動方向検出部193は、ユーザの指が接近していない状態からタッチスクリーン130に接近したことを検出した第1のタッチ位置から、接近していることを検出したまま第2のタッチ位置へ検出位置が移動した場合に、接近していることを検出している間、第1のタッチ位置を起点とし第2のタッチ位置へ向かう方向である操作方向を、ゲームキャラクタ(ユーザキャラクタともいう)CA1の仮想空間における移動方向として決定する。 In this way, the moving direction detection unit 193 detects the approaching state from the first touch position where the user's finger is approaching the touch screen 130 from the state where the user's finger is not approaching, and then moves the second direction while detecting the approaching state. When the detection position moves to the touch position, the operation direction, which is the direction from the first touch position as the starting point to the second touch position, is detected while the closeness is detected. (Also referred to as) CA1 is determined as the moving direction in the virtual space.

(仮想カメラの制御)
図6は、カメラ配置制御部194が仮想カメラVCを制御する処理を説明する図である。図6では、仮想カメラVCがゲームキャラクタCA1を背後から追尾するカメラワークを説明する。図6の状態(A)では、ゲームキャラクタCA1が方向D1(移動方向)に向かって移動する様子が示されている。例えば、入力操作受付部191がユーザによる入力操作をドラッグ操作と判定し、移動方向検出部193がゲームキャラクタCA1の移動方向を方向D1と検出したとき、オブジェクト制御部195は、ゲームキャラクタCA1の正面を方向D1に向け、ゲームキャラクタCA1を方向D1へ移動させる。カメラ配置制御部194は、ゲームキャラクタCA1の背後から追尾するように、仮想カメラVCの配置位置及び撮影方向を制御する。ゲームキャラクタCA1の背後から追尾する場合、カメラ配置制御部194は、撮影方向DVとゲームキャラクタCA1の向き(方向D1)とがなす角度θ1(対応関係)は0°となる。カメラ配置制御部194は、カメラ視界の中央付近にゲームキャラクタCA1が表示されるように、仮想カメラVCを配置する。
(Control of virtual camera)
FIG. 6 is a diagram illustrating a process in which the camera placement control unit 194 controls the virtual camera VC. In FIG. 6, the camera work in which the virtual camera VC tracks the game character CA1 from behind will be described. In the state (A) of FIG. 6, it is shown that the game character CA1 moves in the direction D1 (moving direction). For example, when the input operation reception unit 191 determines that the input operation by the user is a drag operation and the movement direction detection unit 193 detects the movement direction of the game character CA1 as the direction D1, the object control unit 195 causes the object control unit 195 to detect the front of the game character CA1. Toward the direction D1, the game character CA1 is moved in the direction D1. The camera placement control unit 194 controls the placement position and shooting direction of the virtual camera VC so that the game character CA1 is tracked from behind. When tracking from behind the game character CA1, the camera placement control unit 194 sets the angle θ1 (correspondence) between the shooting direction DV and the direction of the game character CA1 (direction D1) to be 0°. The camera placement control unit 194 places the virtual camera VC so that the game character CA1 is displayed near the center of the camera view.

図6の状態(B)では、ユーザによるドラッグ操作により移動方向が方向D1から方向D2へ変更された様子を示す。この場合、オブジェクト制御部195は、ゲームキャラクタCA1の正面を方向D2に向け、ゲームキャラクタCA1を方向D2へ移動させる。このとき、カメラ配置制御部194は、撮影方向DVとゲームキャラクタCA1の向き(方向D1)とがなす角度θ1(対応関係)が0°となるように、仮想カメラVCの配置位置及び撮影方向DVを変更する。なお、カメラ配置制御部194は、変化前後の移動方向の変化角度θ2を検出し、検出された変化角度θ2を仮想カメラVCの変化角度θ3としてもよい。 The state (B) of FIG. 6 shows a state in which the moving direction is changed from the direction D1 to the direction D2 by the drag operation by the user. In this case, the object control unit 195 moves the game character CA1 in the direction D2 with the front of the game character CA1 facing the direction D2. At this time, the camera placement control unit 194 sets the placement position of the virtual camera VC and the shooting direction DV so that the angle θ1 (correspondence) between the shooting direction DV and the direction (direction D1) of the game character CA1 is 0°. To change. The camera placement control unit 194 may detect the change angle θ2 in the moving direction before and after the change and use the detected change angle θ2 as the change angle θ3 of the virtual camera VC.

このように、カメラ配置制御部194は、ユーザによる入力操作に応じて移動方向が変化するゲームキャラクタCA1を背後から追尾するようなカメラワークを提供する。 In this way, the camera placement control unit 194 provides camera work for tracking from behind the game character CA1 whose moving direction changes according to the input operation by the user.

(移動操作時の画面例)
図7は、ユーザによる入力操作に応じて変化するカメラワーク及び操作オブジェクトを説明する図である。画面例(A)〜画面例(C)は、タッチスクリーン130に表示された画像である。画面例(A)〜画面例(C)では、表示制御部196が、カメラ配置制御部194によりゲームキャラクタCA1の背後から撮影された画像を、タッチスクリーン130に表示させている。入力操作受付部191によりユーザによる入力操作が受け付けられたとき、オブジェクト制御部195は、ユーザの入力操作に応じて操作オブジェクトを生成する。表示制御部196は、仮想カメラVCにより撮影された画像上に操作オブジェクトを重畳させて、タッチスクリーン130に表示させる。
(Screen example when moving)
FIG. 7 is a diagram illustrating camerawork and operation objects that change according to an input operation by the user. The screen examples (A) to (C) are images displayed on the touch screen 130. In screen examples (A) to (C), the display control unit 196 causes the touch screen 130 to display an image captured from behind the game character CA1 by the camera placement control unit 194. When the input operation reception unit 191 receives the input operation by the user, the object control unit 195 generates an operation object according to the input operation by the user. The display control unit 196 superimposes the operation object on the image captured by the virtual camera VC and displays the operation object on the touch screen 130.

図7の画面例(A)は、ユーザがタッチスクリーン130に指などを接近させた操作をしたときの画面の一例である。入力操作受付部191によりユーザがタッチスクリーン130の第1位置300Aに指などを接近させた操作をしたと判定されたとき、オブジェクト制御部195は、入力操作に応答して円形の操作オブジェクト300を生成する。表示制御部196は、生成された円形の操作オブジェクト300をタッチ位置である第1位置300Aに表示させる。図7の画面例(A)では、撮影方向を方向VD1、ゲームキャラクタCA1の向きを方向CD1で示している。撮影方向である方向VD1とゲームキャラクタCA1の向きである方向CD1の対応関係(なす角度)は0°である。 The screen example (A) of FIG. 7 is an example of a screen when the user operates the touch screen 130 with a finger or the like. When the input operation receiving unit 191 determines that the user has performed an operation of bringing the finger or the like closer to the first position 300A of the touch screen 130, the object control unit 195 responds to the input operation by moving the circular operation object 300. To generate. The display control unit 196 displays the generated circular operation object 300 at the first position 300A which is the touch position. In the screen example (A) of FIG. 7, the shooting direction is indicated by the direction VD1, and the direction of the game character CA1 is indicated by the direction CD1. The correspondence relationship (angle formed) between the direction VD1 which is the shooting direction and the direction CD1 which is the direction of the game character CA1 is 0°.

図7の画面例(B)は、図7の画面例(A)の第1位置300Aを起点としてユーザがドラッグ操作をしたときの画面の一例である。入力操作受付部191は、起点である第1位置300Aから終点である第2位置300Bまでのドラッグ操作を受け付ける。入力操作受付部191によりドラッグ操作が受け付けられた場合、オブジェクト制御部195は、ドラッグ操作の操作結果を示す操作オブジェクト300を生成する。ドラッグ操作の操作結果を示す操作オブジェクト300は、ドラッグ操作の起点となる位置と終点となる位置とを関連付けることで、操作結果(例えば操作方向)を表現する。図7の画面例(B)の例では、オブジェクト制御部195は、起点及び終点に対応する位置に操作オブジェクト300の端部がそれぞれ位置するように、第1位置300Aから第2位置300Bに至るまで引き延ばされた操作オブジェクト300を生成している。表示制御部196は、引き延ばされた操作オブジェクト300をタッチスクリーン130に表示させる。この状態における操作方向及び撮影方向が図示されている。操作方向は方向SD1(図中右上方向)であり、撮影方向は方向VD1(図中上方向)である。方向SD1と方向VD1とのなす角はθ4である。 The screen example (B) of FIG. 7 is an example of a screen when the user performs a drag operation starting from the first position 300A of the screen example (A) of FIG. The input operation receiving unit 191 receives a drag operation from the first position 300A, which is the starting point, to the second position 300B, which is the ending point. When the drag operation is accepted by the input operation accepting unit 191, the object control unit 195 generates the operation object 300 indicating the operation result of the drag operation. The operation object 300 indicating the operation result of the drag operation represents the operation result (for example, the operation direction) by associating the starting point and the ending point of the drag operation with each other. In the example of the screen example (B) of FIG. 7, the object control unit 195 extends from the first position 300A to the second position 300B so that the ends of the operation object 300 are located at the positions corresponding to the start point and the end point, respectively. The extended operation object 300 is generated. The display control unit 196 displays the stretched operation object 300 on the touch screen 130. The operation direction and the shooting direction in this state are illustrated. The operation direction is the direction SD1 (upper right direction in the drawing), and the shooting direction is the direction VD1 (upward direction in the drawing). The angle formed by the direction SD1 and the direction VD1 is θ4.

さらに、移動方向検出部193は、ドラッグ操作が受け付けられた場合、ゲームキャラクタCA1の移動方向を、操作方向である方向SD1と同一の方向に決定する。オブジェクト制御部195は、ゲームキャラクタCA1を移動方向に向け、移動を開始させる。 Further, when the drag operation is accepted, the movement direction detection unit 193 determines the movement direction of the game character CA1 to be the same direction as the direction SD1 which is the operation direction. The object control unit 195 directs the game character CA1 in the movement direction and starts the movement.

図7の画面例(B)においてゲームキャラクタCA1の向きが変更されると、カメラ配置制御部194は、ゲームキャラクタCA1の背後を追尾するように仮想カメラVCの配置位置及び撮影方向を制御する。具体的には、方向SD1と方向VD1とのなす角であるθ4分だけ、撮影方向が注視点(ゲームキャラクタCA1)を中心として右回転する。さらに、仮想カメラVCの配置位置は、ゲームキャラクタCA1又は移動目的地が画面の中央にくるように制御される。これにより、タッチスクリーン130に表示される画像は、画面例(B)から画面例(C)へ遷移する。 When the orientation of the game character CA1 is changed in the screen example (B) of FIG. 7, the camera placement control unit 194 controls the placement position and the shooting direction of the virtual camera VC so as to track behind the game character CA1. Specifically, the shooting direction rotates right about the gazing point (game character CA1) by θ4 which is an angle formed by the direction SD1 and the direction VD1. Further, the arrangement position of the virtual camera VC is controlled so that the game character CA1 or the moving destination is located at the center of the screen. As a result, the image displayed on the touch screen 130 transits from the screen example (B) to the screen example (C).

このように、ユーザによる入力操作に応じてゲームキャラクタを背後から追尾するカメラワークが実行されるため、臨場感のあるゲームが提供される。また、操作方向が画面上に示されることにより、ユーザにとって理解し易いゲームが提供される。 In this way, camerawork that tracks the game character from behind is executed in accordance with the input operation by the user, so that a game with a sense of presence is provided. Further, by showing the operation direction on the screen, a game that is easy for the user to understand is provided.

(キャラクタユニットの構成時の画面例)
本実施形態に係るゲームにおいては、複数のゲームキャラクタが関連付けられたキャラクタユニットを操作することができる。例えば、携帯端末10のゲーム情報152又はサーバ20のゲーム情報252は、ゲームキャラクタと、当該ゲームキャラクタとユニット化が可能な1又は複数の他のゲームキャラクタとが関連付けられたユニットテーブルを含む。オブジェクト制御部195は、入力操作受付部191によりユーザがキャラクタユニットを構成することを指示したときに、ユニットテーブルを参照してキャラクタユニットを構成する。
(Example screen when configuring a character unit)
In the game according to the present embodiment, it is possible to operate a character unit associated with a plurality of game characters. For example, the game information 152 of the mobile terminal 10 or the game information 252 of the server 20 includes a unit table in which the game character and one or more other game characters that can be unitized with the game character are associated with each other. The object control unit 195 configures the character unit by referring to the unit table when the user instructs the input operation acceptance unit 191 to configure the character unit.

次に、図8(A)を参照して、オープンワールド処理を説明する。オープンワールドとは、ゲームの舞台となる仮想のゲームフィールドをオブジェクト(例えばユーザキャラクタCA1)が自由に移動できるシームレスなゲーム空間のことである。ステップS67において、ゲームフィールド上でのユーザキャラクタCA1の位置を特定する。次に、ステップS69において、オープンワールドの限定された部分を定義する。具体的には、サーバ20の記憶部250に記憶されているオープンワールドデータ252DからユーザキャラクタCA1の現在位置および向きに対応する部分を特定して読出し、携帯端末10のディスプレイ132に表示する処理である。このオープンワールド処理は定期的(例えば4msec毎)に繰り返し実行される。 Next, the open world processing will be described with reference to FIG. The open world is a seamless game space in which an object (for example, the user character CA1) can freely move in a virtual game field that is the stage of the game. In step S67, the position of the user character CA1 on the game field is specified. Next, in step S69, a limited part of the open world is defined. Specifically, in a process of identifying and reading a portion corresponding to the current position and orientation of the user character CA1 from the open world data 252D stored in the storage unit 250 of the server 20, and displaying the portion on the display 132 of the mobile terminal 10. is there. This open world process is repeatedly executed at regular intervals (for example, every 4 msec).

次に、図8(B)を参照してバトル表示画面を説明する。前述のオープンワールド処理により、ユーザキャラクタCA1の現在位置および向きに対応するゲーム空間の一部分が背景としてディスプレイ132に表示され、ユーザキャラクタCA1がオーバレイ表示される。ユーザキャラクタCA1は、ユーザの操作に応じてオープンワールドのゲーム空間内を自由に移動でき、移動中に敵キャラクタ(ドラゴン)CA2と遭遇する。 Next, the battle display screen will be described with reference to FIG. By the above-mentioned open world processing, a part of the game space corresponding to the current position and direction of the user character CA1 is displayed on the display 132 as a background, and the user character CA1 is displayed in an overlay manner. The user character CA1 can freely move in the game space of the open world according to the operation of the user, and encounters the enemy character (dragon) CA2 while moving.

図8(B)ではゲームキャラクタCA1と敵キャラクタCA2であるドラゴンとが対峙しており、ユーザの操作に従ってバトルが繰り広げられる。ユーザキャラクタCA1はユーザの操作に従って武器オブジャクトである剣を動かして敵キャラクタCA2を攻撃する。敵キャラクタCA2には体力値である「HP」が割り当てられており、ユーザキャラクタCA1が有効な攻撃を行えば敵キャラクタCA2の体力値「HP」が減少する。体力値「HP」は、図8(B)に示すようにレベル表示される。 In FIG. 8B, the game character CA1 and the dragon, which is the enemy character CA2, face each other, and a battle is unfolded according to the operation of the user. The user character CA1 moves a sword, which is a weapon object, according to a user's operation to attack the enemy character CA2. The physical strength value “HP” is assigned to the enemy character CA2, and the physical strength value “HP” of the enemy character CA2 decreases if the user character CA1 makes an effective attack. The physical fitness value “HP” is displayed as a level as shown in FIG.

次に、図8(C)を参照して、ステップS73においてバトル画面を表示し、ステップS75において、ユーザの攻撃操作に応じてゲームキャラクタCA1の武器オブジェクトを動かして敵キャラクタCA2を攻撃するバトルを表示する。その結果、ユーザキャラクタCA1が敵キャラクタCA2に勝利すれば(ステップS77:YES)、その敵キャラクタCA2を確保する(ステップS79)。確保した敵キャラクタCA2は、ユーザ管理テーブル253Aに記憶されて味方キャラクタ(ユーザ自身のキャラクタ)として利用できる。 Next, with reference to FIG. 8C, a battle screen is displayed in step S73, and in step S75, a battle is performed in which the weapon object of the game character CA1 is moved in response to the user's attack operation to attack the enemy character CA2. indicate. As a result, if the user character CA1 wins over the enemy character CA2 (step S77: YES), the enemy character CA2 is secured (step S79). The secured enemy character CA2 is stored in the user management table 253A and can be used as a teammate character (user's own character).

例えば、敵キャラクタ(ドラゴン)CA2を獲得した場合には、当該キャラクタに乗って移動あるいは飛行すること(図11(B))や、ゲームフィールドの所定位置に設けられている高台400から滑空すること(図18(B)、図19)、ドラゴンCA2の口から火を吐いて敵キャラクタを攻撃することなどに利用できる。獲得したキャラクタの利用態様は、確保したキャラクタの種類に応じて種々存在する。ユーザキャラクタCA1は、剣などの武器による限られた狭い範囲の攻撃に限定されるが、敵キャラクタ(ドラゴン等)CA2を確保することによって例えば火を吐くなどの攻撃が可能となり、武器の場合よりも攻撃範囲を広げることができる。また、確保したキャラクタは、経験に応じて成長させることができ、これにより例えば攻撃力が増えるようにしてもよい。さらに、ユーザキャラクタCA1は、敵キャラクタCA2に勝利することによってその先(例えば、次のステージ)に進めるものもある。 For example, when the enemy character (dragon) CA2 is acquired, moving or flying on the character (FIG. 11(B)) or gliding from a hill 400 provided at a predetermined position in the game field. (FIGS. 18(B) and 19), it can be used to fire fire from the mouth of the dragon CA2 to attack an enemy character. There are various ways of using the acquired character depending on the type of the secured character. The user character CA1 is limited to an attack in a limited narrow range with a weapon such as a sword. However, by securing the enemy character (dragon etc.) CA2, it becomes possible to perform an attack such as extinguishing a fire, which is more than with a weapon. Can also widen the attack range. In addition, the secured character may be allowed to grow according to experience, which may increase the attack power, for example. Further, the user character CA1 may advance to a point beyond the enemy character CA2 (for example, the next stage) by winning.

図9は、キャラクタユニットの構成の一例を説明する図である。画面例(A)及び画面例(B)は、タッチスクリーン130に表示された画像である。図9の画面例(A)は、ゲームキャラクタCA1(第一キャラクタの一例)がゲーム空間内のフィールド上に起立している状態の画面である。タッチスクリーン130の右下には、3つの操作アイコンIC1〜IC3が表示されている。第一操作アイコンIC1及び第二操作アイコンIC2は、キャラクタユニットの構成を指示する入力操作を受け付けるためのアイコンである。第一操作アイコンIC1は、他のゲームキャラクタであるドラゴンとユニットを組むためのアイコンである。第二操作アイコンIC2は、他のゲームキャラクタであるゴーレムとユニットを組むためのアイコンである。第三操作アイコンIC3は、キャラクタユニットを解除するためのアイコンである。操作アイコンIC1及び操作アイコンIC2は、上述したユニットテーブルに基づいて表示される。 FIG. 9 is a diagram illustrating an example of the configuration of the character unit. The screen example (A) and the screen example (B) are images displayed on the touch screen 130. The screen example (A) of FIG. 9 is a screen in which the game character CA1 (an example of the first character) stands up on a field in the game space. At the lower right of the touch screen 130, three operation icons IC1 to IC3 are displayed. The first operation icon IC1 and the second operation icon IC2 are icons for receiving an input operation for instructing the configuration of the character unit. The first operation icon IC1 is an icon for forming a unit with a dragon, which is another game character. The second operation icon IC2 is an icon for forming a unit with another game character, a golem. The third operation icon IC3 is an icon for releasing the character unit. The operation icon IC1 and the operation icon IC2 are displayed based on the unit table described above.

図9の画面例(A)の状態で、ユーザがタップ操作により第一操作アイコンIC1を選択すると、画面例(A)から画面例(B)に画面が遷移する。図9の画面例(B)は、ゲームキャラクタCA1がゲームキャラクタ(敵キャラクタともいう)CA2(第二キャラクタの一例)に乗った状態の画面である。図示されるように、ゲームキャラクタCA1とゲームキャラクタCA2とによってキャラクタユニットCU1が構成される。なお、図9の画面例(B)はキャラクタユニットの一例であり、これに限定されない。ユニット化するキャラクタユニットは、一体的に移動可能なものであればよく、他のモンスター、人物、動物、車両や飛行機などの乗り物と構成してもよい。2つの人型のゲームキャラクタの例では、隊列を組んだり、手を繋いだりすることにより、キャラクタユニットを構成することができる。人型のゲームキャラクタと乗り物のゲームキャラクタとの例では、人型のゲームキャラクタが乗り物に乗り込むことにより、キャラクタユニットを構成することができる。 In the screen example (A) of FIG. 9, when the user selects the first operation icon IC1 by the tap operation, the screen transitions from the screen example (A) to the screen example (B). The screen example (B) of FIG. 9 is a screen in which the game character CA1 rides on the game character (also referred to as an enemy character) CA2 (an example of the second character). As shown in the figure, the game character CA1 and the game character CA2 form a character unit CU1. The screen example (B) of FIG. 9 is an example of a character unit, and the present invention is not limited to this. The character unit to be unitized may be one that can move integrally, and may be configured as another monster, a person, an animal, or a vehicle such as a vehicle or an airplane. In the example of two human-type game characters, a character unit can be formed by forming a formation or holding hands. In the example of a humanoid game character and a vehicle game character, a character unit can be configured by a humanoid game character boarding a vehicle.

図9の画面例(B)の状態で、ユーザがタップ操作により第三操作アイコンIC3を選択すると、キャラクタユニットCU1が解除され、画面例(B)から画面例(A)に画面が遷移する。 When the user selects the third operation icon IC3 by a tap operation in the screen example (B) of FIG. 9, the character unit CU1 is released, and the screen transitions from the screen example (B) to the screen example (A).

(キャラクタユニット構成のフローチャート)
図10は、キャラクタユニットの構成処理を説明するフローチャートである。図10のフローチャートは、制御部190がゲームプログラム151を実行することによりアクションゲームを進行させる処理を示すフローチャートである。以下では、ゲームキャラクタCA1とドラゴンのゲームキャラクタCA2とがキャラクタユニットを構成する一例を説明する。
(Character unit configuration flowchart)
FIG. 10 is a flowchart illustrating a character unit configuration process. The flowchart of FIG. 10 is a flowchart showing a process of advancing the action game by the control unit 190 executing the game program 151. In the following, an example in which the game character CA1 and the dragon game character CA2 form a character unit will be described.

ステップS10において、制御部190は、入力操作が受け付けられたか否かを判定する。 In step S10, the control unit 190 determines whether or not an input operation has been accepted.

入力操作が受け付けられたと判定されると(ステップS10:YES)、ステップS12において、制御部190は、キャラクタユニットを構成中であるか否かを判定する。制御部190は、例えば、ゲームキャラクタCA1が図9の画面例(A)に対応する状態の場合には「0」、ゲームキャラクタCA1が図9の画面例(B)に対応する状態の場合には「1」となるユニットフラグを参照して、キャラクタユニットを構成中であるか否かを判定する。制御部190は、キャラクタユニットの構成時又は解除時にユニットフラグを更新する。 When it is determined that the input operation is accepted (step S10: YES), the control unit 190 determines whether or not the character unit is being configured in step S12. For example, when the game character CA1 is in a state corresponding to the screen example (A) of FIG. 9, the control unit 190 is “0”, and when the game character CA1 is in a state corresponding to the screen example (B) of FIG. Refers to the unit flag of "1" to determine whether or not a character unit is being constructed. The control unit 190 updates the unit flag when the character unit is constructed or released.

キャラクタユニットを構成中でないと判定されると(ステップS12:NO)、ステップS14において、制御部190は、入力操作がドラゴンに乗る操作であるか否かを判定する。制御部190は、一例として、入力操作が、図9の画面例(A)において表示された操作アイコンIC1を選択するタップ操作であるか否かを判定する。 When it is determined that the character unit is not being configured (step S12: NO), the control unit 190 determines in step S14 whether the input operation is a dragon riding operation. For example, the control unit 190 determines whether the input operation is a tap operation for selecting the operation icon IC1 displayed in the screen example (A) of FIG.

入力操作がドラゴンに乗る操作であると判定されると(ステップS14:YES)、ステップS16(構成ステップの一例)において、制御部190のオブジェクト制御部195は、ゲームキャラクタCA1とドラゴンのゲームキャラクタCA2とでキャラクタユニットCU1を構成する。オブジェクト制御部195は、ユニットテーブルを参照して、ゲームキャラクタCA1とドラゴンのゲームキャラクタCA2とが関連付けられたキャラクタユニットを構成する。制御部190の表示制御部196は、構成されたキャラクタユニットCU1をタッチスクリーン130に表示させる(図9の画面例(B)に対応する)。 When it is determined that the input operation is an operation of riding a dragon (step S14: YES), the object control unit 195 of the control unit 190 causes the game character CA1 and the dragon game character CA2 in step S16 (an example of a configuration step). And form a character unit CU1. The object control unit 195 refers to the unit table to form a character unit in which the game character CA1 and the dragon game character CA2 are associated with each other. The display control unit 196 of the control unit 190 displays the configured character unit CU1 on the touch screen 130 (corresponding to the screen example (B) in FIG. 9).

入力操作がドラゴンに乗る操作でないと判定されると(ステップS14:NO)、ステップS18において、制御部190は、入力操作に応じた動作をゲームキャラクタCA1に実行させる。例えば、タップ操作であれば、攻撃対象を決定し、ゲームキャラクタCA1に攻撃動作を実行させる。 When it is determined that the input operation is not the operation of riding a dragon (step S14: NO), the control unit 190 causes the game character CA1 to perform an operation according to the input operation in step S18. For example, in the case of a tap operation, the attack target is determined and the game character CA1 is caused to perform an attack action.

一方、キャラクタユニットを構成中であると判定されると(ステップS12:YES)、ステップS20において、制御部190は、入力操作がドラゴンから降りる操作であるか否かを判定する。制御部190は、一例として、入力操作が、図9の画面例(A)において表示された操作アイコンIC3を選択するタップ操作であるか否かを判定する。 On the other hand, when it is determined that the character unit is being configured (step S12: YES), in step S20, the control unit 190 determines whether or not the input operation is an operation of descending from the dragon. As an example, the control unit 190 determines whether the input operation is a tap operation for selecting the operation icon IC3 displayed in the screen example (A) of FIG. 9.

入力操作がドラゴンから降りる操作であると判定されると(ステップS20:YES)、ステップS22において、制御部190のオブジェクト制御部195は、ゲームキャラクタCA1とドラゴンのゲームキャラクタCA2とのキャラクタユニットCU1を解除する。制御部190の表示制御部196は、キャラクタユニットCU1の表示を終了し、ゲームキャラクタCA1をタッチスクリーン130に表示させる(図9の画面例(A)に対応する)。 When it is determined that the input operation is the operation of getting off the dragon (step S20: YES), in step S22, the object control unit 195 of the control unit 190 sets the character unit CU1 of the game character CA1 and the dragon game character CA2. To release. The display control unit 196 of the control unit 190 ends the display of the character unit CU1 and displays the game character CA1 on the touch screen 130 (corresponding to the screen example (A) in FIG. 9 ).

入力操作がドラゴンから降りる操作でないと判定されると(ステップS20:NO)、ステップS24において、制御部190は、入力操作に応じた動作をキャラクタユニットCU1に実行させる。例えば、タップ操作であれば、攻撃対象を決定し、キャラクタユニットCU1に攻撃動作を実行させる。 When it is determined that the input operation is not the operation of descending from the dragon (step S20: NO), in step S24, the control unit 190 causes the character unit CU1 to execute an action according to the input operation. For example, in the case of a tap operation, an attack target is determined and the character unit CU1 is caused to perform an attack action.

入力操作が受け付けられていないと判定された場合(ステップS10:NO)、ステップS16、ステップS18、又は、ステップS24が終了した場合には、図10に示されるフローチャートは終了する。そして、制御部190は、所定の条件が満たされるまで図10に示されるフローチャートを最初から実行する。以上で、キャラクタユニットの一連の構成処理が終了する。 If it is determined that the input operation is not accepted (step S10: NO), and step S16, step S18, or step S24 is completed, the flowchart shown in FIG. 10 is completed. Then, the control unit 190 executes the flowchart shown in FIG. 10 from the beginning until a predetermined condition is satisfied. This is the end of the series of character unit configuration processing.

(キャラクタユニットの操作)
キャラクタユニットは、所定条件(操作条件)が満たされた場合を除き、図7に示されるような単体のゲームキャラクタと同一の手法で操作することができる。
(Operation of character unit)
The character unit can be operated in the same manner as a single game character as shown in FIG. 7 except when a predetermined condition (operation condition) is satisfied.

図11は、キャラクタユニットの動作の第一態様及び第二態様の一例を説明する図である。画面例(A)及び画面例(B)は、タッチスクリーン130に表示された画像である。図11の画面例(A)は、ユーザがタッチスクリーン130に対してドラッグ操作を行ったときの画面の一例である。オブジェクト制御部195は、起点及び終点に対応する位置に操作オブジェクト300の端部がそれぞれ位置するように、第1位置300Aから第2位置300Bに至るまで引き延ばされた操作オブジェクト300を生成する。ユーザによる移動操作に応じて、キャラクタユニットCU1は、操作方向SD2に向けてフィールド上を走行するように移動する。以下では、走行する移動態様を第一態様ともいう。キャラクタユニットCU1をフィールド上で走行させるこのような移動操作は、単一のキャラクタを操作する場合と同一の操作となる。 FIG. 11: is a figure explaining an example of the 1st aspect and 2nd aspect of operation|movement of a character unit. The screen example (A) and the screen example (B) are images displayed on the touch screen 130. The screen example (A) of FIG. 11 is an example of a screen when the user performs a drag operation on the touch screen 130. The object control unit 195 generates the operation object 300 extended from the first position 300A to the second position 300B so that the ends of the operation object 300 are located at the positions corresponding to the start point and the end point, respectively. .. In response to the moving operation by the user, the character unit CU1 moves so as to run on the field in the operation direction SD2. Hereinafter, the traveling mode of traveling is also referred to as a first mode. Such a moving operation for running the character unit CU1 on the field is the same operation as when operating a single character.

キャラクタユニットCU1は、所定条件(操作条件)が満たされた場合には、第一態様とは異なる態様で移動する。所定条件は、入力操作に関連して予め定められた条件である。所定条件は、一例として、キャラクタユニットCU1がフィールド上を非戦闘状態で所定時間継続して走行した場合に満たされる。図11の画面例(B)は、図11の画面例(A)の走行状態が所定時間継続したときの画面の一例である。図11の画面例(B)に示されるように、フィールド上を走行していたキャラクタユニットCU1は、走行しながら翼を羽ばたかせ、空中を飛行する。以下では飛行する移動態様を第二態様ともいう。飛行状態となったキャラクタユニットCU1は、フィールド上を走行する場合と比べて移動速度が速くなる。このような操作態様の遷移は、ユーザによる移動操作であるドラッグ操作が継続した状態で発生する。つまり、ユーザが同一の移動操作をし続けるだけで、キャラクタ移動の操作が変更される。このように、操作方法を変更することなくキャラクタの動作が変更されるため、ユーザは複雑な操作方法を理解する必要がない。このため、ユーザは操作そのものに集中する必要もなくなることからキャラクタとの一体感を得やすい。 The character unit CU1 moves in a mode different from the first mode when a predetermined condition (operation condition) is satisfied. The predetermined condition is a predetermined condition related to the input operation. The predetermined condition is satisfied, for example, when the character unit CU1 continuously runs on the field for a predetermined time in a non-combat state. The screen example (B) of FIG. 11 is an example of the screen when the traveling state of the screen example (A) of FIG. 11 continues for a predetermined time. As shown in the screen example (B) of FIG. 11, the character unit CU1 running on the field flaps its wings while running and flies in the air. In the following, the flying mode is also referred to as the second mode. The flying speed of the character unit CU1 becomes faster than that in the case of traveling on the field. Such a transition of the operation mode occurs in the state where the drag operation, which is the moving operation by the user, continues. That is, the character moving operation is changed only by the user continuing to perform the same moving operation. In this way, the motion of the character is changed without changing the operation method, so that the user does not need to understand a complicated operation method. For this reason, the user does not need to concentrate on the operation itself, and thus can easily obtain a sense of unity with the character.

図12は、キャラクタユニットの動作の第二態様の一例を説明する図である。画面例(A)及び画面例(B)は、タッチスクリーン130に表示された画像である。図12の画面例(A)は、キャラクタユニットCU1が飛行状態(図11の画面例(B))のときに、ユーザがタッチスクリーン130に対してドラッグ操作の終端位置を変更したときの画面の一例である。図12の画面例(A)に示されるように、オブジェクト制御部195は、起点及び終点に対応する位置に操作オブジェクト300の端部がそれぞれ位置するように、第1位置300Aから第2位置300Bに至るまで引き延ばされた操作オブジェクト300を生成する。ユーザによる移動操作に応じて、キャラクタユニットCU1は、操作方向SD3に向けて飛行する。このとき、キャラクタユニットCU1がユーザによる移動操作に応じて傾く。例えば、キャラクタユニットCU1は、その正面方向を回転軸として回転する。図中では回転方向SD4に傾いている。回転方向は、ユーザによる入力操作による操作方向によって決定される。例えば、右方向への移動操作である場合には右回転となり、左方向への移動操作である場合には左回転となる。また、回転量は、ユーザによる入力操作による操作量によって決定される。例えば、ユーザによる入力操作による操作方向の角度変化量が大きいほど回転量が大きくなる。したがって、ユーザが素早く操作方向を変更した場合には、キャラクタユニットCU1が大きく傾くことになる。キャラクタユニットCU1が大きく傾いた場合、ドラゴンの翼がフィールドに接触し、飛行状態が解除される。つまり、所定角度以上の変化が伴う方向転換をした場合、飛行状態が解除される。この場合、図11の画面例(A)に遷移する。ユーザは、所定角度以上の変化が伴う方向転換が飛行状態では禁止されていることをドラゴンの翼の接触で知ることができる。したがって、ユーザは飛行状態で許容される操作範囲を学習することができる。 FIG. 12 is a diagram illustrating an example of a second mode of motion of the character unit. The screen example (A) and the screen example (B) are images displayed on the touch screen 130. The screen example (A) of FIG. 12 shows the screen when the user changes the end position of the drag operation on the touch screen 130 while the character unit CU1 is in the flight state (screen example (B) of FIG. 11). This is an example. As shown in the screen example (A) of FIG. 12, the object control unit 195 sets the first position 300A to the second position 300B so that the ends of the operation object 300 are located at the positions corresponding to the starting point and the ending point, respectively. The extended operation object 300 is generated. In response to the moving operation by the user, the character unit CU1 flies in the operation direction SD3. At this time, the character unit CU1 is tilted according to the moving operation by the user. For example, the character unit CU1 rotates about its front direction as a rotation axis. In the figure, it is inclined in the rotation direction SD4. The rotation direction is determined by the operation direction of the input operation by the user. For example, if the operation is a rightward movement operation, the rotation is rightward, and if the operation is a leftward movement operation, the rotation is leftward. Further, the rotation amount is determined by the operation amount of the input operation by the user. For example, the rotation amount increases as the angle change amount of the operation direction due to the input operation by the user increases. Therefore, when the user quickly changes the operation direction, the character unit CU1 is greatly inclined. When the character unit CU1 is greatly inclined, the wings of the dragon come into contact with the field and the flying state is canceled. That is, the flight state is canceled when the direction is changed with a change of a predetermined angle or more. In this case, the screen transitions to the screen example (A) in FIG. 11. The user can know from the contact of the wings of the dragon that the direction change accompanied by the change of the predetermined angle or more is prohibited in the flight state. Therefore, the user can learn the operation range allowed in the flight state.

図12の画面例(B)は、キャラクタユニットCU1が飛行状態のときに敵キャラクタと接触したときの画面の一例である。図12の画面例(B)に示されるように、オブジェクト制御部195は、起点及び終点に対応する位置に操作オブジェクト300の端部がそれぞれ位置するように、第1位置300Aから第2位置300Bに至るまで引き延ばされた操作オブジェクト300を生成する。ユーザによる移動操作に応じて、キャラクタユニットCU1は、操作方向に向けて飛行する。キャラクタユニットCU1の進行方向には、敵キャラクタCA3が多数存在する。敵キャラクタCA3には、体力値である「HP」がそれぞれ割り当てられており、対応するゲージで表示されている。飛行中のキャラクタユニットCU1が敵キャラクタと接触した場合、キャラクタユニットCU1よりも能力の劣る敵キャラクタCA3(いわゆる「雑魚キャラ」)であれば、蹴散らすことができる。具体的な一例として、キャラクタユニットCU1は、敵キャラクタCA3と接触した場合には、接触した敵キャラクタCA3を蹴散らすとともに、当該敵キャラクタCA3の体力値である「HP」を減少させる。図中では、蹴散らされた敵キャラクタCA3の「HP」ゲージが0(ここでは空白)になっている。このように、ユーザは、フィールド走行時と比べて速い移動速度で操作対象を移動させながら、移動操作だけで敵キャラクタを一掃することができるため、十分な爽快感を得ることができる。 The screen example (B) of FIG. 12 is an example of a screen when the character unit CU1 comes into contact with an enemy character while in flight. As shown in the screen example (B) of FIG. 12, the object control unit 195 sets the first position 300A to the second position 300B so that the ends of the operation object 300 are located at the positions corresponding to the start point and the end point, respectively. The extended operation object 300 is generated. In response to the moving operation by the user, the character unit CU1 flies in the operation direction. There are many enemy characters CA3 in the traveling direction of the character unit CU1. “HP”, which is a physical strength value, is assigned to the enemy character CA3, and is displayed with a corresponding gauge. When the flying character unit CU1 comes into contact with an enemy character, an enemy character CA3 (so-called “small fish character”) having inferior ability to the character unit CU1 can be kicked off. As a specific example, when the character unit CU1 comes into contact with the enemy character CA3, the character unit CU1 disperses the contacted enemy character CA3 and reduces the physical strength value “HP” of the enemy character CA3. In the figure, the "HP" gauge of the scattered enemy character CA3 is 0 (blank here). In this way, the user can get rid of the enemy character only by the moving operation while moving the operation target at a higher moving speed than when traveling in the field, and thus can obtain a sufficient refreshing feeling.

図13は、キャラクタユニットの動作の第二態様の一例を説明する図である。画面例(A)及び画面例(B)は、タッチスクリーン130に表示された画像である。図13の画面例(A)に示されるように、オブジェクト制御部195は、起点及び終点に対応する位置に操作オブジェクト300の端部がそれぞれ位置するように、第1位置300Aから第2位置300Bに至るまで引き延ばされた操作オブジェクト300を生成する。ユーザによる移動操作に応じて、キャラクタユニットCU1は、操作方向に向けて飛行する。キャラクタユニットCU1の進行方向には、大型の敵キャラクタCA4が存在する。敵キャラクタCA4には、体力値である「HP」が割り当てられており、対応するゲージで表示されている。飛行中のキャラクタユニットCU1は、接触した相手がキャラクタユニットCU1よりも能力の高い敵キャラクタCA4(いわゆる「ボスキャラ」)の場合には、接触後に後退し(ノックバック)、飛行状態が解除される(図13の画面例(B))。このように、飛行状態が無敵状態ではないことにより、ユーザは飛行時において接触すべき敵キャラクタの選択に迫られるため、ゲーム性が向上する。 FIG. 13: is a figure explaining an example of the 2nd aspect of operation|movement of a character unit. The screen example (A) and the screen example (B) are images displayed on the touch screen 130. As shown in the screen example (A) of FIG. 13, the object control unit 195 sets the first position 300A to the second position 300B so that the ends of the operation object 300 are located at the positions corresponding to the start point and the end point, respectively. The extended operation object 300 is generated. In response to the moving operation by the user, the character unit CU1 flies in the operation direction. A large enemy character CA4 exists in the traveling direction of the character unit CU1. "HP", which is a physical strength value, is assigned to the enemy character CA4 and is displayed with a corresponding gauge. When the contacting opponent is an enemy character CA4 (so-called “boss character”) having a higher ability than the character unit CU1, the flying character unit CU1 retreats (knocks back) after the contact, and the flying state is canceled ( The screen example (B) of FIG. 13). In this way, since the flight state is not invincible, the user is forced to select an enemy character to contact during flight, which improves the game.

(移動操作時のフローチャート)
図14は、移動操作時の処理を説明するフローチャートである。図14のフローチャートは、制御部190がゲームプログラム151を実行することによりアクションゲームを進行させる処理を示すフローチャートである。なお、フィールド上を走行により移動する処理は、ゲームキャラクタCA1及びキャラクタユニットCU1それぞれ同一の処理となる。このため、走行により移動する処理については、ゲームキャラクタCA1を例にして説明する。
(Flow chart for moving operation)
FIG. 14 is a flowchart for explaining the process at the time of the moving operation. The flowchart of FIG. 14 is a flowchart showing a process of advancing an action game by the control unit 190 executing the game program 151. The process of moving on the field by running is the same process for each of the game character CA1 and the character unit CU1. Therefore, the process of moving by running will be described using the game character CA1 as an example.

ステップS30において、制御部190は、入力操作が受け付けられたか否かを判定する。 In step S30, the control unit 190 determines whether the input operation has been accepted.

入力操作が受け付けられたと判定されると(ステップS30:YES)、ステップS32において、制御部190は、初期タッチ位置に操作オブジェクトを表示させる(図7の画面例(A)に対応する)。オブジェクト制御部195は、入力操作に応答して円形の操作オブジェクト300を生成する。表示制御部196は、生成された円形の操作オブジェクト300をタッチ位置である第1位置300Aに表示させる。初期タッチ位置は、操作方向を決定する起点(操作オブジェクトの端部位置)の初期値となる。 When it is determined that the input operation is accepted (step S30: YES), the control unit 190 displays the operation object at the initial touch position in step S32 (corresponding to the screen example (A) in FIG. 7). The object control unit 195 generates the circular operation object 300 in response to the input operation. The display control unit 196 displays the generated circular operation object 300 at the first position 300A which is the touch position. The initial touch position is the initial value of the starting point (the end position of the operation object) that determines the operation direction.

ステップS34において、制御部190は、入力操作がドラッグ操作であるか否かを判定する。制御部190は、タッチスクリーン130の履歴情報を用いて、ドラッグ操作であるか否かを判定する(図4参照)。 In step S34, the control unit 190 determines whether the input operation is a drag operation. The control unit 190 uses the history information of the touch screen 130 to determine whether or not it is a drag operation (see FIG. 4).

入力操作がドラッグ操作であると判定されると(ステップS34:YES)、ステップS36において、制御部190は、起点(第1位置300A)からドラッグ方向(方向SD1)へ伸びる操作オブジェクト300を表示させる(図7の画面例(B)に対応する)。制御部190は、タッチスクリーン130の履歴情報を用いて、操作オブジェクト300を生成して、タッチスクリーン130に表示させる。 When it is determined that the input operation is a drag operation (step S34: YES), in step S36, the control unit 190 displays the operation object 300 extending from the starting point (first position 300A) in the drag direction (direction SD1). (Corresponding to the screen example (B) in FIG. 7). The control unit 190 uses the history information of the touch screen 130 to generate the operation object 300 and display it on the touch screen 130.

ステップS38において、制御部190は、ゲームキャラクタCA1又はキャラクタユニットCU1を移動させる処理を行う。この処理については後述する。 In step S38, the control unit 190 performs a process of moving the game character CA1 or the character unit CU1. This process will be described later.

ステップS40において、制御部190は、ドラッグ操作が完了したか否かを判定する。ドラッグ操作が完了していないと判定されると(ステップS40:NO)、制御部190は、上述したステップS36及びステップS38を再実行する。これにより、ユーザの指が接近していることをタッチスクリーン130が検出している間、つまり、ドラグ操作が継続されている間、操作オブジェクトが表示され、ゲームキャラクタCA1又はキャラクタユニットCU1が移動することになる。 In step S40, the control unit 190 determines whether the drag operation has been completed. When it is determined that the drag operation is not completed (step S40: NO), the control unit 190 re-executes step S36 and step S38 described above. Accordingly, while the touch screen 130 detects that the user's finger is approaching, that is, while the drag operation is continued, the operation object is displayed and the game character CA1 or the character unit CU1 moves. It will be.

ドラッグ操作が完了したと判定されると(ステップS40:YES)、ステップS42として、制御部190は、ゲームキャラクタCA1又はキャラクタユニットCU1の移動を終了する。そして、ステップS44として、制御部190は、操作オブジェクト300の表示を終了する。 When it is determined that the drag operation is completed (step S40: YES), the control unit 190 ends the movement of the game character CA1 or the character unit CU1 in step S42. Then, as step S44, the control unit 190 ends the display of the operation object 300.

一方、入力操作がドラッグ操作でないと判定されると(ステップS34:NO)、ステップS46において、制御部190は、入力操作に応じた動作をゲームキャラクタCA1に実行させる。例えば、タップ操作であれば、攻撃対象を決定し、ゲームキャラクタCA1又はキャラクタユニットCU1に攻撃動作を実行させる。そして、ステップS44として、制御部190は、操作オブジェクト300の表示を終了する。 On the other hand, when it is determined that the input operation is not the drag operation (step S34: NO), in step S46, the control unit 190 causes the game character CA1 to perform an action according to the input operation. For example, in the case of a tap operation, the attack target is determined, and the game character CA1 or the character unit CU1 is caused to perform an attack action. Then, as step S44, the control unit 190 ends the display of the operation object 300.

入力操作が受け付けられていないと判定された場合(ステップS30:NO)、又は、操作オブジェクト300の表示を終了した場合には、図14に示されるフローチャートは終了する。そして、制御部190は、所定の条件が満たされるまで図14に示されるフローチャートを最初から実行する。 If it is determined that the input operation is not accepted (step S30: NO), or if the display of the operation object 300 is ended, the flowchart shown in FIG. 14 ends. Then, the control unit 190 executes the flowchart shown in FIG. 14 from the beginning until a predetermined condition is satisfied.

(移動処理の詳細:移動態様の切り替え処理)
続いて、ステップS38の移動処理について、図15〜図17に示されるフローチャートを用いて説明する。最初に、移動態様を変化させる処理について説明する。図15は、移動操作時の処理を説明するフローチャートである。図15のフローチャートは、図14のステップS38の移動処理の一部であり、ドラッグ操作が継続されている状態における制御部190による処理を示すフローチャートである。
(Details of movement processing: movement mode switching processing)
Next, the movement process of step S38 will be described with reference to the flowcharts shown in FIGS. First, the process of changing the movement mode will be described. FIG. 15 is a flowchart for explaining the process at the time of moving operation. The flowchart of FIG. 15 is a part of the movement processing of step S38 of FIG. 14, and is a flowchart showing processing by the control unit 190 in a state where the drag operation is continued.

ステップS50(操作判定ステップの一例)において、制御部190は、飛行フラグが「1」であるか否かを判定する。飛行フラグは、キャラクタユニットCU1を飛行させる条件が満たされたときに「1」、キャラクタユニットCU1を飛行させる条件が満たされていないときに「0」となるフラグである。飛行フラグの更新については後述する。 In step S50 (an example of the operation determination step), the control unit 190 determines whether or not the flight flag is “1”. The flight flag is a flag that becomes “1” when the condition for flying the character unit CU1 is satisfied and “0” when the condition for flying the character unit CU1 is not satisfied. The update of the flight flag will be described later.

飛行フラグが「1」であると判定されると(ステップS50:YES)、ステップS52(第二進行ステップの一例)において、制御部190は、キャラクタユニットCU1を飛行させる。制御部190は、タッチスクリーン130の履歴情報を用いて、ドラッグ操作のドラッグ方向(操作方向SD2)及び操作角度変化量を検出する(図11参照)。そして、制御部190は、ドラッグ操作の操作方向及び操作角度変化量に基づいて、キャラクタユニットCU1の移動方向及び傾きを決定する。そして、制御部190は、キャラクタユニットCU1をドラッグ方向へ飛行させながら移動させる(図11の画面例(B)及び図12の画面例(A)に対応する)。飛行による移動態様を第二態様ともいう。 When it is determined that the flight flag is “1” (step S50: YES), the control unit 190 causes the character unit CU1 to fly in step S52 (an example of the second proceeding step). The control unit 190 uses the history information of the touch screen 130 to detect the drag direction (operation direction SD2) of the drag operation and the operation angle change amount (see FIG. 11 ). Then, the control unit 190 determines the moving direction and the inclination of the character unit CU1 based on the operation direction of the drag operation and the operation angle change amount. Then, the control unit 190 moves the character unit CU1 while flying in the drag direction (corresponding to the screen example (B) of FIG. 11 and the screen example (A) of FIG. 12). The movement mode by flight is also referred to as a second mode.

ステップS54において、制御部190は、仮想カメラVCの撮影方向をキャラクタユニットCU1の向きと一致させる。 In step S54, the control unit 190 matches the shooting direction of the virtual camera VC with the direction of the character unit CU1.

一方、飛行フラグが「1」でないと判定されると(ステップS50:NO)、ステップS56(動作ステップ又は第一進行ステップの一例)において、制御部190は、ユーザによるドラッグ操作に応じてゲームキャラクタCA1又はキャラクタユニットCU1を走行させる。制御部190は、タッチスクリーン130の履歴情報を用いて、ドラッグ操作のドラッグ方向を検出する(図7又は図11の画面例(A)参照)。そして、制御部190は、ドラッグ操作の操作方向に基づいて、ゲームキャラクタCA1又はキャラクタユニットCU1の移動方向及び傾きを決定する。そして、制御部190は、ゲームキャラクタCA1又はキャラクタユニットCU1をドラッグ方向へ走行させながら移動させる(図7又は図11の画面例(A)に対応する)。走行による移動態様を第一態様ともいう。 On the other hand, when it is determined that the flight flag is not “1” (step S50: NO), the control unit 190 causes the game character to respond to the drag operation by the user in step S56 (an example of the operation step or the first progression step). The CA1 or the character unit CU1 is run. The control unit 190 uses the history information of the touch screen 130 to detect the drag direction of the drag operation (see the screen example (A) in FIG. 7 or 11). Then, the control unit 190 determines the moving direction and the inclination of the game character CA1 or the character unit CU1 based on the operation direction of the drag operation. Then, the control unit 190 moves the game character CA1 or the character unit CU1 while running in the drag direction (corresponding to the screen example (A) of FIG. 7 or 11). The movement mode by running is also referred to as a first mode.

ステップS58において、制御部190は、仮想カメラVCの撮影方向をゲームキャラクタCA1又はキャラクタユニットCU1の向きと一致させる。 In step S58, the control unit 190 matches the shooting direction of the virtual camera VC with the direction of the game character CA1 or the character unit CU1.

ステップS54又はステップS58が終了した場合には、ステップS83において、高台400からキャラクタユニットCU1が滑空したか否か判定する。高台400からキャラクタユニットCU1が滑空した場合(ステップS83:YES)、ステップS85において滑空処理が行われる。ステップS83でNOと判定した場合またはステップS85が終了した場合には、図15に示されるフローチャートは終了する。そして、制御部190は、図14に示されるステップS38の移動処理が実行されるたびに、つまり、ドラッグ操作が継続されている間は、図15に示されるフローチャートを最初から実行する。但し、後述のステップS29が終了した場合には、ステップS42へ移行する。 When step S54 or step S58 ends, it is determined in step S83 whether or not the character unit CU1 glides from the hill 400. When the character unit CU1 glides from the hill 400 (step S83: YES), glide processing is performed in step S85. If NO in step S83 or if step S85 ends, the flowchart shown in FIG. 15 ends. Then, the control unit 190 executes the flowchart shown in FIG. 15 from the beginning each time the movement process of step S38 shown in FIG. 14 is executed, that is, while the drag operation is continued. However, when step S29 described later is completed, the process proceeds to step S42.

(移動処理の詳細:飛行中の接触処理)
続いて、キャラクタユニットCU1が飛行して移動する場合における、敵キャラクタとの接触処理について説明する。図16は、第二態様で動作するキャラクタユニットの接触処理を説明するフローチャートである。図16のフローチャートは、図14のステップS38の移動処理の一部であり、ドラッグ操作が継続されている状態における制御部190による処理を示すフローチャートである。
(Details of movement processing: contact processing during flight)
Next, the contact processing with the enemy character when the character unit CU1 flies and moves will be described. FIG. 16 is a flowchart illustrating a contact process of the character unit that operates in the second mode. The flowchart of FIG. 16 is a part of the movement processing of step S38 of FIG. 14, and is a flowchart showing processing by the control unit 190 in a state where the drag operation is continued.

ステップS60において、制御部190は、飛行フラグが「1」であるか否かを判定する。飛行フラグの更新については後述する。 In step S60, the control unit 190 determines whether the flight flag is "1". The update of the flight flag will be described later.

飛行フラグが「1」であると判定されると(ステップS60:YES)、ステップS62(衝突判定ステップの一例)において、制御部190は、飛行中のキャラクタユニットCU1が敵キャラクタと接触したか否かを判定する。制御部190は、キャラクタユニットCU1と敵キャラクタとのゲーム空間上の相対位置に基づいて、接触判定を行う。 When it is determined that the flight flag is "1" (step S60: YES), in step S62 (an example of a collision determination step), the control unit 190 determines whether or not the flying character unit CU1 contacts the enemy character. Determine whether. The control unit 190 makes a contact determination based on the relative position in the game space between the character unit CU1 and the enemy character.

飛行中のキャラクタユニットCU1が敵キャラクタと接触したと判定されると(ステップS62:YES)、ステップS64において、制御部190は、接触した敵キャラクタが雑魚キャラであるか否かを判定する。制御部190は、一例として、キャラクタユニットCU1のゲームパラメータと、接触した敵キャラクタとのゲームパラメータとを比較して雑魚キャラであるか否かを判定する。ゲームパラメータは、攻撃力、防御力、レベル、属性値、HPなどが採用される。比較対象は同種のゲームパラメータである必要はない。例えば、制御部190は、キャラクタユニットCU1の攻撃力と敵キャラクタの防御力との差分を算出し、閾値を用いて雑魚キャラであるか否かを判定してもよい。このような比較ルール(比較対象及び閾値)は、予め設定され、携帯端末10のゲーム情報152又はサーバ20のゲーム情報252に含まれている。あるいは、敵キャラクタに雑魚キャラの属性が予め設定されていてもよい。この場合、制御部190は、敵キャラクタの属性を判定することにより、接触した敵キャラクタが雑魚キャラであるか否かを判定する。 When it is determined that the flying character unit CU1 has contacted with the enemy character (step S62: YES), in step S64, the control unit 190 determines whether the contacted enemy character is a miscellaneous character. As an example, the control unit 190 compares the game parameter of the character unit CU1 with the game parameter of the contacted enemy character to determine whether or not it is a miscellaneous character. As the game parameters, the attack power, the defense power, the level, the attribute value, the HP, etc. are adopted. The comparison target does not have to be the same kind of game parameter. For example, the control unit 190 may calculate the difference between the attack power of the character unit CU1 and the defense power of the enemy character, and use a threshold value to determine whether or not the character is a miscellaneous character. Such a comparison rule (comparison target and threshold value) is set in advance and is included in the game information 152 of the mobile terminal 10 or the game information 252 of the server 20. Alternatively, the attribute of the miscellaneous fish character may be preset in the enemy character. In this case, the control unit 190 determines whether or not the contacted enemy character is a miscellaneous fish character by determining the attribute of the enemy character.

接触した敵キャラクタが雑魚キャラであると判定されると(ステップS64:YES)、ステップS66(減少ステップの一例)において、制御部190は、接触した敵キャラクタのゲームパラメータを減少させる。減少対象のゲームパラメータの一例はHPである(図12の画面例(B)に対応する)。なお、減少対象のゲームパラメータは、攻撃力、防御力、レベル、属性値などであってもよい。制御部190は、キャラクタユニットCU1のゲームパラメータと、接触した敵キャラクタとのゲームパラメータとを比較して、ゲームパラメータの減少量を決定する。比較対象は同種のゲームパラメータである必要はない。例えば、制御部190は、キャラクタユニットCU1の攻撃力と敵キャラクタの防御力との差分を算出し、差分に応じた減少量を決定してもよい。このような比較ルール(比較対象及び差分に対する比例係数)は、予め設定され、携帯端末10のゲーム情報152又はサーバ20のゲーム情報252に含まれている。そして、制御部190は、接触した敵キャラクタCA3を吹き飛ばす演出を行う(図12の画面例(B)に対応する)。 When it is determined that the contacted enemy character is a miscellaneous fish character (step S64: YES), in step S66 (an example of a reduction step), the control unit 190 decreases the game parameter of the contacted enemy character. An example of the game parameter to be reduced is HP (corresponding to the screen example (B) in FIG. 12). The game parameter to be reduced may be offensive power, defense power, level, attribute value, or the like. The control unit 190 compares the game parameter of the character unit CU1 with the game parameter of the contacted enemy character to determine the reduction amount of the game parameter. The comparison target does not have to be the same kind of game parameter. For example, the control unit 190 may calculate the difference between the attack power of the character unit CU1 and the defense power of the enemy character, and determine the amount of decrease according to the difference. Such a comparison rule (a proportional coefficient for the comparison target and the difference) is set in advance and is included in the game information 152 of the mobile terminal 10 or the game information 252 of the server 20. Then, the control unit 190 produces an effect of blowing off the contacted enemy character CA3 (corresponding to the screen example (B) in FIG. 12).

一方、接触した敵キャラクタが雑魚キャラでないと判定されると(ステップS64:NO)、ステップS68において、制御部190は、キャラクタユニットCU1が接触後に後退する動作(ノックバックモーション)をするように制御する(図13の画面例(B)に対応する)。ステップS69において、制御部190は、ボスに接触したことを示すボス判定フラグを「1」に設定する。 On the other hand, when it is determined that the contacted enemy character is not a miscellaneous character (step S64: NO), the control unit 190 controls the character unit CU1 to move backward (knock back motion) after the contact in step S68. (Corresponding to the screen example (B) in FIG. 13). In step S69, the control unit 190 sets the boss determination flag indicating that the boss has been contacted to "1".

飛行フラグが「1」でないと判定された場合(ステップS60:NO)、飛行中のキャラクタユニットCU1が敵キャラクタと接触していないと判定された場合(ステップS62:NO)、又は、ステップS66もしくはステップS69が終了した場合には、図16に示されるフローチャートは終了する。そして、制御部190は、図14に示されるステップS38の移動処理が実行されるたびに、つまり、ドラッグ操作が継続されている間は、図16に示されるフローチャートを最初から実行する。 When it is determined that the flight flag is not "1" (step S60: NO), when it is determined that the flying character unit CU1 is not in contact with the enemy character (step S62: NO), or step S66 or When step S69 ends, the flowchart illustrated in FIG. 16 ends. Then, the control unit 190 executes the flowchart shown in FIG. 16 from the beginning every time the moving process of step S38 shown in FIG. 14 is executed, that is, while the drag operation is continued.

(移動処理の詳細:飛行フラグの更新処理)
続いて、飛行フラグの更新処理について説明する。飛行フラグは、上述のとおり、飛行条件を満たしているか否かを示すフラグである。図17は、第一態様と第二態様とを切り替えるためのフラグ更新処理を説明するフローチャートである。図17のフローチャートは、図14のステップS38の移動処理の一部であり、ドラッグ操作が継続されている状態における制御部190による処理を示すフローチャートである。
(Details of movement processing: Flight flag update processing)
Next, the flight flag update process will be described. The flight flag is a flag indicating whether or not the flight condition is satisfied, as described above. FIG. 17 is a flowchart illustrating a flag update process for switching between the first mode and the second mode. The flowchart in FIG. 17 is a part of the movement processing in step S38 in FIG. 14, and is a flowchart illustrating processing by the control unit 190 in a state where the drag operation is continued.

ステップS70において、制御部190は、飛行フラグが「1」であるか否かを判定する。飛行フラグの更新は、本フローチャートにて実行される。 In step S70, the control unit 190 determines whether the flight flag is "1". The update of the flight flag is executed in this flowchart.

飛行フラグが「1」であると判定されると(ステップS70:YES)、ステップS72(終了判定ステップの一例)において、制御部190は、キャラクタユニットCU1が所定角度以上の方向転換をする入力操作が受け付けられたか否かを判定する(第一終了条件)。制御部190は、タッチスクリーン130の履歴情報を用いて、ドラッグ操作の角度変化量を検出する。そして、制御部190は、角度変化量と予め定められた閾値とを比較することにより、キャラクタユニットCU1が所定角度以上の方向転換をする入力操作が受け付けられたか否かを判定する。制御部190は、ドラッグ操作の所定時間内における操作方向の角度変化量が閾値以上の場合に、キャラクタユニットCU1が所定角度以上の方向転換をする入力操作が受け付けられたと判定する。 When it is determined that the flight flag is "1" (step S70: YES), in step S72 (an example of the end determination step), the control unit 190 causes the character unit CU1 to perform an input operation for changing the direction by a predetermined angle or more. Is accepted (first termination condition). The control unit 190 uses the history information of the touch screen 130 to detect the angle change amount of the drag operation. Then, the control unit 190 determines whether or not an input operation for turning the character unit CU1 by a predetermined angle or more has been accepted by comparing the amount of change in angle with a predetermined threshold value. The control unit 190 determines that the input operation for changing the direction of the character unit CU1 by a predetermined angle or more is accepted when the angle change amount of the operation direction within the predetermined time of the drag operation is equal to or more than a threshold value.

キャラクタユニットCU1が所定角度以上の方向転換をする入力操作が受け付けられていないと判定されると(ステップS72:NO)、ステップS74(終了判定ステップの一例)として、制御部190は、キャラクタユニットCU1が進行不可オブジェクトに所定角度以上の入射角度で衝突した状況であるか否かを判定する(第二終了条件)。制御部190は、キャラクタユニットCU1と進行不可オブジェクトとのゲーム空間上の相対位置に基づいて上記判定を行う。 When it is determined that the character unit CU1 has not received an input operation for changing the direction by a predetermined angle or more (step S72: NO), the control unit 190 determines that the character unit CU1 is step S74 (an example of an end determination step). Determines whether or not the vehicle has collided with the non-progressable object at an incident angle of a predetermined angle or more (second ending condition). The control unit 190 makes the above determination based on the relative position in the game space between the character unit CU1 and the non-progressable object.

キャラクタユニットCU1が進行不可オブジェクトに所定角度以上の入射角度で衝突した状況でないと判定されると(ステップS74:NO)、ステップS76(終了判定ステップの一例)として、制御部190は、ボス判定フラグが「1」であるか否かを判定する(第三終了条件)。 When it is determined that the character unit CU1 has not collided with the non-progressable object at an incident angle of a predetermined angle or more (step S74: NO), the control unit 190 determines that the boss determination flag is step S76 (an example of the end determination step). Is "1" (third end condition).

ボス判定フラグが「1」でないと判定された場合(ステップS76:NO)には、図17のフローチャートを終了する。つまり、第一終了条件、第二終了条件及び第三終了条件の何れも満たされていない場合には、飛行フラグは「1」のままである。このため、キャラクタユニットCU1は飛行による移動を継続する(図15参照)。 When it is determined that the boss determination flag is not "1" (step S76: NO), the flowchart of FIG. 17 is ended. That is, when none of the first ending condition, the second ending condition, and the third ending condition is satisfied, the flight flag remains "1". Therefore, the character unit CU1 continues to move by flight (see FIG. 15).

一方、キャラクタユニットCU1が所定角度以上の方向転換をする入力操作が受け付けられたと判定され場合(ステップS72:YES)、キャラクタユニットCU1が進行不可オブジェクトに所定角度以上の入射角度で衝突した状況であると判定された場合(S74:YES)、又は、ボス判定フラグが「1」であると判定された場合(ステップS76:YES)には、ステップS78として、制御部190は、飛行フラグを「1」から「0」、ボス判定フラグを「1」から「0」に更新し、図17のフローチャートを終了する。つまり、第一終了条件、第二終了条件及び第三終了条件の何れか1つの終了条件が満たされた場合には、飛行フラグは「1」から「0」に更新される。このため、キャラクタユニットCU1は飛行による移動を中断する(図15参照)。 On the other hand, when it is determined that the input operation for turning the character unit CU1 by a predetermined angle or more is accepted (step S72: YES), the character unit CU1 collides with the non-progressable object at an incident angle of a predetermined angle or more. If it is determined that the boss determination flag is “1” (S74: YES) (step S76: YES), the control unit 190 sets the flight flag to “1” as step S78. “0” and the boss determination flag are updated from “1” to “0”, and the flowchart in FIG. 17 ends. That is, when any one of the first ending condition, the second ending condition, and the third ending condition is satisfied, the flight flag is updated from "1" to "0". Therefore, the character unit CU1 suspends its movement by flight (see FIG. 15).

飛行フラグが「1」でないと判定されると(ステップS70:NO)、ステップS80において、制御部190は、キャラクタユニットを構成中であるか否かを判定する。制御部190は、例えば、ゲームキャラクタCA1が図9の画面例(A)に対応する状態の場合には「0」、ゲームキャラクタCA1が図9の画面例(B)に対応する状態の場合には「1」となるユニットフラグを参照して、キャラクタユニットを構成中であるか否かを判定する(第一条件)。制御部190は、キャラクタユニットの構成時又は解除時にユニットフラグを更新する。 When it is determined that the flight flag is not "1" (step S70: NO), in step S80, the control unit 190 determines whether or not the character unit is being configured. For example, when the game character CA1 is in a state corresponding to the screen example (A) of FIG. 9, the control unit 190 is “0”, and when the game character CA1 is in a state corresponding to the screen example (B) of FIG. Refers to the unit flag that is "1" to determine whether or not a character unit is being configured (first condition). The control unit 190 updates the unit flag when the character unit is constructed or released.

キャラクタユニットを構成中であると判定されると(ステップS80:YES)、ステップS82(操作判定ステップの一例)において、制御部190は、入力操作に攻撃操作が含まれているか否かを判定する(第一操作条件)。制御部190は、タッチスクリーン130の履歴情報を用いて、ゲームキャラクタCA1、ゲームキャラクタCA2又はキャラクタユニットCU1に攻撃させる攻撃操作が入力されたか否かを判定する。 When it is determined that the character unit is being configured (step S80: YES), in step S82 (an example of the operation determination step), the control unit 190 determines whether the input operation includes an attack operation. (First operating condition). The control unit 190 uses the history information of the touch screen 130 to determine whether or not an attack operation for attacking the game character CA1, the game character CA2, or the character unit CU1 has been input.

入力操作に攻撃操作が含まれていないと判定されると(ステップS82:NO)、ステップS84(操作判定ステップの一例)において、制御部190は、キャラクタユニットCU1が所定角度以上の方向転換をする入力操作が受け付けられたか否かを判定する(第二操作条件)。この判定は、ステップS72の第一終了条件の判定と同一である。 When it is determined that the input operation does not include the attack operation (step S82: NO), in step S84 (an example of the operation determination step), the control unit 190 changes the direction of the character unit CU1 by a predetermined angle or more. It is determined whether the input operation is accepted (second operation condition). This determination is the same as the determination of the first ending condition in step S72.

キャラクタユニットCU1が所定角度以上の方向転換をする入力操作が受け付けられていないと判定されると(ステップS84:NO)、ステップS86として、制御部190は、走行時間をカウントアップする。 When it is determined that the input operation for changing the direction of the character unit CU1 by the predetermined angle or more is not accepted (step S84: NO), the control unit 190 counts up the running time as step S86.

続いて、ステップS88(操作判定ステップの一例)において、制御部190は、カウント中の走行時間が閾値以上であるか否かを判定する(第三操作条件)。閾値は、予め定められた時間閾値であり、飛行前に必要な助走時間である。 Subsequently, in step S88 (an example of an operation determination step), the control unit 190 determines whether or not the running time during counting is equal to or more than a threshold value (third operation condition). The threshold value is a predetermined time threshold value, which is an approach time required before flight.

カウント中の走行時間が閾値以上であると判定されると(ステップS88:YES)、ステップS90として、制御部190は、飛行フラグを「0」から「1」に設定し、図17のフローチャートを終了する。つまり、第一条件、第一操作条件、第二操作条件及び第三操作条件の全てが満たされた場合には、飛行フラグが「0」から「1」に更新される。このため、キャラクタユニットCU1は走行状態(第一態様の一例)から飛行状態(第二態様の一例)へと遷移する(図15参照)。 When it is determined that the running time during counting is equal to or more than the threshold value (step S88: YES), the control unit 190 sets the flight flag from "0" to "1" in step S90, and the flowchart of FIG. finish. That is, when all of the first condition, the first operation condition, the second operation condition, and the third operation condition are satisfied, the flight flag is updated from "0" to "1". Therefore, the character unit CU1 transits from the running state (an example of the first aspect) to the flying state (an example of the second aspect) (see FIG. 15).

一方、キャラクタユニットを構成中でないと判定された場合(ステップS80:NO)、入力操作に攻撃操作が含まれていると判定された場合(ステップS82:YES)、キャラクタユニットCU1が所定角度以上の方向転換をする入力操作が受け付けられたと判定された場合(ステップS84:YES)には、ステップS92として、制御部190は、走行時間をリセットする。 On the other hand, if it is determined that the character unit is not being configured (step S80: NO), or if it is determined that the input operation includes an attack operation (step S82: YES), the character unit CU1 is at a predetermined angle or more. When it is determined that the input operation for changing the direction is accepted (step S84: YES), the control unit 190 resets the traveling time as step S92.

カウント中の走行時間が閾値以上でないと判定された場合(ステップS88:NO)、又は、ステップS92が終了した場合には、図17のフローチャートを終了する。つまり、飛行フラグは「0」のままである。このため、キャラクタユニットCU1は走行による移動を継続する(図15参照)。 When it is determined that the running time during counting is not equal to or more than the threshold value (step S88: NO), or when step S92 ends, the flowchart in FIG. 17 ends. That is, the flight flag remains “0”. Therefore, the character unit CU1 continues to move by running (see FIG. 15).

(移動処理の詳細:滑空処理)
図18(A)はキャラクタユニットCU1が高台400から飛び降りる瞬間の画像である。この状態においてユーザが移動操作(ドラッグ操作)を継続した場合には、図18(B)に示すように高台400から飛び降りて空中を滑空しながら落下する画像がタッチスクリーン130に表示される。図18(B)には、複数の敵キャラクタCA3が集まっている様子が表示されており、キャラクタユニットCU1が所定の落下速度以上でその敵キャラクタCA3が集まっている場所に着地することにより、複数の敵キャラクタCA3の体力値HPを後述する攻撃力の値だけ減算させることができる。そのために、ユーザは、後述する羽ばたき操作を行って敵キャラクタCA3が集まっている場所を目指してキャラクタユニットCU1を着地させようと試みるのであり、滑空するキャラクタユニットCU1を操る興趣を味わうことができる。例えば、キャラクタユニットCU1が所定の落下速度以上となった場合に、キャラクタユニットCU1に、衝突判定のためのコライダを設定することとしてもよい。このコライダと敵キャラクタCA3とが衝突している場合に、落下による攻撃が行われたとして、敵キャラクタCA3の体力値HPを減算させることができる。また、このコライダは、キャラクタユニットCU1が地面と接触したか、地面と一定距離以下まで落下したときに設定することとしてもよい。
(Details of movement processing: glide processing)
FIG. 18A is an image at the moment when the character unit CU1 jumps off the hill 400. When the user continues the moving operation (drag operation) in this state, an image in which the user jumps off the hill 400 and glides in the air while falling is displayed on the touch screen 130 as shown in FIG. 18B. FIG. 18B shows a state in which a plurality of enemy characters CA3 are gathered, and when the character unit CU1 lands at a place where the enemy characters CA3 are gathered at a predetermined drop speed or more, a plurality of enemy characters CA3 are gathered. The physical strength value HP of the enemy character CA3 can be subtracted by the value of the attack power described later. Therefore, the user attempts to land the character unit CU1 toward the place where the enemy characters CA3 are gathered by performing a flapping operation, which will be described later, and can enjoy the pleasure of manipulating the gliding character unit CU1. For example, when the character unit CU1 is at a predetermined drop speed or more, a collider for collision determination may be set in the character unit CU1. When the collider collides with the enemy character CA3, it is possible to subtract the physical strength value HP of the enemy character CA3, assuming that the attack is performed by falling. In addition, this collider may be set when the character unit CU1 comes into contact with the ground or drops to a predetermined distance or less from the ground.

図19は、キャラクタユニットCU1が空中を滑空しながら落下するときの軌跡の一例を説明するための図である。図19を参照し、高台400から飛び降りる瞬間の高さ(高度)即ち滑空開始時のグランドライン401からの高さ(高度)をSHとする。落下速度Vは、係数fに落下時間Tを乗じたf・Tとなる。水平速度は、高台400から飛び降りる瞬間の速度が持続されるために、キャラクタユニットCU1は、図19の軌跡に示すような放物線を描いて降下する。このような降下途中において、ユーザがドラッグ操作を行うことにより、ドラゴンが翼403を羽ばたかせて落下に抗する対抗モーションを行い、キャラクタユニットCU1は、図19に示すような上昇する軌跡を描く。羽ばたきにより上昇する上限高度は、滑空開始時の高さSHを越えないように制御される。また時間Tは、上昇軌跡の上限時点でリセットされて、再度0から計時される。よって、その上限位置から再び下降する放物線の軌跡を描く。時間Tは、上昇軌跡の上限時点でリセットされて再度0から計時されるため、「滑空中のキャラクタユニットCU1が羽ばたいていない状態の継続時間」と定義することができる。 FIG. 19 is a diagram for explaining an example of a trajectory when the character unit CU1 falls while gliding in the air. With reference to FIG. 19, the height (altitude) at the moment of jumping off the hill 400, that is, the height (altitude) from the ground line 401 at the start of gliding is SH. The falling speed V is f·T obtained by multiplying the coefficient f by the falling time T. Since the horizontal speed is the speed at the moment of jumping off the hill 400, the character unit CU1 descends while drawing a parabola as shown in the locus of FIG. When the user performs a drag operation during such a descent, the dragon flaps its wings 403 to perform a counter motion against the fall, and the character unit CU1 draws a rising trajectory as shown in FIG. The upper limit altitude that rises due to fluttering is controlled so as not to exceed the height SH at the start of gliding. Further, the time T is reset at the upper limit of the ascending locus and is counted from 0 again. Therefore, the trajectory of the parabola descending again from the upper limit position is drawn. Since the time T is reset at the upper limit of the ascending trajectory and is counted from 0 again, the time T can be defined as "the duration of time when the gliding character unit CU1 is not flapping".

その下降途中においても、ユーザが再度ドラッグ操作を行うことにより、ドラゴンは再び羽ばたき上昇軌跡を描く。2回目以降の羽ばたきにより上昇する上限高度は、前回の羽ばたきにより上昇した上限高度を越えないように制御される。また、羽ばたき直後においては、後述するように再度の羽ばたきが規制される。その結果、いくら羽ばたいたとしてもエンドレスに飛び続けることはできず必ずグランドライン401上にキャラクタユニットCU1が落下して着地することになる。これにより、シームレスなゲーム空間であるオープンワールド内を歩いたり滑空したりを繰り返しながら種々の場所に行きたいという動機付けをユーザに与えることができる。 Even during the descent, the user performs a drag operation again to draw the fluttering trajectory of the dragon again. The upper limit altitude that is raised by the second flapping and flapping is controlled so as not to exceed the upper limit altitude that was raised by the previous flapping. Immediately after flapping, flapping is restricted again as described later. As a result, no matter how much the wing may fly, it cannot continue to fly endlessly, and the character unit CU1 always drops on the ground line 401 and lands. As a result, the user can be motivated to go to various places while repeatedly walking and gliding in the open game space, which is a seamless game space.

グランドライン401上にキャラクタユニットCU1が落下して着地したときに、その着地時における落下速度に基づいて攻撃力を特定し(落下速度が速いほど大きな攻撃力を特定)、落下位置近辺に位置(落下位置から所定範囲内に位置)する複数の敵キャラクタCA3の体力値HPから特定した攻撃力の値だけ減算させて、敵キャラクタCA3にダメージを与えることができる。 When the character unit CU1 falls on the ground line 401 and lands, the attack force is specified based on the drop speed at the time of landing (the higher the drop speed, the larger the attack force is specified), and the position near the drop position ( It is possible to damage the enemy character CA3 by subtracting only the specified attack force value from the physical strength values HP of the plurality of enemy characters CA3 located within the predetermined range from the drop position).

図20は、滑空中のキャラクタユニットCU1の滑空方向と翼403(翼部)の角度及び仮想カメラVCの角度を示す図である。図20(A)は、落下速度Vが比較的小さい状態を示しており、翼403の水平方向(破線)に対する角度θwが係数wと落下速度Vとの積w・Vであり、仮想カメラVCの水平方向(破線)に対する角度θcが係数cと落下速度Vとの積c・Vとなっている。 FIG. 20 is a diagram showing the glide direction of the character unit CU1 while gliding, the angle of the wing 403 (wing portion), and the angle of the virtual camera VC. FIG. 20A shows a state in which the falling velocity V is relatively small, and the angle θw of the wing 403 with respect to the horizontal direction (broken line) is the product w·V of the coefficient w and the falling velocity V, and the virtual camera VC The angle θc with respect to the horizontal direction (broken line) is the product c·V of the coefficient c and the falling velocity V.

一方、落下速度Vが比較的大きいときには、翼角度θw及びカメラ角度θcも大きな角度となる。その状態を図20(B)に示している。その結果、仮想カメラVCは、滑空するキャラクタユニットCU1を追尾する方向からキャラクタユニットCU1を撮影して映像をディスプレイ132に表示することになる。図20(A)(B)においては、カメラ角度θcとキャラクタユニットCU1の滑空方向GDとが一致しているが、必ずしも一致していなくてもよい。例えば、滑空中のキャラクタユニットCU1が翼403を羽ばたかせたときに上昇するが、その上昇時に下方斜め下から仮想カメラVCキャラクタユニットCU1を撮影するのではなく、水平方向から撮影してもよい。つまり、「追尾する方向」とは、キャラクタユニットCU1の滑空方向GDと必ずしも一致しなくてもよい。また、キャラクタユニットCU1が羽ばたいていない状態の継続時間をTとすると、V=f・Tのため、翼角度θw=c・f・Tとなり、Tの経過とともに翼角度θwが大きくなる。つまり、オブジェクト(キャラクタユニットCU1)は、対抗モーション(羽ばたき)が実行されていない未実行状態の継続時間Tに応じてオブジェクトの態様を変化させる(翼403が立姿勢に変化させる)変化モーションを行う。 On the other hand, when the falling velocity V is relatively high, the blade angle θw and the camera angle θc are also large. The state is shown in FIG. As a result, the virtual camera VC captures the character unit CU1 from the direction in which the glideable character unit CU1 is tracked, and displays an image on the display 132. In FIGS. 20A and 20B, the camera angle θc and the glide direction GD of the character unit CU1 match, but they do not necessarily have to match. For example, although the character unit CU1 in the gliding moves up when the wings 403 are flapped, the virtual camera VC character unit CU1 may be imaged from the horizontal direction instead of shooting from the diagonally downward direction at the time of the ascent. That is, the “tracking direction” does not necessarily have to match the glide direction GD of the character unit CU1. Further, assuming that the duration of the state in which the character unit CU1 is not fluttering is T, since V=f·T, the wing angle θw=c·f·T, and the wing angle θw increases with the elapse of T. That is, the object (character unit CU1) performs a change motion that changes the mode of the object (changes the wing 403 to the standing posture) according to the duration time T of the unexecuted state in which the counter motion (flapping) is not executed. ..

次に、図21を参照して、前述のステップS85に示した滑空処理のサブルーチンプログラムのフローチャートを説明する。滑空処理の制御は、キャラクタユニットCU1が第一態様(飛行フラグ=0の走行状態)及び第二態様(飛行フラグ=1の飛行状態)の何れにおいても実行される。なお、キャラクタユニットCU1が第二態様(飛行フラグ=1の飛行状態)の場合のみ滑空処理の制御が行われるようにし、第一態様(飛行フラグ=0の走行状態)の場合には滑空処理の制御が行われないようにしてもよい。具体的には、第一態様(飛行フラグ=0の走行状態)のキャラクタユニットCU1が高台400から飛び降りる直前で走行を停止するなどの制御を行う。 Next, with reference to FIG. 21, a flow chart of the glide processing subroutine program shown in step S85 will be described. The control of the glide process is executed in both the first mode (running state of flight flag=0) and the second mode (flying state of flight flag=1) of the character unit CU1. Note that the glide process is controlled only when the character unit CU1 is in the second mode (flight flag=1 flight state), and in the first mode (flight flag=0 running state), the glide process is performed. The control may not be performed. Specifically, control such as stopping traveling immediately before the character unit CU1 in the first mode (running state with flight flag=0) jumps off the hill 400 is performed.

ステップS1において、滑空開始時の高さ=SHとし、次にステップS3において、滑空時間Tをカウントアップする。次にステップS5において、落下速度V=f・Tとし、ステップS7において、カメラ角度θc=c・Vとし、ステップS9において、翼角度θw=w・Vとする。滑空開始時の水平速度を維持しつつステップS5により算出された落下速度Vで落下するキャラクタユニットCU1は、翼403がステップS9により算出された翼角度θwとなっており、その落下中のキャラクタユニットCU1をステップS7により算出されたカメラ角度θcから見た映像がディスプレイ132に表示される。 In step S1, the height at the start of gliding is set to SH, and then in step S3, the gliding time T is counted up. Next, in step S5, the falling velocity V=f·T, in step S7 the camera angle θc=c·V, and in step S9 the blade angle θw=w·V. In the character unit CU1 that drops at the drop speed V calculated in step S5 while maintaining the horizontal speed at the start of gliding, the wing 403 has the wing angle θw calculated in step S9, and the character unit in the fall. An image of the CU1 viewed from the camera angle θc calculated in step S7 is displayed on the display 132.

次にステップS11において、羽ばたきフラグ=1であるか否か判定する。翼403の角度θwが羽ばたきを許容する許容角度未満の段階でユーザがドラッグ操作を行った場合には、すぐには羽ばたき動作が行われず、翼403の角度θwが許容角度以上に達するまで待って羽ばたき動作が行われる。このような許容角度未満の段階で羽ばたき操作(ドラッグ操作)が行われた場合の羽ばたき動作の予約を受け付けたことの記憶を、ステップS11の羽ばたきフラグで行う。羽ばたき動作の予約を受け付けた場合に、羽ばたきフラグの値として「1」が設定される。 Next, in step S11, it is determined whether or not the flapping flag=1. If the user performs a drag operation at a stage where the angle θw of the wing 403 is less than the allowable angle for flapping, the flapping operation is not performed immediately, and wait until the angle θw of the wing 403 reaches the allowable angle or more. The flapping motion is performed. The fluttering flag in step S11 is used to store that the reservation for the fluttering operation has been accepted when the fluttering operation (drag operation) is performed at a stage less than the allowable angle. When the fluttering operation reservation is received, "1" is set as the value of the fluttering flag.

羽ばたき動作の予約を受け付けていない場合(ステップS11:NO)、ステップS13において、羽ばたき操作(ドラッグ操作)があったか否か判定する。羽ばたき操作がない場合(ステップS13:NO)、ステップS15においてキャラクタユニットCU1がグランドライン401に着地したか否か判定し、未だに着地していない場合には(ステップS15:NO)ステップS3に移行する。 When the fluttering operation reservation has not been received (step S11: NO), it is determined in step S13 whether or not a fluttering operation (drag operation) has been performed. If there is no flapping operation (step S13: NO), it is determined in step S15 whether or not the character unit CU1 has landed on the ground line 401, and if it has not landed yet (step S15: NO), the process proceeds to step S3. ..

ステップS1→S3→S5→S7→S9→S11→S13→S15→S3のループの巡回途中でユーザが羽ばたき操作(ドラッグ操作)を行った場合には(ステップS13:YES)、ステップS17において、翼の角度θwが許容角度以上であるか否か判定する。未だに許容角度に達していない場合には(ステップS17:NO)、ステップS19において、羽ばたきフラグ=1にし、ステップS3に移行する。 When the user performs a flapping operation (drag operation) while the user is fluttering (drag operation) while the loop of steps S1→S3→S5→S7→S9→S11→S13→S15→S3 is performed (step S13: YES), the wing is moved to step S17. It is determined whether the angle θw of is greater than or equal to the allowable angle. If the allowable angle has not been reached yet (step S17: NO), the flapping flag is set to 1 in step S19, and the process proceeds to step S3.

その結果、以降ステップS11によりYESと判定されることになるため、ステップS3→S5→S7→S9→S11→S17→S19→S3のループを巡回することになる。ループの巡回途中において、滑空時間Tがカウントアップされて(ステップS3)落下速度Vが速くなり、それに伴ってカメラ角度θc及び翼角度θwが大きくなる。翼角度θwが許容角度以上になった段階でステップS17によりYESと判定され、図22のステップS35へ移行する。許容角度≦θw=w・V=w・f・Tのため、T≧許容角度/w・fとなり、滑空中のキャラクタユニットCU1が羽ばたいていない状態の継続時間Tがw・f以上となったときに、ステップS17でYESと判定されることになる。 As a result, since YES is determined in step S11, the loop of steps S3→S5→S7→S9→S11→S17→S19→S3 is repeated. During the looping of the loop, the gliding time T is counted up (step S3) and the falling speed V is increased, and the camera angle θc and the blade angle θw are increased accordingly. When the blade angle θw exceeds the allowable angle, YES is determined in step S17, and the process proceeds to step S35 in FIG. Since allowable angle ≤ θw = w · V = w · f · T, T ≧ allowable angle / w · f, the duration T of the gliding character unit CU1 in the state of not flapping is w · f or more Sometimes, it will be determined as YES in step S17.

ステップS35において、キャラクタユニットCU1の現在高度=CHとし、ステップS37において、初回の羽ばたきか否か判定する。初回の羽ばたきの場合(ステップS37:YES)、ステップS39において、CH+r・θwが滑空開始時の高さSH以下であるか否か判定する。SH以下の場合(ステップS39:YES)ステップS41において、上昇幅UW=r・θwとする。これにより、ドラゴンCA2の羽ばたきによるキャラクタユニットCU1の上昇幅UWは、翼403の角度θwに係数rを乗じた値となり、翼403の角度θwが大きな角度である程、上昇幅UWが大きくなる。 In step S35, the current altitude of the character unit CU1 is set to CH, and in step S37, it is determined whether or not it is the first flapping. In the case of the first flapping (step S37: YES), it is determined in step S39 whether CH+r·θw is equal to or lower than the height SH at the start of gliding. When it is less than or equal to SH (step S39: YES), in step S41, the rising width UW=r·θw. As a result, the rising width UW of the character unit CU1 due to the flapping of the dragon CA2 becomes a value obtained by multiplying the angle θw of the wing 403 by a coefficient r, and the larger the angle θw of the wing 403, the larger the rising width UW.

一方、CH+r・θwが滑空開始時高さSHを越える場合には(ステップS39:NO)、ステップS43において、上昇幅UW=SH−CH−αとする。その結果、キャラクタユニットCU1は、滑空開始時高さSHよりもαだけ低い高さまで上昇することとなる。 On the other hand, if CH+r·θw exceeds the gliding start height SH (step S39: NO), then in step S43, the ascending width UW=SH-CH-α. As a result, the character unit CU1 rises to a height lower by α than the gliding start height SH.

次に、ステップS45においては、翼403を動かして羽ばたき動作を行い、キャラクタユニットCU1が上昇幅UWだけ上昇する。キャラクタユニットCU1が羽ばたいて上昇幅UWだけ上昇する映像がディスプレイ132に表示される。次にステップS47において、上限高度=CH+UWとする。これにより、次回の羽ばたきにおいては、ステップS47により設定された(CH+UW)が上限高度となる。 Next, in step S45, the wing 403 is moved to perform a flapping motion, and the character unit CU1 is lifted by the rising width UW. An image in which the character unit CU1 flapping and rising by the rising width UW is displayed on the display 132. Next, in step S47, the upper limit altitude is set to CH+UW. Thus, in the next flapping, (CH+UW) set in step S47 becomes the upper limit altitude.

次にステップS49において、羽ばたきフラグを0クリアし、ステップS51において、滑空時間Tをリセットして0から再度計時する状態としてステップS3へ移行する。 Next, in step S49, the fluttering flag is cleared to 0, and in step S51, the gliding time T is reset to reset the time from 0 and the process proceeds to step S3.

ユーザが2回目以降の羽ばたき操作(ドラッグ操作)を行なった場合には、前述と同様の処理が行われ、ステップS17によりYESと判定されることによりステップS35を経てステップS37によりNOと判定される。その結果、ステップS53へ進み、CH+r・θwが上限高度以下であるか否か判定する。上限高度とは、前述のステップS47により定義された(CH+UW)のことである。 When the user performs the flapping operation (drag operation) for the second time and thereafter, the same processing as described above is performed, and if YES is determined in step S17, NO is determined in step S37 through step S35. .. As a result, the process proceeds to step S53, and it is determined whether CH+r·θw is below the upper limit altitude. The upper limit altitude is (CH+UW) defined in step S47 described above.

CH+r・θwが上限高度以下の場合には(ステップS53:YES)、ステップS55において、上昇幅UW=r・θwとする。一方、CH+r・θwが上限高度を超える場合には(ステップS53:NO)、ステップS57において、上昇幅UW=上限高度CH−αとする。その結果、キャラクタユニットCU1は、上限高度よりもαだけ低い高さまで上昇する。ステップS57の処理の後ステップS45以降に移行する。 If CH+r.theta.w is less than or equal to the upper limit altitude (step S53: YES), the climb width UW=r.theta.w is set in step S55. On the other hand, when CH+r.theta.w exceeds the upper limit altitude (step S53: NO), the ascending range UW is set to the upper limit altitude CH-.alpha. in step S57. As a result, the character unit CU1 rises to a height lower by α than the upper limit altitude. After the process of step S57, the process proceeds to step S45 and thereafter.

キャラクタユニットCU1がグランドライン401に落下して着地した場合には(ステップS15:YES)、その映像がディスプレイ132に表示されると共に、ステップS21において、翼角度θwが攻撃角度以上であるか否か判定する。翼角度θwが攻撃角度未満の場合には攻撃判定が行われることなくステップS29において、羽ばたきフラグ、滑空時間T及び飛行フラグを0クリアして滑空処理が終了する。ステップS21における攻撃角度は、例えば60度などの予め定められた角度であるが、完全な立姿勢(90度)であってもよい。 When the character unit CU1 falls on the ground line 401 and lands (step S15: YES), the image is displayed on the display 132, and whether or not the wing angle θw is equal to or larger than the attack angle in step S21. judge. If the wing angle θw is less than the attack angle, the attack determination is not performed and the flapping flag, the gliding time T, and the flight flag are cleared to 0 in step S29, and the gliding process ends. The attack angle in step S21 is a predetermined angle such as 60 degrees, but may be a perfect standing posture (90 degrees).

一方、翼角度θwが攻撃角度以上の場合には(ステップS21:YES)、ステップS23において、攻撃半径R=b・Vとすると共に、攻撃力A=a・Vとする。よって、攻撃半径Rは、落下速度Vに係数bを乗じた値となり、落下速度が速いほど攻撃半径Rが大きくなる。攻撃力Aは、落下速度Vに係数aを乗じた値となり、落下速度が速いほど攻撃力Aが大きくなる。ステップS23により算出された攻撃半径RをキャラクタユニットCU1の着地点に表示してもよい。さらに、ステップS23をステップS9とS11との間に挿入して滑空処理中繰り返し攻撃半径Rを算出し、その算出結果の攻撃半径Rを現時点の攻撃半径としてゲームフィールド上(例えばグランドライン401上)に表示してもよい。次にステップS27において、攻撃半径Rのエリア内の敵キャラクタCA3の体力値HPを攻撃力Aで減算した値(HP−A=HP−a・V)にする。但し、攻撃力Aで減算した結果、負の値になる場合には0にする。そして、ステップS29に移行する。 On the other hand, when the wing angle θw is equal to or larger than the attack angle (step S21: YES), the attack radius R=b·V and the attack force A=a·V are set in step S23. Therefore, the attack radius R is a value obtained by multiplying the falling velocity V by the coefficient b, and the attack radius R increases as the falling velocity increases. The attack force A is a value obtained by multiplying the fall velocity V by a coefficient a, and the attack force A increases as the fall velocity increases. The attack radius R calculated in step S23 may be displayed at the landing point of the character unit CU1. Furthermore, step S23 is inserted between steps S9 and S11 to repeatedly calculate the attack radius R during the gliding process, and the calculated attack radius R is used as the current attack radius on the game field (for example, on the ground line 401). May be displayed in. Next, in step S27, the physical strength value HP of the enemy character CA3 within the area of the attack radius R is set to a value (HP-A=HP-a·V) obtained by subtracting the attack strength A. However, if a negative value is obtained as a result of subtraction with the attack force A, it is set to 0. Then, the process proceeds to step S29.

このように、攻撃半径Rおよび攻撃力Aは、着地時点の落下速度が速いほど大きくなる。このため、滑空の早い段階で羽ばたき操作(ドラッグ操作)を行った後は羽ばたき操作を行わないようにすることにより着地時点の落下速度を速めて攻撃半径Rを大きくすることができる。しかし、滑空の早い段階での羽ばたき操作の場合には、グランドライン401上の敵キャラクタCA3から離れた位置での羽ばたき操作となるため、敵キャラクタCA3上に正確に着地することが困難である。つまり、攻撃半径Rおよび攻撃力Aの大きさを狙った早い段階での羽ばたき操作は、ハイリスクハイリターンとなり、着地位置の正確性を狙った遅い段階での羽ばたき操作は、ローリスクローリタンとなり、ユーザの好みや操作テクニックに応じた選択が可能となる。 As described above, the attack radius R and the attack force A increase as the falling speed at the time of landing increases. Therefore, by not performing the flapping operation after performing the flapping operation (drag operation) at an early stage of gliding, the falling speed at the time of landing can be increased and the attack radius R can be increased. However, in the case of a flapping operation at an early stage of gliding, since the flapping operation is performed on the ground line 401 at a position away from the enemy character CA3, it is difficult to accurately land on the enemy character CA3. In other words, the flapping operation at an early stage aiming at the attack radius R and the attack force A is a high-risk high return, and the flapping operation at a late stage aiming at the accuracy of the landing position is a low-risk loritan. It is possible to select according to the user's preference and operation technique.

次に、滑空処理の変形例を図23に基づいて説明する。図23では、翼403の角度θwが許容角度に達していない段階で羽ばたき操作(ドラッグ操作)が行われた場合にはその羽ばたき操作(ドラッグ操作)を無効にして羽ばたき動作を行わない例について説明する。具体的には、図21のステップS11とS19とが削除されており、羽ばたき操作があった段階で(ステップS13:YES)翼角度θwが許容角度以上の場合(ステップS17:YES)のみ、ステップS35以降の羽ばたき動作に移行する。一方、翼角度θwが許容角度に達していない段階で羽ばたき操作(ドラッグ操作)が行われた場合にはステップS17でNOと判定され、ステップS63において、羽ばたき操作無効表示が行われる。無効表示は、例えば、「未だ翼角度θwが許容角度に達していないため、羽ばたくことができません」等のメッセージをタッチスクリーン130に表示する。なお、無効表示は、メッセージ表示に限らず、「!!!」などの画像を表示してもよく、キャラクタユニットCU1を所定の態様(首を振る等)で表示するものであってもよい。 Next, a modified example of the glide process will be described with reference to FIG. In FIG. 23, an example in which when the flapping operation (drag operation) is performed at a stage where the angle θw of the wing 403 has not reached the allowable angle, the flapping operation (drag operation) is invalidated and the flapping operation is not performed will be described. To do. Specifically, steps S11 and S19 of FIG. 21 are deleted, and only when the wing angle θw is equal to or more than the allowable angle (step S17: YES) at the stage when the flapping operation is performed (step S13: YES), The operation shifts to the flapping operation after S35. On the other hand, if the flapping operation (drag operation) is performed at a stage where the wing angle θw has not reached the allowable angle, NO is determined in step S17, and the flapping operation invalid display is performed in step S63. For the invalid display, for example, a message such as “I cannot fly the wing because the wing angle θw has not reached the allowable angle” is displayed on the touch screen 130. Note that the invalid display is not limited to the message display, and an image such as "!!" may be displayed, or the character unit CU1 may be displayed in a predetermined mode (such as shaking the head).

(移動処理のまとめ)
制御部190は、キャラクタユニットCU1が所定時間走行した場合、飛行させた状態で移動させる。つまり、制御部190は、ユーザがドラッグ操作をし続けるだけで、キャラクタ移動の操作が変更されるゲームを提供することができる。
(Summary of movement processing)
When the character unit CU1 travels for a predetermined time, the control unit 190 moves the character unit CU1 in a flying state. That is, the control unit 190 can provide a game in which the character movement operation is changed only by the user continuing the drag operation.

また、高台400から滑空する際には、翼403を羽ばたいたとしても、初回の羽ばたきの場合には滑空開始時の高さSHを越えて上昇することはなく、且つ、2回目以降の羽ばたきの場合には前回の羽ばたき時の上昇上限高度を越えて上昇することはない。このため、いくら羽ばたいたとしてもエンドレスに飛び続けることはできず必ずグランドライン401上にキャラクタユニットCU1が落下して着地することになる。これにより、シームレスなゲーム空間であるオープンワールド内を歩いたり滑空したりを繰り返しながら種々の場所に行きたいという動機付けをユーザに与えることができる。 Further, when gliding from the hill 400, even if the wing 403 flaps, it does not rise above the height SH at the start of gliding in the case of the first flapping, and the flapping of the second flapping or later. In this case, the altitude will not exceed the upper limit altitude of the previous flapping. For this reason, the character unit CU1 will always fall and land on the ground line 401 without being able to continue flying endlessly no matter how much it flaps. As a result, the user can be motivated to go to various places while repeatedly walking and gliding in the open game space, which is a seamless game space.

(変形例1)
第一態様の動作及び第二態様の動作は、移動動作に限定されるものではなく、例えば、攻撃操作であってもよい。
(Modification 1)
The operation of the first aspect and the operation of the second aspect are not limited to the moving operation, and may be an attack operation, for example.

(変形例2)
飛行中のキャラクタユニットCU1の動作として、翼を羽ばたかせる動作をランダムで追加してもよい。
(Modification 2)
As a motion of the character unit CU1 during flight, a motion of flapping its wings may be added at random.

(変形例3)
操作オブジェクト300は表示されなくてもよい。操作オブジェクト300の端部は変更されず、操作方向の起点だけ変更される場合であってもよい。
(Modification 3)
The operation object 300 may not be displayed. The end of the operation object 300 may not be changed and only the starting point of the operation direction may be changed.

(変形例4)
上述したゲーム処理の全てを携帯端末10又はサーバ20が単体で実行してもよい。
(Modification 4)
The mobile terminal 10 or the server 20 may independently execute all of the game processing described above.

(変形例5)
高台400から滑空するオブジェクトとしては、ユーザキャラクタCA1とドラゴンCA2とが関連付けられたキャラクタユニットCU1に限らず、例えば、飛行機、グライダー、パラグライダー、ドローン等の乗り物、人用の滑空スーツであるいわゆるムササビスーツ、気球や落下傘等、どのようなものであってもよい。
(Modification 5)
The object gliding from the hill 400 is not limited to the character unit CU1 in which the user character CA1 and the dragon CA2 are associated with each other. Any type such as a balloon or a parachute may be used.

(変形例6)
滑空時のオブジェクトの滑空軌跡は、必ずしも上昇しなくてもよく、羽ばたく等の落下対抗動作を行う対抗モーションにより落下速度を低速にするものでもよい。また、ユーザの操作に応じて滑空時のオブジェクトの落下速度を速めてもよい。
(Modification 6)
The glide trajectory of the object at the time of gliding does not necessarily have to rise, and the drop speed may be slowed by a counter motion such as flapping to perform a drop counter motion. Further, the falling speed of the object when gliding may be increased according to the operation of the user.

(変形例7)
対抗モーション(例えば羽ばたき)が実行されていない未実行状態の継続時間が未だ所定時間に達していないときに、前記対抗モーションの実行を規制する手段として、特定操作(例えば羽ばたき操作(ドラッグ操作))を行うための操作オブジェクト(例えばオブジェクト300)を表示しないことにより特定操作自体を行えないようにしてもよい。
(Modification 7)
A specific operation (for example, a flapping operation (drag operation)) as means for restricting the execution of the counter motion when the duration of the unexecuted state in which the counter motion (for example, flapping) is not executed has not reached the predetermined time. The specific operation itself may not be performed by not displaying the operation object (for example, the object 300) for performing.

(変形例8)
前述の実施形態では、滑空時の水平方向速度は、高台400から飛び降りる瞬間の速度が持続されるように制御したが、滑空時の水平方向速度を変化させるように制御してもよい。具体的には、例えば、対抗モーション(例えば羽ばたき)によって水平方向の速度が速くなったりまたは遅くなったりするように制御する。例えば、特定操作(例えば羽ばたき操作(ドラッグ操作))を複数種類用意し、ある種類の特定操作(下から上にドラッグ操作)を行えば水平方向の速度が速くなり、また他の種類の特定操作(上から下にドラッグ操作)を行えば水平方向の速度が遅くなるように制御してもよい。この場合に、行われた特定操作の種類に応じて、キャラクタユニットCU1の表示態様を異ならせるようにしてもよい。さらに、ユーザの操作(例えば図12(A)の操作)に応じて滑空中にオブジェクトの左右方向の向きを変更して滑空方向を左右方向に調整できるように制御してもよい。その場合には、仮想カメラVCの向きも変更されたオブジェクトの滑空方向に沿った向きに制御される。
(Modification 8)
In the above-described embodiment, the horizontal speed during gliding is controlled so that the speed at the moment of jumping off the hill 400 is maintained, but it may be controlled so as to change the horizontal speed during gliding. Specifically, for example, control is performed so that the speed in the horizontal direction increases or decreases due to a counter motion (for example, flapping). For example, if you prepare multiple types of specific operations (for example, flapping operation (drag operation)) and perform a certain type of specific operation (drag operation from bottom to top), the speed in the horizontal direction becomes faster, and other types of specific operation It is also possible to control so that the speed in the horizontal direction becomes slower by (drag operation from top to bottom). In this case, the display mode of the character unit CU1 may be changed according to the type of the specific operation performed. Further, the glide direction may be adjusted so that the glide direction can be adjusted to the left and right by changing the left and right direction of the object while gliding according to a user operation (for example, the operation of FIG. 12A). In that case, the orientation of the virtual camera VC is also controlled to the orientation along the glide direction of the changed object.

(変形例9)
前述の実施形態では、ステップS27により、滑空しているオブジェクトがグランドライン401に着地したときに攻撃半径R(=b・V)のエリア内の敵キャラクタの体力値HPを攻撃力Aで減算した値(HP−A=HP−a・V)にしていた(但し、攻撃力Aで減算した結果負の値になる場合には0にする)。しかし、これに代えて、着地点から遠ざかるほど敵キャラクタの体力値HPの減少量を少なくしてもよい。
(Modification 9)
In the above embodiment, the physical strength value HP of the enemy character within the area of the attack radius R (=b·V) is subtracted by the attack power A when the gliding object lands on the ground line 401 in step S27. The value (HP-A=HP-a·V) was set (however, if the result of subtraction with the attacking power A becomes a negative value, it is set to 0). However, instead of this, the amount of decrease in the physical strength value HP of the enemy character may be reduced as the distance from the landing point increases.

(変形例10)
図18(B)の滑空画面においては、所定の表示領域において滑空を開始してから現時点までの滑空軌跡(図19参照)を表示させるように制御してもよい。
(Modification 10)
In the glide screen of FIG. 18B, control may be performed so that the glide locus (see FIG. 19) from the start of gliding to the present time is displayed in a predetermined display area.

(変形例11)
前述の実施形態では、滑空中のキャラクタユニットCU1が羽ばたいていない状態の継続時間をTとすると、翼角度θw=c・f・Tとなり、Tの経過とともに翼角度θwが大きくなる。しかし、羽ばたいていない状態での翼角度θwを一定(例えば水平)に保つようにし、その状態で落下するようにしてもよい。
(Modification 11)
In the above-described embodiment, when the duration time of the gliding character unit CU1 in a state of not fluttering is T, the blade angle θw=c·f·T, and the blade angle θw increases with the passage of T. However, the blade angle θw may be kept constant (for example, horizontal) when the blade is not fluttering, and the blade may fall in that state.

(変形例12)
前述の実施形態では、タッチスクリーン130に対する入力操作に応じてオブジェクト(例えばキャラクタユニットCU1)の落下の態様を変化させる例について説明したが、入力操作はタッチスクリーンに対する操作に限らず、例えば十字ボタンやレバーに対する入力操作(上方向への操作等)や、ユーザから発せられてマイク170により収集された音声(例えば「羽ばたけ」「いまだ」等)に応じてオブジェクトの落下の態様を変化させるものであってもよい。
(Modification 12)
In the above-described embodiment, the example in which the falling mode of the object (for example, the character unit CU1) is changed according to the input operation on the touch screen 130 has been described. The mode of falling of an object is changed according to an input operation on the lever (upward operation or the like) or a voice emitted from a user and collected by the microphone 170 (for example, “flapping wings” or “Ima”). May be.

以上述べた実施形態では、以下の技術思想が開示されている。 In the embodiment described above, the following technical idea is disclosed.

ゲームの一例として、ユーザによる入力操作に応じて、キャラクタがゲームの仮想空間を移動したり、ゲームの仮想空間に配置された敵キャラクタと交戦したりするゲームがある。ユーザは、キャラクタを直接的に動かす(操作する)ことができる。このため、ユーザの思うままにキャラクタを動作させることにより、ユーザは、キャラクタとの一体感を感じることができる。また、ユーザは、ユーザ自身では到底できない動きをキャラクタにさせることにより、爽快感を得ることもできる。このため、キャラクタを直接的に動かすゲームにおいては、キャラクタの操作性が重要になる。 As an example of the game, there is a game in which a character moves in a virtual space of the game or engages with an enemy character arranged in the virtual space of the game according to an input operation by the user. The user can directly move (operate) the character. Therefore, by moving the character as the user wants, the user can feel a sense of unity with the character. In addition, the user can obtain a refreshing feeling by causing the character to make a motion that the user cannot do at all. Therefore, the operability of the character is important in the game in which the character is directly moved.

さらに、スマートフォンなどのタッチスクリーンを備える情報処理装置がゲームプログラムを実行する場合、タッチスクリーンにはゲームの画面が表示される。情報処理装置は、ゲームの画面上でユーザによる入力操作を受け付ける。ユーザによる入力操作には、タッチスクリーン上で指をドラッグさせる操作などが含まれる。ところで、タッチスクリーンは、操作ボタンなどを備えた一般的なコントローラと比べると入力操作のバリエーションが少ない。このため、キャラクタの操作(動き)に幅を出すことが難しく、上述した一体感や爽快感を得にくいという問題がある。本実施形態は、ユーザによる入力操作に応じてゲームのキャラクタを動作させるためにコンピュータによって実行される情報処理方法、情報処理装置、及び、情報処理プログラムに関連し、上述した課題の少なくとも1つを解決する。 Furthermore, when an information processing device including a touch screen such as a smartphone executes a game program, the screen of the game is displayed on the touch screen. The information processing device receives an input operation by the user on the screen of the game. The input operation by the user includes an operation of dragging a finger on the touch screen. By the way, the touch screen has less variation in input operation than a general controller including operation buttons and the like. Therefore, there is a problem in that it is difficult to give a wide range of operation (movement) to the character, and it is difficult to obtain the above-mentioned sense of unity and refreshing feeling. The present embodiment relates to an information processing method, an information processing apparatus, and an information processing program executed by a computer to move a game character according to an input operation by a user, and at least one of the above-mentioned problems is solved. Resolve.

具体的には、例えば以下のような事項として示される。 Specifically, for example, the following items are shown.

(事項1)
ユーザによる入力操作(一例として移動操作)に応じてゲームのキャラクタ(一例としてキャラクタユニットCU1)を動作(一例として移動)させるためにコンピュータによって実行される情報処理方法であって、
第一キャラクタ(一例としてゲームキャラクタCA1)と第二キャラクタ(一例としてゲームキャラクタCA2)とが関連付けられたキャラクタユニット(一例としてキャラクタユニットCU1)を構成する構成ステップ(一例としてステップS16)と、
前記ユーザによる入力操作に応じて前記キャラクタユニットを第一態様(一例として走行状態)で動作させる第一進行ステップ(一例としてステップS56)と、
前記キャラクタユニットを前記第一態様で動作させる前記ユーザによる入力操作が所定の操作条件(一例として第一操作条件、第二操作条件、又は、第三操作条件)を満たすか否かを判定する操作判定ステップ(一例としてステップS50,S82,S84,S86)と、
前記操作判定ステップにおいて前記ユーザによる入力操作が前記操作条件を満たすと判定された場合には、前記ユーザによる入力操作に応じて前記キャラクタユニットを第二態様で動作させる第二進行ステップ(一例としてステップS52)と、
を備える、情報処理方法。
(Matter 1)
An information processing method executed by a computer for causing a character of a game (character unit CU1 as an example) to move (moving as an example) in response to an input operation (moving operation as an example) by a user,
A configuration step (a step S16 as an example) that configures a character unit (a character unit CU1 as an example) in which a first character (a game character CA1 as an example) and a second character (a game character CA2 as an example) are associated with each other;
A first step of moving the character unit in a first mode (running state as an example) in response to an input operation by the user (step S56 as an example);
An operation for determining whether or not the input operation by the user operating the character unit in the first mode satisfies a predetermined operation condition (for example, the first operation condition, the second operation condition, or the third operation condition). A determination step (steps S50, S82, S84, S86 as an example),
When it is determined in the operation determination step that the input operation by the user satisfies the operation condition, a second proceeding step (a step as an example, which moves the character unit in a second mode in response to the input operation by the user) S52),
An information processing method comprising:

この情報処理方法によれば、キャラクタユニットを第一態様で動作させるユーザによる入力操作が所定の操作条件を満たしたときに、入力操作に応じて第一態様で動作するキャラクタユニットを第二態様で動作させることができる。このように、操作のバリエーションが増加するため、ゲーム性を向上させることができる。 According to this information processing method, when the input operation by the user who operates the character unit in the first mode satisfies a predetermined operation condition, the character unit which operates in the first mode in accordance with the input operation is operated in the second mode. Can be operated. In this way, the variety of operations is increased, so that the game property can be improved.

(事項2)
前記操作判定ステップでは、前記第一キャラクタ、前記第二キャラクタ又は前記キャラクタユニットに攻撃させる攻撃操作が入力されず、かつ、前記キャラクタユニットを前記第一態様で移動させる移動操作が所定時間以上継続して入力された場合に、前記ユーザによる入力操作が前記操作条件を満たすと判定する、事項1に記載の情報処理方法。
(Matter 2)
In the operation determination step, the attack operation for attacking the first character, the second character, or the character unit is not input, and the moving operation for moving the character unit in the first mode continues for a predetermined time or more. The information processing method according to item 1, wherein the input operation by the user is determined to satisfy the operation condition when the input is performed as follows.

この情報処理方法によれば、非戦闘状態で所定時間の間、第一態様でキャラクタユニットが移動した場合に、第二態様で動作する操作に切り替えることができる。このため、ユーザは簡単に操作モードを切り替えることができる。 According to this information processing method, when the character unit moves in the first mode for a predetermined time in the non-combat state, the operation can be switched to the operation in the second mode. Therefore, the user can easily switch the operation mode.

(事項3)
前記キャラクタユニットを前記第二態様で動作させる前記ユーザによる入力操作は、前記キャラクタユニットを前記第二態様で移動させる移動操作である、事項1又は2に記載の情報処理方法。
(Matter 3)
3. The information processing method according to item 1 or 2, wherein the input operation by the user who operates the character unit in the second mode is a moving operation that moves the character unit in the second mode.

この情報処理方法によれば、操作モードを切り替えた後も移動操作を継続することができる。 According to this information processing method, the moving operation can be continued even after the operation mode is switched.

(事項4)
前記キャラクタユニットの前記第二態様での移動中においては、操作方向に応じた角度で前記キャラクタユニットを傾斜させて表示させる、事項3に記載の情報処理方法。
(Matter 4)
4. The information processing method according to item 3, wherein the character unit is displayed while being tilted at an angle according to an operation direction while the character unit is moving in the second mode.

この情報処理方法によれば、ユーザは、キャラクタとの一体感を感じることができる。 According to this information processing method, the user can feel a sense of unity with the character.

(事項5)
前記第二態様で動作する前記キャラクタユニットと敵キャラクタとの衝突を判定する衝突判定ステップと、
前記衝突判定ステップにおいて前記衝突が判定された場合には前記敵キャラクタの第一パラメータを減少させる減少ステップと、
を備える、事項1〜4の何れか一項に記載の情報処理方法。
(Matter 5)
A collision determination step of determining a collision between the character unit operating in the second aspect and an enemy character,
A decreasing step of decreasing the first parameter of the enemy character when the collision is determined in the collision determining step,
The information processing method according to any one of Items 1 to 4, further comprising:

この情報処理方法によれば、キャラクタユニットを第二態様で動作させながら、敵キャラクタに対して攻撃や弱体化を行うことができる。 According to this information processing method, it is possible to attack or weaken the enemy character while operating the character unit in the second mode.

(事項6)
前記減少ステップでは、前記第一キャラクタ及び前記第二キャラクタの少なくとも一方のパラメータと、前記敵キャラクタのパラメータとの比較結果に基づいて、前記第一パラメータの減少量を決定する、事項5に記載の情報処理方法。
(Matter 6)
Item 6 wherein in the reducing step, a reduction amount of the first parameter is determined based on a result of comparison between a parameter of at least one of the first character and the second character and a parameter of the enemy character. Information processing method.

この情報処理方法によれば、ゲームキャラクタ及び敵キャラクタのパラメータに応じて、敵キャラクタに対する攻撃や弱体化の程度を変化させることができる。 According to this information processing method, the degree of attack or weakening of the enemy character can be changed according to the parameters of the game character and the enemy character.

(事項7)
前記第二進行ステップの実行中において、前記第二進行ステップの終了条件を満たすか否かを判定する終了判定ステップを備え、
前記第二進行ステップは、前記終了判定ステップにおいて前記第二進行ステップの前記終了条件が満たされたと判定された場合に終了する、事項3〜6の何れか一項に記載の情報処理方法。
(Matter 7)
During the execution of the second progress step, comprises an end determination step of determining whether the end condition of the second progress step is satisfied,
7. The information processing method according to any one of Items 3 to 6, wherein the second advancing step ends when it is determined in the end determination step that the end condition of the second advancing step is satisfied.

この情報処理方法によれば、キャラクタユニットが第二態様で動作する場面を制限することができる。 According to this information processing method, scenes in which the character unit operates in the second mode can be restricted.

(事項8)
前記終了判定ステップでは、前記第一キャラクタ及び前記第二キャラクタの少なくとも一方のパラメータと、前記敵キャラクタのパラメータとの比較結果に基づいて、前記第二進行ステップの前記終了条件が満たされたか否かを判定する、事項7に記載の情報処理方法。
(Matter 8)
In the end determination step, whether or not the end condition of the second progression step is satisfied based on the result of comparison between the parameter of at least one of the first character and the second character and the parameter of the enemy character. The information processing method according to item 7, for determining.

この情報処理方法によれば、キャラクタユニットが第二態様で動作する場面をゲームパラメータに関連付けて制限することができる。 According to this information processing method, the scene in which the character unit operates in the second mode can be restricted in association with the game parameter.

(事項9)
前記終了判定ステップでは、前記キャラクタユニットを前記第二態様で動作させる前記ユーザによる入力操作がドラッグ操作であり、かつ、前記ドラッグ操作の所定時間内における操作方向の角度変化量が閾値以上の場合には、前記第二進行ステップの前記終了条件が満たされたと判定する、事項7に記載の情報処理方法。
(Matter 9)
In the end determination step, when the input operation by the user who operates the character unit in the second mode is a drag operation, and the angle change amount of the operation direction within a predetermined time of the drag operation is equal to or more than a threshold value. Is the information processing method according to item 7, wherein it is determined that the ending condition of the second proceeding step is satisfied.

この情報処理方法によれば、キャラクタユニットが第二態様で動作する場面をドラッグ操作に関連付けて制限することができる。 According to this information processing method, the scene in which the character unit operates in the second mode can be restricted in association with the drag operation.

(事項10)
前記構成ステップの実行前において、前記ユーザによる入力操作に応じて前記第一キャラクタを動作させる動作ステップを備える、事項1〜9の何れか一項に記載の情報処理方法。
(Matter 10)
10. The information processing method according to any one of Items 1 to 9, further comprising an operation step of causing the first character to move in response to an input operation by the user before executing the configuration step.

この情報処理方法によれば、キャラクタユニットを構成する前のゲームキャラクタを動作させることができる。 According to this information processing method, the game character before forming the character unit can be operated.

(事項11)
事項1〜10の何れか一項に記載の方法をコンピュータに実行させる、プログラム。
(Matter 11)
A program that causes a computer to execute the method according to any one of Items 1 to 10.

(事項12)
メモリと、
前記メモリに結合されたプロセッサとを備え、
前記プロセッサの制御により事項1〜10の何れか一項に記載の方法を実行する、装置。
(Matter 12)
Memory and
A processor coupled to the memory,
An apparatus for performing the method according to any one of Items 1 to 10 under the control of the processor.

以上、本開示の実施形態について説明したが、本開示の技術的範囲は、本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲の記載事項に基づいて、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本開示の技術的範囲は、特許請求の範囲の記載事項及びその均等の範囲に基づいて定められるべきである。 Although the embodiment of the present disclosure has been described above, the technical scope of the present disclosure should not be limitedly interpreted by the description of the present embodiment. This embodiment is an example, and it is understood by those skilled in the art that various embodiments can be modified based on the matters described in the claims. The technical scope of the present disclosure should be determined based on the items described in the claims and their equivalent scope.

以上述べた実施形態では、さらに以下の技術思想が開示されている。 In the embodiments described above, the following technical ideas are further disclosed.

オープンワールドは、ゲームの舞台となる仮想のゲームフィールドをキャラクタが自由に移動できるシームレスなゲーム空間であり、どこまでも続くゲームフィールドを探検したいというユーザの好奇心を掻き立てることができる。このようなオープンワールドの性質を有効に利用してオープンワールドのフィールドを滑空したり歩いたりを繰り返しながら種々の場所に行きたいという動機付けをユーザに与えるためには、キャラクタユニットCU1の滑空をエンドレスに続けさせるわけにはいかず、必ずグランドライン401上にキャラクタユニットCU1を落下させる必要がある。しかし、キャラクタユニットCU1が滑空中にいくら連続して羽ばたいても飛び続けることができなければ水平飛行可能状態(図11(B))と矛盾する。そこで、連続した羽ばたきをできないように規制したうえで(図21のステップS11、S13およびS17、または、図22のステップS13、S17およびS63)、初回の羽ばたきによる上昇時には滑空開始時のグランドライン401からの高度SHを越えないようにし(ステップS39、S41、S43)、2回目以降の羽ばたきによる上昇時には前回の羽ばたきによる上昇上限高度を越えないようにした(ステップS53、S55、S57)。 The open world is a seamless game space in which a character can freely move in a virtual game field, which is the stage of the game, and can arouse the curiosity of the user who wants to explore the endless game field. In order to effectively motivate the user to go to various places while gliding and walking in the field of the open world by effectively utilizing the characteristics of the open world, the glide of the character unit CU1 is endless. The character unit CU1 must be dropped onto the ground line 401 without fail. However, if the character unit CU1 cannot continue flying no matter how many times the character unit CU1 flies continuously, it is inconsistent with the horizontal flight state (FIG. 11B). Therefore, after restricting continuous flapping (Steps S11, S13 and S17 in FIG. 21, or Steps S13, S17 and S63 in FIG. 22), the ground line 401 at the start of gliding at the time of ascending by the first flapping. The altitude SH is not exceeded (steps S39, S41, S43), and the second flare-up and subsequent flappings are prevented from exceeding the rising upper limit altitude due to the previous flapping (steps S53, S55, S57).

本開示の主題は、例えば以下のような項目として示される。 The subject matter of the present disclosure is presented as the following items, for example.

(項目1)
ユーザによるタッチスクリーン(例えば、タッチスクリーン130)への入力操作に応じてゲームを進行させるためにコンピュータ(例えば、携帯端末10およびサーバ20)によって実行される情報処理方法であって、
ゲーム用のオブジェクト(例えば、キャラクタユニットCU1、飛行機やグライダー、パラグライダー、ドローン等の乗り物、人用の滑空スーツであるいわゆるムササビスーツ、気球や落下傘等)が空中を飛んで落下する滑空画面を表示可能なステップ(例えば、ステップS85)を備え、
前記滑空画面を表示可能なステップは、前記ユーザの入力操作に応じて前記オブジェクトの落下の態様を変化させる(例えば、ステップS45での羽ばたくことによる上昇、落下速度の変化、水平速度の変化、滑空方向の左右への変化)、情報処理方法。
(Item 1)
An information processing method executed by a computer (for example, the mobile terminal 10 and the server 20) for advancing a game according to an input operation on a touch screen (for example, the touch screen 130) by a user,
It is possible to display gliding screens where game objects (for example, character unit CU1, vehicles such as airplanes and gliders, paragliders, drones, so-called flying squirrel suits, balloons and parasols) that are glide suits for humans fall in the air. Various steps (for example, step S85),
The step capable of displaying the gliding screen changes the manner of falling of the object according to the input operation of the user (for example, rising due to flapping in step S45, change in falling speed, change in horizontal speed, glide). Change of direction to left and right), information processing method.

この情報処理方法によれば、ゲーム性を高めることができる。 According to this information processing method, it is possible to improve the game.

(項目2)
前記滑空画面を表示可能なステップは、前記オブジェクトを追尾する方向から見た滑空画面を表示する(例えば、図20(A)(B)、ステップS7)、項目1に記載の情報処理方法。
(Item 2)
The information processing method according to item 1, wherein the step capable of displaying the gliding screen displays a gliding screen viewed from a direction in which the object is tracked (for example, step S7 in FIGS. 20A and 20B).

この情報処理方法によれば、ユーザがオブジェクトとの一体感を感じることができる。 According to this information processing method, the user can feel a sense of unity with the object.

(項目3)
前記滑空画面を表示可能なステップにより実行可能な前記オブジェクトのモーションは、ユーザの特定操作(例えば、操作オブジェクト300のドラッグ操作)に応じて落下に抗する動作を行う対抗モーション(例えば、翼403を羽ばたかせる羽ばたきモーション)を含み、
前記対抗モーションが実行されていない未実行状態の継続時間が未だ所定時間(例えば、許容角度/w・f)に達していないときに、前記対抗モーションの実行を規制するステップ(例えば、図21のステップS11、S13、S17およびS19、または、図23のステップS13、S17およびS63)をさらに備える、項目1または2に記載の情報処理方法。
(Item 3)
The motion of the object that can be executed by the step capable of displaying the gliding screen is a counter motion (for example, a wing 403 that performs an action against a drop according to a specific operation of the user (for example, a drag operation of the operation object 300)). Fluttering motion to flapping),
When the duration of the unexecuted state in which the counter motion is not executed has not reached the predetermined time (for example, the allowable angle/wf), the step of restricting the execution of the counter motion (for example, in FIG. 21). 23. The information processing method according to item 1 or 2, further comprising steps S11, S13, S17 and S19, or steps S13, S17 and S63 of FIG.

この情報処理方法によれば、対抗モーションが実行されていない未実行状態の継続時間が未だ所定時間に達していないもかかわらず対抗モーションを繰り返し実行することを規制できる。 According to this information processing method, it is possible to restrict the repeated execution of the counter motion even though the duration of the unexecuted state in which the counter motion is not executed has not reached the predetermined time.

(項目4)
前記滑空画面を表示可能なステップは、前記特定操作に応じた前記対抗モーションの実行が前記規制するステップにより規制されたときには(例えば、ステップS17でNO)、当該特定操作に応じた前記対抗モーションを前記未実行状態の継続時間が前記所定時間に達した後に実行する(例えば、Tが許容角度/w・fに達したときにステップS17でYESと判定されてステップS35に移行する)、項目3に記載の情報処理方法。
(Item 4)
The step capable of displaying the gliding screen is configured such that when execution of the counter motion according to the specific operation is restricted by the restricting step (for example, NO in step S17), the counter motion corresponding to the specific operation is displayed. Item 3 is executed after the duration of the unexecuted state reaches the predetermined time (for example, when T reaches the allowable angle/w·f, YES is determined in step S17 and the process proceeds to step S35). Information processing method described in.

この情報処理方法によれば、特定操作に応じた対抗モーションの実行が規制するステップにより規制された場合においても、当該特定操作に応じた対抗モーションを未実行状態の継続時間が所定時間に達した後に実行するために、特定操作が無視されることがない。 According to this information processing method, even when the execution of the counter motion according to the specific operation is restricted by the step of restricting, the duration of the non-execution state of the counter motion according to the specific operation reaches the predetermined time. Certain operations are not ignored for later execution.

(項目5)
前記滑空画面を表示可能なステップは、前記特定操作に応じた前記対抗モーションの実行が前記規制するステップにより規制されたときには(例えば、ステップSでNO)、当該特定操作に応じた前記対抗モーションを実行しない(例えば、ステップS63で羽ばたき操作無効表示がなされてステップS3へ移行する)、項目3に記載の情報処理方法。
(Item 5)
The step capable of displaying the gliding screen is such that when the execution of the counter motion according to the specific operation is restricted by the restricting step (for example, NO in step S), the counter motion corresponding to the specific operation is displayed. The information processing method according to item 3, which is not executed (for example, the flapping operation invalid display is made in step S63 and the process proceeds to step S3).

この情報処理方法によれば、対抗モーションが実行されていない未実行状態の継続時間が所定時間に達したか否かをユーザが学習して無駄な特定操作を行わないようになる。 According to this information processing method, the user learns whether or not the duration time of the unexecuted state in which the counter motion is not executed reaches the predetermined time, and the unnecessary specific operation is not performed.

(項目6)
前記滑空画面を表示可能なステップにより実行可能な前記オブジェクトのモーションは、前記未実行状態の継続時間に応じて当該オブジェクトの態様を変化させる変化モーション(例えば、翼403を立姿勢に変化させるモーション)を含み、
前記規制するステップは、前記変化モーション中における前記オブジェクトの態様が、前記未実行状態の継続時間が前記所定時間以上経過しているときの所定態様(例えば、翼角度θw≧許容角度)に未だ到達していないときに、前記対抗モーションの実行を規制する(例えば、ステップSでNO)、項目3〜5に記載の情報処理方法。
(Item 6)
The motion of the object that can be executed by the step of displaying the gliding screen is a change motion that changes the aspect of the object according to the duration of the unexecuted state (for example, a motion that changes the wing 403 to a standing posture). Including
In the step of regulating, the aspect of the object in the changing motion still reaches a predetermined aspect (for example, wing angle θw≧permissible angle) when the duration of the unexecuted state has passed the predetermined time or more. The information processing method according to items 3 to 5, wherein the execution of the counter motion is regulated when it is not performed (for example, NO in step S).

この情報処理方法によれば、ユーザが、未実行状態の継続時間が所定時間以上経過したか否かを、変化モーション中におけるオブジェクトの態様を通して把握することができる。 According to this information processing method, the user can grasp whether or not the duration of the unexecuted state has passed the predetermined time or longer through the mode of the object in the changing motion.

(項目7)
前記オブジェクトは、翼部(例えば、翼403)を有し、
前記対抗モーションは、翼部を羽ばたかせて上昇する羽ばたきモーション(例えば、ステップS45)であり、
前記変化モーションは、翼部が立姿勢に変化する立姿勢変化モーション(例えば、ステップS9)である、項目6に記載の情報処理方法。
(Item 7)
The object has wings (eg, wings 403),
The counter motion is a fluttering motion in which a wing flaps and rises (for example, step S45),
7. The information processing method according to item 6, wherein the change motion is an upright attitude change motion in which a wing changes to an upright attitude (for example, step S9).

この情報処理方法によれば、羽ばたきモーションと立姿勢変化モーションという直感的に分かりやすいモーションによりユーザに理解されやすい。 According to this information processing method, it is easy for the user to understand the motions such as the flapping motion and the standing posture change motion that are intuitively easy to understand.

(項目8)
前記ゲームは、前記オブジェクトが仮想のゲームフィールドを移動できるオープンワールドのゲーム空間を提供するゲームであり(例えば、オープンワールドデータ252D、ステップS67、S69)、
前記滑空画面を表示可能なステップは、前記羽ばたきモーションにより、前記滑空画面の開始時点に当該オブジェクトが位置していた前記ゲーム空間内における高度(例えば、図19のSH)を越えない範囲で前記オブジェクトを上昇させる(例えば、ステップS39、S41、S43)、項目7に記載の情報処理方法。
(Item 8)
The game is a game that provides an open world game space in which the object can move in a virtual game field (for example, open world data 252D, steps S67 and S69),
The step of displaying the gliding screen is performed by the fluttering motion in such a manner that the object does not exceed an altitude (for example, SH in FIG. 19) in the game space where the object was located at the start time of the gliding screen. Is increased (for example, steps S39, S41, S43), the information processing method according to item 7.

この情報処理方法によれば、シームレスなゲーム空間であるオープンワールド内を歩いたり滑空したりを繰り返しながら種々の場所に行きたいという動機付けをユーザに与えることができる。 According to this information processing method, the user can be motivated to go to various places while repeatedly walking or gliding in the open world, which is a seamless game space.

(項目9)
前記滑空画面を表示可能なステップは、前記滑空画面において前記羽ばたきモーションにより前記オブジェクトが所定高度まで上昇した後、次の羽ばたきモーションにより前記所定高度を越えない範囲で前記オブジェクトを上昇させる(例えば、ステップS53、S55、S57)、項目8に記載の情報処理方法。
(Item 9)
The step capable of displaying the gliding screen is such that after the object has risen to a predetermined altitude due to the flapping motion on the gliding screen, the object is lifted within a range not exceeding the predetermined altitude due to the next flapping motion (for example, step S53, S55, S57), the information processing method according to item 8.

この情報処理方法によれば、シームレスなゲーム空間であるオープンワールド内を歩いたり滑空したりを繰り返しながら種々の場所に行きたいという動機付けをユーザに与えることができる。 According to this information processing method, the user can be motivated to go to various places while repeatedly walking or gliding in the open world, which is a seamless game space.

(項目10)
前記滑空画面を表示可能なステップは、
前記滑空画面における前記オブジェクトの落下速度が第1の落下速度であるときよりも当該第1の落下速度よりも速い第2の落下速度であるときの方が、前記翼部の姿勢がより立姿勢となるように前記オブジェクトを表示し(例えば、ステップS9)、
前記羽ばたきモーションを行ったときの前記翼部の姿勢が第1の姿勢であるときよりも当該第1の姿勢よりも立姿勢となっている第2の姿勢であるときの方が、前記オブジェクトを大きく上昇させる(例えば、ステップS41、S55)、項目7〜9のいずれかに記載の情報処理方法。
(Item 10)
The steps capable of displaying the gliding screen are:
When the falling speed of the object on the gliding screen is the second falling speed which is higher than the first falling speed than when the falling speed is the first falling speed, the attitude of the wing portion is more upright. The object is displayed as follows (for example, step S9),
When the posture of the wing portion when the fluttering motion is performed is the second posture in which the wing portion is in the standing posture rather than the first posture, the object is The information processing method according to any one of items 7 to 9, which is greatly increased (for example, steps S41 and S55).

この情報処理方法によれば、翼の立姿勢の度合いと上昇幅とをユーザが学習して特定操作を行うタイミングを調整する面白さを提供できる。 According to this information processing method, it is possible to provide the fun of adjusting the timing when the user learns the degree of the standing posture and the rising width of the wing and performs the specific operation.

(項目11)
前記滑空画面における前記オブジェクトが着地するときの当該オブジェクトの態様に応じて(例えば、ステップS21)、当該着地点におけるキャラクタに対する攻撃力を特定するステップ(例えば、ステップS23、S27)をさらに備える、項目1〜10のいずれかに記載の情報処理方法。
(Item 11)
The item further includes a step (for example, steps S23 and S27) of specifying an attacking power to the character at the landing point according to a mode of the object on the gliding screen when the object lands (for example, step S21), The information processing method according to any one of 1 to 10.

この情報処理方法によれば、攻撃力を判定がオブジェクトの着地状態に基づいて行われる面白さを提供できる。 According to this information processing method, it is possible to provide the enjoyment in which the attack power is determined based on the landing state of the object.

(項目12)
項目1〜11のいずれか1項に記載の方法をコンピュータに実行させる、プログラム。
(Item 12)
A program that causes a computer to execute the method according to any one of Items 1 to 11.

(項目13)
メモリと、前記メモリに結合されたプロセッサとを備え、前記プロセッサの制御により項目1〜11のいずれか1項に記載の方法を実行する、装置。
(Item 13)
An apparatus comprising a memory and a processor coupled to the memory, and performing the method according to any one of items 1 to 11 under the control of the processor.

1…ゲーム提供システム、10…携帯端末、20…サーバ、25…メモリ、26…ストレージ、29…プロセッサ、130…タッチスクリーン、150…記憶部、151…ゲームプログラム、190…制御部、191…入力操作受付部、192…ゲーム進行処理部、193…移動方向検出部、194…カメラ配置制御部、195…オブジェクト制御部、196…表示制御部、220…通信部、250…記憶部、251…ゲームプログラム、290…制御部、291…送受信部、292…サーバ処理部、293…データ管理部、294…マッチング部、295…計測部、300…操作オブジェクト、400…高台、401…グランドライン、403…翼、CA1…ゲームキャラクタ(第一キャラクタの一例)、CA2…ゲームキャラクタ(第二キャラクタの一例)、CA3,CA4…敵キャラクタ。 DESCRIPTION OF SYMBOLS 1... Game providing system, 10... Portable terminal, 20... Server, 25... Memory, 26... Storage, 29... Processor, 130... Touch screen, 150... Storage part, 151... Game program, 190... Control part, 191... Input Operation reception unit, 192... Game progress processing unit, 193... Moving direction detection unit, 194... Camera placement control unit, 195... Object control unit, 196... Display control unit, 220... Communication unit, 250... Storage unit, 251... Game Program, 290... Control unit, 291,... Transmitting/receiving unit, 292... Server processing unit, 293... Data management unit, 294... Matching unit, 295... Measuring unit, 300... Operation object, 400... High ground, 401... Grand line, 403... Wings, CA1... Game character (one example of first character), CA2... Game character (one example of second character), CA3, CA4... Enemy character.

Claims (11)

ユーザによるタッチスクリーンへの入力操作に応じてゲームを進行させるためにコンピュータによって実行される情報処理方法であって、
ゲーム用のオブジェクトが空中を飛んでゲームフィールド上に落下するまでの画面であって前記オブジェクトを追尾する方向から見た滑空画面を表示可能なステップと、
前記滑空画面における前記オブジェクトがゲームフィールド上に着地するときの当該オブジェクトの落下速度に応じて、当該着地する地点におけるキャラクタに対する攻撃力を特定するステップとを備え、
前記特定するステップにより特定される攻撃力は、前記オブジェクトがゲームフィールド上に着地することにより当該ゲームフォールド上に配置されているキャラクタに対して攻撃を及ぼす攻撃範囲を含み
前記特定するステップは、前記滑空画面表示中においても前記オブジェクトの落下速度に応じた攻撃範囲を特定し、
前記滑空画面を表示可能なステップは、前記ユーザの前記タッチスクリーンへの入力操作に応じて前記オブジェクトの落下速度を変化させるとともに、前記オブジェクトの落下速度に応じて前記特定するステップにより特定される攻撃範囲を前記ゲームフィールド上に表示可能とする、情報処理方法。
An information processing method executed by a computer to progress a game in response to an input operation on a touch screen by a user,
A step of displaying a gliding screen viewed from the direction in which the object for the game flies in the air and falls on the game field and is tracked by the object ,
According to a falling speed of the object when the object on the glide screen lands on the game field, a step of specifying an attacking force to the character at the landing point,
The attack power specified by the specifying step includes an attack range that attacks the character arranged on the game fold when the object lands on the game field ,
The specifying step specifies an attack range according to the falling speed of the object even during the gliding screen display,
Step capable of displaying the glide screen is identified by the step of the identifying in accordance with the falling speed of the Rutotomoni changing the falling velocity of the object, the object in response to the input operation to the touch screen of the user An information processing method capable of displaying an attack range on the game field .
前記滑空画面を表示可能なステップにより実行可能な前記オブジェクトのモーションは、ユーザの特定操作に応じて落下に抗する動作を行って落下速度を低下させるための対抗モーションを含み、
前記対抗モーションが実行されていない未実行状態の継続時間が未だ所定時間に達していないときに、前記対抗モーションの実行を規制するステップをさらに備える、請求項1に記載の情報処理方法。
The motion executable said object by a displayable steps glide screen includes a counter motion to reduce the falling speed I row operations against falling depending on the particular operation of the user,
The information processing method according to claim 1, further comprising a step of restricting execution of the counter motion when the duration of the unexecuted state in which the counter motion is not executed has not yet reached a predetermined time.
前記滑空画面を表示可能なステップは、前記特定操作に応じた前記対抗モーションの実行が前記規制するステップにより規制されたときには、当該特定操作に応じた前記対抗モーションを前記未実行状態の継続時間が前記所定時間に達した後に実行する、請求項に記載の情報処理方法。 The step capable of displaying the gliding screen is such that, when the execution of the counter motion according to the specific operation is restricted by the step of restricting, the duration of the non-execution state of the counter motion according to the specific operation is The information processing method according to claim 2 , which is executed after the predetermined time is reached. 前記滑空画面を表示可能なステップは、前記特定操作に応じた前記対抗モーションの実行が前記規制するステップにより規制されたときには、当該特定操作に応じた前記対抗モーションを実行しない、請求項に記載の情報処理方法。 Capable of displaying the glide screen step, when the execution of the counter-motion in accordance with the specific operation is restricted by the step of regulating does not execute the counter motion in accordance with the specific operation, according to claim 2 Information processing method. 前記滑空画面を表示可能なステップにより実行可能な前記オブジェクトのモーションは、前記未実行状態の継続時間に応じて当該オブジェクトの態様を変化させる変化モーションを含み、
前記規制するステップは、前記変化モーション中における前記オブジェクトの態様が、前記未実行状態の継続時間が前記所定時間以上経過しているときの所定態様に未だ到達していないときに、前記対抗モーションの実行を規制する、請求項のいずれかに記載の情報処理方法。
The motion of the object that can be executed by the step capable of displaying the gliding screen includes a change motion that changes the mode of the object according to the duration of the unexecuted state,
In the step of restricting, when the mode of the object in the changing motion has not yet reached a predetermined mode when the duration of the unexecuted state has passed the predetermined time or more, regulating the execution, information processing method according to any one of claims 2-4.
前記オブジェクトは、翼部を有し、
前記対抗モーションは、翼部を羽ばたかせて上昇する羽ばたきモーションであり、
前記変化モーションは、落下方向とは逆方向に翼部が開いている翼角度が大きくなるように変化する翼角度変化モーションである、請求項に記載の情報処理方法。
The object has wings
The counter motion is a fluttering motion in which the wings flapping and rising.
The information processing method according to claim 5 , wherein the change motion is a wing angle change motion that changes so that a wing angle at which a wing portion opens in a direction opposite to a falling direction increases .
前記ゲームは、前記オブジェクトが前記ゲームフィールドを移動できるオープンワールドのゲーム空間を提供するゲームであり、
前記滑空画面を表示可能なステップは、前記羽ばたきモーションにより、前記滑空画面の開始時点に当該オブジェクトが位置していた前記ゲーム空間内における高度を越えない範囲で前記オブジェクトの高度前記羽ばたきモーション開始前よりも上昇させる、請求項に記載の情報処理方法。
The game is a game that provides a game space of the open world in which the object can move the game field,
The glide screen can display a step, by the flapping motion, the gliding screen at the start the object is before the flapping motion start altitude of the object in a range that does not exceed the height of the game space which was located in The information processing method according to claim 6 , further increasing the temperature.
前記滑空画面を表示可能なステップは、前記滑空画面において前記羽ばたきモーションにより前記オブジェクトの高度が所定高度まで上昇した後、次の羽ばたきモーションにより前記所定高度を越えない範囲で前記オブジェクトの高度当該次の羽ばたきモーション開始前よりも上昇させる、請求項に記載の情報処理方法。 Display possible steps the glide screen, after the altitude by the flapping motion in glide screen of the object is raised to a predetermined height, the next a high degree of the object to the extent that the following flapping motion does not exceed said predetermined altitude The information processing method according to claim 7 , wherein the fluttering motion is increased more than before the flapping motion is started . 前記滑空画面を表示可能なステップは、
前記滑空画面における前記オブジェクトの落下速度が第1の落下速度であるときよりも当該第1の落下速度よりも速い第2の落下速度であるときの方が、前記翼角度が大きくなるように前記オブジェクトを表示し、
前記羽ばたきモーションを行ったときの前記翼角度が第1の角度であるときには前記オブジェクトの高度を第1量上昇させるのに対し、前記羽ばたきモーションを行ったときの前記翼角度が前記第1の角度よりも大きい第2の角度であるときには前記オブジェクトの高度前記第1量よりも大きい第2量上昇させる、請求項6〜8のいずれかに記載の情報処理方法。
The steps capable of displaying the gliding screen are:
The wing angle is set to be larger when the falling speed of the object on the gliding screen is the second falling speed that is faster than the first falling speed than when the falling speed is the first falling speed. Display the object,
When the wing angle when the fluttering motion is performed is the first angle , the altitude of the object is increased by the first amount, whereas the wing angle when the fluttering motion is performed is the first amount . than when a second angle greater angle increases the second weight has a size than the first amount advanced of the object, information processing method according to any one of claims 6-8.
請求項1〜のいずれか1項に記載の方法をコンピュータに実行させる、プログラム。 To any one of claims 1-9 to perform the method according to the computer program. メモリと、前記メモリに結合されたプロセッサとを備え、前記プロセッサの制御により請求項1〜のいずれか1項に記載の方法を実行する、装置。 Comprising a memory and a processor coupled to the memory, to execute a method according to any one of claims 1 to 9 by the control of the processor, device.
JP2018089801A 2018-05-08 2018-05-08 Information processing method, apparatus, and program for causing computer to execute the information processing method Active JP6726230B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018089801A JP6726230B2 (en) 2018-05-08 2018-05-08 Information processing method, apparatus, and program for causing computer to execute the information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018089801A JP6726230B2 (en) 2018-05-08 2018-05-08 Information processing method, apparatus, and program for causing computer to execute the information processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020109612A Division JP2020163210A (en) 2020-06-25 2020-06-25 Information processing method, device and program for making computer execute information processing method

Publications (2)

Publication Number Publication Date
JP2019195399A JP2019195399A (en) 2019-11-14
JP6726230B2 true JP6726230B2 (en) 2020-07-22

Family

ID=68536922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018089801A Active JP6726230B2 (en) 2018-05-08 2018-05-08 Information processing method, apparatus, and program for causing computer to execute the information processing method

Country Status (1)

Country Link
JP (1) JP6726230B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6986538B2 (en) * 2018-11-22 2021-12-22 株式会社ユニバーサルエンターテインメント Pachinko machine
CN113144604B (en) * 2021-02-08 2024-05-10 网易(杭州)网络有限公司 Information processing method, device, equipment and storage medium for game roles
JP7482171B2 (en) 2022-06-13 2024-05-13 任天堂株式会社 GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME PROCESSING METHOD

Also Published As

Publication number Publication date
JP2019195399A (en) 2019-11-14

Similar Documents

Publication Publication Date Title
US9360933B2 (en) Virtual links between different displays to present a single virtual object
JP6726230B2 (en) Information processing method, apparatus, and program for causing computer to execute the information processing method
US10576382B2 (en) Golf game apparatus, storage medium, golf game system and golf game control method
CN105324736A (en) Techniques for touch and non-touch user interaction input
JP2002058868A (en) Computer-readable recording medium with ball game program recorded on it, program, and ball game processing device and method
JP2002058866A (en) Computer-readable recording medium with ball game program recorded on it, program, and ball game processing device and method
CN112402971B (en) Virtual object control method, device, computer equipment and storage medium
JP5481399B2 (en) GAME DEVICE AND GAME PROGRAM
JP2020163210A (en) Information processing method, device and program for making computer execute information processing method
JP6336168B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6265426B2 (en) GAME CONTROL DEVICE, GAME SYSTEM, AND PROGRAM
JP6281079B2 (en) GAME CONTROL DEVICE, GAME SYSTEM, AND PROGRAM
JP4205118B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP6948283B2 (en) An information processing method, a device, and a program for causing a computer to execute the information processing method.
CN113521734B (en) Flight control method and device in game
CN113082712B (en) Virtual character control method, device, computer equipment and storage medium
JP6714920B2 (en) Game control device, game system and program
JP6307651B1 (en) GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE
JP7191395B2 (en) GAME CONTROL DEVICE, GAME SYSTEM, AND PROGRAM
CN113521734A (en) Flight control method and device in game
WO2022130681A1 (en) Game system, program, and information processing method
WO2023160068A1 (en) Virtual subject control method and apparatus, device, and medium
JP6566403B2 (en) GAME CONTROL DEVICE, GAME SYSTEM, AND PROGRAM
JP6508658B2 (en) Game control device, game system and program
JP2006204877A (en) Game program and game device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200626

R150 Certificate of patent or registration of utility model

Ref document number: 6726230

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250