JP6225234B1 - GAME METHOD AND GAME PROGRAM - Google Patents

GAME METHOD AND GAME PROGRAM Download PDF

Info

Publication number
JP6225234B1
JP6225234B1 JP2016231354A JP2016231354A JP6225234B1 JP 6225234 B1 JP6225234 B1 JP 6225234B1 JP 2016231354 A JP2016231354 A JP 2016231354A JP 2016231354 A JP2016231354 A JP 2016231354A JP 6225234 B1 JP6225234 B1 JP 6225234B1
Authority
JP
Japan
Prior art keywords
mission
user
information
game
touch screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016231354A
Other languages
Japanese (ja)
Other versions
JP2018086159A (en
Inventor
夏葉 松原
夏葉 松原
一晃 須貝
一晃 須貝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2016231354A priority Critical patent/JP6225234B1/en
Application granted granted Critical
Publication of JP6225234B1 publication Critical patent/JP6225234B1/en
Publication of JP2018086159A publication Critical patent/JP2018086159A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】シームレスフィールドを採用したゲームであっても、ミッションを分かりやすく攻略できるゲーム方法を提供する。【解決手段】(a)仮想空間を規定する。(b)仮想空間に、所定のフィールドMFを形成する。(c)フィールドMFに、ミッションを選択するためのミッション選択領域60を配置する。(d)ミッション選択領域60においてユーザにより選択されたミッションと、選択されたミッションに関連付けられた対象キャラクタオブジェクト200とに関する第一の情報を、端末機器10あるいは端末機器10と通信可能な装置に実装されるメモリに記憶させる。(e)ユーザに関連付けられた第一のプレイヤオブジェクト100がフィールドMFの所定領域に配置されたときに、第一の情報に基づいて、対象キャラクタオブジェクト200の発生位置に関連付けられた第一の画像500をタッチスクリーン130に表示させる。【選択図】図11The present invention provides a game method capable of capturing a mission in an easy-to-understand manner even for a game employing a seamless field. (A) A virtual space is defined. (B) A predetermined field MF is formed in the virtual space. (C) A mission selection area 60 for selecting a mission is arranged in the field MF. (D) The first information related to the mission selected by the user in the mission selection area 60 and the target character object 200 associated with the selected mission is implemented in the terminal device 10 or a device capable of communicating with the terminal device 10. Stored in the memory. (E) The first image associated with the generation position of the target character object 200 based on the first information when the first player object 100 associated with the user is arranged in the predetermined area of the field MF. 500 is displayed on the touch screen 130. [Selection] Figure 11

Description

本発明は、ゲーム方法およびゲームプログラムに関する。   The present invention relates to a game method and a game program.

特許文献1には、各ゲームステージにおいて順次形成される複数のミッションをプレイヤキャラクタがクリアしてゆくゲームが開示されている。ユーザは、プレイヤキャラクタを操作して各ゲームステージでミッションを実行することにより、経験値を得ることができる。   Patent Document 1 discloses a game in which a player character clears a plurality of missions sequentially formed at each game stage. The user can obtain an experience value by operating the player character and executing a mission at each game stage.

特開2009−195685号公報JP 2009-195585 A

特許文献1に開示のゲームでは、各ゲームステージに移動する際には、対象のゲームステージを選択し、当該ゲームステージに関連付けられたゲーム空間へ移動する構成となっている。ところで、各ゲームステージやゲームステージを選択するためのステージが途切れなく(すなわち、シームレスに)連続している所謂「シームレスフィールド」を採用したゲームにおいては、ユーザは当該シームレスフィールド内のどこに行けば対象のミッションを達成できるのか、容易に把握することができない。   In the game disclosed in Patent Document 1, when moving to each game stage, a target game stage is selected and moved to a game space associated with the game stage. By the way, in a game employing a so-called “seamless field” in which each game stage and a stage for selecting a game stage are continuous (that is, seamlessly), the user can go anywhere within the seamless field. It is not easy to know if you can achieve the mission.

本開示は、シームレスフィールドを採用したゲームであっても、ミッションを分かりやすく攻略できるゲーム方法およびゲームプログラムを提供することを目的とする。   An object of the present disclosure is to provide a game method and a game program that can capture a mission in an easy-to-understand manner even for a game that employs a seamless field.

本開示に示す一実施形態によれば、ユーザの入力操作に従って、タッチスクリーンを含む端末機器で実行されるゲーム方法が提供される。当該ゲーム方法は、
(a)仮想空間を規定するステップと、
(b)前記仮想空間に、所定のフィールドを形成するステップと、
(c)前記所定のフィールドに、ミッションを選択するためのミッション選択領域を配置するステップと、
(d)前記ミッション選択領域においてユーザにより選択されたミッションと、選択された前記ミッションに関連付けられた対象キャラクタオブジェクトとに関する第一の情報を、前記端末機器あるいは前記端末機器と通信可能な装置に実装されるメモリに記憶させるステップと、
(e)前記ユーザに関連付けられた第一のプレイヤオブジェクトが前記所定のフィールドの所定領域に配置されたときに、前記第一の情報に基づいて、前記対象キャラクタオブジェクトの発生位置に関連付けられた第一の画像を前記タッチスクリーンに表示させるステップと、
を含む。
According to one embodiment shown in this indication, a game method performed with a terminal unit containing a touch screen according to a user's input operation is provided. The game method is
(A) defining a virtual space;
(B) forming a predetermined field in the virtual space;
(C) arranging a mission selection area for selecting a mission in the predetermined field;
(D) The first information regarding the mission selected by the user in the mission selection area and the target character object associated with the selected mission is mounted on the terminal device or a device capable of communicating with the terminal device. Storing in a memory to be
(E) When a first player object associated with the user is placed in a predetermined area of the predetermined field, the first player object associated with the generation position of the target character object is based on the first information. Displaying one image on the touch screen;
including.

また、本開示に示す一実施形態によれば、上記に記載のゲーム方法をコンピュータに実行させるためのゲームプログラムが提供される。   Moreover, according to one embodiment shown in this indication, a game program for making a computer perform the above-mentioned game methods is provided.

本開示によれば、シームレスフィールドを採用したゲームであっても、ミッションを分かりやすく攻略できるゲーム方法およびゲームプログラムを提供することができる。   According to the present disclosure, it is possible to provide a game method and a game program that can capture a mission in an easy-to-understand manner even for a game that employs a seamless field.

本実施形態に係るゲーム配信システムの構成例を示す図である。It is a figure which shows the structural example of the game delivery system which concerns on this embodiment. 本実施形態に係るユーザ端末の構成を示すブロック図である。It is a block diagram which shows the structure of the user terminal which concerns on this embodiment. 本実施形態に係るサーバの機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the server which concerns on this embodiment. 本実施形態に係るユーザ端末のタッチスクリーン上に表示されるゲームのゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen of the game displayed on the touch screen of the user terminal which concerns on this embodiment. 操作検出部が、ユーザの入力操作に応じてプレイヤキャラクタを移動させる方向を検出する処理を示す図である。It is a figure which shows the process in which an operation detection part detects the direction which moves a player character according to a user's input operation. (A)は、タッチスクリーン上に表示される操作オブジェクトの一例を示す図であり、(B)は操作オブジェクトが弾性変形した状態を示す図である。(A) is a figure which shows an example of the operation object displayed on a touch screen, (B) is a figure which shows the state which the operation object elastically deformed. 本実施形態におけるマルチプレイを実現するためのユーザ端末およびサーバの動作例について説明するフローチャートであるIt is a flowchart explaining the operation example of the user terminal and server for implement | achieving the multi play in this embodiment. ミッション対象キャラクタの発生位置に関する画像の表示処理について説明するフローチャートである。It is a flowchart explaining the display process of the image regarding the generation | occurrence | production position of a mission object character. 本実施形態に係るゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen which concerns on this embodiment. 本実施形態に係るゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen which concerns on this embodiment. 本実施形態に係るゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen which concerns on this embodiment. 本実施形態に係るゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen which concerns on this embodiment. ミッションボタンをユーザが選択した場合の処理について説明するフローチャートである。It is a flowchart explaining a process when a user selects a mission button. 本実施形態に係るゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen which concerns on this embodiment. 本実施形態に係るゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen which concerns on this embodiment. ミッション管理テーブルの一例を示す図である。It is a figure which shows an example of a mission management table.

[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)本開示の一実施形態に係るゲーム方法は、タッチスクリーンを含む端末機器で実行されるゲーム方法であって、
当該ゲーム方法は、
(a)仮想空間を規定するステップと、
(b)前記仮想空間に、所定のフィールドを形成するステップと、
(c)前記フィールドに、ミッションを選択するためのミッション選択領域を配置するステップと、
(d)前記ミッション選択領域においてユーザにより選択されたミッションと、選択された前記ミッションに関連付けられた対象キャラクタオブジェクトとに関する第一の情報を、前記端末機器あるいは前記端末機器と通信可能な装置に実装されるメモリに記憶させるステップと、
(e)前記ユーザに関連付けられた第一のプレイヤオブジェクトが前記フィールドの所定領域に配置されたときに、前記第一の情報に基づいて、前記対象キャラクタオブジェクトの発生位置に関連付けられた第一の画像を前記タッチスクリーンに表示させるステップと、
を含む。
[Description of Embodiments Presented by the Present Disclosure]
An overview of an embodiment indicated by the present disclosure will be described.
(1) A game method according to an embodiment of the present disclosure is a game method executed on a terminal device including a touch screen,
The game method is
(A) defining a virtual space;
(B) forming a predetermined field in the virtual space;
(C) arranging a mission selection area for selecting a mission in the field;
(D) The first information regarding the mission selected by the user in the mission selection area and the target character object associated with the selected mission is mounted on the terminal device or a device capable of communicating with the terminal device. Storing in a memory to be
(E) When a first player object associated with the user is placed in a predetermined area of the field, a first associated with the occurrence position of the target character object based on the first information Displaying an image on the touch screen;
including.

上記方法によれば、シームレスフィールドを採用したゲームであっても、ミッションを分かりやすく攻略することができる。   According to the above method, even in a game employing a seamless field, it is possible to capture the mission in an easy-to-understand manner.

(2)前記ステップ(e)において、前記タッチスクリーン内に前記発生位置が含まれていない場合と、前記タッチスクリーン内に前記発生位置が含まれている場合とで、前記第一の画像の表示態様を異ならせても良い。   (2) In the step (e), the first image is displayed when the generation position is not included in the touch screen and when the generation position is included in the touch screen. The aspect may be different.

上記方法によれば、タッチスクリーン内に対象キャラクタオブジェクトの発生位置が含まれたことを、ユーザに分かりやすく示すことができる。   According to the above method, the user can easily understand that the generation position of the target character object is included in the touch screen.

(3)前記フィールドは、各ゲームステージが連続的に形成され前記第一のプレイヤオブジェクトが前記フィールド内の上下方向および水平方向に移動可能な二次元フィールドであり、
前記ステップ(e)において、
前記タッチスクリーン内に前記発生位置が含まれていない場合には、前記水平方向における前記タッチスクリーンの端部に前記第一の画像を表示させ、
前記タッチスクリーン内に前記発生位置が含まれている場合には、前記上下方向における前記タッチスクリーンの端部に前記第一の画像を表示させても良い。
(3) The field is a two-dimensional field in which each game stage is continuously formed and the first player object can move in the vertical and horizontal directions in the field.
In step (e),
When the generation position is not included in the touch screen, the first image is displayed on the edge of the touch screen in the horizontal direction,
When the generation position is included in the touch screen, the first image may be displayed on an end portion of the touch screen in the vertical direction.

上記方法によれば、二次元フィールドが表示される画面上でのキャラクタオブジェクトの発生状況を、より分かりやすく示すことができる。   According to the above method, the occurrence state of the character object on the screen on which the two-dimensional field is displayed can be shown more easily.

(4)前記ステップ(d)において、前記第一のプレイヤオブジェクトの位置情報に関連する第二の情報をさらに前記メモリに記憶させ、
(f)前記ミッションに関連付けられた第二の画像を前記タッチスクリーンに表示させるステップと、
(g)前記ユーザが前記第二の画像を選択したときに、前記第二の情報と前記対象キャラクタオブジェクトの前記発生位置に関する情報とに基づいて、前記フィールドにおける前記第一のプレイヤオブジェクトと前記対象キャラクタオブジェクトとの位置関係を特定するための第三の画像を前記タッチスクリーンに表示させるステップと、
をさらに含んでも良い。
(4) In the step (d), second information related to the position information of the first player object is further stored in the memory,
(F) displaying a second image associated with the mission on the touch screen;
(G) When the user selects the second image, the first player object and the target in the field based on the second information and information on the generation position of the target character object Displaying a third image on the touch screen for specifying a positional relationship with the character object;
May further be included.

(5)(h)前記第三の画像に対する前記ユーザの操作により、所定のゲーム内価値と引き換えに、前記第一のプレイヤオブジェクトを、前記対象キャラクタオブジェクトが前記タッチスクリーン内に含まれる位置へと移動させるステップをさらに含んでも良い。   (5) (h) By the user's operation on the third image, the first player object is moved to a position where the target character object is included in the touch screen in exchange for a predetermined in-game value. It may further include a step of moving.

これらの方法によれば、ゲーム性を向上させることができる。   According to these methods, game performance can be improved.

(6)前記ステップ(d)において、前記ユーザとは異なるユーザに関連付けられた第二のプレイヤオブジェクトに関連する第三の情報を前記メモリに記憶させ、
前記ステップ(e)において、前記第三の情報に基づいて、前記第一の画像の表示態様を変化させても良い。
(6) In the step (d), third information related to a second player object associated with a user different from the user is stored in the memory,
In the step (e), the display mode of the first image may be changed based on the third information.

上記方法によれば、複数プレイヤが同時にプレイできるゲームにおいて、他プレイヤの状況を自プレイヤが認識することができ、ゲーム性を向上させることができる。   According to the above method, in a game that can be played by a plurality of players at the same time, the player can recognize the situation of the other player, and the game performance can be improved.

(7)前記第三の情報は、前記第二のプレイヤオブジェクトによる前記ミッションの選択状況および前記第二のプレイヤオブジェクトの現在位置の少なくともいずれかに関する情報を含んでも良い。   (7) The third information may include information on at least one of the mission selection status by the second player object and the current position of the second player object.

上記方法によれば、ミッション受注状況や対象キャラクタオブジェクトへの他者の接近状況についてユーザに分かりやすく示すことができる。   According to the above method, the mission order status and the approach status of others to the target character object can be easily shown to the user.

(8)本開示の一実施形態に係るプログラムは、上記(1)から(7)のいずれかに記載のゲーム方法をコンピュータに実行させるためのプログラムである。   (8) A program according to an embodiment of the present disclosure is a program for causing a computer to execute the game method according to any one of (1) to (7).

この構成によれば、シームレスフィールドを採用したゲームであっても、ミッションを分かりやすく攻略可能なプログラムを提供することができる。   According to this configuration, it is possible to provide a program in which a mission can be easily understood even in a game employing a seamless field.

[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。なお、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Presented by the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, about the member which has the same reference number as the member already demonstrated in description of this embodiment, the description is not repeated for convenience of explanation.

本実施形態において、ユーザは、例えばスマートフォンなどの、タッチスクリーンを搭載した情報処理装置を操作して、ゲームサーバと、スマートフォンとの間でゲームに関するデータを送受信しながらゲームを進行させる。ゲームは、ユーザが一人でプレイするシングルプレイと、ユーザが他のユーザとともにプレイするマルチプレイとに対応する。   In the present embodiment, a user operates an information processing apparatus equipped with a touch screen such as a smartphone, for example, and advances the game while transmitting and receiving data related to the game between the game server and the smartphone. The game corresponds to single play where the user plays alone and multi-play where the user plays with other users.

図1は、実施の形態のゲーム配信システム1の構成を示す図である。図1に示すように、ゲーム配信システム1は、ユーザが使用する情報処理装置と、サーバ20とを含み、これらの装置がネットワーク30によって互いに通信可能に接続されている。   FIG. 1 is a diagram illustrating a configuration of a game distribution system 1 according to the embodiment. As shown in FIG. 1, the game distribution system 1 includes an information processing device used by a user and a server 20, and these devices are connected to each other via a network 30 so as to communicate with each other.

図1の例では、ユーザが使用する情報処理装置として、ユーザ端末10A、ユーザ端末10Bおよびユーザ端末10C(以下、ユーザ端末10A、10B、10Cなどのユーザ端末を総称して「ユーザ端末10」と記載することもある)など複数の携帯端末を示している。ユーザ端末10Aとユーザ端末10Bとは、無線基地局31と通信することにより、ネットワーク30と接続する。ユーザ端末10Cは、家屋などの施設に設置される無線ルータ32と通信することにより、ネットワーク30と接続する。ユーザ端末10は、タッチスクリーンを備える携帯端末であり、例えば、スマートフォン、ファブレット、タブレットなどである。   In the example of FIG. 1, user terminals 10 </ b> A, 10 </ b> B, and 10 </ b> C (hereinafter referred to as user terminals 10 </ b> A, 10 </ b> B, 10 </ b> C) are collectively referred to as “user terminal 10” as information processing devices used by a user. A plurality of portable terminals are shown. The user terminal 10 </ b> A and the user terminal 10 </ b> B are connected to the network 30 by communicating with the radio base station 31. The user terminal 10C is connected to the network 30 by communicating with a wireless router 32 installed in a facility such as a house. The user terminal 10 is a mobile terminal that includes a touch screen, and is, for example, a smartphone, a fablet, a tablet, or the like.

ユーザ端末10は、ゲームプログラムを実行することにより、ゲームプログラムに応じたゲームをプレイする環境をユーザに対して提供する。ユーザ端末10は、例えば、アプリ等を配信するプラットフォームを介してゲームプログラムをインストールする。ユーザ端末10は、ユーザ端末10にインストールされたゲームプログラム、または、予めプリインストールされているゲームプログラムを実行することで、ユーザによるゲームのプレイを可能とする。ユーザ端末10は、ゲームプログラムを読み込んで実行することにより、サーバ20と通信し、ゲームの進行に応じてゲームに関連するデータをユーザ端末10とサーバ20との間で送受信する。   The user terminal 10 provides the user with an environment for playing a game according to the game program by executing the game program. For example, the user terminal 10 installs a game program via a platform that distributes applications and the like. The user terminal 10 enables a user to play a game by executing a game program installed in the user terminal 10 or a game program pre-installed in advance. The user terminal 10 communicates with the server 20 by reading and executing the game program, and transmits and receives data related to the game between the user terminal 10 and the server 20 as the game progresses.

サーバ20は、ゲームのプレイに必要なデータを、適宜、ユーザ端末10へ送信することで、ユーザ端末10でのゲームのプレイを進行させる。サーバ20は、ゲームをプレイする各ユーザの、ゲームに関連する各種データを管理する。サーバ20は、ユーザ端末10と通信し、各ユーザのゲームの進行に応じて、画像、音声、テキストデータその他のデータをユーザ端末10へ送信する。   The server 20 advances the game play on the user terminal 10 by appropriately transmitting data necessary for the game play to the user terminal 10. The server 20 manages various data related to the game of each user who plays the game. The server 20 communicates with the user terminal 10 and transmits images, sounds, text data, and other data to the user terminal 10 in accordance with the progress of each user's game.

ゲームプログラムは、ユーザがゲームをプレイするモードとして、一人のユーザがプレイする場合(シングルプレイ)と、複数人のユーザが協同してプレイする場合(マルチプレイ)とに対応している。例えば、ゲーム配信システム1において、サーバ20が、マルチプレイに参加するユーザを特定して各ユーザの各ユーザ端末10と通信すること等により、マルチプレイでゲームをプレイする環境を各ユーザに提供する。   The game program corresponds to a mode in which a user plays a game when a single user plays (single play) and when a plurality of users play in cooperation (multiplay). For example, in the game distribution system 1, the server 20 provides each user with an environment for playing a game in multiplayer by specifying a user participating in multiplay and communicating with each user terminal 10 of each user.

ゲーム配信システム1は、マルチプレイに対応することにより、例えば、アクションゲームであれば、ユーザ同士が協力してゲームを進行させること、または、ユーザ同士で対戦することなどを可能とする。   The game distribution system 1 is capable of supporting multi-play, for example, in the case of an action game, allowing the users to cooperate with each other to advance the game or play against each other.

図1に示すようにサーバ20は、ハードウェア構成として、通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備え、これらが通信バスを介して互いに接続されている。   As shown in FIG. 1, the server 20 includes a communication IF (Interface) 22, an input / output IF 23, a memory 25, a storage 26, and a processor 29 as hardware configurations, which are mutually connected via a communication bus. It is connected.

通信IF22は、例えばLAN(Local Area Network)規格など各種の通信規格に対応しており、ユーザ端末10など外部の通信機器との間でデータを送受信するためのインタフェースとして機能する。   The communication IF 22 corresponds to various communication standards such as a LAN (Local Area Network) standard, and functions as an interface for transmitting and receiving data to and from an external communication device such as the user terminal 10.

入出力IF23は、サーバ20への情報の入力を受け付けるとともに、サーバ20の外部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス、キーボード等の情報入力機器の接続を受け付ける入力受付部と、画像等を表示するためのディスプレイ等の情報出力機器の接続を受け付ける出力部とを含む。   The input / output IF 23 functions as an interface for receiving information input to the server 20 and outputting information to the outside of the server 20. The input / output IF 23 includes an input receiving unit that accepts connection of an information input device such as a mouse and a keyboard, and an output unit that accepts connection of an information output device such as a display for displaying an image or the like.

メモリ25は、処理に使用されるデータ等を記憶するための記憶装置である。メモリ25は、例えば、プロセッサ29が処理を行う際に一時的に使用するための作業領域をプロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置を含んで構成されている。   The memory 25 is a storage device for storing data used for processing. For example, the memory 25 provides the processor 29 with a work area for temporary use when the processor 29 performs processing. The memory 25 includes a storage device such as a ROM (Read Only Memory) and a RAM (Random Access Memory).

ストレージ26は、プロセッサ29が読み込んで実行するための各種プログラム及びデータを記憶するための記憶装置である。ストレージ26が記憶する情報は、ゲームプログラム、ゲームプログラムに関連する情報、ゲームプログラムをプレイするユーザの情報その他の情報を含む。ストレージ26は、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置を含んで構成されている。   The storage 26 is a storage device for storing various programs and data that the processor 29 reads and executes. The information stored in the storage 26 includes a game program, information related to the game program, information on a user who plays the game program, and other information. The storage 26 includes a storage device such as an HDD (Hard Disk Drive) and a flash memory.

プロセッサ29は、ストレージ26に記憶されるプログラム等を読み込んで実行することにより、サーバ20の動作を制御する。プロセッサ29は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等を含んで構成される。   The processor 29 controls the operation of the server 20 by reading and executing a program or the like stored in the storage 26. The processor 29 includes, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and the like.

図2は、ユーザ端末10の構成を示すブロック図である。図2に示すように、ユーザ端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン130と、入出力IF140と、記憶部150と、音声処理部160と、マイク170と、スピーカ180と、制御部190とを含む。   FIG. 2 is a block diagram illustrating a configuration of the user terminal 10. As shown in FIG. 2, the user terminal 10 includes an antenna 110, a wireless communication IF 120, a touch screen 130, an input / output IF 140, a storage unit 150, a sound processing unit 160, a microphone 170, a speaker 180, And a control unit 190.

アンテナ110は、ユーザ端末10が発する信号を電波として空間へ放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ与える。   The antenna 110 radiates a signal emitted from the user terminal 10 to space as a radio wave. Further, the antenna 110 receives radio waves from the space and gives a received signal to the wireless communication IF 120.

無線通信IF120は、ユーザ端末10が他の通信機器と通信するため、アンテナ110等を介して信号を送受信するための変復調処理などを行う。無線通信IF120は、チューナー、高周波回路などを含む無線通信用の通信モジュールであり、ユーザ端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。   The wireless communication IF 120 performs modulation / demodulation processing for transmitting and receiving signals via the antenna 110 and the like so that the user terminal 10 communicates with other communication devices. The wireless communication IF 120 is a communication module for wireless communication including a tuner, a high frequency circuit, and the like, performs modulation / demodulation and frequency conversion of a wireless signal transmitted / received by the user terminal 10, and provides a received signal to the control unit 190.

タッチスクリーン130は、ユーザからの入力を受け付けて、ユーザに対し情報をディスプレイ132に出力する。タッチスクリーン130は、ユーザの入力操作を受け付けるためのタッチパネル131と、メニュー画面やゲームの進行を画面に表示するためのディスプレイ132と、を含む。タッチパネル131は、例えば静電容量方式のものを用いることによって、ユーザの指などが接近したことを検出する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)、有機EL(electroluminescence)その他の表示装置によって実現される。   The touch screen 130 receives an input from the user and outputs information to the display 132 to the user. The touch screen 130 includes a touch panel 131 for receiving a user input operation and a display 132 for displaying a menu screen or a game progress on the screen. The touch panel 131 detects that the user's finger or the like has approached by using, for example, a capacitive type. The display 132 is realized by a display device such as an LCD (Liquid Crystal Display), an organic EL (electroluminescence), or the like.

入出力IF140は、ユーザ端末10への情報の入力を受け付けるとともに、ユーザ端末10の外部へ情報を出力するためのインタフェースとして機能する。   The input / output IF 140 functions as an interface for accepting input of information to the user terminal 10 and outputting information to the outside of the user terminal 10.

記憶部150は、フラッシュメモリ、RAM(Random Access Memory)等により構成され、ユーザ端末10が使用するプログラム、および、ユーザ端末10がサーバ20から受信する各種データ等を記憶する。   The storage unit 150 includes a flash memory, a RAM (Random Access Memory), and the like, and stores programs used by the user terminal 10 and various data received by the user terminal 10 from the server 20.

音声処理部160は、音声信号の変復調を行う。音声処理部160は、マイク170から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部160は、音声信号をスピーカ180へ与える。音声処理部160は、例えば、音声処理用のプロセッサによって実現される。マイク170は、音声信号の入力を受け付けて制御部190へ出力するための音声入力部として機能する。スピーカ180は、音声信号を、ユーザ端末10の外部へ出力するための音声出力部として機能する。   The audio processing unit 160 performs modulation / demodulation of the audio signal. The audio processing unit 160 modulates the signal given from the microphone 170 and gives the modulated signal to the control unit 190. In addition, the audio processing unit 160 provides an audio signal to the speaker 180. The sound processing unit 160 is realized by, for example, a sound processing processor. The microphone 170 functions as an audio input unit for receiving an input of an audio signal and outputting it to the control unit 190. The speaker 180 functions as an audio output unit for outputting an audio signal to the outside of the user terminal 10.

制御部190は、記憶部150に記憶されるプログラムを読み込んで実行することにより、ユーザ端末10の動作を制御する。制御部190は、例えば、アプリケーションプロセッサによって実現される。   The control unit 190 controls the operation of the user terminal 10 by reading and executing a program stored in the storage unit 150. The control unit 190 is realized by an application processor, for example.

ユーザ端末10がゲームプログラム151を実行する処理について、より詳細に説明する。記憶部150は、ゲームプログラム151と、ゲーム情報152と、ユーザ情報153とを記憶する。ユーザ端末10は、例えば、サーバ20からゲームプログラムをダウンロードして記憶部150に記憶させる。また、ユーザ端末10は、ゲームの進行に伴いサーバ20と通信することで、ゲーム情報152およびユーザ情報153等の各種のデータをサーバ20と送受信する。   A process in which the user terminal 10 executes the game program 151 will be described in more detail. The storage unit 150 stores a game program 151, game information 152, and user information 153. For example, the user terminal 10 downloads a game program from the server 20 and stores it in the storage unit 150. Further, the user terminal 10 communicates with the server 20 as the game progresses, thereby transmitting and receiving various data such as game information 152 and user information 153 to and from the server 20.

ゲームプログラム151は、ユーザ端末10においてゲームを進行させるためのプログラムである。ゲーム情報152は、ゲームプログラム151が参照する各種のデータを含む。ゲーム情報152は、例えば、ゲームにおいて仮想空間に配置するオブジェクトの情報、オブジェクトに対応付けられた効果の情報(ゲームキャラクタに設定されるスキルの情報などを含む)などを含む。ユーザ情報153は、ゲームをプレイするユーザについての情報を含む。ユーザ情報153は、例えば、ゲームをプレイするユーザ端末10のユーザを識別する情報、マルチプレイ時に協働してゲームをプレイする他のユーザを識別する情報などを含む。   The game program 151 is a program for causing the user terminal 10 to advance the game. The game information 152 includes various data referred to by the game program 151. The game information 152 includes, for example, information on objects to be arranged in the virtual space in the game, information on effects associated with the objects (including information on skills set for game characters), and the like. The user information 153 includes information about the user who plays the game. The user information 153 includes, for example, information for identifying the user of the user terminal 10 who plays the game, information for identifying other users who play the game in cooperation with the multi-play.

制御部190は、ゲームプログラム151を読み込んで実行することにより、入力操作受付部191と、キャラクタ操作検出部193と、オブジェクト制御部195と、表示制御部197と、の各機能を発揮する。   The control unit 190 reads and executes the game program 151 to exhibit the functions of the input operation receiving unit 191, the character operation detection unit 193, the object control unit 195, and the display control unit 197.

入力操作受付部191は、タッチスクリーン130の出力に基づいて、ユーザの入力操作を受け付ける。具体的には、入力操作受付部191は、ユーザの指などがタッチパネル131に接近したことを、タッチスクリーン130を構成する面の横軸および縦軸からなる座標系の座標として検出する。   The input operation accepting unit 191 accepts a user input operation based on the output of the touch screen 130. Specifically, the input operation accepting unit 191 detects that a user's finger or the like has approached the touch panel 131 as coordinates in a coordinate system including a horizontal axis and a vertical axis of a surface constituting the touch screen 130.

入力操作受付部191は、タッチスクリーン130に対するユーザの操作を判別する。入力操作受付部191は、例えば、(1)「接近操作」、(2)「リリース操作」、(3)「タップ操作」、(4)「長押し操作(ロングタッチ操作)」、(5)「ドラッグ操作(スワイプ操作)」などのユーザの操作を判別する。入力操作受付部191が判別するユーザの操作は、上記に限られない。例えば、タッチパネル131が、ユーザがタッチパネル131に対して押下する圧力の大きさを検出可能な機構を有する場合、入力操作受付部191は、ユーザが押下した圧力の大きさを判別する。   The input operation reception unit 191 determines a user operation on the touch screen 130. The input operation reception unit 191 includes, for example, (1) “approach operation”, (2) “release operation”, (3) “tap operation”, (4) “long press operation (long touch operation)”, (5) A user operation such as “drag operation (swipe operation)” is determined. The user operation determined by the input operation receiving unit 191 is not limited to the above. For example, when the touch panel 131 has a mechanism that can detect the magnitude of the pressure that the user presses against the touch panel 131, the input operation reception unit 191 determines the magnitude of the pressure that the user has pressed.

(1)「接近操作」とは、ユーザが指などをタッチスクリーン130に接近させる操作である。タッチスクリーン130は、ユーザの指などが接近したこと(ユーザの指などがタッチスクリーン130に接触したことを含む)をタッチパネル131により検出し、検出したタッチスクリーン130の座標に応じた信号を入力操作受付部191へ出力する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出しない状態から、接近を検出したときに、状態が「タッチオン状態」になったと判別する。   (1) The “approach operation” is an operation in which the user brings a finger or the like closer to the touch screen 130. The touch screen 130 detects that the user's finger or the like has approached (including that the user's finger or the like has touched the touch screen 130) by the touch panel 131, and inputs a signal corresponding to the detected coordinates of the touch screen 130. The data is output to the reception unit 191. The control unit 190 determines that the state is the “touch-on state” when the approach is detected from the state in which the approach of the user's finger or the like to the touch screen 130 is not detected.

(2)「リリース操作」とは、ユーザがタッチスクリーン130を接近操作している状態を止める操作である。制御部190は、例えば、ユーザが指をタッチスクリーン130に接触させている状態から、指を離す操作をしたときに、ユーザの操作を「リリース操作」と判別する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出している状態から、接近を検出しない状態になったときに、状態が「タッチオン状態」から「タッチオフ状態」になったと判別する。   (2) “Release operation” is an operation for stopping the state in which the user is operating the touch screen 130 to approach. For example, when the user performs an operation of releasing the finger from a state in which the user is in contact with the touch screen 130, the control unit 190 determines that the user's operation is a “release operation”. The control unit 190 determines that the state is changed from the “touch-on state” to the “touch-off state” when the approach is not detected from the state in which the approach of the user's finger or the like to the touch screen 130 is detected. To do.

(3)「タップ操作」とは、ユーザがタッチスクリーン130に対して指などを接近させる接近操作をした後に、接近操作をした位置でリリース操作を行うことである。入力操作受付部191は、接近操作が検出されない状態(ユーザの指などがタッチスクリーン130から離れており、タッチパネル131がユーザの指などの接近を検出していない状態)から、タッチスクリーン130の出力に基づいて、ユーザの指などが接近したことを検出した場合に、その検出した座標を「初期タッチ位置」として保持する。制御部190は、初期タッチ位置の座標と、リリース操作をした座標とがほぼ同一である場合(接近操作が検出された座標から一定範囲内の座標においてリリース操作の座標が検出された場合)に、ユーザの操作を「タップ操作」と判別する。   (3) “Tap operation” refers to performing a release operation at a position where the user performs an approach operation after the user performs an approach operation to bring a finger or the like closer to the touch screen 130. The input operation reception unit 191 outputs the touch screen 130 from a state where no approach operation is detected (a state where the user's finger or the like is away from the touch screen 130 and the touch panel 131 does not detect the approach of the user's finger or the like). When it is detected that the user's finger or the like has approached based on the above, the detected coordinates are held as the “initial touch position”. When the coordinates of the initial touch position and the coordinates of the release operation are substantially the same (when the coordinates of the release operation are detected in the coordinates within a certain range from the coordinates where the approach operation is detected), the control unit 190 The user's operation is determined as “tap operation”.

(4)「長押し操作」とは、ユーザがタッチスクリーン130を押し続ける操作である。制御部190は、ユーザの操作を検出して接近操作を判別してから、接近操作が検出された座標(あるいは当該座標を含む一定領域内)において接近操作が継続している時間が一定時間を超えた場合に、ユーザの操作を「長押し操作」(「長押し操作」を、「ロングタッチ操作」と称することもある)と判別する。   (4) “Long press operation” is an operation in which the user continues to press the touch screen 130. The control unit 190 detects the user's operation and determines the approaching operation, and then the time during which the approaching operation is continued in the coordinates where the approaching operation is detected (or within a certain region including the coordinates) is set to a certain time. When it exceeds, it is determined that the user's operation is “long press operation” (“long press operation” may be referred to as “long touch operation”).

(5)「ドラッグ操作」とは、ユーザがタッチスクリーン130に指などを接近させた接近状態を維持したまま、指をスライドさせる操作である。   (5) “Drag operation” is an operation of sliding a finger while maintaining an approaching state in which the user brings a finger or the like close to the touch screen 130.

キャラクタ操作検出部193は、タッチスクリーン130に対するユーザの入力操作に基づいて、ゲームに登場するプレイヤキャラクタ(以下、「自キャラクタ」と称することもある)に所定の動作を実行させる入力操作の操作内容を検出する。キャラクタ操作検出部193は、ユーザの入力操作に基づいて、例えば、プレイヤキャラクタを移動させる方向を検出する。すなわち、キャラクタ操作検出部193は、ユーザがプレイヤキャラクタの移動方向を指定する入力操作を受け付ける。   Based on the user's input operation on the touch screen 130, the character operation detection unit 193 performs the operation content of the input operation that causes a player character (hereinafter also referred to as “self character”) appearing in the game to execute a predetermined action. Is detected. The character operation detection unit 193 detects, for example, the direction in which the player character is moved based on the input operation of the user. That is, the character operation detection unit 193 receives an input operation in which the user specifies the moving direction of the player character.

具体的には、キャラクタ操作検出部193は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させて、入力操作受付部191がタッチパネル131にユーザの指が接近したことを検出した座標を初期タッチ位置として、ユーザがドラッグ操作を行った場合に、初期タッチ位置の座標とタッチスクリーン130の検出結果とに基づいて、プレイヤキャラクタの移動方向を検出する。キャラクタ操作検出部193での具体的な処理については、後述する。   Specifically, the character operation detection unit 193 causes the user to move the finger closer to the touch screen 130 from the state where the user's finger is separated from the touch screen 130, and the input operation reception unit 191 causes the touch panel 131 to move the user's finger. When the user performs a drag operation using the detected coordinates as the initial touch position, the moving direction of the player character is detected based on the initial touch position coordinates and the detection result of the touch screen 130. Specific processing in the character operation detection unit 193 will be described later.

オブジェクト制御部195は、ユーザ端末10がゲームプログラムを実行することにより進行されるゲームに登場する各種オブジェクト、および、入力操作受付部191が受け付けたユーザの操作内容に基づいて生成される各種オブジェクト(例えば、GUI(Graphical User Interface)画面)の生成、変形、移動などの処理を制御する。オブジェクト制御部195は、例えば、ユーザがプレイヤキャラクタを移動させるためのタッチスクリーン130に対する入力操作に基づいて、プレイヤキャラクタの移動方向を示す操作オブジェクト40を生成する。操作オブジェクト40の詳細については、後述する。   The object control unit 195 includes various objects that appear in a game that is progressed by the user terminal 10 executing a game program, and various objects that are generated based on user operation contents received by the input operation reception unit 191 ( For example, processing such as generation, deformation, and movement of a GUI (Graphical User Interface) screen is controlled. The object control unit 195 generates an operation object 40 indicating the moving direction of the player character based on, for example, an input operation on the touch screen 130 for moving the player character by the user. Details of the operation object 40 will be described later.

表示制御部197は、キャラクタ操作検出部193およびオブジェクト制御部195での制御に応じて、ディスプレイ132の表示内容を決定し、決定した表示内容に従った画像、テキスト等の各種の情報をディスプレイ132に出力する。例えば、表示制御部197は、プレイヤキャラクタをディスプレイ132の一定領域に表示させた状態で、入力操作受付部191によって受け付けた入力操作に応じて操作オブジェクト40を表示させつつプレイヤキャラクタに所定の動作(例えば、移動やジャンプ動作)を行わせる画面表示を行う。   The display control unit 197 determines the display content of the display 132 according to control by the character operation detection unit 193 and the object control unit 195, and displays various information such as images and texts according to the determined display content. Output to. For example, the display control unit 197 displays the operation object 40 in accordance with the input operation received by the input operation receiving unit 191 in a state where the player character is displayed in a certain area of the display 132, and performs a predetermined action ( For example, a screen display for moving or jumping is performed.

図3は、サーバ20の機能的な構成を示すブロック図である。図3を参照して、サーバ20の詳細な構成を説明する。サーバ20は、プログラムに従って動作することにより、通信部220と、記憶部250と、制御部290としての機能を発揮する。   FIG. 3 is a block diagram illustrating a functional configuration of the server 20. The detailed configuration of the server 20 will be described with reference to FIG. The server 20 functions as the communication unit 220, the storage unit 250, and the control unit 290 by operating according to the program.

通信部220は、サーバ20がユーザ端末10などの外部の通信機器と通信するためのインタフェースとして機能する。   The communication unit 220 functions as an interface for the server 20 to communicate with an external communication device such as the user terminal 10.

記憶部250は、ユーザ端末10においてユーザがゲームを進行させるための各種プログラムおよびデータを記憶する。ある局面において、記憶部250は、ゲームプログラム251と、ゲーム情報252と、ユーザ情報253とを記憶する。   The storage unit 250 stores various programs and data for the user to advance the game in the user terminal 10. In one aspect, the storage unit 250 stores a game program 251, game information 252, and user information 253.

ゲームプログラム251は、サーバ20がユーザ端末10と通信して、ユーザ端末10においてゲームを進行させるためのプログラムである。ゲームプログラム251は、ゲームを進行させるための各種データであるゲーム情報252およびユーザ情報253等を参照して、ユーザの入力操作に応じてゲームを進行させる。ゲームプログラム251は、制御部290に実行されることにより、ユーザ端末10とデータを送受信する処理、ユーザ端末10のユーザが行った操作内容に応じてゲームを進行させる処理、ゲームをプレイするユーザの情報を更新する処理などをサーバ20に行わせる。   The game program 251 is a program for allowing the server 20 to communicate with the user terminal 10 and advance the game on the user terminal 10. The game program 251 refers to the game information 252 and user information 253 that are various data for proceeding with the game, and causes the game to proceed according to the user's input operation. The game program 251 is executed by the control unit 290, whereby processing for transmitting / receiving data to / from the user terminal 10, processing for advancing the game according to the operation performed by the user of the user terminal 10, and the user playing the game The server 20 is caused to perform processing for updating information.

ゲーム情報252は、ゲームプログラム251が参照する各種のデータを含む。ゲーム情報252は、例えば、オブジェクト管理テーブル252Aと、ミッション管理テーブル252Bとを含む。   The game information 252 includes various data referred to by the game program 251. The game information 252 includes, for example, an object management table 252A and a mission management table 252B.

オブジェクト管理テーブル252Aは、ゲームの仮想空間内に配置されるオブジェクトの設定を示す。ユーザ端末10は、ゲームプログラム151を実行することにより、仮想空間内に配置されるオブジェクトを、仮想空間内に配置される仮想カメラによって撮影した画像をディスプレイ132に表示することでゲームを進行させる。   The object management table 252A shows the setting of objects arranged in the virtual space of the game. By executing the game program 151, the user terminal 10 causes the display 132 to display an image obtained by photographing an object placed in the virtual space with a virtual camera placed in the virtual space, thereby causing the game to proceed.

ここで、オブジェクトとしては、例えば、ユーザが操作するゲームキャラクタを示すオブジェクト、ゲームキャラクタが装着する対象物を示すオブジェクトなど様々なものがある。これらオブジェクトは、ユーザがタッチスクリーン130に対して予め定められた入力操作を行うこと、ゲームの進行に伴い一定の条件を満たすこと、その他の様々な事象の発生を契機として、オブジェクトに対応付けられた処理が行われる。   Here, there are various objects such as an object indicating a game character operated by the user and an object indicating an object worn by the game character. These objects are associated with objects when the user performs a predetermined input operation on the touch screen 130, meets certain conditions as the game progresses, and other various events occur. Processing is performed.

例えば、あるオブジェクトに対してユーザが接近操作を行うことで、当該オブジェクトがユーザに選択された状態となる。また、例えば、ユーザがドラッグ操作を行うことで、ユーザに選択されているオブジェクトがユーザの入力操作に応じて移動する等の処理が行われる。また、例えば、ユーザがオブジェクトに対してタッチ操作をすることで、ユーザに対し、ゲームを有利に進めるための報酬が付与される等の処理が行われる。   For example, when the user performs an approach operation on an object, the object is selected by the user. Further, for example, when the user performs a drag operation, processing such as movement of an object selected by the user according to the user's input operation is performed. In addition, for example, when the user performs a touch operation on the object, a process such as a reward for favoring the game is given to the user.

ミッション管理テーブル252Bは、オブジェクトを識別する情報と、オブジェクトに対応付けられたミッションの情報とが対応付けられている。ここで、ミッションとは、クエストとも呼ばれ、例えば、敵キャラクタを倒したり、所定のキャラクタを救出したりすることで、ユーザがゲームを進行させることができるものである。例えば、ミッションをクリアした場合には、所定の報酬(例えばコイン)をユーザが得る等の、ゲームを有利に進行させられる効果が生じる。ミッション管理テーブル252Bには、各ミッションが、後述の複数のミッション発注所のそれぞれと関連付けられて記憶されている。また、各ミッションの情報には、当該ミッションに関連付けられたミッション対象キャラクタの出現場所、難易度、報酬などの情報が含まれている。   In the mission management table 252B, information for identifying an object is associated with information on a mission associated with the object. Here, the mission is also called a quest. For example, the user can advance the game by defeating an enemy character or rescuing a predetermined character. For example, when the mission is cleared, there is an effect that the game can be advantageously advanced such that the user obtains a predetermined reward (for example, a coin). In the mission management table 252B, each mission is stored in association with each of a plurality of mission order offices described later. The information of each mission includes information such as the appearance location, difficulty level, and reward of the mission target character associated with the mission.

ユーザ情報253は、ゲームをプレイするユーザについての情報である。ユーザ情報253は、ユーザ管理テーブル253Aを含む。ユーザ管理テーブル253Aは、各ユーザを識別する情報と、ユーザがゲームを進行させた度合いを示す情報と、ユーザがゲーム内で保有するアイテム、ゲームキャラクタ、ゲームキャラクタが使用する装着物等の情報などを含む。   The user information 253 is information about the user who plays the game. The user information 253 includes a user management table 253A. The user management table 253A includes information for identifying each user, information indicating the degree of progress of the game by the user, information on items held by the user in the game, game characters, items used by the game character, and the like. including.

制御部290は、記憶部250に記憶されるゲームプログラム251を実行することにより、送受信部291、サーバ処理部292、データ管理部293、マッチング部294、計測部295としての機能を発揮する。   The control unit 290 executes functions of the transmission / reception unit 291, the server processing unit 292, the data management unit 293, the matching unit 294, and the measurement unit 295 by executing the game program 251 stored in the storage unit 250.

送受信部291は、ゲームプログラム151を実行するユーザ端末10から、各種情報を受信し、ユーザ端末10に対し、各種情報を送信する。ユーザ端末10とサーバ20とは、ユーザに関連付けられるオブジェクトを仮想空間に配置する要求、オブジェクトを削除する要求、オブジェクトを移動させる要求、ユーザが獲得する報酬に応じて各種パラメータを更新する要求、ゲームを進行させるための画像、音声その他のデータ、サーバ20からユーザ端末10へ送信される通知などの情報を送受信する。   The transmission / reception unit 291 receives various types of information from the user terminal 10 that executes the game program 151, and transmits various types of information to the user terminal 10. The user terminal 10 and the server 20 include a request to place an object associated with the user in the virtual space, a request to delete the object, a request to move the object, a request to update various parameters according to a reward acquired by the user, a game Information such as an image, audio, and other data for advancing, and a notification transmitted from the server 20 to the user terminal 10 are transmitted and received.

サーバ処理部292は、サーバ20全体の動作を制御し、各種のプログラムを呼び出す等によりゲームの進行に必要な処理を行う。サーバ処理部292は、例えば、ユーザ端末10から受信した情報に基づいて、ゲーム情報252、ユーザ情報253、などのデータを更新し、ユーザ端末10に各種データを送信することでゲームを進行させる。   The server processing unit 292 controls the operation of the entire server 20 and performs processing necessary for the progress of the game by calling various programs. For example, the server processing unit 292 updates the data such as the game information 252 and the user information 253 based on the information received from the user terminal 10 and transmits various data to the user terminal 10 to advance the game.

データ管理部293は、サーバ処理部292の処理結果に従って、記憶部250に記憶される各種データを更新する処理、データベースにレコードを追加/更新/削除する処理などを行う。   The data management unit 293 performs processing for updating various data stored in the storage unit 250, processing for adding / updating / deleting records to the database, and the like according to the processing result of the server processing unit 292.

マッチング部294は、複数のユーザを関連付けるための一連の処理を行う。マッチング部294は、例えば、ユーザがマルチプレイを行うための入力操作を行った場合に、ゲームを協同してプレイさせるユーザを関連付ける処理などを行う。   The matching unit 294 performs a series of processes for associating a plurality of users. For example, when the user performs an input operation for performing multi-play, the matching unit 294 performs processing for associating a user who plays a game in cooperation.

計測部295は、時間を計測する処理を行う。計測部295は、例えば、仮想空間に配置される各オブジェクトについて時間の経過を計測する。また、計測部295は、ゲームが進行している時間を計測する。サーバ20は、ユーザ端末10から、ユーザ端末10においてゲームプログラム151を実行して計測される各種の計測結果の情報を受信し、受信した情報と、計測部295の計測結果とを照合することで、ユーザ端末10とサーバ20とで、各種の時間に関する情報を同期させる。   The measurement unit 295 performs processing for measuring time. For example, the measurement unit 295 measures the passage of time for each object arranged in the virtual space. Moreover, the measurement part 295 measures the time for which the game is progressing. The server 20 receives information on various measurement results measured by executing the game program 151 on the user terminal 10 from the user terminal 10, and collates the received information with the measurement results of the measurement unit 295. The user terminal 10 and the server 20 synchronize information about various times.

図4は、本実施形態に係るユーザ端末10のタッチスクリーン130に表示されるゲーム画面の一例を示す。図4の画面例は、ユーザが操作する自キャラクタ100(キャラクタオブジェクト、プレイヤキャラクタの一例)に、所定の動作を行わせるための入力操作を受け付ける画面である。制御部190は、タッチスクリーン130に、ユーザが操作するプレイヤキャラクタである自キャラクタ100と、対戦相手(敵)となるキャラクタである相手キャラクタ200(以下、ミッション対象キャラクタと称する場合もある)とを表示させて、ユーザに対し、自キャラクタ100に所定の動作を行わせるための入力操作を受け付ける。自キャラクタ100および相手キャラクタ200は、ユーザ端末10を縦型となるように置いたときに、その上下方向においてタッチスクリーン130の中央付近(例えば、タッチスクリーン130をその上下方向に三分割したときの中央の領域内)に、例えば、左右方向において進行方向に視野がやや広くなるように表示される。タッチスクリーン130の下方には、例えば地面の断面(図4のドット模様の部分)が表示されている。タッチスクリーン130の下半部、すなわち地面の断面が表示された部分は、後述の操作オブジェクト40を操作するためのスペースとして利用可能である。ユーザは、タッチスクリーン130の任意位置への操作によって、自キャラクタ100を操作することができる。ユーザが、例えば、ディスプレイ132の左右方向に沿った方向(図4の矢印Aの方向)のドラッグ操作を入力した場合、制御部190は、そのドラッグ操作を受け付けて、自キャラクタ100をドラッグ操作の方向に対応する方向(例えば、矢印Bの方向)に移動させるよう制御する。
なお、タッチスクリーン130の左右方向の端部には、各種のユーザインターフェース画像300が表示されていても良い。UI画像300には、例えば、マップを表示するためのUI画像300A、キャラクタを変更するためのUI画像300B、スキル(ゲーム内で自キャラクタ100により行われる攻撃アクションの一つ)を発動させるためのUI画像300Cが含まれる。
FIG. 4 shows an example of a game screen displayed on the touch screen 130 of the user terminal 10 according to the present embodiment. The screen example of FIG. 4 is a screen that accepts an input operation for causing the own character 100 (an example of a character object or a player character) operated by the user to perform a predetermined action. The control unit 190 displays, on the touch screen 130, the own character 100 that is a player character operated by the user, and an opponent character 200 that is a character that is an opponent (enemy) (hereinafter also referred to as a mission target character). The input operation for allowing the user character 100 to perform a predetermined action is displayed. When the user character 10 and the opponent character 200 are placed so that the user terminal 10 is in a vertical shape, the vicinity of the center of the touch screen 130 in the vertical direction (for example, when the touch screen 130 is divided into three in the vertical direction) In the central area, for example, the field of view is displayed so as to be slightly wider in the direction of travel in the left-right direction. Below the touch screen 130, for example, a cross-section of the ground (dot-patterned portion in FIG. 4) is displayed. The lower half of the touch screen 130, that is, the portion where the cross section of the ground is displayed can be used as a space for operating the operation object 40 described later. The user can operate the player character 100 by operating the touch screen 130 to an arbitrary position. For example, when the user inputs a drag operation in the direction along the left-right direction of the display 132 (the direction of the arrow A in FIG. 4), the control unit 190 accepts the drag operation and performs a drag operation on the player character 100. Control is performed so as to move in the direction corresponding to the direction (for example, the direction of arrow B).
Various user interface images 300 may be displayed on the left and right ends of the touch screen 130. The UI image 300 includes, for example, a UI image 300A for displaying a map, a UI image 300B for changing a character, and a skill (one of attack actions performed by the player character 100 in the game). A UI image 300C is included.

<1.自キャラクタの動作制御>
図5は、キャラクタ操作検出部193が、ユーザの入力操作に応じて自キャラクタ100を移動させる方向を検出する処理を示す図である。キャラクタ操作検出部193は、ユーザがタッチスクリーン130を押していない状態から、指などをタッチパネル131に接近させてタッチスクリーン130を押した位置(初期タッチ位置)を起点と設定する。入力操作受付部191は、ユーザの操作をドラッグ操作と判別している場合に、起点となる座標と、タッチスクリーン130がユーザの指などの接近を検出している座標とに基づいて、自キャラクタ100を移動させる方向を検出する。
<1. Action control of own character>
FIG. 5 is a diagram illustrating processing in which the character operation detection unit 193 detects a direction in which the player character 100 is moved in accordance with a user input operation. The character operation detection unit 193 sets a position (initial touch position) where the user presses the touch screen 130 by bringing a finger or the like closer to the touch panel 131 from the state where the user is not pressing the touch screen 130 as a starting point. When the input operation reception unit 191 determines that the user's operation is a drag operation, the input operation reception unit 191 determines the own character based on the coordinates that are the starting point and the coordinates that the touch screen 130 detects the approach of the user's finger or the like. The direction in which 100 is moved is detected.

図5の状態(A)は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させた状態を示す。入力操作受付部191は、ユーザの指がタッチスクリーン130に接近したことを検出し、検出した座標を初期タッチ位置としてメモリ(例えば、主記憶4または補助記憶5)に保持する。   A state (A) in FIG. 5 shows a state in which the user brings his / her finger closer to the touch screen 130 from a state in which the user's finger has left the touch screen 130. The input operation reception unit 191 detects that the user's finger has approached the touch screen 130 and holds the detected coordinates in the memory (for example, the main memory 4 or the auxiliary memory 5) as an initial touch position.

図5の例では、メモリが保持する初期タッチ位置の座標を、初期タッチ位置座標55として示す。入力操作受付部191は、タッチスクリーン130の検出結果(ユーザの指がタッチスクリーン130に接近している座標、および、ユーザの指がタッチスクリーン130に接近していることを検出していないこと(検出結果「null」))を、一定フレーム分、バッファメモリ53に格納する。バッファメモリ53は、タッチスクリーン130における検出結果を、各フレームについて一定フレーム分(図5の例では、メモリ領域fp〔0〕〜メモリ領域fp〔10〕までの11フレーム分)、格納することができる。バッファメモリ53は、例えばリングバッファとして実現することができる。   In the example of FIG. 5, the coordinates of the initial touch position held by the memory are shown as the initial touch position coordinates 55. The input operation reception unit 191 does not detect the detection result of the touch screen 130 (the coordinates at which the user's finger is approaching the touch screen 130 and the proximity of the user's finger to the touch screen 130 ( The detection result “null”)) is stored in the buffer memory 53 for a certain number of frames. The buffer memory 53 can store detection results on the touch screen 130 for each frame (in the example of FIG. 5, 11 frames from the memory area fp [0] to the memory area fp [10]). it can. The buffer memory 53 can be realized as a ring buffer, for example.

状態(A)の例では、ユーザがタッチスクリーン130を押した位置を、押下位置50A(タッチスクリーン130の座標(x0,y0))として示す。   In the example of the state (A), a position where the user presses the touch screen 130 is indicated as a pressed position 50A (coordinates (x0, y0) of the touch screen 130).

図5の状態(B)は、ユーザがタッチスクリーン130に対してドラッグ操作を行って、タッチスクリーン130に対する押下位置を、押下位置50Aから押下位置50B(タッチスクリーン130の座標(x9,y9))まで10フレーム(メモリ領域fp〔0〕〜メモリ領域fp〔9〕までの10フレーム分)で移動させたことを示す。入力操作受付部191は、タッチスクリーン130の検出結果をバッファメモリ53に格納し、バッファメモリ53に保持される値を参照して、タッチスクリーン130に対するユーザの操作をドラッグ操作と判別する。   In the state (B) of FIG. 5, the user performs a drag operation on the touch screen 130, and the pressing position on the touch screen 130 is changed from the pressing position 50A to the pressing position 50B (coordinates (x9, y9) of the touch screen 130). This indicates that the frame has been moved by 10 frames (10 frames from the memory area fp [0] to the memory area fp [9]). The input operation reception unit 191 stores the detection result of the touch screen 130 in the buffer memory 53 and refers to the value held in the buffer memory 53 to determine that the user's operation on the touch screen 130 is a drag operation.

図5の状態(C)は、ユーザがタッチスクリーン130を押している位置を、押下位置50Bから押下位置50C(タッチスクリーン130の座標(x14,y14))まで、5フレーム(メモリ領域fp〔10〕、fp〔0〕、fp〔1〕、fp〔2〕、fp〔3〕の5フレーム分)で移動させたことを示す。   In the state (C) of FIG. 5, the position where the user is pressing the touch screen 130 is five frames (memory area fp [10]) from the pressed position 50B to the pressed position 50C (coordinates (x14, y14) of the touch screen 130). , Fp [0], fp [1], fp [2], and fp [3]).

図5の状態(D)は、キャラクタ操作検出部193が、状態(B)および状態(C)のそれぞれにおいて、ユーザが自キャラクタ100を移動させる方向を指定する入力操作の検出結果を示す。キャラクタ操作検出部193は、バッファメモリ53において、タッチスクリーン130が検出する押下位置の座標を書き込む対象となるメモリ領域がいずれであるかを示す情報(バッファメモリ53の書き込み位置)を管理している。   The state (D) in FIG. 5 shows the detection result of the input operation in which the character operation detection unit 193 designates the direction in which the user moves the player character 100 in each of the state (B) and the state (C). The character operation detection unit 193 manages information (writing position in the buffer memory 53) indicating which memory area is the target of writing the coordinates of the pressed position detected by the touch screen 130 in the buffer memory 53. .

状態(B)において、キャラクタ操作検出部193は、入力操作受付部191の判別結果に基づいて、初期タッチ位置を示す座標51A(座標(x0,y0))から座標51B(座標(x9,y9))までユーザがドラッグ操作を行ったことを検出する。キャラクタ操作検出部193は、初期タッチ位置の座標51Aを起点として、座標51Aと座標51Bとによって規定されるベクトル52B((y9−y0)/(x9−x0))を、自キャラクタ100を移動させる方向として検出する。   In the state (B), the character operation detection unit 193 determines from the coordinate 51A (coordinate (x0, y0)) indicating the initial touch position to the coordinate 51B (coordinate (x9, y9)) based on the determination result of the input operation reception unit 191. ) Until the user performs a drag operation. The character operation detection unit 193 moves the own character 100 by a vector 52B ((y9−y0) / (x9−x0)) defined by the coordinates 51A and the coordinates 51B, starting from the coordinates 51A of the initial touch position. Detect as direction.

状態(C)において、キャラクタ操作検出部193は、入力操作受付部191の判別結果に基づいて、座標51B(座標(x9,y9))から座標51C(座標(x14,y14))までユーザがドラッグ操作を行ったことを検出する。キャラクタ操作検出部193は、初期タッチ位置の座標51Aを起点として、座標51Aと座標51Cとによって規定されるベクトル52C((y14−y0)/(x14−x0))を、自キャラクタ100を移動させる方向として検出する。   In the state (C), the character operation detection unit 193 drags the user from the coordinate 51B (coordinate (x9, y9)) to the coordinate 51C (coordinate (x14, y14)) based on the determination result of the input operation receiving unit 191. Detects that an operation has been performed. The character operation detection unit 193 moves the own character 100 by a vector 52C ((y14−y0) / (x14−x0)) defined by the coordinates 51A and the coordinates 51C, starting from the coordinates 51A of the initial touch position. Detect as direction.

<2.操作オブジェクトの基本構成>
本実施形態に係る操作オブジェクト40(図4参照)は、ユーザのタッチスクリーン130に対する接近操作が検知されるとタッチスクリーン130に表示される。操作オブジェクト40は、ユーザが自キャラクタ100を移動させる方向を示す弾性状のオブジェクトである。操作オブジェクト40は、図6の(A)に示すように、指接触時の初期形状として、タッチスクリーン130に接触した位置(例えば、図5の初期タッチ位置座標51A)である接触開始点に関連付けられた基準位置の周囲に、円形状の基部42を有するように形成される。なお、基準位置は、最初に指がタッチスクリーン130に触れた座標でなくても良く、例えば、最初に指が触れたフレームの数フレーム後のフレームにおいて指が触れていた座標であっても良い。
<2. Basic configuration of operation object>
The operation object 40 (see FIG. 4) according to the present embodiment is displayed on the touch screen 130 when a user's approach operation to the touch screen 130 is detected. The operation object 40 is an elastic object that indicates a direction in which the user moves the player character 100. As shown in FIG. 6A, the operation object 40 is associated with a contact start point that is a position touching the touch screen 130 (for example, initial touch position coordinates 51A in FIG. 5) as an initial shape at the time of finger contact. A circular base 42 is formed around the reference position. Note that the reference position does not have to be the coordinates at which the finger first touches the touch screen 130, and may be, for example, the coordinates at which the finger touched a frame several frames after the first touched frame. .

ユーザがタッチスクリーン130上で接触開始点から接触終了点(ここで、接触終了点とは、ユーザの指などがタッチスクリーン130に接触した状態での最終地点を意味する)までドラッグ操作を行うと、図6の(B)に示すように操作オブジェクト40は、ユーザの指に引っ張られるような弾性変形を伴う。このとき、操作オブジェクト40は、ドラッグ操作の接触開始点に対応して表示される基部(拡大部)42に加えて、ドラッグ操作の接触終了点(注:指はタッチスクリーン130に接触したままの状態である。)付近に位置する先端部44と、基部42と先端部44との間を接続する接続部46とを含むように構成される。このように操作オブジェクト40は、接触開始点から接触終了点に向けて入力されたドラッグ操作の方向に弾性的に延ばされるように形成される。また、ユーザが接触終了点を接触状態に維持しつつタッチスクリーン130上において更に指などを移動させた場合、先端部44もそれに追従して更に移動し操作オブジェクト40の延びる向きも変化する。ユーザによるドラッグ操作が終了した際に(すなわち、タッチスクリーン130上において接触終了点からユーザの指が離れた際に)、弾性変形した操作オブジェクト40が、その復元力に従って、接触開始点に向けて段階的に萎縮して、図6の(A)に示した初期形状に復元するように表示され、一定時間経過後に非表示となる。   When the user performs a drag operation on the touch screen 130 from the contact start point to the contact end point (here, the contact end point means the final point when the user's finger or the like is in contact with the touch screen 130). As shown in FIG. 6B, the operation object 40 is accompanied by elastic deformation such that it is pulled by the user's finger. At this time, in addition to the base part (enlarged part) 42 displayed corresponding to the contact start point of the drag operation, the operation object 40 has a contact end point of the drag operation (note: the finger remains in contact with the touch screen 130). It is configured to include a distal end portion 44 located in the vicinity and a connection portion 46 that connects between the base portion 42 and the distal end portion 44. Thus, the operation object 40 is formed so as to be elastically extended in the direction of the drag operation input from the contact start point toward the contact end point. When the user further moves a finger or the like on the touch screen 130 while maintaining the contact end point in the contact state, the distal end portion 44 further moves following the movement and the extending direction of the operation object 40 also changes. When the user's drag operation is completed (that is, when the user's finger is released from the contact end point on the touch screen 130), the elastically deformed operation object 40 is directed toward the contact start point according to its restoring force. It is displayed in such a way that it gradually shrinks and restores to the initial shape shown in FIG. 6A, and disappears after a certain period of time.

なお、図6の(A)では、接触開始点を中心に円形状の基部42を形成しているが、必ずしもこれに限定されない。例えば、基部42を接触開始点から一定距離だけ上部または下部にずらして形成しても良い。すなわち、操作オブジェクト40の基部42は、接触開始点に関連付けられた所定の位置(基準位置)に対応して表示されていても良い。また、接触開始点に形成した操作オブジェクト40(基部42)をドラッグ操作に応じて変形させずに、接触開始点から接触終了点に向けて、操作オブジェクトの一部を構成する別のオブジェクトを表示させるようにしても良い。   In FIG. 6A, the circular base 42 is formed around the contact start point, but the present invention is not necessarily limited thereto. For example, the base 42 may be formed to be shifted upward or downward by a certain distance from the contact start point. That is, the base 42 of the operation object 40 may be displayed corresponding to a predetermined position (reference position) associated with the contact start point. Further, another object constituting a part of the operation object is displayed from the contact start point toward the contact end point without deforming the operation object 40 (base 42) formed at the contact start point in accordance with the drag operation. You may make it let it.

<3.対象キャラクタの発生ポイントに関する画像の表示処理の説明>
図7〜図12を参照して、本実施形態に係るゲームプログラムにおける動作例について具体的に説明する。
本実施形態に係るゲームプログラムは、ユーザの操作によって活動する自キャラクタ100が、複数のミッション(ゲームステージ)を順次クリアしてゆき、全てのミッションをクリアしたときにゲームクリア(エンディング)となるゲームであり、各ゲームステージやゲームステージを選択するためのステージが途切れなく(すなわち、シームレスに)連続している所謂「シームレスフィールド」を採用している。シームレスフィールドとは、各ゲームステージが連続的に形成され自キャラクタ100がフィールド内の上下方向および水平方向に移動可能な二次元フィールドである。
<3. Explanation of image display processing related to generation point of target character>
With reference to FIGS. 7-12, the operation example in the game program which concerns on this embodiment is demonstrated concretely.
The game program according to the present embodiment is a game in which the player character 100 that is activated by the user's operation sequentially clears a plurality of missions (game stages), and the game is cleared (ending) when all the missions are cleared. In other words, a so-called “seamless field” is employed in which each stage for selecting each game stage and game stage is continuous (ie, seamless). A seamless field is a two-dimensional field in which each game stage is continuously formed and the player character 100 can move vertically and horizontally in the field.

図7は、本ゲームプログラムにおけるマルチプレイを実現するためのユーザ端末10およびサーバ20の動作例について説明するフローチャートである。図7に示される処理は、制御部190がゲームプログラム151を、制御部290がゲームプログラム251をそれぞれ実行することにより実現される。   FIG. 7 is a flowchart for explaining an operation example of the user terminal 10 and the server 20 for realizing multi-play in this game program. The processing shown in FIG. 7 is realized by the control unit 190 executing the game program 151 and the control unit 290 executing the game program 251.

ステップS1000において、ユーザ端末10の制御部190は、サーバ20に対してマルチプレイに参加するための参加リクエストを送信する。ステップS1002において、サーバ20の制御部290は、ユーザが操作するユーザ端末10からの参加リクエストを受け付ける。   In step S1000, the control unit 190 of the user terminal 10 transmits a participation request for participating in multiplayer to the server 20. In step S1002, the control unit 290 of the server 20 receives a participation request from the user terminal 10 operated by the user.

ステップS1004において、サーバ20の制御部290は、サーバ処理部292として、マルチプレイに参加するユーザが規定人数に達したと判断したことに応じて、サーバ20側の仮想空間を規定して、当該仮想空間に所定のフィールド(本プログラムでは、シームレスフィールド)を形成するためのオブジェクトを配置する。さらに、制御部290は、送受信部291として、フィールドを形成するためのオブジェクトの情報をユーザ端末10に送信する。   In step S <b> 1004, the control unit 290 of the server 20 defines the virtual space on the server 20 side as the server processing unit 292 in response to determining that the number of users participating in the multiplayer has reached the specified number. An object for forming a predetermined field (a seamless field in this program) is arranged in the space. Furthermore, the control unit 290 transmits, as the transmission / reception unit 291, object information for forming a field to the user terminal 10.

ステップS1006において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信した情報に基づいてゲーム情報152に格納されるオブジェクトをユーザ端末10側の仮想空間に配置する。これにより、制御部190は、仮想空間にフィールドを形成する。   In step S <b> 1006, the control unit 190 of the user terminal 10 arranges an object stored in the game information 152 as the object control unit 195 in the virtual space on the user terminal 10 side based on the information received from the server 20. Thereby, the control unit 190 forms a field in the virtual space.

ステップS1008において、ユーザ端末10の制御部190は、オブジェクト制御部195として、ゲーム情報152に格納される自キャラクタ100の情報に従い、自キャラクタ100をフィールドに配置(生成)する。さらに、制御部190は、自キャラクタ100の情報をサーバ20に送信する。   In step S1008, the control unit 190 of the user terminal 10 arranges (generates) the player character 100 in the field as the object controller 195 in accordance with the player character 100 information stored in the game information 152. Furthermore, the control unit 190 transmits information on the player character 100 to the server 20.

ステップS1010において、サーバ20の制御部290は、データ管理部293として、ユーザ端末10から受信したキャラクタ情報に基づいてユーザ管理テーブル253Aに格納される自キャラクタ100の情報を保存する。なお、同ステップにおいて、制御部290は、マルチプレイに参加する他のユーザ端末10から、当該他のユーザ端末10のユーザが操作するキャラクタ(以下、「他キャラクタ」とも称する)の情報を受信して、ユーザ管理テーブル253Aの情報を保存する。   In step S <b> 1010, the control unit 290 of the server 20 stores, as the data management unit 293, information on the own character 100 stored in the user management table 253 </ b> A based on the character information received from the user terminal 10. In this step, the control unit 290 receives information on a character operated by the user of the other user terminal 10 (hereinafter also referred to as “other character”) from another user terminal 10 participating in the multiplayer. The information of the user management table 253A is stored.

ステップS1012において、サーバ20の制御部290は、サーバ処理部292として、ユーザ管理テーブル253Aに格納される他キャラクタの情報に基づいて、フィールドに他キャラクタを配置する。さらに、制御部290は、送受信部291として、他キャラクタの情報をユーザ端末10に送信する。   In step S1012, the control unit 290 of the server 20 arranges other characters in the field as the server processing unit 292 based on the information of other characters stored in the user management table 253A. Furthermore, the control part 290 transmits the information of other characters to the user terminal 10 as the transmission / reception part 291.

ステップS1014において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信した他キャラクタの情報に基づいて他キャラクタをフィールドに配置する。   In step S <b> 1014, the control unit 190 of the user terminal 10 arranges other characters in the field as the object control unit 195 based on the other character information received from the server 20.

ステップS1016において、サーバ20の制御部290は、サーバ処理部292として、オブジェクト管理テーブル252Aを参照してフィールドにミッション攻略のための対象であるミッション対象キャラクタを配置する。また、制御部290は、ミッション対象キャラクタおよびミッション対象キャラクタと関連付けられたミッションの情報をマルチプレイに参加する各ユーザ端末10に送信する。   In step S1016, the control unit 290 of the server 20 arranges a mission target character that is a target for mission capture in the field as the server processing unit 292 with reference to the object management table 252A. In addition, the control unit 290 transmits the mission target character and the mission information associated with the mission target character to each user terminal 10 participating in the multiplayer.

ステップS1018において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信したミッション対象キャラクタの情報に基づいて、ミッション対象キャラクタをフィールドに配置する。   In step S <b> 1018, the control unit 190 of the user terminal 10 arranges the mission target character in the field as the object control unit 195 based on the mission target character information received from the server 20.

ステップS1020において、ユーザ端末10の制御部190は、キャラクタ操作検出部193として、タッチスクリーン130に対するドラッグ操作を検出し、当該ドラッグ操作のタッチ開始位置およびタッチ継続位置により定まる方向を検出する。制御部190は、キャラクタ操作検出部193が検出した方向に、仮想カメラおよび自キャラクタ100を移動させる。さらに、制御部190は、移動後の自キャラクタ100の仮想空間における位置座標をサーバ20に送信する。なお、他の局面において、制御部190は、仮想空間における自キャラクタ100が向いている方向、自キャラクタ100の移動速度などを併せてサーバ20に送信し得る。   In step S1020, the control unit 190 of the user terminal 10 detects a drag operation on the touch screen 130 as the character operation detection unit 193, and detects a direction determined by the touch start position and the touch continuation position of the drag operation. The control unit 190 moves the virtual camera and the player character 100 in the direction detected by the character operation detection unit 193. Furthermore, the control unit 190 transmits the position coordinates of the moved character 100 in the virtual space to the server 20. In another aspect, the control unit 190 can transmit the direction in which the player character 100 is facing in the virtual space, the moving speed of the player character 100, and the like to the server 20 together.

ステップS1022において、サーバ20の制御部290は、サーバ処理部292として、ユーザ端末10から受信した自キャラクタ100の位置座標に基づいて、サーバ20側の仮想空間の自キャラクタ100の位置を更新する。なお、同ステップにおいて、制御部290は、サーバ20側の仮想空間における他キャラクタの位置も更新する。制御部290は、更新した他キャラクタの位置情報をユーザ端末10に送信する。   In step S <b> 1022, the control unit 290 of the server 20 updates, as the server processing unit 292, the position of the player character 100 in the virtual space on the server 20 side based on the position coordinates of the player character 100 received from the user terminal 10. In this step, the control unit 290 also updates the positions of other characters in the virtual space on the server 20 side. The control unit 290 transmits the updated position information of the other character to the user terminal 10.

ステップS1024において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信した他キャラクタの位置情報に基づいて、仮想空間(フィールド)内において他キャラクタを移動する。   In step S1024, the control unit 190 of the user terminal 10 moves the other character in the virtual space (field) as the object control unit 195 based on the position information of the other character received from the server 20.

ステップS1026において、サーバ20の制御部290は、サーバ処理部292として、ミッション対象キャラクタを移動する。また、制御部290は、送受信部291として機能し、移動後のミッション対象キャラクタの位置情報をユーザ端末10に送信する。   In step S 1026, the control unit 290 of the server 20 moves the mission target character as the server processing unit 292. In addition, the control unit 290 functions as the transmission / reception unit 291 and transmits the position information of the mission target character after movement to the user terminal 10.

ステップS1028において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信したミッション対象キャラクタの位置情報に基づいて、仮想空間内においてミッション対象キャラクタを移動する。   In step S <b> 1028, the control unit 190 of the user terminal 10 moves the mission target character in the virtual space as the object control unit 195 based on the position information of the mission target character received from the server 20.

また、ユーザ端末10およびサーバ20はそれぞれ、その他ゲームを進行するために必要な処理を実行する。ゲームを進行するために必要な処理は、一例として、自キャラクタおよび対象キャラタの攻撃処理、これら攻撃のヒット判定処理、ダメージ処理、ドロップアイテム処理、経験値処理、アイテム取得処理、などが挙げられる。   In addition, each of the user terminal 10 and the server 20 executes other processes necessary for progressing the game. Examples of the processes necessary for progressing the game include attack processing of the player character and the target character, hit determination processing of these attacks, damage processing, drop item processing, experience value processing, item acquisition processing, and the like.

図8は、ミッション対象キャラクタの発生位置に関する画像の表示処理について説明するフローチャートである。   FIG. 8 is a flowchart illustrating an image display process related to the generation position of the mission target character.

図8のステップS1100において、ユーザ端末10の制御部190は、ユーザの移動操作により、自キャラクタ100が図9に示すミッション発注所60(ミッション選択領域の一例)内に移動したか否かを判断する。ミッション発注所60は、フィールドMF内の所定の位置に一つ以上配置されている。上述の通り、各ミッション発注所60には、異なる(あるいは少なくとも一部が重複していても良い)ミッションが関連付けられている。   In step S1100 of FIG. 8, the control unit 190 of the user terminal 10 determines whether or not the player character 100 has moved into the mission ordering place 60 (an example of a mission selection area) shown in FIG. To do. One or more mission order offices 60 are arranged at predetermined positions in the field MF. As described above, each mission order place 60 is associated with a different (or at least partly overlapping) mission.

自キャラクタ100がミッション発注所60内に移動したと判定された場合には(ステップS1100のYes)、ステップS1102において、制御部190は、ミッション発注所60が選択されたと判定し、選択されたミッション発注所60に関する情報をサーバ20へ送信する。   If it is determined that the player character 100 has moved into the mission order place 60 (Yes in step S1100), in step S1102, the control unit 190 determines that the mission order place 60 has been selected, and the selected mission is selected. Information on the order place 60 is transmitted to the server 20.

ステップS1104において、サーバ20の制御部290は、記憶部250に記憶されているミッション管理テーブル252Bを読出し、ミッション発注所60に関する情報(以下、ミッション発注所情報と称する)を取得する。なお、上述の通り、ミッション管理テーブル252Bに保存されているミッション発注所情報には、当該ミッション発注所60で選択可能なミッションの内容が含まれている。   In step S1104, the control unit 290 of the server 20 reads the mission management table 252B stored in the storage unit 250, and acquires information regarding the mission ordering place 60 (hereinafter referred to as mission ordering place information). As described above, the mission ordering place information stored in the mission management table 252B includes the contents of missions that can be selected at the mission ordering place 60.

ステップS1106において、制御部290は、選択されたミッション発注所60に関するミッション発注所情報をユーザ端末10へ送信する。   In step S <b> 1106, the control unit 290 transmits the mission order place information regarding the selected mission order place 60 to the user terminal 10.

ステップS1108において、ユーザ端末10の制御部190は、サーバ20から受信したミッション発注所情報に基づいて、タッチスクリーン130上に、選択されたミッション発注所60に関連付けられた少なくとも一つ(ここでは、2つ)のミッションのメニュー画面65を表示する(図10参照)。メニュー画面65には、例えば、ミッション1として「キャラクタ200を5匹倒せ!」というミッションとともに、ミッション対象キャラクタ200の出現場所、ミッションクリアの難易度、ミッションクリア時の報酬が表示される。また、ミッション2として、「キャラクタ400を救出せよ!」というミッションとともに、ミッション対象キャラクタ400の出現場所、ミッションクリアの難易度、ミッションクリア時の報酬が表示される。なお、自キャラクタ100がミッション発注所60内に移動したときにメニュー画面65を表示する場合に限られず、制御部190は、ユーザによりミッション発注所60がタップされた場合などにメニュー画面65を表示しても良い。   In step S1108, the control unit 190 of the user terminal 10 determines, based on the mission order place information received from the server 20, at least one associated with the selected mission order place 60 on the touch screen 130 (here, A menu screen 65 of two missions is displayed (see FIG. 10). The menu screen 65 displays, for example, the mission “Defeat 5 characters 200!” As mission 1, along with the appearance location of the mission target character 200, the difficulty of mission clear, and the reward for clearing the mission. In addition, as mission 2, a mission “rescue the character 400!” Is displayed, the appearance location of the mission target character 400, the difficulty level of the mission clear, and the reward when the mission is cleared. Note that the control unit 190 displays the menu screen 65 when the user orders the mission ordering place 60 without being limited to displaying the menu screen 65 when the character 100 moves into the mission ordering place 60. You may do it.

続いて、ステップS1110において、制御部190は、ユーザの操作により、表示されたミッション1および2のうちいずれか一つが選択されたか否かを判定する。なお、ユーザは、一度に複数のミッションを選択することもできる。   Subsequently, in step S1110, the control unit 190 determines whether any one of the displayed missions 1 and 2 is selected by a user operation. The user can also select a plurality of missions at a time.

いずれかのミッションが選択されたと判定された場合には(ステップS1110のYes)、ステップS1112において、制御部190は、選択されたミッションに関する情報(以下、ミッション選択情報と称する)を、サーバ20へ送信する。例えば、ユーザがミッション1を選択した場合には、制御部190は、ミッション1が選択されたことを、サーバ20へ送信する。   If it is determined that one of the missions has been selected (Yes in step S1110), in step S1112, the control unit 190 sends information related to the selected mission (hereinafter referred to as mission selection information) to the server 20. Send. For example, when the user selects mission 1, the control unit 190 transmits to the server 20 that mission 1 has been selected.

ステップS1114において、サーバ20の制御部290は、ユーザ端末10から受信したミッション選択情報を、記憶部250のミッション管理テーブル252Bに記憶する(ミッション管理テーブル252Bを更新する)。続いて、ステップS1116において、制御部290は、更新されたミッション管理テーブル252Bの情報(以下、ミッション更新情報と称する)、特に、ミッション発注所60においてユーザにより選択されたミッションと、選択されたミッションに関連付けられたミッション対象キャラクタ(例えば、キャラクタ200やキャラクタ400)を、各ユーザ端末10へ送信する。これにより、ユーザ端末10がミッション1を選択したことに関する情報が、サーバ20を介して、他のユーザ端末へも送信される。   In step S1114, the control unit 290 of the server 20 stores the mission selection information received from the user terminal 10 in the mission management table 252B of the storage unit 250 (updates the mission management table 252B). Subsequently, in step S1116, the control unit 290 controls the information in the updated mission management table 252B (hereinafter referred to as mission update information), particularly the mission selected by the user at the mission ordering station 60, and the selected mission. The mission target character (for example, the character 200 or the character 400) associated with is transmitted to each user terminal 10. Thereby, the information regarding the user terminal 10 having selected the mission 1 is transmitted to other user terminals via the server 20.

ステップS1118において、ユーザ端末10の制御部190は、サーバ20から受信したミッション更新情報を記憶部150に記憶する。すなわち、制御部190は、ミッション発注所60においてユーザにより選択されたミッションと、選択されたミッションに関連付けられたミッション対象キャラクタとに関する情報(第一の情報の一例)を、記憶部150に記憶する。   In step S <b> 1118, the control unit 190 of the user terminal 10 stores the mission update information received from the server 20 in the storage unit 150. That is, the control unit 190 stores, in the storage unit 150, information (an example of first information) regarding the mission selected by the user at the mission order place 60 and the mission target character associated with the selected mission. .

ステップS1120において、制御部190は、メニュー画面65を非表示とするとともに、自キャラクタ100をミッション発注所60の外側へ移動させる。具体的には、制御部190は、図11に示すように、自キャラクタ100を、ミッション発注所60に対して自キャラクタ100の進行方向側である右側へ移動させる。   In step S <b> 1120, the control unit 190 hides the menu screen 65 and moves the player character 100 to the outside of the mission order place 60. Specifically, as shown in FIG. 11, the control unit 190 moves the player character 100 to the right side that is the traveling direction side of the player character 100 with respect to the mission order place 60.

ステップS1122において、制御部190は、タッチスクリーン130内の所定位置に、ミッション対象キャラクタの発生位置に関する情報を示す位置関連画像500A,500B(これらをまとめて位置関連画像500と称する場合もある)を表示する。図11に示すように、これらの位置関連画像500A,500Bは、ゲームの進行上で邪魔になりにくい位置、例えば、水平方向におけるタッチスクリーン130の端部(例えば、タッチスクリーン130の右端側)に表示される。位置関連画像500Aは、ミッション1に関連付けられたミッション対象キャラクタ200の発生位置に関する情報を示す画像であって、例えば、キャラクタ200の顔が表示されている。位置関連画像500Aの下側には、自キャラクタ100の現在位置からキャラクタ200の発生位置までの距離(ここでは、例えば2km)が表示されている。また、位置関連画像500Bは、ミッション2に関連付けられたミッション対象キャラクタ400の発生位置に関する情報を示す画像であって、例えば、ミッション対象キャラクタ400の顔が表示されている。位置関連画像500Bの下側には、自キャラクタ100の現在位置からキャラクタ400の発生位置までの距離(ここでは、例えば5km)が表示されている。このように、自キャラクタ100がフィールドの所定領域に配置されたときに、制御部190は、ミッション関連情報に基づいて、位置関連画像500A,500Bをタッチスクリーン130上の所定位置に表示させる。   In step S <b> 1122, the control unit 190 displays position-related images 500 </ b> A and 500 </ b> B (information may be collectively referred to as position-related images 500) indicating information related to the generation position of the mission target character at a predetermined position in the touch screen 130. indicate. As shown in FIG. 11, these position-related images 500A and 500B are located at positions that do not get in the way of the game, for example, at the end of the touch screen 130 in the horizontal direction (for example, the right end side of the touch screen 130). Is displayed. The position-related image 500 </ b> A is an image indicating information regarding the generation position of the mission target character 200 associated with the mission 1. For example, the face of the character 200 is displayed. Below the position-related image 500A, a distance (in this case, for example, 2 km) from the current position of the player character 100 to the generation position of the character 200 is displayed. Further, the position-related image 500B is an image showing information on the generation position of the mission target character 400 associated with the mission 2, and for example, the face of the mission target character 400 is displayed. Below the position-related image 500B, a distance (in this case, for example, 5 km) from the current position of the player character 100 to the generation position of the character 400 is displayed. As described above, when the player character 100 is arranged in a predetermined area of the field, the control unit 190 displays the position-related images 500A and 500B at predetermined positions on the touch screen 130 based on the mission-related information.

なお、同ステップにおいて、制御部190は、ミッションボタン67(ミッションに関連付けられた第二の画像の一例)をタッチスクリーン130上の所定位置(例えば、図11に示す地面の断面が表示された位置)に表示させる。ミッションボタン67の操作に関する具体的な処理については後述する。   In this step, the control unit 190 sets the mission button 67 (an example of a second image associated with the mission) to a predetermined position on the touch screen 130 (for example, a position where a cross section of the ground shown in FIG. 11 is displayed). ). Specific processing regarding the operation of the mission button 67 will be described later.

ステップS1124において、ユーザ端末10の制御部190は、ユーザのドラッグ操作の入力を受けたか否かを判定する。ドラッグ操作の入力を受けたと判定された場合には(ステップS1124のYes)、ステップS1126において、制御部190は、ドラッグ操作に基づいて、自キャラクタ100を移動させる。図11に示すように、本ゲームプログラムでは、ミッションを選択するためのフィールドMFと、自キャラクタ100がミッション対象キャラクタと対戦等を行うフィールドBFとがシームレスにつながっている。制御部190は、現在のフィールドの次(あるいは、次の次)のフィールドのフィールドデータの読み込み中に、ユーザの操作に基づいて自キャラクタ100を操作する(現在のフィールド内で移動させる)ことができる。次(あるいは、次の次)のフィールドデータの読み込みが完了すると、読み込みが完了したフィールドへの自キャラクタ100の移動が可能となる。このようにして、制御部190は、位置関連画像500A,500Bおよびこれらに付随して表示された情報に基づいてなされたユーザのドラッグ操作の入力を受け付けることで、自キャラクタ100をミッション選択用のフィールドMFから、対戦等を行うためのフィールドBFへと連続的に移動させることができる。
なお、同ステップにおいて、制御部190は、移動後の自キャラクタ100の仮想空間における位置座標を、サーバ20へ送信する。
In step S1124, the control unit 190 of the user terminal 10 determines whether or not an input of a user's drag operation has been received. If it is determined that an input of a drag operation has been received (Yes in step S1124), in step S1126, the control unit 190 moves the player character 100 based on the drag operation. As shown in FIG. 11, in this game program, a field MF for selecting a mission and a field BF in which the player character 100 plays a battle with a mission target character are seamlessly connected. The control unit 190 may operate (move within the current field) the player character 100 based on the user's operation while reading the field data of the next field (or next next field) of the current field. it can. When reading of the next (or next) field data is completed, the player character 100 can move to the field where the reading has been completed. In this manner, the control unit 190 receives the input of the user's drag operation based on the position-related images 500A and 500B and the information displayed accompanying them, thereby making the character 100 for mission selection. It is possible to continuously move from the field MF to the field BF for performing a battle or the like.
In this step, the control unit 190 transmits the position coordinates of the moved character 100 in the virtual space to the server 20.

ステップS1128において、サーバ20の制御部290は、ユーザ端末10から受信した自キャラクタ100の位置座標に基づいて、サーバ20側の仮想空間の自キャラクタ100の位置を更新する。そして、制御部290は、更新された自キャラクタ100の位置情報を、ユーザ端末10以外の他のユーザ端末へ送信する。   In step S <b> 1128, the control unit 290 of the server 20 updates the position of the player character 100 in the virtual space on the server 20 side based on the position coordinates of the player character 100 received from the user terminal 10. Then, the control unit 290 transmits the updated position information of the own character 100 to a user terminal other than the user terminal 10.

ステップS1130において、ユーザ端末10の制御部190は、ミッション対象キャラクタ200やミッション対象キャラクタ400の発生位置が、タッチスクリーン130に表示されるフィールド内に含まれるか否かを判定する。ミッション対象キャラクタの発生位置がタッチスクリーン130に表示されるフィールドBF内に含まれた場合には(ステップS1130のYes)、ステップS1132において、制御部190は、位置関連画像500A,500Bの表示位置を変更する。例えば、図12に示すように、自キャラクタ100がバトルフィールドBF内を移動することによりミッション対象キャラクタ200の発生位置Pがタッチスクリーン130内に含まれるようになった場合には、制御部190は、タッチスクリーン130の右端側に表示されていた位置関連画像500Aをタッチスクリーン130の上部へと移動させるとともに、タッチスクリーン130の右端側であって位置関連画像500Aの下側に表示されていた位置関連画像500Bをタッチスクリーン130の左端側へと移動させる。このとき、位置関連画像500A,500Bのうち、対象となるキャラクタ200の発生位置Pがタッチスクリーン130内に含まれることとなった位置関連画像500Aについては、その表示態様が変更される。例えば、位置関連画像500Aは、円形から下向き方向に凸部を有するフラッグ型へと変更されて表示される。これにより、タッチスクリーン130内にミッション対象キャラクタ200の発生位置Pが含まれたことを、ユーザに分かりやすく示すことができる。   In step S <b> 1130, the control unit 190 of the user terminal 10 determines whether the generation position of the mission target character 200 or the mission target character 400 is included in the field displayed on the touch screen 130. When the generation position of the mission target character is included in the field BF displayed on the touch screen 130 (Yes in Step S1130), in Step S1132, the control unit 190 sets the display position of the position related images 500A and 500B. change. For example, as shown in FIG. 12, when the generation position P of the mission target character 200 is included in the touch screen 130 due to the own character 100 moving in the battle field BF, the control unit 190 The position related image 500A displayed on the right end side of the touch screen 130 is moved to the top of the touch screen 130, and the position related image 500A displayed on the right end side of the touch screen 130 and below the position related image 500A is displayed. The image 500B is moved to the left end side of the touch screen 130. At this time, the display mode of the position-related image 500A in which the generation position P of the target character 200 is included in the touch screen 130 among the position-related images 500A and 500B is changed. For example, the position-related image 500A is changed from a circular shape to a flag shape having a convex portion in the downward direction and displayed. Thereby, it can be shown to the user in an easy-to-understand manner that the generation position P of the mission target character 200 is included in the touch screen 130.

次に、図11に示すゲーム画面に表示されているミッションボタン67をユーザが選択した場合の具体的な処理を、図13から図15を参照して説明する。   Next, specific processing when the user selects the mission button 67 displayed on the game screen shown in FIG. 11 will be described with reference to FIGS. 13 to 15.

図13のステップS1200において、ユーザ端末10の制御部190は、ユーザの操作によりミッションボタン67が選択されたか否かを判定する。ミッションボタン67が選択されたと判定された場合には(ステップS1200のYes)、ステップS1202において、制御部190は、図11に示すゲーム画面から図14に示すゲーム画面へとタッチスクリーン130上の表示を遷移させる。具体的には、図14に示すように、制御部190は、記憶部150に記憶されている自キャラクタ100の位置情報に関連する情報(第二の情報の一例)とミッション対象キャラクタ200,400の発生位置に関する情報とに基づいて、フィールドにおける自キャラクタ100とミッション対象キャラクタ200,400との位置関係を特定するためのマップ画像70(第三の画像の一例)をタッチスクリーン130に表示させる。マップ画像70は、いわゆるミニマップと呼ばれるものであり、本ゲームプログラムにおけるシームレスフィールドの縮小三次元マップが表示されている。そして、この三次元マップ上において、自キャラクタ100の現在位置には自キャラクタ100が表示されるとともに、ミッション対象キャラクタ200,400の発生位置には、各キャラクタ200,400の画像が表示されている。これにより、ユーザは、自キャラクタ100の現在位置とミッション対象キャラクタ200,400の発生位置とから、ミッションクリアのために自キャラクタ100が移動すべき方向を把握することができる。   In step S1200 of FIG. 13, the control unit 190 of the user terminal 10 determines whether or not the mission button 67 is selected by a user operation. If it is determined that the mission button 67 has been selected (Yes in step S1200), in step S1202, the control unit 190 displays the game screen shown in FIG. 11 on the touch screen 130 from the game screen shown in FIG. Transition. Specifically, as illustrated in FIG. 14, the control unit 190 includes information (an example of second information) related to the position information of the player character 100 stored in the storage unit 150 and the mission target characters 200 and 400. The map image 70 (an example of a third image) for specifying the positional relationship between the player character 100 and the mission target characters 200 and 400 in the field is displayed on the touch screen 130 based on the information on the occurrence position of the character. The map image 70 is a so-called mini map, and displays a reduced three-dimensional map of a seamless field in this game program. On the three-dimensional map, the player character 100 is displayed at the current position of the player character 100, and images of the characters 200 and 400 are displayed at the generation positions of the mission target characters 200 and 400. . Thereby, the user can grasp the direction in which the player character 100 should move in order to clear the mission from the current position of the player character 100 and the generation positions of the mission target characters 200 and 400.

なお、図14に示すように、マップ画像70の下側には、ユーザが選択済みのミッションに関するミッションボタン75A,75Bが表示されていても良い。ミッションボタン75A,75Bが選択されたと判定された場合には、制御部190は、選択したミッションボタン75A,75Bに関連付けられたミッションの内容をタッチスクリーン130上に表示する。   As shown in FIG. 14, mission buttons 75 </ b> A and 75 </ b> B related to a mission that has been selected by the user may be displayed below the map image 70. When it is determined that the mission buttons 75A and 75B are selected, the control unit 190 displays the content of the mission associated with the selected mission buttons 75A and 75B on the touch screen 130.

ステップS1204において、制御部190は、ユーザの操作によりマップ画像70上に表示されたミッション対象キャラクタ200,400の画像が選択されたか否かを判定する。ミッション対象キャラクタ200,400の画像が選択されたと判定された場合には(ステップS1204のYes)、ステップS1206において、制御部190は、タッチスクリーン130上に、所定のコイン(ゲーム内価値の一例)と引き換えに、ミッション対象キャラクタ200,400の発生位置がタッチスクリーン130内に含まれる位置へと自キャラクタ100を移動させるか否かを、ユーザに選択させるための情報を表示させる。例えば、ユーザが、ミッション対象キャラクタ200の画像を選択した場合には、制御部190は、図15に示すように、タッチスクリーン130上に「〇〇コインを支払ってタクシーで移動しますか?」というメッセージ80を「はい」および「いいえ」の選択肢とともに表示する。   In step S1204, the control unit 190 determines whether or not the images of the mission target characters 200 and 400 displayed on the map image 70 are selected by the user's operation. When it is determined that the images of the mission target characters 200 and 400 are selected (Yes in step S1204), in step S1206, the control unit 190 displays a predetermined coin (an example of in-game value) on the touch screen 130. In exchange, information for causing the user to select whether or not to move the own character 100 to a position where the generation positions of the mission target characters 200 and 400 are included in the touch screen 130 is displayed. For example, when the user selects an image of the mission target character 200, the control unit 190, as shown in FIG. 15, “Will you pay 000 coins and move by taxi?” On the touch screen 130. Message 80 is displayed with the choices “Yes” and “No”.

ステップS1208において、制御部190は、ユーザの操作により、上記メッセージに付随して表示された「はい」および「いいえ」のいずれかが選択されたか否かを判定する。「いいえ」が選択されたと判定された場合には、ステップS1210において、制御部190は、当該メッセージを非表示とし、ステップS1200へと処理を戻す。   In step S1208, the control unit 190 determines whether “Yes” or “No” displayed in association with the message is selected by the user's operation. If it is determined that “No” has been selected, in step S1210, the control unit 190 hides the message and returns the process to step S1200.

一方、「はい」が選択されたと判定された場合には、ステップS1212において、制御部190は、所定のコインと引き換えに、マップ画像70において、自キャラクタ100を現在位置からミッション対象キャラクタ200の発生位置付近へと移動させるためのゲーム画面をタッチスクリーン130に表示する。例えば、制御部190は、タッチスクリーン130上において、自キャラクタ100が現在保有しているコイン数に関する情報を変更するとともに、自キャラクタ100がタクシーに乗せられている画面を表示する。そして、ステップS1214において、制御部190は、図12に示すように、自キャラクタ100を、ミッション対象キャラクタ200の発生位置がタッチスクリーン130内に含まれるように表示させるとともに、位置関連画像500A,500Bの表示位置および位置関連画像500Aの表示態様を変更する。その後、制御部190は、ステップS1200へと処理を戻す。   On the other hand, if it is determined that “Yes” is selected, the control unit 190 generates the mission target character 200 from the current position in the map image 70 in exchange for a predetermined coin in step S1212. A game screen for moving near the position is displayed on the touch screen 130. For example, the control unit 190 changes information on the number of coins currently held by the player character 100 on the touch screen 130 and displays a screen on which the player character 100 is on a taxi. In step S1214, as shown in FIG. 12, the control unit 190 displays the own character 100 so that the generation position of the mission target character 200 is included in the touch screen 130, and the position related images 500A and 500B. And the display mode of the position-related image 500A are changed. Thereafter, the control unit 190 returns the process to step S1200.

以上説明したように、本実施形態によれば、制御部190は、仮想ゲーム空間に形成されたフィールドに、ミッションを選択するためのミッション発注所60を配置し、ミッション発注所60においてユーザにより選択されたミッションと、選択されたミッションに関連付けられたミッション対象キャラクタ200,400とに関する第一の情報をメモリに記憶させ、自キャラクタ100がフィールドの所定領域に配置されたときに、第一の情報に基づいて、ミッション対象キャラクタ200,400の発生位置に関連付けられた位置関連画像500A,500Bをタッチスクリーン130に表示させる。これにより、シームレスフィールドを採用したゲームであっても、ユーザはミッションを分かりやすく攻略することができる。   As described above, according to the present embodiment, the control unit 190 arranges the mission ordering place 60 for selecting a mission in the field formed in the virtual game space, and is selected by the user at the mission ordering place 60. The first information about the selected mission and the mission target characters 200 and 400 associated with the selected mission is stored in the memory, and the first information is obtained when the player character 100 is placed in a predetermined area of the field. Based on the above, position-related images 500A and 500B associated with the generation positions of the mission target characters 200 and 400 are displayed on the touch screen 130. Thereby, even in a game adopting a seamless field, the user can capture the mission in an easy-to-understand manner.

また、制御部190は、タッチスクリーン130内にミッション対象キャラクタ200,400の発生位置が含まれていない場合と、タッチスクリーン130内にミッション対象キャラクタ200,400の発生位置が含まれている場合とで、位置関連画像500A,500Bの表示態様を異ならせても良い。これにより、タッチスクリーン130内にミッション対象キャラクタ200,400の発生位置が含まれたことを、ユーザに分かりやすく示すことができる。   In addition, the control unit 190 may include a case where the generation positions of the mission target characters 200 and 400 are not included in the touch screen 130 and a case where the generation positions of the mission target characters 200 and 400 are included in the touch screen 130. Thus, the display mode of the position-related images 500A and 500B may be varied. Thereby, it can be shown to the user in an easy-to-understand manner that the generation positions of the mission target characters 200 and 400 are included in the touch screen 130.

また、本ゲームプログラムのゲームフィールドは、各ゲームステージが連続的に形成され自キャラクタ100がゲームフィールド内の上下方向および水平方向に移動可能な二次元フィールドであり、制御部190は、タッチスクリーン130内にミッション対象キャラクタ200,400の発生位置が含まれていない場合には、水平方向におけるタッチスクリーン130の端部に位置関連画像500A,500Bを表示させ、タッチスクリーン130内にミッション対象キャラクタ200,400の発生位置が含まれている場合には、上下方向におけるタッチスクリーン130の端部に位置関連画像500A,500Bを表示させても良い。これにより、二次元フィールドが表示される画面上でのミッション対象キャラクタの発生状況を、より分かりやすく示すことができる。   The game field of this game program is a two-dimensional field in which each game stage is continuously formed and the player character 100 can move in the vertical and horizontal directions in the game field. If the generation position of the mission target characters 200 and 400 is not included in the position, the position-related images 500A and 500B are displayed at the ends of the touch screen 130 in the horizontal direction, and the mission target characters 200 and 400 are displayed in the touch screen 130. If 400 occurrence positions are included, the position-related images 500A and 500B may be displayed at the end of the touch screen 130 in the vertical direction. Thereby, it is possible to more clearly show the generation situation of the mission target character on the screen on which the two-dimensional field is displayed.

制御部190は、ミッションに関連付けられたミッションボタン67をタッチスクリーン130に表示させ、ユーザがミッションボタン67を選択したときに、自キャラクタ100の位置情報に関連する情報とミッション対象キャラクタ200,400の発生位置に関する情報とに基づいて、シームレスフィールドにおける自キャラクタ100とミッション対象キャラクタ200,400との位置関係を特定するためのマップ画像70をタッチスクリーン130に表示させ得る。また、制御部190は、マップ画像70に対するユーザの操作により、所定のコインと引き換えに、自キャラクタ100を、ミッション対象キャラクタ200,400がタッチスクリーン130内に含まれる位置へと移動させても良い。これにより、ゲーム性をさらに向上させることができる。   The control unit 190 displays the mission button 67 associated with the mission on the touch screen 130, and when the user selects the mission button 67, information related to the position information of the player character 100 and the mission target characters 200 and 400 are displayed. A map image 70 for specifying the positional relationship between the player character 100 and the mission target characters 200 and 400 in the seamless field can be displayed on the touch screen 130 based on the information on the occurrence position. Further, the control unit 190 may move the player character 100 to a position where the mission target characters 200 and 400 are included in the touch screen 130 in exchange for a predetermined coin by a user operation on the map image 70. . Thereby, game nature can further be improved.

なお、位置関連画像500A,500Bの表示態様は、自キャラクタ100以外の他キャラクタの状況に応じて変更可能としても良い。すなわち、制御部190は、ユーザ端末10とは異なるユーザ端末に関連付けられた他キャラクタに関連する情報(第三の情報の一例)に基づいて、位置関連画像500A,500Bの表示態様を変化させることができる。具体的には、マルチプレイ中の各ユーザがミッションを選択すると、各ユーザ端末10の制御部190は、ミッション選択情報をサーバ20へ送信する。サーバ20の制御部290は、各ユーザ端末10から送信されたミッション選択情報に基づいて、記憶部150に、各キャラクタ(自キャラクタおよび他キャラクタ)の受任ミッションに関するミッション選択テーブル90を記憶させる。図16に示すように、ミッション選択テーブル90には、マルチプレイに参加しているキャラクタ(例えば、ユーザキャラクタ100、110、120)と、各ユーザキャラクタの受任しているミッションの情報が保存される。サーバ20の制御部290は、ミッション選択テーブル90に基づいて、各キャラクタが選択したミッションと各キャラクタの現在位置に関する情報を、各ユーザ端末10へ送信する。ユーザ端末10の制御部190は、サーバ20からの情報に基づいて、位置関連画像500A,500Bの表示態様を変更する。なお、ミッション選択テーブル90は、サーバ20の記憶部250に記憶されることとしてもよい。この場合、ユーザ端末10の制御部190が、サーバ20へミッション選択情報を送信し、サーバ20の記憶部250にミッション選択テーブル90が選択される。   Note that the display mode of the position-related images 500 </ b> A and 500 </ b> B may be changeable according to the situation of a character other than the player character 100. That is, the control unit 190 changes the display mode of the position-related images 500 </ b> A and 500 </ b> B based on information related to another character associated with a user terminal different from the user terminal 10 (an example of third information). Can do. Specifically, when each user in multiplay selects a mission, the control unit 190 of each user terminal 10 transmits mission selection information to the server 20. Based on the mission selection information transmitted from each user terminal 10, the control unit 290 of the server 20 causes the storage unit 150 to store a mission selection table 90 related to the missions accepted by each character (self character and other characters). As shown in FIG. 16, in the mission selection table 90, information on the characters participating in the multiplayer (for example, user characters 100, 110, and 120) and the missions accepted by each user character is stored. Based on the mission selection table 90, the control unit 290 of the server 20 transmits information on the mission selected by each character and the current position of each character to each user terminal 10. The control unit 190 of the user terminal 10 changes the display mode of the position-related images 500A and 500B based on the information from the server 20. The mission selection table 90 may be stored in the storage unit 250 of the server 20. In this case, the control unit 190 of the user terminal 10 transmits mission selection information to the server 20, and the mission selection table 90 is selected in the storage unit 250 of the server 20.

位置関連画像500A,500Bの表示態様は、例えば、ミッション対象キャラクタ200,400に関するミッションを選択しているユーザキャラクタの人数(キャラクタ基本情報)、ミッション対象キャラクタ200,400の周囲にいるあるいはこれらのキャラクタ200,400に近づこうとしているユーザキャラクタの人数(キャラクタ行動情報)などに応じて変更可能である。これにより、自キャラクタが攻略しようとするミッションをすでに選択している他キャラクタがいる場合には、ユーザは、例えばステップS1212に示すような方法(コインと引き換えにタクシーで移動)を選択し、当該ミッションの対象キャラクタの発生位置へワープ移動して他キャラクタを追い抜いてミッションを攻略するといった戦略を選択することもできる。このように、ミッション受注状況やミッション対象キャラクタへの他プレイヤの接近状況について、ユーザに分かりやすく示すことで、マルチプレイのゲームにおいて、他プレイヤの状況をユーザが容易に認識することができ、ゲーム性を向上させることができる。   The display mode of the position-related images 500A and 500B is, for example, the number of user characters (character basic information) that have selected a mission related to the mission target characters 200 and 400, the surroundings of the mission target characters 200 and 400, or these characters. The number can be changed according to the number of user characters (character action information) that are about to approach 200,400. As a result, when there is another character that has already selected a mission to be captured by the player character, the user selects a method (moving by taxi in exchange for coins) as shown in step S1212, for example. It is also possible to select a strategy of warping to the position where the target character of the mission is generated and overtaking other characters to capture the mission. In this way, the user can easily recognize the situation of the other player in the multiplayer game by showing the mission order situation and the approach situation of the other player to the mission target character in an easy-to-understand manner. Can be improved.

上記の実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。   The above embodiments are merely examples for facilitating the understanding of the present invention, and are not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.

1:ゲーム配信システム、10:ユーザ端末、20:サーバ、130:タッチスクリーン、190:(ユーザ端末の)制御部、191:入力操作受付部、193:キャラクタ操作検出部、195:オブジェクト制御部、197:表示制御部、290:(サーバの)制御部、252B:ミッション管理テーブル、40:操作オブジェクト、53:バッファメモリ、55:初期タッチ位置座標、60:ミッション発注所(ミッション選択領域の一例)、65:メニュー画面、67:ミッションボタン、70:マップ画像(第三の画像の一例)、75A,75B:ミッションボタン、80:メッセージ、90:ミッション選択テーブル、100:自ユーザキャラクタ(プレイヤキャラクタ、キャラクタオブジェクトの一例)、200:相手キャラクタ(ミッション対象キャラクタ)、300:ユーザインターフェース画像、400:ミッション対象キャラクタ、500A,500B:位置関連画像
1: game distribution system, 10: user terminal, 20: server, 130: touch screen, 190: control unit (of user terminal), 191: input operation reception unit, 193: character operation detection unit, 195: object control unit, 197: Display control unit, 290: (Server) control unit, 252B: Mission management table, 40: Operation object, 53: Buffer memory, 55: Initial touch position coordinates, 60: Mission ordering place (an example of mission selection area) , 65: menu screen, 67: mission button, 70: map image (example of third image), 75A, 75B: mission button, 80: message, 90: mission selection table, 100: own user character (player character, Example of character object), 200: opponent character (Mission subject character), 300: a user interface image, 400: Mission target character, 500A, 500B: Position Related Image

Claims (9)

タッチスクリーンを含む端末機器で実行されるゲーム方法であって、
第一のフィールドと、ユーザが操作する第一のプレイヤオブジェクトが前記第一のフィールドからシームレスに移動可能な第二のフィールドと、を含む仮想空間を規定するステップと、
前記第一のフィールドに、ミッションを選択するためのミッション選択領域を配置するステップと、
前記ミッション選択領域においてユーザにより選択されたミッションと、選択された前記ミッションに関連付けられた対象キャラクタオブジェクトとに関する第一の情報を、前記端末機器あるいは前記端末機器と通信可能な装置に実装されるメモリに記憶させるステップと、
前記第二のフィールドの読み込みが完了する前に、前記第一の情報に基づいて前記第一のプレイヤオブジェクトと前記対象キャラクタオブジェクトの発生位置との間の距離に関する第二の情報を特定し、前記第二のフィールドの読み込みが完了する前から前記第二の情報に関する情報を含む第一の画像を前記タッチスクリーンに表示させるステップと、
を含む、ゲーム方法。
A game method executed on a terminal device including a touch screen,
Defining a virtual space including a first field and a second field in which a first player object operated by a user can be moved seamlessly from the first field ;
Placing a mission selection area for selecting a mission in the first field;
Memory mounted on the terminal device or a device communicable with the terminal device, the first information regarding the mission selected by the user in the mission selection area and the target character object associated with the selected mission Memorizing steps,
Before the reading of the second field is completed, second information relating to the distance between the first player object and the generation position of the target character object is specified based on the first information, Displaying a first image on the touch screen including information on the second information before the second field is read ; and
Including a game method.
記タッチスクリーン内に前記発生位置が含まれていない場合と、前記タッチスクリーン内に前記発生位置が含まれている場合とで、前記第一の画像の表示態様を異ならせる、請求項1に記載の方法。 And it does not contain the said occurrence position before Symbol the touch screen, and the case that contains the generation position within the touch screen, to vary the display mode of the first image, in claim 1 The method described. 前記第一のフィールドおよび前記第二のフィールドは、各ゲームステージが連続的に形成され前記第一のプレイヤオブジェクトが前記フィールド内の上下方向および水平方向に移動可能な二次元フィールドであり、
前記タッチスクリーン内に前記発生位置が含まれていない場合には、前記水平方向における前記タッチスクリーンの端部に前記第一の画像を表示させ、
前記タッチスクリーン内に前記発生位置が含まれている場合には、前記上下方向における前記タッチスクリーンの端部に前記第一の画像を表示させる、請求項2に記載の方法。
The first field and the second field are two-dimensional fields in which each game stage is continuously formed and the first player object can move in the vertical and horizontal directions in the field,
When the generation position is not included in the touch screen, the first image is displayed on the edge of the touch screen in the horizontal direction,
The method according to claim 2, wherein, when the generation position is included in the touch screen, the first image is displayed on an end portion of the touch screen in the vertical direction.
記第一のプレイヤオブジェクトの位置情報に関連する第の情報をさらに前記メモリに記憶させるステップと
記ミッションに関連付けられた第二の画像を前記タッチスクリーンに表示させるステップと、
記ユーザが前記第二の画像を選択したときに、前記第の情報と前記対象キャラクタオブジェクトの前記発生位置に関する情報とに基づいて、前記第一のフィールドおよび前記第二のフィールドにおける前記第一のプレイヤオブジェクトと前記対象キャラクタオブジェクトとの位置関係を特定するための第三の画像を前記タッチスクリーンに表示させるステップと、
をさらに含む、請求項1から3のいずれか一項に記載の方法。
A step of Ru is stored in the further said memory a third information relating to prior Symbol position information of the first player object,
A step of displaying a second image associated with the prior SL mission on the touch screen,
When the front SL user selects the second image, based on the information on the generating position of the target character object and the third information, the in the first field and the second field first Displaying a third image on the touch screen for specifying a positional relationship between one player object and the target character object;
The method according to any one of claims 1 to 3, further comprising:
記第三の画像に対する前記ユーザの操作により、所定のゲーム内価値と引き換えに、前記第一のプレイヤオブジェクトを、前記対象キャラクタオブジェクトが前記タッチスクリーン内に含まれる位置へと移動させるステップをさらに含む、請求項4に記載の方法。 By operation of the user to the previous SL third image, in exchange for a the value predetermined game, the first player object, further the step of moving to a position where the target character object is included in the touch screen The method of claim 4 comprising. 記ユーザとは異なるユーザに関連付けられた第二のプレイヤオブジェクトに関連する第の情報を前記メモリに記憶させるステップをさらに含み
記第の情報に基づいて、前記第一の画像の表示態様を変化させる、請求項1から5のいずれか一項に記載の方法。
Further comprising a fourth step in which information Ru was stored in the memory associated with the second player object associated with a different user than the previous SL user,
Before SL based on the fourth information, the first changing the display mode of the image, the method according to any one of claims 1 to 5.
前記第の情報は、前記第二のプレイヤオブジェクトによる前記ミッションの選択状況および前記第二のプレイヤオブジェクトの現在位置の少なくともいずれかに関する情報を含む、請求項6に記載の方法。 The method according to claim 6, wherein the fourth information includes information regarding at least one of a selection status of the mission by the second player object and a current position of the second player object. 請求項1から7のいずれか一項に記載のゲーム方法をコンピュータに実行させるためのゲームプログラム。   A game program for causing a computer to execute the game method according to claim 1. プロセッサを備えるコンピュータであって、  A computer comprising a processor,
前記プロセッサの制御により、請求項1から7のいずれか一項に記載のゲーム方法を実行する、コンピュータ。  The computer which performs the game method as described in any one of Claim 1 to 7 by control of the said processor.
JP2016231354A 2016-11-29 2016-11-29 GAME METHOD AND GAME PROGRAM Active JP6225234B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016231354A JP6225234B1 (en) 2016-11-29 2016-11-29 GAME METHOD AND GAME PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016231354A JP6225234B1 (en) 2016-11-29 2016-11-29 GAME METHOD AND GAME PROGRAM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017189207A Division JP2018086250A (en) 2017-09-28 2017-09-28 Game method and game program

Publications (2)

Publication Number Publication Date
JP6225234B1 true JP6225234B1 (en) 2017-11-01
JP2018086159A JP2018086159A (en) 2018-06-07

Family

ID=60206008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016231354A Active JP6225234B1 (en) 2016-11-29 2016-11-29 GAME METHOD AND GAME PROGRAM

Country Status (1)

Country Link
JP (1) JP6225234B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006149671A (en) * 2004-11-29 2006-06-15 Aruze Corp Game program and server
JP2009279038A (en) * 2008-05-19 2009-12-03 Sega Corp Game program and recording medium
JP2010262523A (en) * 2009-05-08 2010-11-18 Nintendo Co Ltd Network system, information processing apparatus and information processing program
JP2013128582A (en) * 2011-12-20 2013-07-04 Konami Digital Entertainment Co Ltd Game device, game system, game task data generation device, game task data generation method, game control method, and program
JP2013169356A (en) * 2012-02-21 2013-09-02 Nintendo Co Ltd Information processing system, information processing program, information processing method and information processor
JP5977878B1 (en) * 2015-11-27 2016-08-24 グリー株式会社 Program, game control method, and information processing apparatus
JP2016182189A (en) * 2015-03-25 2016-10-20 任天堂株式会社 Information processing program, information processing device, information processing system and information processing method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006149671A (en) * 2004-11-29 2006-06-15 Aruze Corp Game program and server
JP2009279038A (en) * 2008-05-19 2009-12-03 Sega Corp Game program and recording medium
JP2010262523A (en) * 2009-05-08 2010-11-18 Nintendo Co Ltd Network system, information processing apparatus and information processing program
JP2013128582A (en) * 2011-12-20 2013-07-04 Konami Digital Entertainment Co Ltd Game device, game system, game task data generation device, game task data generation method, game control method, and program
JP2013169356A (en) * 2012-02-21 2013-09-02 Nintendo Co Ltd Information processing system, information processing program, information processing method and information processor
JP2016182189A (en) * 2015-03-25 2016-10-20 任天堂株式会社 Information processing program, information processing device, information processing system and information processing method
JP5977878B1 (en) * 2015-11-27 2016-08-24 グリー株式会社 Program, game control method, and information processing apparatus

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"アサシン クリード リベレーション", ファミ通XBOX 360, vol. 第11巻第2号, JPN6017015710, 27 December 2011 (2011-12-27), JP, pages 第94-95頁 *
"ファイナルファンタジーXII", ゲームラボ, vol. 第238号, JPN6017015714, 1 June 2015 (2015-06-01), JP, pages Pages 24 *
スコット・ロジャーズ, 「レベルアップ」のゲームデザイン, vol. 初版, JPN6017015713, 22 August 2012 (2012-08-22), JP, pages Pages 179,180,499 *

Also Published As

Publication number Publication date
JP2018086159A (en) 2018-06-07

Similar Documents

Publication Publication Date Title
JP6225279B1 (en) GAME METHOD AND GAME PROGRAM
JP6318279B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP5845547B1 (en) Program, game system, electronic device, server, and game control method for improving user input operability
JP6404877B2 (en) GAME PROGRAM, GAME PROVIDING METHOD, AND INFORMATION PROCESSING DEVICE
JP6002345B1 (en) Information processing apparatus including game program, method, and touch screen
JP6270973B1 (en) GAME METHOD AND GAME PROGRAM
JP2017192538A (en) Game program, method, and information processor with touch screen
JP6225234B1 (en) GAME METHOD AND GAME PROGRAM
JP6554125B2 (en) Game method and game program
JP2018086250A (en) Game method and game program
US11318379B2 (en) Game server and method of sharing note in the game server
JP2017192537A (en) Game program, method, and information processor with touch screen
JP2018110838A (en) Game method and game program
JP6306771B1 (en) Information processing method, information processing apparatus, and information processing program
JP6554506B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING DEVICE, AND INFORMATION PROCESSING PROGRAM
JP2018094424A (en) Game method and game program
JP2017185190A (en) Game program, method, and information processor including touch screen
JP6174202B1 (en) Information processing apparatus provided with game program, method, and touch screen
JP2018192326A (en) Game program, method for providing game and information processor
JP6263293B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6002344B1 (en) Information processing apparatus including game program, method, and touch screen
JP2018020150A (en) Game program, method, and information processor with touch screen
JP5938131B1 (en) Program, game system, electronic device, server, and game control method for improving user input operability
JP2018033972A (en) Game program, method and information processing device including touch screen
JP5841287B1 (en) Program, game control method, and information processing apparatus

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171006

R150 Certificate of patent or registration of utility model

Ref document number: 6225234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250