JP2018097614A - Game method and game program - Google Patents

Game method and game program Download PDF

Info

Publication number
JP2018097614A
JP2018097614A JP2016241645A JP2016241645A JP2018097614A JP 2018097614 A JP2018097614 A JP 2018097614A JP 2016241645 A JP2016241645 A JP 2016241645A JP 2016241645 A JP2016241645 A JP 2016241645A JP 2018097614 A JP2018097614 A JP 2018097614A
Authority
JP
Japan
Prior art keywords
field
game
user
touch screen
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016241645A
Other languages
Japanese (ja)
Other versions
JP6270973B1 (en
Inventor
洋平 三宅
Yohei Miyake
洋平 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2016241645A priority Critical patent/JP6270973B1/en
Application granted granted Critical
Publication of JP6270973B1 publication Critical patent/JP6270973B1/en
Publication of JP2018097614A publication Critical patent/JP2018097614A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a game method capable of making a boundary of a plurality of game fields inconspicuous by a simple process in a game adopting a seamless field.SOLUTION: There is provided a game method executed in a terminal device (10) that includes a touch screen (130). The game method comprises the steps of: (a) defining a virtual space including a virtual camera, a first field MF, and a second field BF where a player object 100 operated from the first field MF by a user can move seamlessly; (b) downloading and reading each image data of the first field MF and the second field BF at a predetermined timing, and displaying the read image data on a touch screen 130; and (c) generating boundary area image data CF connecting between the first field MF and the second field BF and displaying it on the touch screen 130 when a predetermined condition is satisfied in a state where the first field MF is displayed on the touch screen 130.SELECTED DRAWING: Figure 13

Description

本開示は、ゲーム方法およびゲームプログラムに関する。   The present disclosure relates to a game method and a game program.

特許文献1には、各ゲームステージにおいて順次形成される複数のミッションをプレイヤキャラクタがクリアしてゆくゲームが開示されている。ユーザは、プレイヤキャラクタを操作して各ゲームステージでミッションを実行することにより、経験値を得ることができる。   Patent Document 1 discloses a game in which a player character clears a plurality of missions sequentially formed at each game stage. The user can obtain an experience value by operating the player character and executing a mission at each game stage.

特開2009−195685号公報JP 2009-195585 A

“旧FF14 昔は世界がシームレスに繋がっていた。リムサからラノシアへの移動”、[online]、平成28年3月24日、You Tube、[平成28年12月2日検索]、インターネット<URL: https://www.youtube.com/watch?v=LiTQxURlCu4>“Old FF14 In the past, the world was seamlessly connected. Moving from Limsa to Lanocia”, [online], March 24, 2016, You Tube, [Search December 2, 2016], Internet <URL : https://www.youtube.com/watch?v=LiTQxURlCu4>

特許文献1に開示のゲームでは、各ゲームステージに移動する際には、対象のゲームステージを選択し、当該ゲームステージに関連付けられたゲーム空間へ移動する構成となっている。ところで、各ゲームステージやゲームステージを選択するためのステージが途切れなく(すなわち、シームレスに)連続している所謂「シームレスフィールド」を採用したゲームにおいては、複数のゲームステージのデータ(ゲームフィールドデータ)を適切なタイミングで読み込んで繋ぎ合わせる処理をすることにより、ユーザにシームレス感を提供している(非特許文献1参照)。このとき、複数のゲームフィールドデータの境界が目立っては興ざめであるため、ゲームフィールド同士のつなぎ目が目立たないように作り込む必要があり、手間がかかる。   In the game disclosed in Patent Document 1, when moving to each game stage, a target game stage is selected and moved to a game space associated with the game stage. By the way, in a game employing a so-called “seamless field” in which the stages for selecting each game stage and game stage are continuous (ie, seamlessly), data of a plurality of game stages (game field data) The user is provided with a seamless feeling by performing a process of reading and connecting them at an appropriate timing (see Non-Patent Document 1). At this time, since the boundaries between a plurality of game field data are conspicuous, it is necessary to create the game fields so that the joints between the game fields are not conspicuous.

本開示は、シームレスフィールドを採用したゲームにおいて、簡便な処理で複数のゲームフィールドの境界を目立たないようにすることが可能なゲーム方法およびゲームプログラムを提供することを目的とする。   An object of the present disclosure is to provide a game method and a game program capable of making a boundary between a plurality of game fields inconspicuous with a simple process in a game employing a seamless field.

本開示に示す一実施形態によれば、タッチスクリーンを含む端末機器で実行されるゲーム方法が提供される。
当該ゲーム方法は、
(a)仮想カメラと、第一のフィールドと、前記第一のフィールドからユーザが操作するプレイヤオブジェクトがシームレスに移動可能な第二のフィールドと、を含む仮想空間を規定するステップと、
(b)前記第一のフィールドおよび前記第二のフィールドの各画像データを所定のタイミングでダウンロードするとともに読み込むことにより、読み込んだ前記各画像データを前記タッチスクリーンに表示させるステップと、
(c)前記第一のフィールドが前記タッチスクリーンに表示されている状態において所定の条件が満たされた場合に、前記第一のフィールドと前記第二のフィールドとの間を繋ぐ境界領域画像データを生成して前記タッチスクリーンに表示させるステップと、
を含む。
According to an embodiment shown in the present disclosure, a game method executed on a terminal device including a touch screen is provided.
The game method is
(A) defining a virtual space including a virtual camera, a first field, and a second field in which a player object operated by a user from the first field can move seamlessly;
(B) displaying each of the read image data on the touch screen by downloading and reading the image data of the first field and the second field at a predetermined timing;
(C) When a predetermined condition is satisfied in a state where the first field is displayed on the touch screen, boundary area image data connecting the first field and the second field is obtained. Generating and displaying on the touch screen;
including.

また、本開示に示す一実施形態によれば、上記に記載のゲーム方法をコンピュータに実行させるためのゲームプログラムが提供される。   Moreover, according to one embodiment shown in this indication, a game program for making a computer perform the above-mentioned game methods is provided.

本開示によれば、シームレスフィールドを採用したゲームにおいて、簡便な処理で複数のゲームフィールドの境界を目立たないようにすることが可能なゲーム方法およびゲームプログラムを提供することができる。   According to the present disclosure, it is possible to provide a game method and a game program capable of making a boundary between a plurality of game fields inconspicuous with a simple process in a game employing a seamless field.

本実施形態に係るゲーム配信システムの構成例を示す図である。It is a figure which shows the structural example of the game delivery system which concerns on this embodiment. 本実施形態に係るユーザ端末の構成を示すブロック図である。It is a block diagram which shows the structure of the user terminal which concerns on this embodiment. 本実施形態に係るサーバの機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the server which concerns on this embodiment. 本実施形態に係るユーザ端末のタッチスクリーン上に表示されるゲームのゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen of the game displayed on the touch screen of the user terminal which concerns on this embodiment. 操作検出部が、ユーザの入力操作に応じてプレイヤキャラクタを移動させる方向を検出する処理を示す図である。It is a figure which shows the process in which an operation detection part detects the direction which moves a player character according to a user's input operation. タッチスクリーン上に表示される操作オブジェクトの一例を示す図である。It is a figure which shows an example of the operation object displayed on a touch screen. 本実施形態におけるマルチプレイを実現するためのユーザ端末およびサーバの動作例について説明するフローチャートであるIt is a flowchart explaining the operation example of the user terminal and server for implement | achieving the multi play in this embodiment. ミッション対象キャラクタの発生位置に関する画像の表示処理について説明するフローチャートである。It is a flowchart explaining the display process of the image regarding the generation | occurrence | production position of a mission object character. 本実施形態に係るゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen which concerns on this embodiment. 本実施形態に係るゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen which concerns on this embodiment. 本実施形態に係るゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen which concerns on this embodiment. 複数のフィールド間の境界領域画像を生成するための処理について説明するフローチャートである。It is a flowchart explaining the process for producing | generating the boundary area | region image between several fields. 本実施形態に係るゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen which concerns on this embodiment.

[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)本開示の一実施形態に係るゲーム方法は、タッチスクリーンを含む端末機器で実行されるゲーム方法である。
当該ゲーム方法は、
(a)仮想カメラと、第一のフィールドと、前記第一のフィールドからユーザが操作するプレイヤオブジェクトがシームレスに移動可能な第二のフィールドと、を含む仮想空間を規定するステップと、
(b)前記第一のフィールドおよび前記第二のフィールドの各画像データを所定のタイミングでダウンロードするとともに読み込むことにより、読み込んだ前記各画像データを前記タッチスクリーンに表示させるステップと、
(c)前記第一のフィールドが前記タッチスクリーンに表示されている状態において所定の条件が満たされた場合に、前記第一のフィールドと前記第二のフィールドとの間を繋ぐ境界領域画像データを生成して前記タッチスクリーンに表示させるステップと、
を含む。
[Description of Embodiments Presented by the Present Disclosure]
An overview of an embodiment indicated by the present disclosure will be described.
(1) The game method which concerns on one Embodiment of this indication is a game method performed with the terminal device containing a touch screen.
The game method is
(A) defining a virtual space including a virtual camera, a first field, and a second field in which a player object operated by a user from the first field can move seamlessly;
(B) displaying each of the read image data on the touch screen by downloading and reading the image data of the first field and the second field at a predetermined timing;
(C) When a predetermined condition is satisfied in a state where the first field is displayed on the touch screen, boundary area image data connecting the first field and the second field is obtained. Generating and displaying on the touch screen;
including.

上記方法によれば、シームレスフィールドを採用したゲームにおいて、簡便な処理で複数のゲームフィールドの境界を目立たないようにすることができる。   According to the above method, in a game adopting a seamless field, it is possible to make the boundaries of a plurality of game fields inconspicuous with a simple process.

(2)前記境界領域画像データは、前記第一のフィールドおよび前記第二のフィールドの各画像データに基づいて生成されても良い。   (2) The boundary area image data may be generated based on the image data of the first field and the second field.

上記方法によれば、境界領域画像データを少ない信号処理量で形成することができる。   According to the above method, boundary region image data can be formed with a small amount of signal processing.

(3)前記境界領域画像データは、前記第一のフィールドおよび前記第二のフィールドのいずれか一方の画像データに、他方の画像データに対して透過処理を施した透過処理データを重畳することにより生成されても良い。   (3) The boundary region image data is obtained by superimposing transmission processing data obtained by performing transmission processing on the other image data on the image data of one of the first field and the second field. May be generated.

(4)前記境界領域画像データは、透過率の異なる複数の前記透過処理データを、前記透過率のグラデーションがつくように並べることで生成されても良い。   (4) The boundary region image data may be generated by arranging a plurality of the transmission processing data having different transmittances so that the gradation of the transmittance is added.

(5)前記第一のフィールドおよび前記第二のフィールドは、前記プレイヤオブジェクトが各フィールド内の上下方向および水平方向に移動可能な二次元フィールドであり、
前記境界領域画像データは、前記タッチスクリーン上に表示される地面の断面画像部分に表示されても良い。
(5) The first field and the second field are two-dimensional fields in which the player object can move vertically and horizontally in each field,
The boundary area image data may be displayed on a cross-sectional image portion of the ground displayed on the touch screen.

これらの方法によれば、第一のフィールドと第二のフィールドとの繋ぎ目を自然に見せることができる。   According to these methods, the joint between the first field and the second field can be shown naturally.

(6)上記のゲーム方法は、
(d)前記仮想空間において、前記境界領域画像データの上方に境界用オブジェクトを配置するステップと、
(e)前記プレイヤオブジェクトを、前記第一のフィールドから前記境界用オブジェクトの後方側を通り抜けさせて前記第二のフィールドへと移動させるステップと、
をさらに含んでも良い。
(6) The above game method is:
(D) disposing a boundary object above the boundary region image data in the virtual space;
(E) moving the player object from the first field through the rear side of the boundary object to the second field;
May further be included.

上記方法によれば、プレイヤオブジェクトが移動する空間の背景部分における第一のフィールドと第二のフィールドとの繋ぎ目の画像データを別途作成する必要がなく、制作負荷を低減することができる。   According to the above method, it is not necessary to separately create image data of the joint between the first field and the second field in the background portion of the space in which the player object moves, and the production load can be reduced.

(7)前記所定の条件は、前記第一のフィールドの所定位置に配置された対象オブジェクトが前記タッチスクリーンに含まれていること、または、前記対象オブジェクトと前記仮想カメラあるいは前記プレイヤオブジェクトとの位置関係が所定条件を満たしていることを含んでも良い。   (7) The predetermined condition is that a target object arranged at a predetermined position in the first field is included in the touch screen, or a position between the target object and the virtual camera or the player object. It may include that the relationship satisfies a predetermined condition.

上記方法によれば、適切なタイミングで境界領域画像データの生成を開始することができる。   According to the above method, the generation of the boundary area image data can be started at an appropriate timing.

(8)本開示の一実施形態に係るプログラムは、上記(1)から(7)のいずれかに記載のゲーム方法をコンピュータに実行させるためのゲームプログラムである。   (8) A program according to an embodiment of the present disclosure is a game program for causing a computer to execute the game method according to any one of (1) to (7).

この構成によれば、シームレスフィールドを採用したゲームにおいて、簡便な処理で複数のゲームフィールドの境界を目立たないようにすることが可能なゲームプログラムを提供することができる。   According to this configuration, it is possible to provide a game program capable of making a boundary between a plurality of game fields inconspicuous with a simple process in a game employing a seamless field.

[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。なお、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Presented by the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, about the member which has the same reference number as the member already demonstrated in description of this embodiment, the description is not repeated for convenience of explanation.

本実施形態において、ユーザは、例えばスマートフォンなどの、タッチスクリーンを搭載した情報処理装置を操作して、ゲームサーバと、スマートフォンとの間でゲームに関するデータを送受信しながらゲームを進行させる。ゲームは、ユーザが一人でプレイするシングルプレイと、ユーザが他のユーザとともにプレイするマルチプレイとに対応する。   In the present embodiment, a user operates an information processing apparatus equipped with a touch screen such as a smartphone, for example, and advances the game while transmitting and receiving data related to the game between the game server and the smartphone. The game corresponds to single play where the user plays alone and multi-play where the user plays with other users.

図1は、実施の形態のゲーム配信システム1の構成を示す図である。図1に示すように、ゲーム配信システム1は、ユーザが使用する情報処理装置と、サーバ20とを含み、これらの装置がネットワーク30によって互いに通信可能に接続されている。   FIG. 1 is a diagram illustrating a configuration of a game distribution system 1 according to the embodiment. As shown in FIG. 1, the game distribution system 1 includes an information processing device used by a user and a server 20, and these devices are connected to each other via a network 30 so as to communicate with each other.

図1の例では、ユーザが使用する情報処理装置として、ユーザ端末10A、ユーザ端末10Bおよびユーザ端末10C(以下、ユーザ端末10A、10B、10Cなどのユーザ端末を総称して「ユーザ端末10」と記載することもある)など複数の携帯端末を示している。ユーザ端末10Aとユーザ端末10Bとは、無線基地局31と通信することにより、ネットワーク30と接続する。ユーザ端末10Cは、家屋などの施設に設置される無線ルータ32と通信することにより、ネットワーク30と接続する。ユーザ端末10は、タッチスクリーンを備える携帯端末であり、例えば、スマートフォン、ファブレット、タブレットなどである。   In the example of FIG. 1, user terminals 10 </ b> A, 10 </ b> B, and 10 </ b> C (hereinafter referred to as user terminals 10 </ b> A, 10 </ b> B, 10 </ b> C) are collectively referred to as “user terminal 10” as information processing devices used by a user. A plurality of portable terminals are shown. The user terminal 10 </ b> A and the user terminal 10 </ b> B are connected to the network 30 by communicating with the radio base station 31. The user terminal 10C is connected to the network 30 by communicating with a wireless router 32 installed in a facility such as a house. The user terminal 10 is a mobile terminal that includes a touch screen, and is, for example, a smartphone, a fablet, a tablet, or the like.

ユーザ端末10は、ゲームプログラムを実行することにより、ゲームプログラムに応じたゲームをプレイする環境をユーザに対して提供する。ユーザ端末10は、例えば、アプリ等を配信するプラットフォームを介してゲームプログラムをインストールする。ユーザ端末10は、ユーザ端末10にインストールされたゲームプログラム、または、予めプリインストールされているゲームプログラムを実行することで、ユーザによるゲームのプレイを可能とする。ユーザ端末10は、ゲームプログラムを読み込んで実行することにより、サーバ20と通信し、ゲームの進行に応じてゲームに関連するデータをユーザ端末10とサーバ20との間で送受信する。   The user terminal 10 provides the user with an environment for playing a game according to the game program by executing the game program. For example, the user terminal 10 installs a game program via a platform that distributes applications and the like. The user terminal 10 enables a user to play a game by executing a game program installed in the user terminal 10 or a game program pre-installed in advance. The user terminal 10 communicates with the server 20 by reading and executing the game program, and transmits and receives data related to the game between the user terminal 10 and the server 20 as the game progresses.

サーバ20は、ゲームのプレイに必要なデータを、適宜、ユーザ端末10へ送信することで、ユーザ端末10でのゲームのプレイを進行させる。サーバ20は、ゲームをプレイする各ユーザの、ゲームに関連する各種データを管理する。サーバ20は、ユーザ端末10と通信し、各ユーザのゲームの進行に応じて、画像、音声、テキストデータその他のデータをユーザ端末10へ送信する。   The server 20 advances the game play on the user terminal 10 by appropriately transmitting data necessary for the game play to the user terminal 10. The server 20 manages various data related to the game of each user who plays the game. The server 20 communicates with the user terminal 10 and transmits images, sounds, text data, and other data to the user terminal 10 according to the progress of each user's game.

ゲームプログラムは、ユーザがゲームをプレイするモードとして、一人のユーザがプレイする場合(シングルプレイ)と、複数人のユーザが協同してプレイする場合(マルチプレイ)とに対応している。例えば、ゲーム配信システム1において、サーバ20が、マルチプレイに参加するユーザを特定して各ユーザの各ユーザ端末10と通信すること等により、マルチプレイでゲームをプレイする環境を各ユーザに提供する。   The game program corresponds to a mode in which a user plays a game when a single user plays (single play) and when a plurality of users play in cooperation (multiplay). For example, in the game distribution system 1, the server 20 provides each user with an environment for playing a game in multiplayer by specifying a user participating in multiplay and communicating with each user terminal 10 of each user.

ゲーム配信システム1は、マルチプレイに対応することにより、例えば、アクションゲームであれば、ユーザ同士が協力してゲームを進行させること、または、ユーザ同士で対戦することなどを可能とする。   The game distribution system 1 is capable of supporting multi-play, for example, in the case of an action game, allowing the users to cooperate with each other to advance the game or play against each other.

図1に示すようにサーバ20は、ハードウェア構成として、通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備え、これらが通信バスを介して互いに接続されている。   As shown in FIG. 1, the server 20 includes a communication IF (Interface) 22, an input / output IF 23, a memory 25, a storage 26, and a processor 29 as hardware configurations, which are mutually connected via a communication bus. It is connected.

通信IF22は、例えばLAN(Local Area Network)規格など各種の通信規格に対応しており、ユーザ端末10など外部の通信機器との間でデータを送受信するためのインタフェースとして機能する。   The communication IF 22 corresponds to various communication standards such as a LAN (Local Area Network) standard, and functions as an interface for transmitting and receiving data to and from an external communication device such as the user terminal 10.

入出力IF23は、サーバ20への情報の入力を受け付けるとともに、サーバ20の外部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス、キーボード等の情報入力機器の接続を受け付ける入力受付部と、画像等を表示するためのディスプレイ等の情報出力機器の接続を受け付ける出力部とを含む。   The input / output IF 23 functions as an interface for receiving information input to the server 20 and outputting information to the outside of the server 20. The input / output IF 23 includes an input receiving unit that accepts connection of an information input device such as a mouse and a keyboard, and an output unit that accepts connection of an information output device such as a display for displaying an image or the like.

メモリ25は、処理に使用されるデータ等を記憶するための記憶装置である。メモリ25は、例えば、プロセッサ29が処理を行う際に一時的に使用するための作業領域をプロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置を含んで構成されている。   The memory 25 is a storage device for storing data used for processing. For example, the memory 25 provides the processor 29 with a work area for temporary use when the processor 29 performs processing. The memory 25 includes a storage device such as a ROM (Read Only Memory) and a RAM (Random Access Memory).

ストレージ26は、プロセッサ29が読み込んで実行するための各種プログラム及びデータを記憶するための記憶装置である。ストレージ26が記憶する情報は、ゲームプログラム、ゲームプログラムに関連する情報、ゲームプログラムをプレイするユーザの情報その他の情報を含む。ストレージ26は、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置を含んで構成されている。   The storage 26 is a storage device for storing various programs and data that the processor 29 reads and executes. The information stored in the storage 26 includes a game program, information related to the game program, information on a user who plays the game program, and other information. The storage 26 includes a storage device such as an HDD (Hard Disk Drive) and a flash memory.

プロセッサ29は、ストレージ26に記憶されるプログラム等を読み込んで実行することにより、サーバ20の動作を制御する。プロセッサ29は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等を含んで構成される。   The processor 29 controls the operation of the server 20 by reading and executing a program or the like stored in the storage 26. The processor 29 includes, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and the like.

図2は、ユーザ端末10の構成を示すブロック図である。図2に示すように、ユーザ端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン130と、入出力IF140と、記憶部150と、音声処理部160と、マイク170と、スピーカ180と、制御部190とを含む。   FIG. 2 is a block diagram illustrating a configuration of the user terminal 10. As shown in FIG. 2, the user terminal 10 includes an antenna 110, a wireless communication IF 120, a touch screen 130, an input / output IF 140, a storage unit 150, a sound processing unit 160, a microphone 170, a speaker 180, And a control unit 190.

アンテナ110は、ユーザ端末10が発する信号を電波として空間へ放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ与える。   The antenna 110 radiates a signal emitted from the user terminal 10 to space as a radio wave. Further, the antenna 110 receives radio waves from the space and gives a received signal to the wireless communication IF 120.

無線通信IF120は、ユーザ端末10が他の通信機器と通信するため、アンテナ110等を介して信号を送受信するための変復調処理などを行う。無線通信IF120は、チューナー、高周波回路などを含む無線通信用の通信モジュールであり、ユーザ端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。   The wireless communication IF 120 performs modulation / demodulation processing for transmitting and receiving signals via the antenna 110 and the like so that the user terminal 10 communicates with other communication devices. The wireless communication IF 120 is a communication module for wireless communication including a tuner, a high frequency circuit, and the like, performs modulation / demodulation and frequency conversion of a wireless signal transmitted / received by the user terminal 10, and provides a received signal to the control unit 190.

タッチスクリーン130は、ユーザからの入力を受け付けて、各種情報をディスプレイ132に出力する。タッチスクリーン130は、ユーザの入力操作を受け付けるためのタッチパネル131と、メニュー画面やゲームの進行を画面に表示するためのディスプレイ132と、を含む。タッチパネル131は、例えば静電容量方式のものを用いることによって、ユーザの指などが接近したことを検出する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)、有機EL(electroluminescence)その他の表示装置によって実現される。   The touch screen 130 receives input from the user and outputs various information to the display 132. The touch screen 130 includes a touch panel 131 for receiving a user input operation and a display 132 for displaying a menu screen or a game progress on the screen. The touch panel 131 detects that the user's finger or the like has approached by using, for example, a capacitive type. The display 132 is realized by a display device such as an LCD (Liquid Crystal Display), an organic EL (electroluminescence), or the like.

入出力IF140は、ユーザ端末10への情報の入力を受け付けるとともに、ユーザ端末10の外部へ情報を出力するためのインタフェースとして機能する。   The input / output IF 140 functions as an interface for accepting input of information to the user terminal 10 and outputting information to the outside of the user terminal 10.

記憶部150は、フラッシュメモリ、RAM(Random Access Memory)等により構成され、ユーザ端末10が使用するプログラム、および、ユーザ端末10がサーバ20から受信する各種データ等を記憶する。   The storage unit 150 includes a flash memory, a RAM (Random Access Memory), and the like, and stores programs used by the user terminal 10 and various data received by the user terminal 10 from the server 20.

音声処理部160は、音声信号の変復調を行う。音声処理部160は、マイク170から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部160は、音声信号をスピーカ180へ与える。音声処理部160は、例えば、音声処理用のプロセッサによって実現される。マイク170は、音声信号の入力を受け付けて制御部190へ出力するための音声入力部として機能する。スピーカ180は、音声信号を、ユーザ端末10の外部へ出力するための音声出力部として機能する。   The audio processing unit 160 performs modulation / demodulation of the audio signal. The audio processing unit 160 modulates the signal given from the microphone 170 and gives the modulated signal to the control unit 190. In addition, the audio processing unit 160 provides an audio signal to the speaker 180. The sound processing unit 160 is realized by, for example, a sound processing processor. The microphone 170 functions as an audio input unit for receiving an input of an audio signal and outputting it to the control unit 190. The speaker 180 functions as an audio output unit for outputting an audio signal to the outside of the user terminal 10.

制御部190は、記憶部150に記憶されるプログラムを読み込んで実行することにより、ユーザ端末10の動作を制御する。制御部190は、例えば、アプリケーションプロセッサによって実現される。   The control unit 190 controls the operation of the user terminal 10 by reading and executing a program stored in the storage unit 150. The control unit 190 is realized by an application processor, for example.

ユーザ端末10がゲームプログラム151を実行する処理について、より詳細に説明する。記憶部150は、ゲームプログラム151と、ゲーム情報152と、ユーザ情報153とを記憶する。ユーザ端末10は、例えば、サーバ20からゲームプログラムをダウンロードして記憶部150に記憶させる。また、ユーザ端末10は、ゲームの進行に伴いサーバ20と通信することで、ゲーム情報152およびユーザ情報153等の各種のデータをサーバ20と送受信する。   A process in which the user terminal 10 executes the game program 151 will be described in more detail. The storage unit 150 stores a game program 151, game information 152, and user information 153. For example, the user terminal 10 downloads a game program from the server 20 and stores it in the storage unit 150. Further, the user terminal 10 communicates with the server 20 as the game progresses, thereby transmitting and receiving various data such as game information 152 and user information 153 to and from the server 20.

ゲームプログラム151は、ユーザ端末10においてゲームを進行させるためのプログラムである。ゲーム情報152は、ゲームプログラム151が参照する各種のデータを含む。ゲーム情報152は、例えば、ゲームにおいて仮想空間に配置するオブジェクトの情報、オブジェクトに対応付けられた効果の情報(ゲームキャラクタに設定されるスキルの情報などを含む)などを含む。ユーザ情報153は、ゲームをプレイするユーザについての情報を含む。ユーザ情報153は、例えば、ゲームをプレイするユーザ端末10のユーザを識別する情報、マルチプレイ時に協働してゲームをプレイする他のユーザを識別する情報などを含む。   The game program 151 is a program for causing the user terminal 10 to advance the game. The game information 152 includes various data referred to by the game program 151. The game information 152 includes, for example, information on objects to be arranged in the virtual space in the game, information on effects associated with the objects (including information on skills set for game characters), and the like. The user information 153 includes information about the user who plays the game. The user information 153 includes, for example, information for identifying the user of the user terminal 10 who plays the game, information for identifying other users who play the game in cooperation with the multi-play.

制御部190は、ゲームプログラム151を読み込んで実行することにより、入力操作受付部191と、キャラクタ操作検出部193と、オブジェクト制御部195と、表示制御部197と、の各機能を発揮する。   The control unit 190 reads and executes the game program 151 to exhibit the functions of the input operation receiving unit 191, the character operation detection unit 193, the object control unit 195, and the display control unit 197.

入力操作受付部191は、タッチスクリーン130の出力に基づいて、ユーザの入力操作を受け付ける。具体的には、入力操作受付部191は、ユーザの指などがタッチパネル131に接近したことを、タッチスクリーン130を構成する面の横軸および縦軸からなる座標系の座標として検出する。   The input operation accepting unit 191 accepts a user input operation based on the output of the touch screen 130. Specifically, the input operation accepting unit 191 detects that a user's finger or the like has approached the touch panel 131 as coordinates in a coordinate system including a horizontal axis and a vertical axis of a surface constituting the touch screen 130.

入力操作受付部191は、タッチスクリーン130に対するユーザの操作を判別する。入力操作受付部191は、例えば、(1)「接近操作」、(2)「リリース操作」、(3)「タップ操作」、(4)「長押し操作(ロングタッチ操作)」、(5)「ドラッグ操作(スワイプ操作)」などのユーザの操作を判別する。入力操作受付部191が判別するユーザの操作は、上記に限られない。例えば、タッチパネル131が、ユーザがタッチパネル131に対して押下する圧力の大きさを検出可能な機構を有する場合、入力操作受付部191は、ユーザが押下した圧力の大きさを判別する。   The input operation reception unit 191 determines a user operation on the touch screen 130. The input operation reception unit 191 includes, for example, (1) “approach operation”, (2) “release operation”, (3) “tap operation”, (4) “long press operation (long touch operation)”, (5) A user operation such as “drag operation (swipe operation)” is determined. The user operation determined by the input operation receiving unit 191 is not limited to the above. For example, when the touch panel 131 has a mechanism that can detect the magnitude of the pressure that the user presses against the touch panel 131, the input operation reception unit 191 determines the magnitude of the pressure that the user has pressed.

(1)「接近操作」とは、ユーザが指などをタッチスクリーン130に接近させる操作である。タッチスクリーン130は、ユーザの指などが接近したこと(ユーザの指などがタッチスクリーン130に接触したことを含む)をタッチパネル131により検出し、検出したタッチスクリーン130の座標に応じた信号を入力操作受付部191へ出力する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出しない状態から、接近を検出したときに、状態が「タッチオン状態」になったと判別する。   (1) The “approach operation” is an operation in which the user brings a finger or the like closer to the touch screen 130. The touch screen 130 detects that the user's finger or the like has approached (including that the user's finger or the like has touched the touch screen 130) by the touch panel 131, and inputs a signal corresponding to the detected coordinates of the touch screen 130. The data is output to the reception unit 191. The control unit 190 determines that the state is the “touch-on state” when the approach is detected from the state in which the approach of the user's finger or the like to the touch screen 130 is not detected.

(2)「リリース操作」とは、ユーザがタッチスクリーン130を接近操作している状態を止める操作である。制御部190は、例えば、ユーザが指をタッチスクリーン130に接触させている状態から、指を離す操作をしたときに、ユーザの操作を「リリース操作」と判別する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出している状態から、接近を検出しない状態になったときに、状態が「タッチオン状態」から「タッチオフ状態」になったと判別する。   (2) “Release operation” is an operation for stopping the state in which the user is operating the touch screen 130 to approach. For example, when the user performs an operation of releasing the finger from a state in which the user is in contact with the touch screen 130, the control unit 190 determines that the user's operation is a “release operation”. The control unit 190 determines that the state is changed from the “touch-on state” to the “touch-off state” when the approach is not detected from the state in which the approach of the user's finger or the like to the touch screen 130 is detected. To do.

(3)「タップ操作」とは、ユーザがタッチスクリーン130に対して指などを接近させる接近操作をした後に、接近操作をした位置でリリース操作を行うことである。入力操作受付部191は、接近操作が検出されない状態(ユーザの指などがタッチスクリーン130から離れており、タッチパネル131がユーザの指などの接近を検出していない状態)から、タッチスクリーン130の出力に基づいて、ユーザの指などが接近したことを検出した場合に、その検出した座標を「初期タッチ位置」として保持する。制御部190は、初期タッチ位置の座標と、リリース操作をした座標とがほぼ同一である場合(接近操作が検出された座標から一定範囲内の座標においてリリース操作の座標が検出された場合)に、ユーザの操作を「タップ操作」と判別する。   (3) “Tap operation” refers to performing a release operation at a position where the user performs an approach operation after the user performs an approach operation to bring a finger or the like closer to the touch screen 130. The input operation reception unit 191 outputs the touch screen 130 from a state where no approach operation is detected (a state where the user's finger or the like is away from the touch screen 130 and the touch panel 131 does not detect the approach of the user's finger or the like). When it is detected that the user's finger or the like has approached based on the above, the detected coordinates are held as the “initial touch position”. When the coordinates of the initial touch position and the coordinates of the release operation are substantially the same (when the coordinates of the release operation are detected in the coordinates within a certain range from the coordinates where the approach operation is detected), the control unit 190 The user's operation is determined as “tap operation”.

(4)「長押し操作」とは、ユーザがタッチスクリーン130を押し続ける操作である。制御部190は、ユーザの操作を検出して接近操作を判別してから、接近操作が検出された座標(あるいは当該座標を含む一定領域内)において接近操作が継続している時間が一定時間を超えた場合に、ユーザの操作を「長押し操作」(「長押し操作」を、「ロングタッチ操作」と称することもある)と判別する。   (4) “Long press operation” is an operation in which the user continues to press the touch screen 130. The control unit 190 detects the user's operation and determines the approaching operation, and then the time during which the approaching operation is continued in the coordinates where the approaching operation is detected (or within a certain region including the coordinates) is set to a certain time. When it exceeds, it is determined that the user's operation is “long press operation” (“long press operation” may be referred to as “long touch operation”).

(5)「ドラッグ操作」とは、ユーザがタッチスクリーン130に指などを接近させた接近状態を維持したまま、指をスライドさせる操作である。   (5) “Drag operation” is an operation of sliding a finger while maintaining an approaching state in which the user brings a finger or the like close to the touch screen 130.

キャラクタ操作検出部193は、タッチスクリーン130に対するユーザの入力操作に基づいて、ゲームに登場するプレイヤキャラクタ(以下、「自キャラクタ」と称することもある)に所定の動作を実行させる入力操作の操作内容を検出する。キャラクタ操作検出部193は、ユーザの入力操作に基づいて、例えば、プレイヤキャラクタを移動させる方向を検出する。すなわち、キャラクタ操作検出部193は、ユーザがプレイヤキャラクタの移動方向を指定する入力操作を受け付ける。   Based on the user's input operation on the touch screen 130, the character operation detection unit 193 performs the operation content of the input operation that causes a player character (hereinafter also referred to as “self character”) appearing in the game to execute a predetermined action. Is detected. The character operation detection unit 193 detects, for example, the direction in which the player character is moved based on the input operation of the user. That is, the character operation detection unit 193 receives an input operation in which the user specifies the moving direction of the player character.

具体的には、キャラクタ操作検出部193は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させて、入力操作受付部191がタッチパネル131にユーザの指が接近したことを検出した座標を初期タッチ位置として、ユーザがドラッグ操作を行った場合に、初期タッチ位置の座標とタッチスクリーン130の検出結果とに基づいて、プレイヤキャラクタの移動方向を検出する。キャラクタ操作検出部193での具体的な処理については、後述する。   Specifically, the character operation detection unit 193 causes the user to move the finger closer to the touch screen 130 from the state where the user's finger is separated from the touch screen 130, and the input operation reception unit 191 causes the touch panel 131 to move the user's finger. When the user performs a drag operation using the detected coordinates as the initial touch position, the moving direction of the player character is detected based on the initial touch position coordinates and the detection result of the touch screen 130. Specific processing in the character operation detection unit 193 will be described later.

オブジェクト制御部195は、ユーザ端末10がゲームプログラムを実行することにより進行されるゲームに登場する各種オブジェクト、および、入力操作受付部191が受け付けたユーザの操作内容に基づいて生成される各種オブジェクト(例えば、GUI(Graphical User Interface)画面)の生成、変形、移動などの処理を制御する。オブジェクト制御部195は、例えば、ユーザがプレイヤキャラクタを移動させるためのタッチスクリーン130に対する入力操作に基づいて、プレイヤキャラクタの移動方向を示す操作オブジェクト40を生成する。操作オブジェクト40の詳細については、後述する。   The object control unit 195 includes various objects that appear in a game that is progressed by the user terminal 10 executing a game program, and various objects that are generated based on user operation contents received by the input operation reception unit 191 ( For example, processing such as generation, deformation, and movement of a GUI (Graphical User Interface) screen is controlled. The object control unit 195 generates an operation object 40 indicating the moving direction of the player character based on, for example, an input operation on the touch screen 130 for moving the player character by the user. Details of the operation object 40 will be described later.

表示制御部197は、キャラクタ操作検出部193およびオブジェクト制御部195での制御に応じて、ディスプレイ132の表示内容を決定し、決定した表示内容に従った画像、テキスト等の各種の情報をディスプレイ132に出力する。例えば、表示制御部197は、プレイヤキャラクタをディスプレイ132の一定領域に表示させた状態で、入力操作受付部191によって受け付けた入力操作に応じて操作オブジェクト40を表示させつつプレイヤキャラクタに所定の動作(例えば、移動やジャンプ動作)を行わせる画面表示を行う。   The display control unit 197 determines the display content of the display 132 according to control by the character operation detection unit 193 and the object control unit 195, and displays various information such as images and texts according to the determined display content. Output to. For example, the display control unit 197 displays the operation object 40 in accordance with the input operation received by the input operation receiving unit 191 in a state where the player character is displayed in a certain area of the display 132, and performs a predetermined action ( For example, a screen display for moving or jumping is performed.

図3は、サーバ20の機能的な構成を示すブロック図である。図3を参照して、サーバ20の詳細な構成を説明する。サーバ20は、プログラムに従って動作することにより、通信部220と、記憶部250と、制御部290としての機能を発揮する。   FIG. 3 is a block diagram illustrating a functional configuration of the server 20. The detailed configuration of the server 20 will be described with reference to FIG. The server 20 functions as the communication unit 220, the storage unit 250, and the control unit 290 by operating according to the program.

通信部220は、サーバ20がユーザ端末10などの外部の通信機器とネットワーク30を介して通信するためのインタフェースとして機能する。   The communication unit 220 functions as an interface for the server 20 to communicate with an external communication device such as the user terminal 10 via the network 30.

記憶部250は、ユーザ端末10においてユーザがゲームを進行させるための各種プログラムおよびデータを記憶する。ある局面において、記憶部250は、ゲームプログラム251と、ゲーム情報252と、ユーザ情報253とを記憶する。   The storage unit 250 stores various programs and data for the user to advance the game in the user terminal 10. In one aspect, the storage unit 250 stores a game program 251, game information 252, and user information 253.

ゲームプログラム251は、サーバ20がユーザ端末10と通信して、ユーザ端末10においてゲームを進行させるためのプログラムである。ゲームプログラム251は、ゲームを進行させるための各種データであるゲーム情報252およびユーザ情報253等を参照して、ユーザの入力操作に応じてゲームを進行させる。ゲームプログラム251は、制御部290に実行されることにより、ユーザ端末10とデータを送受信する処理、ユーザ端末10のユーザが行った操作内容に応じてゲームを進行させる処理、ゲームをプレイするユーザの情報を更新する処理などをサーバ20に行わせる。   The game program 251 is a program for allowing the server 20 to communicate with the user terminal 10 and advance the game on the user terminal 10. The game program 251 refers to the game information 252 and user information 253 that are various data for proceeding with the game, and causes the game to proceed according to the user's input operation. The game program 251 is executed by the control unit 290, whereby processing for transmitting / receiving data to / from the user terminal 10, processing for advancing the game according to the operation performed by the user of the user terminal 10, and the user playing the game The server 20 is caused to perform processing for updating information.

ゲーム情報252は、ゲームプログラム251が参照する各種のデータを含む。ゲーム情報252は、例えば、オブジェクト管理テーブル252Aと、ミッション管理テーブル252Bとを含む。   The game information 252 includes various data referred to by the game program 251. The game information 252 includes, for example, an object management table 252A and a mission management table 252B.

オブジェクト管理テーブル252Aは、ゲームの仮想空間内に配置されるオブジェクトの設定を示す。ユーザ端末10は、ゲームプログラム151を実行することにより、仮想空間内に配置されるオブジェクトを、仮想空間内に配置される仮想カメラによって撮影した画像をディスプレイ132に表示することでゲームを進行させる。   The object management table 252A shows the setting of objects arranged in the virtual space of the game. By executing the game program 151, the user terminal 10 causes the display 132 to display an image obtained by photographing an object placed in the virtual space with a virtual camera placed in the virtual space, thereby causing the game to proceed.

ここで、オブジェクトとしては、例えば、ユーザが操作するゲームキャラクタを示すオブジェクト、ゲームキャラクタが装着する対象物を示すオブジェクトなど様々なものがある。これらオブジェクトは、ユーザがタッチスクリーン130に対して予め定められた入力操作を行うこと、ゲームの進行に伴い一定の条件を満たすこと、その他の様々な事象の発生を契機として、オブジェクトに対応付けられた処理が行われる。   Here, there are various objects such as an object indicating a game character operated by the user and an object indicating an object worn by the game character. These objects are associated with objects when the user performs a predetermined input operation on the touch screen 130, meets certain conditions as the game progresses, and other various events occur. Processing is performed.

例えば、あるオブジェクトに対してユーザがタッチスクリーン130に対して接近操作を行うことで、オブジェクトがユーザに選択された状態となる。また、例えば、ユーザがドラッグ操作を行うことで、ユーザに選択されているオブジェクトがユーザの入力操作に応じて移動する等の処理が行われる。また、例えば、ユーザがオブジェクトに対してタッチ操作をすることで、ユーザに対し、ゲームを有利に進めるための報酬が付与される等の処理が行われる。   For example, when the user performs an approach operation on the touch screen 130 with respect to an object, the object is selected by the user. Further, for example, when the user performs a drag operation, processing such as movement of an object selected by the user according to the user's input operation is performed. In addition, for example, when the user performs a touch operation on the object, a process such as a reward for favoring the game is given to the user.

ミッション管理テーブル252Bは、オブジェクトを識別する情報と、オブジェクトに対応付けられたミッションの情報とが対応付けられている。ここで、ミッションとは、クエストとも呼ばれ、例えば、敵キャラクタを倒したり、所定のキャラクタを救出したりすることで、ユーザがゲームを進行させることができるものである。例えば、ミッションをクリアした場合には、所定の報酬(例えばコイン)をユーザが得る等の、ゲームを有利に進行させられる効果が生じる。ミッション管理テーブル252Bには、各ミッションが、後述の複数のミッション発注所のそれぞれと関連付けられて記憶されている。また、各ミッションの情報には、当該ミッションに関連付けられたミッション対象キャラクタの出現場所、難易度、報酬などの情報が含まれている。   In the mission management table 252B, information for identifying an object is associated with information on a mission associated with the object. Here, the mission is also called a quest. For example, the user can advance the game by defeating an enemy character or rescuing a predetermined character. For example, when the mission is cleared, there is an effect that the game can be advantageously advanced such that the user obtains a predetermined reward (for example, a coin). In the mission management table 252B, each mission is stored in association with each of a plurality of mission order offices described later. The information of each mission includes information such as the appearance location, difficulty level, and reward of the mission target character associated with the mission.

ユーザ情報253は、ゲームをプレイするユーザについての情報である。ユーザ情報253は、ユーザ管理テーブル253Aを含む。ユーザ管理テーブル253Aは、各ユーザを識別する情報と、ユーザがゲームを進行させた度合いを示す情報と、ユーザがゲーム内で保有するアイテム、ゲームキャラクタ、ゲームキャラクタが使用する装着物等の情報などを含む。   The user information 253 is information about the user who plays the game. The user information 253 includes a user management table 253A. The user management table 253A includes information for identifying each user, information indicating the degree of progress of the game by the user, information on items held by the user in the game, game characters, items used by the game character, and the like. including.

制御部290は、記憶部250に記憶されるゲームプログラム251を実行することにより、送受信部291、サーバ処理部292、データ管理部293、マッチング部294、計測部295としての機能を発揮する。   The control unit 290 executes functions of the transmission / reception unit 291, the server processing unit 292, the data management unit 293, the matching unit 294, and the measurement unit 295 by executing the game program 251 stored in the storage unit 250.

送受信部291は、ゲームプログラム151を実行するユーザ端末10から、各種情報を受信し、ユーザ端末10に対し、各種情報を送信する。ユーザ端末10とサーバ20とは、ユーザに関連付けられるオブジェクトを仮想空間に配置する要求、オブジェクトを削除する要求、オブジェクトを移動させる要求、ユーザが獲得する報酬に応じて各種パラメータを更新する要求、ゲームを進行させるための画像、音声その他のデータ、サーバ20からユーザ端末10へ送信される通知などの情報を送受信する。   The transmission / reception unit 291 receives various types of information from the user terminal 10 that executes the game program 151, and transmits various types of information to the user terminal 10. The user terminal 10 and the server 20 include a request to place an object associated with the user in the virtual space, a request to delete the object, a request to move the object, a request to update various parameters according to a reward acquired by the user, a game Information such as an image, audio, and other data for advancing, and a notification transmitted from the server 20 to the user terminal 10 are transmitted and received.

サーバ処理部292は、サーバ20全体の動作を制御し、各種のプログラムを呼び出す等によりゲームの進行に必要な処理を行う。サーバ処理部292は、例えば、ユーザ端末10から受信した情報に基づいて、ゲーム情報252、ユーザ情報253、などのデータを更新し、ユーザ端末10に各種データを送信することでゲームを進行させる。   The server processing unit 292 controls the operation of the entire server 20 and performs processing necessary for the progress of the game by calling various programs. For example, the server processing unit 292 updates the data such as the game information 252 and the user information 253 based on the information received from the user terminal 10 and transmits various data to the user terminal 10 to advance the game.

データ管理部293は、サーバ処理部292の処理結果に従って、記憶部250に記憶される各種データを更新する処理、データベースにレコードを追加/更新/削除する処理などを行う。   The data management unit 293 performs processing for updating various data stored in the storage unit 250, processing for adding / updating / deleting records to the database, and the like according to the processing result of the server processing unit 292.

マッチング部294は、複数のユーザを関連付けるための一連の処理を行う。マッチング部294は、例えば、ユーザがマルチプレイを行うための入力操作を行った場合に、ゲームを協同してプレイさせるユーザを関連付ける処理などを行う。   The matching unit 294 performs a series of processes for associating a plurality of users. For example, when the user performs an input operation for performing multi-play, the matching unit 294 performs processing for associating a user who plays a game in cooperation.

計測部295は、時間を計測する処理を行う。計測部295は、例えば、仮想空間に配置される各オブジェクトについて時間の経過を計測する。また、計測部295は、ゲームが進行している時間を計測する。サーバ20は、ユーザ端末10から、ユーザ端末10においてゲームプログラム151を実行して計測される各種の計測結果の情報を受信し、受信した情報と、計測部295の計測結果とを照合することで、ユーザ端末10とサーバ20とで、各種の時間に関する情報を同期させる。   The measurement unit 295 performs processing for measuring time. For example, the measurement unit 295 measures the passage of time for each object arranged in the virtual space. Moreover, the measurement part 295 measures the time for which the game is progressing. The server 20 receives information on various measurement results measured by executing the game program 151 on the user terminal 10 from the user terminal 10, and collates the received information with the measurement results of the measurement unit 295. The user terminal 10 and the server 20 synchronize information about various times.

図4は、本実施形態に係るユーザ端末10のタッチスクリーン130に表示されるゲーム画面の一例を示す。
図4の画面例は、ユーザが操作する自キャラクタ100(キャラクタオブジェクト、プレイヤキャラクタの一例)に、所定の動作を行わせるための入力操作を受け付ける画面である。制御部190は、タッチスクリーン130に、ユーザが操作するプレイヤキャラクタである自キャラクタ100と、対戦相手(敵)となるキャラクタである相手キャラクタ200(以下、ミッション対象キャラクタと称する場合もある)とを表示させて、ユーザに対し、自キャラクタ100に所定の動作を行わせるための入力操作を受け付ける。自キャラクタ100および相手キャラクタ200は、ユーザ端末10を縦型となるように置いたときに、その上下方向においてタッチスクリーン130の中央付近(例えば、タッチスクリーン130をその上下方向に三分割したときの中央の領域内)に、例えば、左右方向において進行方向に視野がやや広くなるように表示される。タッチスクリーン130の下方には、例えば地面の断面(図4のドット模様の部分)が表示されている。タッチスクリーン130の下半部、すなわち地面の断面が表示された部分は、後述の操作オブジェクト40を操作するためのスペースとして利用可能である。ユーザは、タッチスクリーン130の任意位置への操作によって、自キャラクタ100を操作することができる。ユーザが、例えば、ディスプレイ132の左右方向に沿った方向(図4の矢印Aの方向)のドラッグ操作を入力した場合、制御部190は、そのドラッグ操作を受け付けて、自キャラクタ100をドラッグ操作の方向に対応する方向(例えば、矢印Bの方向)に移動させるよう制御する。なお、本例では、制御部190は、ドラッグ操作の方向に基づいて、仮想空間内に規定された二次元フィールドにおいて、自キャラクタ100を上下方向および水平方向に移動させることができる。
FIG. 4 shows an example of a game screen displayed on the touch screen 130 of the user terminal 10 according to the present embodiment.
The screen example of FIG. 4 is a screen that accepts an input operation for causing the own character 100 (an example of a character object or a player character) operated by the user to perform a predetermined action. The control unit 190 displays, on the touch screen 130, the own character 100 that is a player character operated by the user, and an opponent character 200 that is a character that is an opponent (enemy) (hereinafter also referred to as a mission target character). The input operation for allowing the user character 100 to perform a predetermined action is displayed. When the user character 10 and the opponent character 200 are placed so that the user terminal 10 is in a vertical shape, the vicinity of the center of the touch screen 130 in the vertical direction (for example, when the touch screen 130 is divided into three in the vertical direction) In the central area, for example, the field of view is displayed so as to be slightly wider in the direction of travel in the left-right direction. Below the touch screen 130, for example, a cross-section of the ground (dot-patterned portion in FIG. 4) is displayed. The lower half of the touch screen 130, that is, the portion where the cross section of the ground is displayed can be used as a space for operating the operation object 40 described later. The user can operate the player character 100 by operating the touch screen 130 to an arbitrary position. For example, when the user inputs a drag operation in the direction along the left-right direction of the display 132 (the direction of the arrow A in FIG. 4), the control unit 190 accepts the drag operation and performs a drag operation on the player character 100. Control is performed so as to move in the direction corresponding to the direction (for example, the direction of arrow B). In this example, the control unit 190 can move the player character 100 in the vertical and horizontal directions in the two-dimensional field defined in the virtual space based on the direction of the drag operation.

タッチスクリーン130の左右方向の端部(図4では左端)には、各種のユーザインターフェース画像300が表示されていても良い。UI画像300には、例えば、マップを表示するためのUI画像300A、キャラクタを変更するためのUI画像300B、スキル(ゲーム内で自キャラクタ100により行われる攻撃アクションの一つ)を発動させるためのUI画像300Cが含まれ得る。   Various user interface images 300 may be displayed on the left and right end portions (left end in FIG. 4) of the touch screen 130. The UI image 300 includes, for example, a UI image 300A for displaying a map, a UI image 300B for changing a character, and a skill (one of attack actions performed by the player character 100 in the game). A UI image 300C may be included.

<1.自キャラクタの動作制御>
図5は、キャラクタ操作検出部193が、ユーザの入力操作に応じて自キャラクタ100を移動させる方向を検出する処理を示す図である。キャラクタ操作検出部193は、ユーザがタッチスクリーン130を押していない状態から、指などをタッチパネル131に接近させてタッチスクリーン130を押した位置(初期タッチ位置)を起点と設定する。入力操作受付部191は、ユーザの操作をドラッグ操作と判別している場合に、起点となる座標と、タッチスクリーン130がユーザの指などの接近を検出している座標とに基づいて、自キャラクタ100を移動させる方向を検出する。
<1. Action control of own character>
FIG. 5 is a diagram illustrating processing in which the character operation detection unit 193 detects a direction in which the player character 100 is moved in accordance with a user input operation. The character operation detection unit 193 sets a position (initial touch position) where the user presses the touch screen 130 by bringing a finger or the like closer to the touch panel 131 from the state where the user is not pressing the touch screen 130 as a starting point. When the input operation reception unit 191 determines that the user's operation is a drag operation, the input operation reception unit 191 determines the own character based on the coordinates that are the starting point and the coordinates that the touch screen 130 detects the approach of the user's finger or the like. The direction in which 100 is moved is detected.

図5の状態(A)は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させた状態を示す。入力操作受付部191は、ユーザの指がタッチスクリーン130に接近したことを検出し、検出した座標を初期タッチ位置としてメモリ(例えば、主記憶4または補助記憶5)に保持する。   A state (A) in FIG. 5 shows a state in which the user brings his / her finger closer to the touch screen 130 from a state in which the user's finger has left the touch screen 130. The input operation reception unit 191 detects that the user's finger has approached the touch screen 130 and holds the detected coordinates in the memory (for example, the main memory 4 or the auxiliary memory 5) as an initial touch position.

図5の例では、メモリが保持する初期タッチ位置の座標を、初期タッチ位置座標55として示す。入力操作受付部191は、タッチスクリーン130の検出結果(ユーザの指がタッチスクリーン130に接近している座標、および、ユーザの指がタッチスクリーン130に接近していることを検出していないこと(検出結果「null」))を、一定フレーム分、バッファメモリ53に格納する。バッファメモリ53は、タッチスクリーン130における検出結果を、各フレームについて一定フレーム分(図5の例では、メモリ領域fp〔0〕〜メモリ領域fp〔10〕までの11フレーム分)、格納することができる。バッファメモリ53は、例えばリングバッファとして実現することができる。   In the example of FIG. 5, the coordinates of the initial touch position held by the memory are shown as the initial touch position coordinates 55. The input operation reception unit 191 does not detect the detection result of the touch screen 130 (the coordinates at which the user's finger is approaching the touch screen 130 and the proximity of the user's finger to the touch screen 130 ( The detection result “null”)) is stored in the buffer memory 53 for a certain number of frames. The buffer memory 53 can store detection results on the touch screen 130 for each frame (in the example of FIG. 5, 11 frames from the memory area fp [0] to the memory area fp [10]). it can. The buffer memory 53 can be realized as a ring buffer, for example.

状態(A)の例では、ユーザがタッチスクリーン130を押した位置を、押下位置50A(タッチスクリーン130の座標(x0,y0))として示す。   In the example of the state (A), a position where the user presses the touch screen 130 is indicated as a pressed position 50A (coordinates (x0, y0) of the touch screen 130).

図5の状態(B)は、ユーザがタッチスクリーン130に対してドラッグ操作を行って、タッチスクリーン130に対する押下位置を、押下位置50Aから押下位置50B(タッチスクリーン130の座標(x9,y9))まで10フレーム(メモリ領域fp〔0〕〜メモリ領域fp〔9〕までの10フレーム分)で移動させたことを示す。入力操作受付部191は、タッチスクリーン130の検出結果をバッファメモリ53に格納し、バッファメモリ53に保持される値を参照して、タッチスクリーン130に対するユーザの操作をドラッグ操作と判別する。   In the state (B) of FIG. 5, the user performs a drag operation on the touch screen 130, and the pressing position on the touch screen 130 is changed from the pressing position 50A to the pressing position 50B (coordinates (x9, y9) of the touch screen 130). This indicates that the frame has been moved by 10 frames (10 frames from the memory area fp [0] to the memory area fp [9]). The input operation reception unit 191 stores the detection result of the touch screen 130 in the buffer memory 53 and refers to the value held in the buffer memory 53 to determine that the user's operation on the touch screen 130 is a drag operation.

図5の状態(C)は、ユーザがタッチスクリーン130を押している位置を、押下位置50Bから押下位置50C(タッチスクリーン130の座標(x14,y14))まで、5フレーム(メモリ領域fp〔10〕、fp〔0〕、fp〔1〕、fp〔2〕、fp〔3〕の5フレーム分)で移動させたことを示す。   In the state (C) of FIG. 5, the position where the user is pressing the touch screen 130 is five frames (memory area fp [10]) from the pressed position 50B to the pressed position 50C (coordinates (x14, y14) of the touch screen 130). , Fp [0], fp [1], fp [2], and fp [3]).

図5の状態(D)は、キャラクタ操作検出部193が、状態(B)および状態(C)のそれぞれにおいて、ユーザが自キャラクタ100を移動させる方向を指定する入力操作の検出結果を示す。キャラクタ操作検出部193は、バッファメモリ53において、タッチスクリーン130が検出する押下位置の座標を書き込む対象となるメモリ領域がいずれであるかを示す情報(バッファメモリ53の書き込み位置)を管理している。   The state (D) in FIG. 5 shows the detection result of the input operation in which the character operation detection unit 193 designates the direction in which the user moves the player character 100 in each of the state (B) and the state (C). The character operation detection unit 193 manages information (writing position in the buffer memory 53) indicating which memory area is the target of writing the coordinates of the pressed position detected by the touch screen 130 in the buffer memory 53. .

状態(B)において、キャラクタ操作検出部193は、入力操作受付部191の判別結果に基づいて、初期タッチ位置を示す座標51A(座標(x0,y0))から座標51B(座標(x9,y9))までユーザがドラッグ操作を行ったことを検出する。キャラクタ操作検出部193は、初期タッチ位置の座標51Aを起点として、座標51Aと座標51Bとによって規定されるベクトル52B((y9−y0)/(x9−x0))を、自キャラクタ100を移動させる方向として検出する。   In the state (B), the character operation detection unit 193 determines from the coordinate 51A (coordinate (x0, y0)) indicating the initial touch position to the coordinate 51B (coordinate (x9, y9)) based on the determination result of the input operation reception unit 191. ) Until the user performs a drag operation. The character operation detection unit 193 moves the own character 100 by a vector 52B ((y9−y0) / (x9−x0)) defined by the coordinates 51A and the coordinates 51B, starting from the coordinates 51A of the initial touch position. Detect as direction.

状態(C)において、キャラクタ操作検出部193は、入力操作受付部191の判別結果に基づいて、座標51B(座標(x9,y9))から座標51C(座標(x14,y14))までユーザがドラッグ操作を行ったことを検出する。キャラクタ操作検出部193は、初期タッチ位置の座標51Aを起点として、座標51Aと座標51Cとによって規定されるベクトル52C((y14−y0)/(x14−x0))を、自キャラクタ100を移動させる方向として検出する。   In the state (C), the character operation detection unit 193 drags the user from the coordinate 51B (coordinate (x9, y9)) to the coordinate 51C (coordinate (x14, y14)) based on the determination result of the input operation receiving unit 191. Detects that an operation has been performed. The character operation detection unit 193 moves the own character 100 by a vector 52C ((y14−y0) / (x14−x0)) defined by the coordinates 51A and the coordinates 51C, starting from the coordinates 51A of the initial touch position. Detect as direction.

<2.操作オブジェクトの基本構成>
本実施形態に係る操作オブジェクト40(図4参照)は、ユーザのタッチスクリーン130に対する接近操作が検知されるとタッチスクリーン130に表示される。操作オブジェクト40は、ユーザが自キャラクタ100を移動させる方向を示す弾性状のオブジェクトである。操作オブジェクト40は、図6の状態(A)に示すように、指接触時の初期形状として、タッチスクリーン130に接触した位置(例えば、図5の初期タッチ位置座標51A)である接触開始点に関連付けられた基準位置の周囲に、円形状の基部42を有するように形成される。なお、基準位置は、最初に指がタッチスクリーン130に触れた座標でなくても良く、例えば、最初に指が触れたフレームの数フレーム後のフレームにおいて指が触れていた座標であっても良い。
<2. Basic configuration of operation object>
The operation object 40 (see FIG. 4) according to the present embodiment is displayed on the touch screen 130 when a user's approach operation to the touch screen 130 is detected. The operation object 40 is an elastic object that indicates a direction in which the user moves the player character 100. As shown in the state (A) of FIG. 6, the operation object 40 has a contact start point that is a position (for example, initial touch position coordinates 51 </ b> A of FIG. 5) as the initial shape at the time of finger contact with the touch screen 130. A circular base 42 is formed around the associated reference position. Note that the reference position does not have to be the coordinates at which the finger first touches the touch screen 130, and may be, for example, the coordinates at which the finger touched a frame several frames after the first touched frame. .

ユーザがタッチスクリーン130上で接触開始点から接触終了点(ここで、接触終了点とは、ユーザの指などがタッチスクリーン130に接触した状態での最終地点を意味する)までドラッグ操作を行うと、図6の状態(B)に示すように操作オブジェクト40は、ユーザの指に引っ張られるような弾性変形を伴う。このとき、操作オブジェクト40は、ドラッグ操作の接触開始点に対応して表示される基部(拡大部)42に加えて、ドラッグ操作の接触終了点(注:指はタッチスクリーン130に接触したままの状態である。)付近に位置する先端部44と、基部42と先端部44との間を接続する接続部46とを含むように構成される。このように操作オブジェクト40は、接触開始点から接触終了点に向けて入力されたドラッグ操作の方向に弾性的に延ばされるように形成される。また、ユーザが接触終了点を接触状態に維持しつつタッチスクリーン130上において更に指などを移動させた場合、先端部44もそれに追従して更に移動し操作オブジェクト40の延びる向きも変化する。ユーザによるドラッグ操作が終了した際に(すなわち、タッチスクリーン130上において接触終了点からユーザの指が離れた際に)、弾性変形した操作オブジェクト40が、その復元力に従って、接触開始点に向けて段階的に萎縮して、図6の状態(A)に示した初期形状に復元するように表示され、一定時間経過後に非表示となる。   When the user performs a drag operation on the touch screen 130 from the contact start point to the contact end point (here, the contact end point means the final point when the user's finger or the like is in contact with the touch screen 130). As shown in the state (B) of FIG. 6, the operation object 40 is accompanied by elastic deformation such that it is pulled by the user's finger. At this time, in addition to the base part (enlarged part) 42 displayed corresponding to the contact start point of the drag operation, the operation object 40 has a contact end point of the drag operation (note: the finger remains in contact with the touch screen 130). It is configured to include a distal end portion 44 located in the vicinity and a connection portion 46 that connects between the base portion 42 and the distal end portion 44. Thus, the operation object 40 is formed so as to be elastically extended in the direction of the drag operation input from the contact start point toward the contact end point. When the user further moves a finger or the like on the touch screen 130 while maintaining the contact end point in the contact state, the distal end portion 44 further moves following the movement and the extending direction of the operation object 40 also changes. When the user's drag operation is completed (that is, when the user's finger is released from the contact end point on the touch screen 130), the elastically deformed operation object 40 is directed toward the contact start point according to its restoring force. It shrinks in stages and is displayed so as to be restored to the initial shape shown in the state (A) of FIG. 6 and disappears after a lapse of a certain time.

なお、図6の状態(A)では、接触開始点を中心に円形状の基部42を形成しているが、必ずしもこれに限定されない。例えば、基部42を接触開始点から一定距離だけ上部または下部にずらして形成しても良い。すなわち、操作オブジェクト40の基部42は、接触開始点に関連付けられた所定の位置(基準位置)に対応して表示されていても良い。また、接触開始点に形成した操作オブジェクト40(基部42)をドラッグ操作に応じて変形させずに、接触開始点から接触終了点に向けて、操作オブジェクトの一部を構成する別のオブジェクトを表示させるようにしても良い。   In addition, in the state (A) of FIG. 6, although the circular base 42 is formed centering on the contact start point, it is not necessarily limited to this. For example, the base 42 may be formed to be shifted upward or downward by a certain distance from the contact start point. That is, the base 42 of the operation object 40 may be displayed corresponding to a predetermined position (reference position) associated with the contact start point. Further, another object constituting a part of the operation object is displayed from the contact start point toward the contact end point without deforming the operation object 40 (base 42) formed at the contact start point in accordance with the drag operation. You may make it let it.

<3.本ゲームプログラムの動作例の説明>
図7から図11を参照して、本ゲームプログラムにおける動作例について説明する。
本実施形態に係るゲームプログラムは、ユーザの操作によって活動する自キャラクタ100が、複数のミッション(ゲームステージ)を順次クリアしてゆき、全てのミッションをクリアしたときにゲームクリア(エンディング)となるゲームであり、各ゲームステージやゲームステージを選択するためのステージが途切れなく(すなわち、シームレスに)連続している所謂「シームレスフィールド」を採用している。
<3. Explanation of operation example of this game program>
With reference to FIGS. 7 to 11, an example of the operation in the game program will be described.
The game program according to the present embodiment is a game in which the player character 100 that is activated by the user's operation sequentially clears a plurality of missions (game stages), and the game is cleared (ending) when all the missions are cleared. In other words, a so-called “seamless field” is employed in which each stage for selecting each game stage and game stage is continuous (ie, seamless).

図7は、本ゲームプログラムにおけるマルチプレイを実現するためのユーザ端末10およびサーバ20の動作例について説明するフローチャートである。図7に示される処理は、制御部190がゲームプログラム151を、制御部290がゲームプログラム251をそれぞれ実行することにより実現される。   FIG. 7 is a flowchart for explaining an operation example of the user terminal 10 and the server 20 for realizing multi-play in this game program. The processing shown in FIG. 7 is realized by the control unit 190 executing the game program 151 and the control unit 290 executing the game program 251.

ステップS1000において、ユーザ端末10の制御部190は、サーバ20に対してマルチプレイに参加するための参加リクエストを送信する。ステップS1002において、サーバ20の制御部290は、ユーザが操作するユーザ端末10からの参加リクエストを受け付ける。   In step S1000, the control unit 190 of the user terminal 10 transmits a participation request for participating in multiplayer to the server 20. In step S1002, the control unit 290 of the server 20 receives a participation request from the user terminal 10 operated by the user.

ステップS1004において、サーバ20の制御部290は、サーバ処理部292として、マルチプレイに参加するユーザが規定人数に達したと判断したことに応じて、サーバ20側の仮想空間を規定して、当該仮想空間に所定のフィールド(本プログラムでは、シームレスフィールド)を形成するためのオブジェクトを配置する。さらに、制御部290は、送受信部291として、フィールドを形成するためのオブジェクトの情報をユーザ端末10に送信する。   In step S <b> 1004, the control unit 290 of the server 20 defines the virtual space on the server 20 side as the server processing unit 292 in response to determining that the number of users participating in the multiplayer has reached the specified number. An object for forming a predetermined field (a seamless field in this program) is arranged in the space. Furthermore, the control unit 290 transmits, as the transmission / reception unit 291, object information for forming a field to the user terminal 10.

ステップS1006において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信した情報に基づいてゲーム情報152に格納されるオブジェクトをユーザ端末10側の仮想空間に配置する。これにより、制御部190は、仮想空間にフィールドを形成する。   In step S <b> 1006, the control unit 190 of the user terminal 10 arranges an object stored in the game information 152 as the object control unit 195 in the virtual space on the user terminal 10 side based on the information received from the server 20. Thereby, the control unit 190 forms a field in the virtual space.

ステップS1008において、ユーザ端末10の制御部190は、オブジェクト制御部195として、ゲーム情報152に格納される自キャラクタ100の情報に従い、自キャラクタ100をフィールドに配置(生成)する。さらに、制御部190は、自キャラクタ100の情報をサーバ20に送信する。   In step S1008, the control unit 190 of the user terminal 10 arranges (generates) the player character 100 in the field as the object controller 195 in accordance with the player character 100 information stored in the game information 152. Furthermore, the control unit 190 transmits information on the player character 100 to the server 20.

ステップS1010において、サーバ20の制御部290は、データ管理部293として、ユーザ端末10から受信したキャラクタ情報に基づいてユーザ管理テーブル253Aに格納される自キャラクタ100の情報を保存する。なお、同ステップにおいて、制御部290は、マルチプレイに参加する他のユーザ端末10から、当該他のユーザ端末10のユーザが操作するキャラクタ(以下、「他キャラクタ」とも称する)の情報を受信して、ユーザ管理テーブル253Aの情報を保存する。   In step S <b> 1010, the control unit 290 of the server 20 stores, as the data management unit 293, information on the own character 100 stored in the user management table 253 </ b> A based on the character information received from the user terminal 10. In this step, the control unit 290 receives information on a character operated by the user of the other user terminal 10 (hereinafter also referred to as “other character”) from another user terminal 10 participating in the multiplayer. The information of the user management table 253A is stored.

ステップS1012において、サーバ20の制御部290は、サーバ処理部292として、ユーザ管理テーブル253Aに格納される他キャラクタの情報に基づいて、他キャラクタを生成してフィールドに配置する。さらに、制御部290は、送受信部291として、他キャラクタの情報をユーザ端末10に送信する。   In step S1012, the control unit 290 of the server 20 generates, as the server processing unit 292, other characters based on the other character information stored in the user management table 253A and arranges them in the field. Furthermore, the control part 290 transmits the information of other characters to the user terminal 10 as the transmission / reception part 291.

ステップS1014において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信した他キャラクタの情報に基づいて他キャラクタを生成してフィールドに配置する。   In step S <b> 1014, the control unit 190 of the user terminal 10 generates, as the object control unit 195, other characters based on the other character information received from the server 20 and arranges them in the field.

ステップS1016において、サーバ20の制御部290は、サーバ処理部292として、オブジェクト管理テーブル252Aを参照して、ミッション攻略のための対象であるミッション対象キャラクタを生成してフィールドに配置する。また、制御部290は、ミッション対象キャラクタおよびミッション対象キャラクタと関連付けられたミッションの情報をマルチプレイに参加する各ユーザ端末10に送信する。   In step S1016, the control unit 290 of the server 20 refers to the object management table 252A as the server processing unit 292, generates a mission target character that is a target for mission capture, and arranges it in the field. In addition, the control unit 290 transmits the mission target character and the mission information associated with the mission target character to each user terminal 10 participating in the multiplayer.

ステップS1018において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信したミッション対象キャラクタの情報に基づいて、ミッション対象キャラクタを生成してフィールドに配置する。   In step S1018, the control unit 190 of the user terminal 10 generates, as the object control unit 195, a mission target character based on the mission target character information received from the server 20, and places it in the field.

ステップS1020において、ユーザ端末10の制御部190は、キャラクタ操作検出部193として、タッチスクリーン130に対するドラッグ操作を検出し、当該ドラッグ操作のタッチ開始位置およびタッチ継続位置により定まる方向を検出する。制御部190は、キャラクタ操作検出部193が検出した方向に、仮想カメラおよび自キャラクタ100を移動させる。さらに、制御部190は、移動後の自キャラクタ100の仮想空間における位置座標をサーバ20に送信する。なお、他の局面において、制御部190は、仮想空間における自キャラクタ100が向いている方向、自キャラクタ100の移動速度などを併せてサーバ20に送信し得る。   In step S1020, the control unit 190 of the user terminal 10 detects a drag operation on the touch screen 130 as the character operation detection unit 193, and detects a direction determined by the touch start position and the touch continuation position of the drag operation. The control unit 190 moves the virtual camera and the player character 100 in the direction detected by the character operation detection unit 193. Furthermore, the control unit 190 transmits the position coordinates of the moved character 100 in the virtual space to the server 20. In another aspect, the control unit 190 can transmit the direction in which the player character 100 is facing in the virtual space, the moving speed of the player character 100, and the like to the server 20 together.

ステップS1022において、サーバ20の制御部290は、サーバ処理部292として、ユーザ端末10から受信した自キャラクタ100の位置座標に基づいて、サーバ20側の仮想空間の自キャラクタ100の位置を更新する。なお、同ステップにおいて、制御部290は、サーバ20側の仮想空間における他キャラクタの位置も更新する。制御部290は、更新した他キャラクタの位置情報をユーザ端末10に送信する。   In step S <b> 1022, the control unit 290 of the server 20 updates, as the server processing unit 292, the position of the player character 100 in the virtual space on the server 20 side based on the position coordinates of the player character 100 received from the user terminal 10. In this step, the control unit 290 also updates the positions of other characters in the virtual space on the server 20 side. The control unit 290 transmits the updated position information of the other character to the user terminal 10.

ステップS1024において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信した他キャラクタの位置情報に基づいて、仮想空間(フィールド)内において他キャラクタを移動する。   In step S1024, the control unit 190 of the user terminal 10 moves the other character in the virtual space (field) as the object control unit 195 based on the position information of the other character received from the server 20.

ステップS1026において、サーバ20の制御部290は、サーバ処理部292として、ミッション対象キャラクタを移動する。また、制御部290は、送受信部291として機能し、移動後のミッション対象キャラクタの位置情報をユーザ端末10に送信する。   In step S 1026, the control unit 290 of the server 20 moves the mission target character as the server processing unit 292. In addition, the control unit 290 functions as the transmission / reception unit 291 and transmits the position information of the mission target character after movement to the user terminal 10.

ステップS1028において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信したミッション対象キャラクタの位置情報に基づいて、仮想空間内においてミッション対象キャラクタを移動する。   In step S <b> 1028, the control unit 190 of the user terminal 10 moves the mission target character in the virtual space as the object control unit 195 based on the position information of the mission target character received from the server 20.

また、ユーザ端末10およびサーバ20はそれぞれ、その他ゲームを進行するために必要な処理を実行する。ゲームを進行するために必要な処理は、一例として、自キャラクタおよび対象キャラタの攻撃処理、これら攻撃のヒット判定処理、ダメージ処理、ドロップアイテム処理、経験値処理、アイテム取得処理、などが挙げられる。   In addition, each of the user terminal 10 and the server 20 executes other processes necessary for progressing the game. Examples of the processes necessary for progressing the game include attack processing of the player character and the target character, hit determination processing of these attacks, damage processing, drop item processing, experience value processing, item acquisition processing, and the like.

図8は、ミッション対象キャラクタの発生位置に関する画像の表示処理について説明するフローチャートである。   FIG. 8 is a flowchart illustrating an image display process related to the generation position of the mission target character.

図8のステップS1100において、ユーザ端末10の制御部190は、ユーザの移動操作により、自キャラクタ100が図9に示すミッション発注所60(ミッション選択領域の一例)内に移動したか否かを判断する。ミッション発注所60は、フィールドMF内の所定の位置に一つ以上配置されている。上述の通り、各ミッション発注所60には、異なる(あるいは少なくとも一部が重複していても良い)ミッションが関連付けられている。   In step S1100 of FIG. 8, the control unit 190 of the user terminal 10 determines whether or not the player character 100 has moved into the mission ordering place 60 (an example of a mission selection area) shown in FIG. To do. One or more mission order offices 60 are arranged at predetermined positions in the field MF. As described above, each mission order place 60 is associated with a different (or at least partly overlapping) mission.

自キャラクタ100がミッション発注所60内に移動したと判定された場合には(ステップS1100のYes)、ステップS1102において、制御部190は、ミッション発注所60が選択されたと判定し、選択されたミッション発注所60に関する情報を生成し、当該情報をサーバ20へ送信する。   If it is determined that the player character 100 has moved into the mission order place 60 (Yes in step S1100), in step S1102, the control unit 190 determines that the mission order place 60 has been selected, and the selected mission is selected. Information about the order place 60 is generated and the information is transmitted to the server 20.

ステップS1104において、サーバ20の制御部290は、記憶部250に記憶されているミッション管理テーブル252Bを読み出す。そして、ステップS1106において、制御部290は、ミッション管理テーブル252Bからミッション発注所60に関連付けられた情報(以下、ミッション発注所情報と称する)を取得し、このミッション発注所情報をユーザ端末10へ送信する。なお、上述の通り、ミッション管理テーブル252Bに保存されているミッション発注所情報には、当該ミッション発注所60で選択可能なミッションの内容が含まれている。   In step S1104, the control unit 290 of the server 20 reads the mission management table 252B stored in the storage unit 250. In step S1106, the control unit 290 acquires information associated with the mission order place 60 (hereinafter referred to as mission order place information) from the mission management table 252B, and transmits the mission order place information to the user terminal 10. To do. As described above, the mission ordering place information stored in the mission management table 252B includes the contents of missions that can be selected at the mission ordering place 60.

ステップS1108において、ユーザ端末10の制御部190は、サーバ20から受信したミッション発注所情報に基づいて、タッチスクリーン130上に、選択されたミッション発注所60に関連付けられた少なくとも一つ(ここでは、2つ)のミッションのメニュー画面65を表示する(図10参照)。メニュー画面65には、例えば、ミッション1として「キャラクタ200を5匹倒せ!」というミッションとともに、ミッション対象キャラクタ200の出現場所、ミッションクリアの難易度、ミッションクリア時の報酬が表示される。また、ミッション2として、「キャラクタ400を救出せよ!」というミッションとともに、ミッション対象キャラクタ400の出現場所、ミッションクリアの難易度、ミッションクリア時の報酬が表示される。なお、メニュー画面65の表示は、自キャラクタ100がミッション発注所60内に移動した場合に限られない。例えば、制御部190は、ユーザによりミッション発注所60がタップされた場合などにメニュー画面65を表示しても良い。   In step S1108, the control unit 190 of the user terminal 10 determines, based on the mission order place information received from the server 20, at least one associated with the selected mission order place 60 on the touch screen 130 (here, A menu screen 65 of two missions is displayed (see FIG. 10). The menu screen 65 displays, for example, the mission “Defeat 5 characters 200!” As mission 1, along with the appearance location of the mission target character 200, the difficulty of mission clear, and the reward for clearing the mission. In addition, as mission 2, a mission “rescue the character 400!” Is displayed, the appearance location of the mission target character 400, the difficulty level of the mission clear, and the reward when the mission is cleared. The display of the menu screen 65 is not limited to the case where the player character 100 moves into the mission ordering place 60. For example, the control unit 190 may display the menu screen 65 when the mission order place 60 is tapped by the user.

続いて、ステップS1110において、制御部190は、ユーザの操作により、表示されたミッション1および2のうちいずれか一つが選択されたか否かを判定する。なお、ユーザは、一度に複数のミッションを選択することもできる。   Subsequently, in step S1110, the control unit 190 determines whether any one of the displayed missions 1 and 2 is selected by a user operation. The user can also select a plurality of missions at a time.

いずれかのミッションが選択されたと判定された場合には(ステップS1110のYes)、ステップS1112において、制御部190は、選択されたミッションに関する情報(以下、ミッション選択情報と称する)を生成し、サーバ20へ送信する。例えば、ユーザがミッション1を選択した場合には、制御部190は、ミッション1が選択されたことを、サーバ20へ送信する。   If it is determined that one of the missions has been selected (Yes in step S1110), in step S1112, the control unit 190 generates information on the selected mission (hereinafter referred to as mission selection information), and the server 20 is transmitted. For example, when the user selects mission 1, the control unit 190 transmits to the server 20 that mission 1 has been selected.

ステップS1114において、サーバ20の制御部290は、ユーザ端末10から受信したミッション選択情報を、記憶部250のミッション管理テーブル252Bに保存する(ミッション管理テーブル252Bを更新する)。続いて、ステップS1116において、制御部290は、更新されたミッション管理テーブル252Bの情報(以下、ミッション更新情報と称する)を取得し、各ユーザ端末10へ送信する。ミッション更新情報は、特に、ミッション発注所60においてユーザにより選択されたミッションと、選択されたミッションに関連付けられたミッション対象キャラクタ(例えば、キャラクタ200やキャラクタ400)を含む。これにより、ユーザ端末10がミッション1を選択したことに関する情報が、サーバ20を介して、他のユーザ端末へも送信される。   In step S1114, the control unit 290 of the server 20 stores the mission selection information received from the user terminal 10 in the mission management table 252B of the storage unit 250 (updates the mission management table 252B). Subsequently, in step S <b> 1116, the control unit 290 acquires information on the updated mission management table 252 </ b> B (hereinafter referred to as mission update information) and transmits it to each user terminal 10. The mission update information includes, in particular, the mission selected by the user at the mission order place 60 and the mission target character (for example, the character 200 or the character 400) associated with the selected mission. Thereby, the information regarding the user terminal 10 having selected the mission 1 is transmitted to other user terminals via the server 20.

ステップS1118において、ユーザ端末10の制御部190は、サーバ20から受信したミッション更新情報を記憶部150に保存する。すなわち、制御部190は、ミッション発注所60においてユーザにより選択されたミッションと、選択されたミッションに関連付けられたミッション対象キャラクタとに関する情報(第一の情報の一例)を、記憶部150に記憶する。   In step S <b> 1118, the control unit 190 of the user terminal 10 stores the mission update information received from the server 20 in the storage unit 150. That is, the control unit 190 stores, in the storage unit 150, information (an example of first information) regarding the mission selected by the user at the mission order place 60 and the mission target character associated with the selected mission. .

ステップS1120において、制御部190は、メニュー画面65を非表示とするとともに、自キャラクタ100をミッション発注所60の外側へ移動させる。具体的には、制御部190は、図11に示すように、自キャラクタ100を、ミッション発注所60に対して自キャラクタ100の進行方向側である右側へ移動させる。   In step S <b> 1120, the control unit 190 hides the menu screen 65 and moves the player character 100 to the outside of the mission order place 60. Specifically, as shown in FIG. 11, the control unit 190 moves the player character 100 to the right side that is the traveling direction side of the player character 100 with respect to the mission order place 60.

ステップS1122において、制御部190は、タッチスクリーン130内の所定位置に、ミッション対象キャラクタの発生位置に関する情報を示す位置関連画像500A,500B(これらをまとめて位置関連画像500と称する場合もある)を表示する。図11に示すように、これらの位置関連画像500A,500Bは、ゲームの進行上で邪魔になりにくい位置、例えば、水平方向におけるタッチスクリーン130の端部(例えば、タッチスクリーン130の右端側)に表示される。位置関連画像500Aは、ミッション1に関連付けられたミッション対象キャラクタ200の発生位置に関する情報を示す画像であって、例えば、キャラクタ200の顔が表示されている。位置関連画像500Aの下側には、自キャラクタ100の現在位置からキャラクタ200の発生位置までの距離(ここでは、例えば2km)が表示されている。また、位置関連画像500Bは、ミッション2に関連付けられたミッション対象キャラクタ400の発生位置に関する情報を示す画像であって、例えば、ミッション対象キャラクタ400の顔が表示されている。位置関連画像500Bの下側には、自キャラクタ100の現在位置からキャラクタ400の発生位置までの距離(ここでは、例えば5km)が表示されている。このように、自キャラクタ100がフィールドの所定領域に配置されたときに、制御部190は、ミッション関連情報に基づいて、位置関連画像500A,500Bをタッチスクリーン130上の所定位置に表示させる。   In step S <b> 1122, the control unit 190 displays position-related images 500 </ b> A and 500 </ b> B (information may be collectively referred to as position-related images 500) indicating information related to the generation position of the mission target character at a predetermined position in the touch screen 130. indicate. As shown in FIG. 11, these position-related images 500A and 500B are located at positions that do not get in the way of the game, for example, at the end of the touch screen 130 in the horizontal direction (for example, the right end side of the touch screen 130). Is displayed. The position-related image 500 </ b> A is an image indicating information regarding the generation position of the mission target character 200 associated with the mission 1. For example, the face of the character 200 is displayed. Below the position-related image 500A, a distance (in this case, for example, 2 km) from the current position of the player character 100 to the generation position of the character 200 is displayed. Further, the position-related image 500B is an image showing information on the generation position of the mission target character 400 associated with the mission 2, and for example, the face of the mission target character 400 is displayed. Below the position-related image 500B, a distance (in this case, for example, 5 km) from the current position of the player character 100 to the generation position of the character 400 is displayed. As described above, when the player character 100 is arranged in a predetermined area of the field, the control unit 190 displays the position-related images 500A and 500B at predetermined positions on the touch screen 130 based on the mission-related information.

ステップS1124において、ユーザ端末10の制御部190は、ユーザのドラッグ操作の入力を受けたか否かを判定する。ドラッグ操作の入力を受けたと判定された場合には(ステップS1124のYes)、ステップS1126において、制御部190は、ドラッグ操作に基づいて、自キャラクタ100を移動させる。   In step S1124, the control unit 190 of the user terminal 10 determines whether or not an input of a user's drag operation has been received. If it is determined that an input of a drag operation has been received (Yes in step S1124), in step S1126, the control unit 190 moves the player character 100 based on the drag operation.

ステップS1128において、サーバ20の制御部290は、ユーザ端末10から受信した自キャラクタ100の位置座標に基づいて、サーバ20側の仮想空間の自キャラクタ100の位置を更新する。そして、制御部290は、更新された自キャラクタ100の位置情報を、ユーザ端末10以外の他のユーザ端末へ送信する。   In step S <b> 1128, the control unit 290 of the server 20 updates the position of the player character 100 in the virtual space on the server 20 side based on the position coordinates of the player character 100 received from the user terminal 10. Then, the control unit 290 transmits the updated position information of the own character 100 to a user terminal other than the user terminal 10.

<4.複数のフィールド間の境界領域画像を生成するための処理の説明>
続いて、図9および図11とともに、図12および図13を参照して、複数のフィールド間の境界領域画像を生成するための処理について説明する。
<4. Explanation of processing for generating a boundary region image between a plurality of fields>
Next, processing for generating a boundary region image between a plurality of fields will be described with reference to FIGS. 12 and 13 together with FIGS.

ステップS1200において、サーバ20の制御部290は、自キャラクタ100の現在位置座標に基づいて、サーバ20側の仮想空間にフィールド、本例では例えばミッション選択用のフィールドMF(以下、現フィールドMFと称する)を形成するためのオブジェクトを配置する。さらに、制御部290は、現フィールドMFを形成するためのオブジェクトの情報をユーザ端末10に送信する。   In step S1200, the control unit 290 of the server 20 determines a field in the virtual space on the server 20 side based on the current position coordinates of the player character 100, for example, a field MF for mission selection (hereinafter referred to as a current field MF in this example). Place objects to form). Furthermore, the control unit 290 transmits object information for forming the current field MF to the user terminal 10.

ステップS1202において、ユーザ端末10の制御部190は、サーバ20から受信した情報に基づいてゲーム情報152に格納されるオブジェクトをユーザ端末10側の仮想空間に配置する。これにより、制御部190は、仮想空間に現フィールドMFを形成する。   In step S1202, the control unit 190 of the user terminal 10 places an object stored in the game information 152 in the virtual space on the user terminal 10 side based on the information received from the server 20. Thereby, the control unit 190 forms the current field MF in the virtual space.

ステップS1204において、ユーザ端末10の制御部190は、自キャラクタ100の移動に伴い、図9等に示す検知オブジェクト80がタッチスクリーン130内に含まれるようになったか否かを判定する。検知オブジェクト80は、ゲーム情報152に格納されるオブジェクトの一例であって、サーバ20から受信した情報に基づいてユーザ端末10側の仮想空間の所定の位置に配置されている。例えば、検知オブジェクト80は、各フィールドの境界領域から一定距離だけ内側の位置に配置され得る。なお、図9から図11において破線で図示しているように、検知オブジェクト80は、タッチスクリーン130上では非表示とされている(視認不可能な状態で配置されている)ことが好ましい。   In step S <b> 1204, the control unit 190 of the user terminal 10 determines whether or not the detection object 80 illustrated in FIG. 9 or the like is included in the touch screen 130 with the movement of the player character 100. The detection object 80 is an example of an object stored in the game information 152, and is arranged at a predetermined position in the virtual space on the user terminal 10 side based on information received from the server 20. For example, the sensing object 80 may be disposed at a position that is a predetermined distance from the boundary region of each field. 9 to 11, the detection object 80 is preferably not displayed on the touch screen 130 (arranged in an invisible state).

自キャラクタ100の移動に伴って検知オブジェクト80がタッチスクリーン130内に含まれるようになったと判定された場合には(ステップS1204のYes)、ステップS1206において、制御部190は、現フィールドMFと隣接するフィールド、本例では例えば自キャラクタ100がミッション対象キャラクタと対戦等を行うバトルフィールドBF(以下、次フィールドBFと称する)に関する情報を生成する。そして、制御部190は、現フィールドMFと隣接する次フィールドBFに関する情報を、サーバ20へ送信する。   When it is determined that the detection object 80 is included in the touch screen 130 with the movement of the player character 100 (Yes in Step S1204), the control unit 190 is adjacent to the current field MF in Step S1206. In this example, for example, information on the battle field BF (hereinafter referred to as the next field BF) in which the player character 100 battles the mission target character is generated. Then, the control unit 190 transmits information regarding the next field BF adjacent to the current field MF to the server 20.

ステップS1208において、サーバ20の制御部290は、記憶部250に次フィールドBFに関する情報を保存する。そして、ステップS1210において、制御部290は、次フィールドBFのフィールドデータ(次フィールドデータ)を生成し、次フィールドデータをユーザ端末10へ送信する。   In step S1208, the control unit 290 of the server 20 stores information on the next field BF in the storage unit 250. In step S <b> 1210, the control unit 290 generates field data (next field data) for the next field BF, and transmits the next field data to the user terminal 10.

ステップS1212において、ユーザ端末10の制御部190は、記憶部150に次フィールドデータを保存する。すなわち、制御部190は、サーバ20から次フィールドデータをタウンロードして読み込む。なお、制御部190は、現フィールドMFと隣接する次フィールドBFのフィールドデータの読み込み中に、ユーザの操作に基づいて自キャラクタ100を操作する(現在のフィールド内で移動させる)ことができる。次フィールドBF(あるいは、次の次のフィールド)のフィールドデータの読み込みが完了すると、読み込みが完了したフィールドへの自キャラクタ100の移動が可能となる。このようにして、制御部190は、位置関連画像500A,500Bおよびこれらに付随して表示された情報に基づいてなされたユーザのドラッグ操作の入力を受け付けることで、自キャラクタ100をフィールドMFからフィールドBFへと連続的に移動させることができる。   In step S <b> 1212, the control unit 190 of the user terminal 10 stores the next field data in the storage unit 150. That is, the control unit 190 downloads the next field data from the server 20 and reads it. Note that the control unit 190 can operate (move within the current field) the character 100 based on the user's operation while reading the field data of the next field BF adjacent to the current field MF. When the reading of the field data of the next field BF (or the next next field) is completed, the character 100 can move to the field where the reading has been completed. In this way, the control unit 190 receives the input of the user's drag operation based on the position-related images 500A and 500B and the information displayed accompanying them, and thereby moves the player character 100 from the field MF to the field MF. It can be moved continuously to BF.

ところで、図11に示すように、現フィールドMFおよび次フィールドBFは、自キャラクタ100が各フィールドMF,BF内の上下方向および水平方向に移動可能な二次元フィールドであって、各フィールドMF,BFのフィールドデータを繋ぎ合わせる処理をすることで、ユーザにシームレス感を提供している。このとき、フィールドMF,BF同士のつなぎ目(境界)が目立だってしまうと興醒めである。   By the way, as shown in FIG. 11, the current field MF and the next field BF are two-dimensional fields in which the player character 100 can move in the vertical and horizontal directions within the fields MF and BF. By processing the field data, the user is provided with a seamless feeling. At this time, if the joint (boundary) between the fields MF and BF becomes conspicuous, it is awakening.

そこで、本実施形態においては、フィールドMF,BF同士の境界を目立たないようにするため、以下のステップS1214以降の処理を行う。
具体的には、次フィールドBFのフィールドデータの読み込みが完了すると、ステップS1214において、制御部190は、現フィールドMFのフィールドデータと次フィールドBFのフィールドデータとに基づいて境界領域画像データCFを生成する。
Therefore, in the present embodiment, the following processing from step S1214 is performed in order to make the boundary between the fields MF and BF inconspicuous.
Specifically, when the reading of the field data of the next field BF is completed, in step S1214, the control unit 190 generates the boundary region image data CF based on the field data of the current field MF and the field data of the next field BF. To do.

ステップS1216において、制御部190は、ドラッグ操作に基づいて、自キャラクタ100を移動させる。そして、ステップS1218において、サーバ20の制御部290は、ユーザ端末10から受信した自キャラクタ100の位置座標に基づいて、サーバ20側の仮想空間の自キャラクタ100の位置を更新する。   In step S1216, the control unit 190 moves the player character 100 based on the drag operation. In step S1218, the control unit 290 of the server 20 updates the position of the player character 100 in the virtual space on the server 20 side based on the position coordinates of the player character 100 received from the user terminal 10.

ステップS1220において、自キャラクタ100が現フィールドMFの境界部分に差し掛かると、制御部190は、図13に示すように、現フィールドMFと次フィールドBFとともにこれらのフィールドMF,BFの間に境界領域画像データCFを表示する。   In step S1220, when the player character 100 reaches the boundary portion of the current field MF, the control unit 190 has a boundary area between the current field MF and the next field BF, as shown in FIG. The image data CF is displayed.

境界領域画像データCFは、例えば、現フィールドMFのフィールドデータのうちタッチスクリーン130の下半部に表示され得る地面の断面部分の画像データ(以下、地面画像データと称する)と、次フィールドBFのフィールドデータのうちタッチスクリーン130の下半部に表示され得る地面画像データとに基づいて生成される。具体的には、制御部190は、次フィールドBFの地面画像データに対して透過処理を施した透過処理データを生成し、この透過処理データを現フィールドMFの地面画像データに重畳することにより、境界領域画像データCFを生成する。境界領域画像データCFは、透過率の異なる複数の透過処理データを、透過率のグラデーションがつくように、すなわち、現フィールドMFに近い側から次フィールドBFに向けて、その透過率が低くなるように並べることで生成される。例えば、境界領域画像データCFは、現フィールドMFに近い側から次フィールドBFに向けて、次フィールドBFの地面画像データに対して透過率80%の透過処理を施した第一透過処理データCF1、当該地面画像データに対して透過率60%の透過処理を施した第二透過処理データCF2、当該地面画像データに対して透過率40%の透過処理を施した第三透過処理データCF3、および当該地面画像データに対して透過率20%の透過処理を施した第四透過処理データCF4から構成され得る。これにより、少ない情報処理量により境界領域画像データCFを生成できるとともに、現フィールドMFと次フィールドBFとの繋ぎ目を自然に見せることができる。なお、次フィールドBFの地面画像データに対して透過処理を施した透過処理データを生成するのではなく、現フィールドMFの地面画像データに対して透過処理を施した透過処理データを生成し、この透過処理データを次フィールドBFの地面画像データに重畳することにより、境界領域画像データCFを生成しても良い。   The boundary area image data CF includes, for example, image data of a cross section of the ground (hereinafter referred to as ground image data) that can be displayed on the lower half of the touch screen 130 in the field data of the current field MF, and the next field BF. The field data is generated based on ground image data that can be displayed on the lower half of the touch screen 130. Specifically, the control unit 190 generates transmission processing data obtained by performing transmission processing on the ground image data of the next field BF, and superimposes the transmission processing data on the ground image data of the current field MF. Boundary area image data CF is generated. The boundary area image data CF is such that a plurality of pieces of transmission processing data having different transmittances have a transmittance gradation, that is, the transmittance decreases from the side closer to the current field MF toward the next field BF. Generated by arranging in For example, the boundary area image data CF is a first transmission processing data CF1 obtained by performing transmission processing with a transmittance of 80% on the ground image data of the next field BF from the side close to the current field MF toward the next field BF. Second transmission processing data CF2 obtained by performing transmission processing with a transmittance of 60% on the ground image data, Third transmission processing data CF3 obtained by performing transmission processing with a transmittance of 40% on the ground image data, and It may be composed of fourth transmission processing data CF4 obtained by performing transmission processing with a transmittance of 20% on the ground image data. As a result, the boundary area image data CF can be generated with a small amount of information processing, and the joint between the current field MF and the next field BF can be naturally seen. Note that, instead of generating transmission processing data obtained by performing transmission processing on the ground image data of the next field BF, transmission processing data obtained by performing transmission processing on the ground image data of the current field MF is generated. The boundary region image data CF may be generated by superimposing the transmission processing data on the ground image data of the next field BF.

以上説明したように、本実施形態によれば、制御部190は、現フィールドMFと、現フィールドMFから自キャラクタ100がシームレスに移動可能な次フィールドBFと、を含む仮想空間を規定し、現フィールドMFおよび次フィールドBFの各画像データを所定のタイミングでダウンロードするとともに読み込むことにより、読み込んだ各画像データをタッチスクリーン130に表示させる。そして、制御部190は、現フィールドMFの所定位置に配置された検知オブジェクト80がタッチスクリーン130に含まれている場合に、現フィールドMFおよび次フィールドの各画像データに基づいて境界領域画像データCFを生成してタッチスクリーン130に表示させる。具体的には、制御部190は、次フィールドBFの画像データをタッチスクリーン130に表示させる際に、現フィールドMFと次フィールドBFとの間に境界領域画像データCFを表示させる。これにより、シームレスフィールドを採用したゲームにおいて、簡便な処理で複数のゲームフィールドの境界を目立たないようにすることができる。   As described above, according to the present embodiment, the control unit 190 defines a virtual space including the current field MF and the next field BF to which the player character 100 can move seamlessly from the current field MF. Each image data of the field MF and the next field BF is downloaded and read at a predetermined timing, so that each read image data is displayed on the touch screen 130. Then, when the sensing object 80 arranged at a predetermined position of the current field MF is included in the touch screen 130, the control unit 190 performs boundary area image data CF based on the image data of the current field MF and the next field. Is generated and displayed on the touch screen 130. Specifically, when displaying the image data of the next field BF on the touch screen 130, the control unit 190 displays the boundary area image data CF between the current field MF and the next field BF. Thereby, in the game which employ | adopted the seamless field, the boundary of several game fields can be made not conspicuous by simple processing.

また、現フィールドMFおよび次フィールドBFは、自キャラクタ100が各フィールドMF,BF内の上下方向および水平方向に移動可能な二次元フィールドであって、境界領域画像データCFは、タッチスクリーン130上に表示される各フィールドMF,BFの地面の断面画像部分に設定されても良い。これにより、フィールドMF,BF間の境界領域を自然に見せることができる。   The current field MF and the next field BF are two-dimensional fields in which the player character 100 can move in the vertical and horizontal directions within the fields MF and BF. The boundary area image data CF is displayed on the touch screen 130. You may set to the cross-sectional image part of the ground of each field MF and BF displayed. Thereby, the boundary region between the fields MF and BF can be naturally seen.

なお、図13に示すように、制御部190は、仮想空間において、境界領域画像データCFの上方に境界用オブジェクト90を配置しても良い。そして、自キャラクタ100が現フィールドMFから次フィールドBFへと移動する場合には、制御部190は、自キャラクタ100を、境界用オブジェクト90の後方側を通り抜けさせて次フィールドBFへと移動させることが好ましい。なお、「境界用オブジェクト90の後方側」とは、仮想カメラとの位置からみて境界用オブジェクト90よりも遠い側である。これにより、自キャラクタ100が移動する空間の背景部分(すなわち、タッチスクリーン130において、地面の断面部分よりも上方の部分)における現フィールドMFと次フィールドBFとの繋ぎ目の画像データを別途作成する必要がなく、制作負荷を低減することができる。   As illustrated in FIG. 13, the control unit 190 may arrange the boundary object 90 above the boundary region image data CF in the virtual space. When the player character 100 moves from the current field MF to the next field BF, the control unit 190 moves the player character 100 through the rear side of the boundary object 90 to the next field BF. Is preferred. The “rear side of the boundary object 90” is a side farther from the boundary object 90 when viewed from the position with the virtual camera. As a result, the image data of the joint between the current field MF and the next field BF in the background portion of the space in which the player character 100 moves (that is, the portion above the cross-sectional portion of the ground on the touch screen 130) is separately created. There is no need, and the production load can be reduced.

なお、上記の実施形態においては、制御部190は、検知オブジェクト80がタッチスクリーン130に含まれている状態となった場合に、次フィールドBFのダウンロードおよび境界領域画像データCFの生成を開始しているが、この例に限られない。制御部190は、検知オブジェクト80と自キャラクタ100との位置関係が所定条件を満たしている、例えば、自キャラクタ100が検知オブジェクト80に対して一定距離内に近づいた場合に、次フィールドBFのダウンロードおよび境界領域画像データCFの生成を開始しても良い。なお、制御部190は、仮想空間内に配置される仮想カメラと検知オブジェクト80との位置関係により、次フィールドBFのダウンロードおよび境界領域画像データCFの生成を開始しても良い。   In the above embodiment, when the detection object 80 is included in the touch screen 130, the control unit 190 starts to download the next field BF and generate the boundary region image data CF. However, it is not limited to this example. The control unit 190 downloads the next field BF when the positional relationship between the detection object 80 and the player character 100 satisfies a predetermined condition, for example, when the player character 100 approaches the detection object 80 within a certain distance. The generation of the boundary area image data CF may be started. Note that the control unit 190 may start downloading the next field BF and generating the boundary region image data CF based on the positional relationship between the virtual camera arranged in the virtual space and the detection object 80.

また、上記の実施形態においては、制御部190は、検知オブジェクト80がタッチスクリーン130に含まれている状態となった場合に、現フィールドMFと隣接する次フィールドBFのダウンロードを開始しているが、現フィールドMFが表示されている状態で次フィールドBFよりも先のフィールド(次の次のフィールド)のダウンロードを開始するようにしても良い。   In the above embodiment, the control unit 190 starts downloading the next field BF adjacent to the current field MF when the detection object 80 is included in the touch screen 130. The download of the field before the next field BF (next next field) may be started in a state where the current field MF is displayed.

上記の実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。   The above embodiments are merely examples for facilitating the understanding of the present invention, and are not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.

1:ゲーム配信システム、10:ユーザ端末、20:サーバ、130:タッチスクリーン、190:(ユーザ端末の)制御部、191:入力操作受付部、193:キャラクタ操作検出部、195:オブジェクト制御部、197:表示制御部、290:(サーバの)制御部、252B:ミッション管理テーブル、40:操作オブジェクト、53:バッファメモリ、55:初期タッチ位置座標、60:ミッション発注所、65:メニュー画面、67:ミッションボタン、80:検知オブジェクト、100:自キャラクタ(プレイヤキャラクタ、キャラクタオブジェクトの一例)、200:相手キャラクタ(ミッション対象キャラクタ)、300:ユーザインターフェース画像、400:ミッション対象キャラクタ、500A,500B:位置関連画像、CF:境界領域画像データ、CF1〜CF4:透過処理データ   1: game distribution system, 10: user terminal, 20: server, 130: touch screen, 190: control unit (of user terminal), 191: input operation reception unit, 193: character operation detection unit, 195: object control unit, 197: Display control unit, 290: (Server) control unit, 252B: Mission management table, 40: Operation object, 53: Buffer memory, 55: Initial touch position coordinates, 60: Mission order place, 65: Menu screen, 67 : Mission button, 80: detection object, 100: own character (player character, example of character object), 200: opponent character (mission target character), 300: user interface image, 400: mission target character, 500A, 500B: position Relation Image, CF: the boundary region image data, CF1~CF4: transmitting processed data

Claims (8)

タッチスクリーンを含む端末機器で実行されるゲーム方法であって、
(a)仮想カメラと、第一のフィールドと、前記第一のフィールドからユーザが操作するプレイヤオブジェクトがシームレスに移動可能な第二のフィールドと、を含む仮想空間を規定するステップと、
(b)前記第一のフィールドおよび前記第二のフィールドの各画像データを所定のタイミングでダウンロードするとともに読み込むことにより、読み込んだ前記各画像データを前記タッチスクリーンに表示させるステップと、
(c)前記第一のフィールドが前記タッチスクリーンに表示されている状態において所定の条件が満たされた場合に、前記第一のフィールドと前記第二のフィールドとの間を繋ぐ境界領域画像データを生成して前記タッチスクリーンに表示させるステップと、
を含む、ゲーム方法。
A game method executed on a terminal device including a touch screen,
(A) defining a virtual space including a virtual camera, a first field, and a second field in which a player object operated by a user from the first field can move seamlessly;
(B) displaying each of the read image data on the touch screen by downloading and reading the image data of the first field and the second field at a predetermined timing;
(C) When a predetermined condition is satisfied in a state where the first field is displayed on the touch screen, boundary area image data connecting the first field and the second field is obtained. Generating and displaying on the touch screen;
Including a game method.
前記境界領域画像データは、前記第一のフィールドおよび前記第二のフィールドの各画像データに基づいて生成される、請求項1に記載の方法。   The method according to claim 1, wherein the boundary area image data is generated based on the image data of the first field and the second field. 前記境界領域画像データは、前記第一のフィールドおよび前記第二のフィールドのいずれか一方の画像データに、他方の画像データに対して透過処理を施した透過処理データを重畳することにより生成される、請求項2に記載の方法。   The boundary region image data is generated by superimposing transmission processing data obtained by performing transmission processing on the other image data on image data of one of the first field and the second field. The method according to claim 2. 前記境界領域画像データは、透過率の異なる複数の前記透過処理データを、前記透過率のグラデーションがつくように並べることで生成される、請求項3に記載の方法。   The method according to claim 3, wherein the boundary area image data is generated by arranging a plurality of the transmission processing data having different transmittances so that the gradation of the transmittance is added. 前記第一のフィールドおよび前記第二のフィールドは、前記プレイヤオブジェクトが各フィールド内の上下方向および水平方向に移動可能な二次元フィールドであり、
前記境界領域画像データは、前記タッチスクリーン上に表示される地面の断面画像部分に表示される、請求項1から4のいずれか一項に記載の方法。
The first field and the second field are two-dimensional fields in which the player object can move vertically and horizontally in each field,
5. The method according to claim 1, wherein the boundary region image data is displayed in a cross-sectional image portion of the ground displayed on the touch screen.
(d)前記仮想空間において、前記境界領域画像データの上方に境界用オブジェクトを配置するステップと、
(e)前記プレイヤオブジェクトを、前記第一のフィールドから前記境界用オブジェクトの後方側を通り抜けさせて前記第二のフィールドへと移動させるステップと、
をさらに含む、請求項5に記載の方法。
(D) disposing a boundary object above the boundary region image data in the virtual space;
(E) moving the player object from the first field through the rear side of the boundary object to the second field;
The method of claim 5, further comprising:
前記所定の条件は、前記第一のフィールドの所定位置に配置された対象オブジェクトが前記タッチスクリーンに含まれていること、または、前記対象オブジェクトと前記仮想カメラあるいは前記プレイヤオブジェクトとの位置関係が所定条件を満たしていることを含む、請求項1から6のいずれか一項に記載の方法。   The predetermined condition is that a target object arranged at a predetermined position in the first field is included in the touch screen, or a positional relationship between the target object and the virtual camera or the player object is predetermined. The method according to claim 1, comprising satisfying a condition. 請求項1から7のいずれか一項に記載のゲーム方法をコンピュータに実行させるためのゲームプログラム。   A game program for causing a computer to execute the game method according to claim 1.
JP2016241645A 2016-12-13 2016-12-13 GAME METHOD AND GAME PROGRAM Active JP6270973B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016241645A JP6270973B1 (en) 2016-12-13 2016-12-13 GAME METHOD AND GAME PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016241645A JP6270973B1 (en) 2016-12-13 2016-12-13 GAME METHOD AND GAME PROGRAM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017243299A Division JP2018094424A (en) 2017-12-19 2017-12-19 Game method and game program

Publications (2)

Publication Number Publication Date
JP6270973B1 JP6270973B1 (en) 2018-01-31
JP2018097614A true JP2018097614A (en) 2018-06-21

Family

ID=61074709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016241645A Active JP6270973B1 (en) 2016-12-13 2016-12-13 GAME METHOD AND GAME PROGRAM

Country Status (1)

Country Link
JP (1) JP6270973B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109806583A (en) * 2019-01-24 2019-05-28 腾讯科技(深圳)有限公司 Method for displaying user interface, device, equipment and system

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001209822A (en) * 2000-01-28 2001-08-03 Square Co Ltd Computer readable recording medium with recorded program for three-dimensional computer image processing, gradation plotting processing method and video game device
JP2002092640A (en) * 2000-09-20 2002-03-29 Namco Ltd Game system and information storage medium
JP2004152150A (en) * 2002-10-31 2004-05-27 Nintendo Co Ltd Game picture processing method, game picture processing program, and game picture processor
JP2005218591A (en) * 2004-02-04 2005-08-18 Samii Kk Image display device and game machine
JP2006346507A (en) * 2006-10-04 2006-12-28 Nintendo Co Ltd Game apparatus and image processing program
JP2010157041A (en) * 2008-12-26 2010-07-15 Kyocera Mita Corp Image forming apparatus
JP2011245015A (en) * 2010-05-26 2011-12-08 Nintendo Co Ltd Game program, game system, game apparatus, and game control method
JP2011258022A (en) * 2010-06-09 2011-12-22 Nintendo Co Ltd Image processing program, image processing device, image processing system and image processing method
WO2016117267A1 (en) * 2015-01-20 2016-07-28 株式会社ジオ技術研究所 Three-dimensional map display system
JP5977878B1 (en) * 2015-11-27 2016-08-24 グリー株式会社 Program, game control method, and information processing apparatus

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001209822A (en) * 2000-01-28 2001-08-03 Square Co Ltd Computer readable recording medium with recorded program for three-dimensional computer image processing, gradation plotting processing method and video game device
JP2002092640A (en) * 2000-09-20 2002-03-29 Namco Ltd Game system and information storage medium
JP2004152150A (en) * 2002-10-31 2004-05-27 Nintendo Co Ltd Game picture processing method, game picture processing program, and game picture processor
JP2005218591A (en) * 2004-02-04 2005-08-18 Samii Kk Image display device and game machine
JP2006346507A (en) * 2006-10-04 2006-12-28 Nintendo Co Ltd Game apparatus and image processing program
JP2010157041A (en) * 2008-12-26 2010-07-15 Kyocera Mita Corp Image forming apparatus
JP2011245015A (en) * 2010-05-26 2011-12-08 Nintendo Co Ltd Game program, game system, game apparatus, and game control method
JP2011258022A (en) * 2010-06-09 2011-12-22 Nintendo Co Ltd Image processing program, image processing device, image processing system and image processing method
WO2016117267A1 (en) * 2015-01-20 2016-07-28 株式会社ジオ技術研究所 Three-dimensional map display system
JP5977878B1 (en) * 2015-11-27 2016-08-24 グリー株式会社 Program, game control method, and information processing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109806583A (en) * 2019-01-24 2019-05-28 腾讯科技(深圳)有限公司 Method for displaying user interface, device, equipment and system

Also Published As

Publication number Publication date
JP6270973B1 (en) 2018-01-31

Similar Documents

Publication Publication Date Title
JP6225279B1 (en) GAME METHOD AND GAME PROGRAM
JP6318279B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6270973B1 (en) GAME METHOD AND GAME PROGRAM
JP6404877B2 (en) GAME PROGRAM, GAME PROVIDING METHOD, AND INFORMATION PROCESSING DEVICE
JP2018057463A (en) Game program, method for providing game, and information processing device
JP2017192537A (en) Game program, method, and information processor with touch screen
JP6554125B2 (en) Game method and game program
JP2018094424A (en) Game method and game program
JP6225234B1 (en) GAME METHOD AND GAME PROGRAM
US11318379B2 (en) Game server and method of sharing note in the game server
JP2018110838A (en) Game method and game program
JP2018086250A (en) Game method and game program
JP2017192538A (en) Game program, method, and information processor with touch screen
JP2018102378A (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6174202B1 (en) Information processing apparatus provided with game program, method, and touch screen
JP2018192326A (en) Game program, method for providing game and information processor
JP6263293B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP5841287B1 (en) Program, game control method, and information processing apparatus
JP6609084B1 (en) GAME DEVICE, CONTROL METHOD, AND CONTROL PROGRAM
JP2018020150A (en) Game program, method, and information processor with touch screen
JP2017221676A (en) Game program, method, and information processor with touch screen
JP2018033972A (en) Game program, method and information processing device including touch screen
JP2018153616A (en) Information processing method, apparatus, and program for implementing that information processing method in computer
JP6181834B1 (en) GAME CONTROL METHOD, PROGRAM, AND COMPUTER
US20240082713A1 (en) Storage medium, method, and information processing apparatus

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171226

R150 Certificate of patent or registration of utility model

Ref document number: 6270973

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250