JP2018110786A - Game method and game program - Google Patents

Game method and game program Download PDF

Info

Publication number
JP2018110786A
JP2018110786A JP2017004402A JP2017004402A JP2018110786A JP 2018110786 A JP2018110786 A JP 2018110786A JP 2017004402 A JP2017004402 A JP 2017004402A JP 2017004402 A JP2017004402 A JP 2017004402A JP 2018110786 A JP2018110786 A JP 2018110786A
Authority
JP
Japan
Prior art keywords
field
game
user
data
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017004402A
Other languages
Japanese (ja)
Other versions
JP6225279B1 (en
Inventor
陽輔 木嶋
Yosuke Kijima
陽輔 木嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2017004402A priority Critical patent/JP6225279B1/en
Application granted granted Critical
Publication of JP6225279B1 publication Critical patent/JP6225279B1/en
Publication of JP2018110786A publication Critical patent/JP2018110786A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a game method capable of securing a period until completion of reading data in the next field while keeping game property, in a game adopting a seamless field.SOLUTION: The method defines a virtual space comprising a first field MF, a second field BF1 to which a player object 100 operated by a user is movable seamlessly from the first field MF, and a third field BF2 to which the player object 100 is movable seamlessly from the second field BF1. The method downloads and reads each piece of image data in the fields at a predetermined timing and displays each read piece of the image data on a touch screen 130.SELECTED DRAWING: Figure 13

Description

本発明は、ゲーム方法およびゲームプログラムに関する。   The present invention relates to a game method and a game program.

特許文献1には、各ゲームステージにおいて順次形成される複数のミッションをプレイヤキャラクタがクリアしてゆくゲームが開示されている。ユーザは、プレイヤキャラクタを操作して各ゲームステージでミッションを実行することにより、経験値を得ることができる。   Patent Document 1 discloses a game in which a player character clears a plurality of missions sequentially formed at each game stage. The user can obtain an experience value by operating the player character and executing a mission at each game stage.

特開2009−195685号公報JP 2009-195585 A

特許文献1に開示のゲームでは、各ゲームステージに移動する際には、対象のゲームステージを選択し、当該ゲームステージに関連付けられたゲーム空間へ移動する構成となっている。ところで、各ゲームステージやゲームステージを選択するためのステージが途切れなく(すなわち、シームレスに)連続している所謂「シームレスフィールド」を採用したゲームにおいては、複数のゲームステージのデータ(ゲームフィールドデータ)を適切なタイミングで読み込んで繋ぎ合わせる処理をすることにより、ユーザにシームレス感を提供している。このとき、次のフィールドデータの読み込みに時間がかかる場合には、読み込みが完了し描画可能な状態となるまで、何らかの時間稼ぎを行う必要がある。   In the game disclosed in Patent Document 1, when moving to each game stage, a target game stage is selected and moved to a game space associated with the game stage. By the way, in a game employing a so-called “seamless field” in which the stages for selecting each game stage and game stage are continuous (ie, seamlessly), data of a plurality of game stages (game field data) The user is provided with a seamless feeling by reading and connecting them at an appropriate timing. At this time, if it takes time to read the next field data, it is necessary to earn some time until the reading is completed and the drawing becomes possible.

本開示は、シームレスフィールドを採用したゲームにおいて、ゲーム性を維持しつつ、次のフィールドのデータの読み込み完了までの時間を確保することが可能なゲーム方法およびゲームプログラムを提供することを目的とする。   It is an object of the present disclosure to provide a game method and a game program capable of ensuring time until completion of reading data of the next field while maintaining game characteristics in a game employing a seamless field. .

本開示に示す一実施形態によれば、タッチスクリーンを含む端末機器で実行されるゲーム方法が提供される。
当該ゲーム方法は、
(a)仮想カメラと、第一のフィールドと、前記第一のフィールドからユーザが操作するプレイヤオブジェクトがシームレスに移動可能な第二のフィールドと、前記第二のフィールドから前記プレイヤオブジェクトがシームレスに移動可能な第三のフィールドとを含む仮想空間を規定するステップと、
(b)これらのフィールドの各画像データを所定のタイミングでダウンロードするとともに読み込むことにより、読み込んだ前記各画像データを前記タッチスクリーンに表示させるステップと、を含み、
前記ステップ(b)は、
(b−1)前記プレイヤオブジェクトが前記第一のフィールドに配置されている状態において所定の第一条件を満たした場合に、前記第三のフィールドのデータの読み込みを開始するステップと、
(b−2)前記第三のフィールドのデータが所定の第二条件を満たした場合に、前記第二のフィールドに、前記プレイヤオブジェクトが所定の作用を及ぼすことが可能な対象オブジェクトを配置するステップと、
(b−3)前記第三のフィールドのデータの読み込みが完了するまで、前記対象オブジェクトによって前記プレイヤオブジェクトの前記第三のフィールドへの移動を阻止するステップと、
を含む。
According to an embodiment shown in the present disclosure, a game method executed on a terminal device including a touch screen is provided.
The game method is
(A) a virtual camera, a first field, a second field in which a player object operated by a user from the first field can move seamlessly, and the player object moves seamlessly from the second field Defining a virtual space including a possible third field;
(B) downloading and reading each image data of these fields at a predetermined timing to display each read image data on the touch screen,
The step (b)
(B-1) starting reading of data in the third field when the predetermined first condition is satisfied in a state where the player object is arranged in the first field;
(B-2) A step of arranging a target object that allows the player object to exert a predetermined action in the second field when the data of the third field satisfies a predetermined second condition. When,
(B-3) blocking the movement of the player object to the third field by the target object until reading of the data of the third field is completed;
including.

また、本開示に示す一実施形態によれば、上記に記載のゲーム方法をコンピュータに実行させるためのゲームプログラムが提供される。   Moreover, according to one embodiment shown in this indication, a game program for making a computer perform the above-mentioned game methods is provided.

本開示によれば、シームレスフィールドを採用したゲームにおいて、ゲーム性を維持しつつ、次のフィールドのデータの読み込み完了までの時間を確保することが可能なゲーム方法およびゲームプログラムを提供することができる。   According to the present disclosure, it is possible to provide a game method and a game program capable of ensuring time until reading of data of the next field is maintained while maintaining game characteristics in a game employing a seamless field. .

本実施形態に係るゲーム配信システムの構成例を示す図である。It is a figure which shows the structural example of the game delivery system which concerns on this embodiment. 本実施形態に係るユーザ端末の構成を示すブロック図である。It is a block diagram which shows the structure of the user terminal which concerns on this embodiment. 本実施形態に係るサーバの機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the server which concerns on this embodiment. 本実施形態に係るユーザ端末のタッチスクリーン上に表示されるゲームのゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen of the game displayed on the touch screen of the user terminal which concerns on this embodiment. 操作検出部が、ユーザの入力操作に応じてプレイヤキャラクタを移動させる方向を検出する処理を示す図である。It is a figure which shows the process in which an operation detection part detects the direction which moves a player character according to a user's input operation. (A)は、タッチスクリーン上に表示される操作オブジェクトの一例を示す図であり、(B)は操作オブジェクトが弾性変形した状態を示す図である。(A) is a figure which shows an example of the operation object displayed on a touch screen, (B) is a figure which shows the state which the operation object elastically deformed. 本実施形態におけるマルチプレイを実現するためのユーザ端末およびサーバの動作例について説明するフローチャートである。It is a flowchart explaining the operation example of the user terminal and server for implement | achieving the multi play in this embodiment. ミッション対象キャラクタの発生位置に関する画像の表示処理について説明するフローチャートである。It is a flowchart explaining the display process of the image regarding the generation | occurrence | production position of a mission object character. 本実施形態に係るゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen which concerns on this embodiment. 本実施形態に係るゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen which concerns on this embodiment. 本実施形態に係るゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen which concerns on this embodiment. 検知オブジェクトが検知された場合の次々フィールドの読み込み処理について説明するフローチャートである。It is a flowchart explaining the reading process of the field one after another when a detection object is detected. 本実施形態に係るゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen which concerns on this embodiment. 本実施形態の変形例に係るゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen which concerns on the modification of this embodiment. 本実施形態の変形例に係るゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen which concerns on the modification of this embodiment.

[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)本開示の一実施形態に係るゲーム方法は、タッチスクリーンを含む端末機器で実行されるゲーム方法であって、
当該ゲーム方法は、
(a)仮想カメラと、第一のフィールドと、前記第一のフィールドからユーザが操作するプレイヤオブジェクトがシームレスに移動可能な第二のフィールドと、前記第二のフィールドから前記プレイヤオブジェクトがシームレスに移動可能な第三のフィールドとを含む仮想空間を規定するステップと、
(b)これらのフィールドの各画像データを所定のタイミングでダウンロードするとともに読み込むことにより、読み込んだ前記各画像データを前記タッチスクリーンに表示させるステップと、を含み、
前記ステップ(b)は、
(b−1)前記プレイヤオブジェクトが前記第一のフィールドに配置されている状態において所定の第一条件を満たした場合に、前記第三のフィールドのデータの読み込みを開始するステップと、
(b−2)前記第三のフィールドのデータが所定の第二条件を満たした場合に、前記第二のフィールドに、前記プレイヤオブジェクトが所定の作用を及ぼすことが可能な対象オブジェクトを配置するステップと、
(b−3)前記第三のフィールドのデータの読み込みが完了するまで、前記対象オブジェクトによって前記プレイヤオブジェクトの前記第三のフィールドへの移動を阻止するステップと、
を含む。
[Description of Embodiments Presented by the Present Disclosure]
An overview of an embodiment indicated by the present disclosure will be described.
(1) A game method according to an embodiment of the present disclosure is a game method executed on a terminal device including a touch screen,
The game method is
(A) a virtual camera, a first field, a second field in which a player object operated by a user from the first field can move seamlessly, and the player object moves seamlessly from the second field Defining a virtual space including a possible third field;
(B) downloading and reading each image data of these fields at a predetermined timing to display each read image data on the touch screen,
The step (b)
(B-1) starting reading of data in the third field when the predetermined first condition is satisfied in a state where the player object is arranged in the first field;
(B-2) A step of arranging a target object that allows the player object to exert a predetermined action in the second field when the data of the third field satisfies a predetermined second condition. When,
(B-3) blocking the movement of the player object to the third field by the target object until reading of the data of the third field is completed;
including.

上記方法によれば、シームレスフィールドを採用したゲームにおいて、ゲーム性を維持しつつ、次のフィールドのデータの読み込み完了までの時間を確保することができる。   According to the above method, in a game adopting a seamless field, it is possible to secure a time until the reading of data of the next field is completed while maintaining the game performance.

(2)前記所定の第二条件は、前記第三のフィールドのデータ量が所定の閾値以上であることを含んでも良い。   (2) The predetermined second condition may include that the data amount of the third field is equal to or greater than a predetermined threshold.

上記方法によれば、第三のフィールドのデータの読み込みに時間がかかると判断された場合に、第三のフィールドのデータ読込完了までの時間を適切に稼ぐことができる。   According to the above method, when it is determined that it takes time to read data in the third field, it is possible to appropriately earn time until the data reading in the third field is completed.

(3)前記ステップ(b)は、
(b−4)前記第三のフィールドのデータの読み込みが完了したときに、前記対象オブジェクトの表示態様を変化させるステップをさらに含んでも良い。
(3) The step (b)
(B-4) The method may further include a step of changing a display mode of the target object when reading of the data of the third field is completed.

上記方法によれば、次のフィールドのデータの読み込み完了後に、例えば、対象オブジェクトを非表示としたり対象オブジェクトが倒れるような状態にしたりすることで、プレイヤオブジェクトが第三のフィールドへ移動することが可能となる。   According to the above method, after the data of the next field is read, the player object can move to the third field by, for example, hiding the target object or putting the target object in a state of falling. It becomes possible.

(4)前記対象オブジェクトは、前記プレイヤオブジェクトから及ぼされる前記所定の作用に対応する所定のパラメータを有し、
前記所定のパラメータの値が、前記第三のフィールドのデータの読み込み完了率に対応しても良い。
(4) The target object has a predetermined parameter corresponding to the predetermined action exerted from the player object,
The value of the predetermined parameter may correspond to the read completion rate of the data in the third field.

上記方法によれば、例えば、対象オブジェクトへ与えられるダメージ量を、データの読み込み完了率と対応させることで、第三のフィールドのデータ読込完了までの時間を適切に稼ぐことができる。   According to the above method, for example, the amount of damage given to the target object is made to correspond to the data reading completion rate, whereby the time until the data reading in the third field is completed can be appropriately earned.

(5)前記ステップ(b)は、
(b−5)前記第三のフィールドに対応する仮データを前記タッチスクリーンに表示させるステップをさらに含んでも良い。
(5) The step (b)
(B-5) The method may further include a step of displaying temporary data corresponding to the third field on the touch screen.

上記方法によれば、第三のフィールドの代替として仮データを描画しておくことでデータ読込完了までの時間を稼ぐことができる。   According to the above method, it is possible to gain time until data reading is completed by drawing temporary data as an alternative to the third field.

(6)前記仮データは、前記第一から前記第三のフィールドのデータとは異なる用途に用いられる画像データから切り出して生成されても良い。   (6) The temporary data may be generated by cutting out from image data used for a different application from the first to third field data.

上記方法によれば、簡便な処理で、仮データを生成することができる。   According to the above method, temporary data can be generated by a simple process.

(7)前記ステップ(b−2)において、前記端末機器のデータ処理能力に応じて前記対象オブジェクトの出現可否が変更可能であっても良い。   (7) In the step (b-2), whether or not the target object appears may be changeable according to the data processing capability of the terminal device.

上記方法によれば、データ処理能力の高い、すなわち、データ読み込みが完了するまでの時間稼ぎが必要のない端末機器の場合には、対象オブジェクトを出現させることなくシームレスフィールドの描画処理を行うことが可能である。   According to the above method, in the case of a terminal device having a high data processing capacity, that is, a terminal device that does not require time until data reading is completed, the seamless field rendering process can be performed without causing the target object to appear. Is possible.

(8)前記所定の第一条件は、前記第一のフィールドの所定位置に配置された検知オブジェクトが前記タッチスクリーンに含まれていること、または、前記検知オブジェクトと前記仮想カメラあるいは前記プレイヤオブジェクトとの位置関係が所定条件を満たしていることを含んでも良い。   (8) The predetermined first condition is that a detection object arranged at a predetermined position in the first field is included in the touch screen, or the detection object and the virtual camera or the player object The positional relationship may satisfy a predetermined condition.

上記方法によれば、適切なタイミングで第三のフィールドの読み込みを開始することができる。   According to the above method, reading of the third field can be started at an appropriate timing.

(9)本開示の一実施形態に係るプログラムは、上記(1)から(8)のいずれかに記載のゲーム方法をコンピュータに実行させるためのゲームプログラムである。   (9) A program according to an embodiment of the present disclosure is a game program for causing a computer to execute the game method according to any one of (1) to (8).

この構成によれば、シームレスフィールドを採用したゲームにおいて、ゲーム性を維持しつつ、次のフィールドのデータの読み込み完了までの時間を確保可能なゲームプログラムを提供することができる。   According to this configuration, it is possible to provide a game program that can secure the time until the completion of reading the data of the next field while maintaining the game performance in a game employing a seamless field.

[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。なお、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Presented by the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, about the member which has the same reference number as the member already demonstrated in description of this embodiment, the description is not repeated for convenience of explanation.

本実施形態において、ユーザは、例えばスマートフォンなどの、タッチスクリーンを搭載した情報処理装置を操作して、ゲームサーバと、スマートフォンとの間でゲームに関するデータを送受信しながらゲームを進行させる。ゲームは、ユーザが一人でプレイするシングルプレイと、ユーザが他のユーザとともにプレイするマルチプレイとに対応する。   In the present embodiment, a user operates an information processing apparatus equipped with a touch screen such as a smartphone, for example, and advances the game while transmitting and receiving data related to the game between the game server and the smartphone. The game corresponds to single play where the user plays alone and multi-play where the user plays with other users.

図1は、実施の形態のゲーム配信システム1の構成を示す図である。図1に示すように、ゲーム配信システム1は、ユーザが使用する情報処理装置(端末機器の一例)と、サーバ20とを含み、これらの装置がネットワーク30によって互いに通信可能に接続されている。   FIG. 1 is a diagram illustrating a configuration of a game distribution system 1 according to the embodiment. As shown in FIG. 1, the game distribution system 1 includes an information processing device (an example of a terminal device) used by a user and a server 20, and these devices are connected to each other via a network 30 so as to communicate with each other.

図1の例では、ユーザが使用する情報処理装置として、ユーザ端末10A、ユーザ端末10Bおよびユーザ端末10C(以下、ユーザ端末10A、10B、10Cなどのユーザ端末を総称して「ユーザ端末10」と記載することもある)など複数の携帯端末を示している。ユーザ端末10Aとユーザ端末10Bとは、無線基地局31と通信することにより、ネットワーク30と接続する。ユーザ端末10Cは、家屋などの施設に設置される無線ルータ32と通信することにより、ネットワーク30と接続する。ユーザ端末10は、タッチスクリーンを備える携帯端末であり、例えば、スマートフォン、ファブレット、タブレットなどである。   In the example of FIG. 1, user terminals 10 </ b> A, 10 </ b> B, and 10 </ b> C (hereinafter referred to as user terminals 10 </ b> A, 10 </ b> B, 10 </ b> C) are collectively referred to as “user terminal 10” as information processing devices used by a user. A plurality of portable terminals are shown. The user terminal 10 </ b> A and the user terminal 10 </ b> B are connected to the network 30 by communicating with the radio base station 31. The user terminal 10C is connected to the network 30 by communicating with a wireless router 32 installed in a facility such as a house. The user terminal 10 is a mobile terminal that includes a touch screen, and is, for example, a smartphone, a fablet, a tablet, or the like.

ユーザ端末10は、ゲームプログラムを実行することにより、ゲームプログラムに応じたゲームをプレイする環境をユーザに対して提供する。ユーザ端末10は、例えば、アプリ等を配信するプラットフォームを介してゲームプログラムをインストールする。ユーザ端末10は、ユーザ端末10にインストールされたゲームプログラム、または、予めプリインストールされているゲームプログラムを実行することで、ユーザによるゲームのプレイを可能とする。ユーザ端末10は、ゲームプログラムを読み込んで実行することにより、サーバ20と通信し、ゲームの進行に応じてゲームに関連するデータをユーザ端末10とサーバ20との間で送受信する。   The user terminal 10 provides the user with an environment for playing a game according to the game program by executing the game program. For example, the user terminal 10 installs a game program via a platform that distributes applications and the like. The user terminal 10 enables a user to play a game by executing a game program installed in the user terminal 10 or a game program pre-installed in advance. The user terminal 10 communicates with the server 20 by reading and executing the game program, and transmits and receives data related to the game between the user terminal 10 and the server 20 as the game progresses.

サーバ20は、ゲームのプレイに必要なデータを、適宜、ユーザ端末10へ送信することで、ユーザ端末10でのゲームのプレイを進行させる。サーバ20は、ゲームをプレイする各ユーザの、ゲームに関連する各種データを管理する。サーバ20は、ユーザ端末10と通信し、各ユーザのゲームの進行に応じて、画像、音声、テキストデータその他のデータをユーザ端末10へ送信する。   The server 20 advances the game play on the user terminal 10 by appropriately transmitting data necessary for the game play to the user terminal 10. The server 20 manages various data related to the game of each user who plays the game. The server 20 communicates with the user terminal 10 and transmits images, sounds, text data, and other data to the user terminal 10 according to the progress of each user's game.

ゲームプログラムは、ユーザがゲームをプレイするモードとして、一人のユーザがプレイする場合(シングルプレイ)と、複数人のユーザが協同してプレイする場合(マルチプレイ)とに対応している。例えば、ゲーム配信システム1において、サーバ20が、マルチプレイに参加するユーザを特定して各ユーザの各ユーザ端末10と通信すること等により、マルチプレイでゲームをプレイする環境を各ユーザに提供する。   The game program corresponds to a mode in which a user plays a game when a single user plays (single play) and when a plurality of users play in cooperation (multiplay). For example, in the game distribution system 1, the server 20 provides each user with an environment for playing a game in multiplayer by specifying a user participating in multiplay and communicating with each user terminal 10 of each user.

ゲーム配信システム1は、マルチプレイに対応することにより、例えば、アクションゲームであれば、ユーザ同士が協力してゲームを進行させること、または、ユーザ同士で対戦することなどを可能とする。   The game distribution system 1 is capable of supporting multi-play, for example, in the case of an action game, allowing the users to cooperate with each other to advance the game or play against each other.

図1に示すようにサーバ20は、ハードウェア構成として、通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備え、これらが通信バスを介して互いに接続されている。   As shown in FIG. 1, the server 20 includes a communication IF (Interface) 22, an input / output IF 23, a memory 25, a storage 26, and a processor 29 as hardware configurations, which are mutually connected via a communication bus. It is connected.

通信IF22は、例えばLAN(Local Area Network)規格など各種の通信規格に対応しており、ユーザ端末10など外部の通信機器との間でデータを送受信するためのインタフェースとして機能する。   The communication IF 22 corresponds to various communication standards such as a LAN (Local Area Network) standard, and functions as an interface for transmitting and receiving data to and from an external communication device such as the user terminal 10.

入出力IF23は、サーバ20への情報の入力を受け付けるとともに、サーバ20の外部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス、キーボード等の情報入力機器の接続を受け付ける入力受付部と、画像等を表示するためのディスプレイ等の情報出力機器の接続を受け付ける出力部とを含む。   The input / output IF 23 functions as an interface for receiving information input to the server 20 and outputting information to the outside of the server 20. The input / output IF 23 includes an input receiving unit that accepts connection of an information input device such as a mouse and a keyboard, and an output unit that accepts connection of an information output device such as a display for displaying an image or the like.

メモリ25は、処理に使用されるデータ等を記憶するための記憶装置である。メモリ25は、例えば、プロセッサ29が処理を行う際に一時的に使用するための作業領域をプロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置を含んで構成されている。   The memory 25 is a storage device for storing data used for processing. For example, the memory 25 provides the processor 29 with a work area for temporary use when the processor 29 performs processing. The memory 25 includes a storage device such as a ROM (Read Only Memory) and a RAM (Random Access Memory).

ストレージ26は、プロセッサ29が読み込んで実行するための各種プログラム及びデータを記憶するための記憶装置である。ストレージ26が記憶する情報は、ゲームプログラム、ゲームプログラムに関連する情報、ゲームプログラムをプレイするユーザの情報その他の情報を含む。ストレージ26は、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置を含んで構成されている。   The storage 26 is a storage device for storing various programs and data that the processor 29 reads and executes. The information stored in the storage 26 includes a game program, information related to the game program, information on a user who plays the game program, and other information. The storage 26 includes a storage device such as an HDD (Hard Disk Drive) and a flash memory.

プロセッサ29は、ストレージ26に記憶されるプログラム等を読み込んで実行することにより、サーバ20の動作を制御する。プロセッサ29は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等を含んで構成される。   The processor 29 controls the operation of the server 20 by reading and executing a program or the like stored in the storage 26. The processor 29 includes, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and the like.

図2は、ユーザ端末10の構成を示すブロック図である。図2に示すように、ユーザ端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン130と、入出力IF140と、記憶部150と、音声処理部160と、マイク170と、スピーカ180と、制御部190とを含む。   FIG. 2 is a block diagram illustrating a configuration of the user terminal 10. As shown in FIG. 2, the user terminal 10 includes an antenna 110, a wireless communication IF 120, a touch screen 130, an input / output IF 140, a storage unit 150, a sound processing unit 160, a microphone 170, a speaker 180, And a control unit 190.

アンテナ110は、ユーザ端末10が発する信号を電波として空間へ放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ与える。   The antenna 110 radiates a signal emitted from the user terminal 10 to space as a radio wave. Further, the antenna 110 receives radio waves from the space and gives a received signal to the wireless communication IF 120.

無線通信IF120は、ユーザ端末10が他の通信機器と通信するため、アンテナ110等を介して信号を送受信するための変復調処理などを行う。無線通信IF120は、チューナー、高周波回路などを含む無線通信用の通信モジュールであり、ユーザ端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。   The wireless communication IF 120 performs modulation / demodulation processing for transmitting and receiving signals via the antenna 110 and the like so that the user terminal 10 communicates with other communication devices. The wireless communication IF 120 is a communication module for wireless communication including a tuner, a high frequency circuit, and the like, performs modulation / demodulation and frequency conversion of a wireless signal transmitted / received by the user terminal 10, and provides a received signal to the control unit 190.

タッチスクリーン130は、ユーザからの入力を受け付けて、ユーザに対し情報をディスプレイ132に出力する。タッチスクリーン130は、ユーザの入力操作を受け付けるためのタッチパネル131と、メニュー画面やゲームの進行を画面に表示するためのディスプレイ132と、を含む。タッチパネル131は、例えば静電容量方式のものを用いることによって、ユーザの指などが接近したことを検出する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)、有機EL(electroluminescence)その他の表示装置によって実現される。   The touch screen 130 receives an input from the user and outputs information to the display 132 to the user. The touch screen 130 includes a touch panel 131 for receiving a user input operation and a display 132 for displaying a menu screen or a game progress on the screen. The touch panel 131 detects that the user's finger or the like has approached by using, for example, a capacitive type. The display 132 is realized by a display device such as an LCD (Liquid Crystal Display), an organic EL (electroluminescence), or the like.

入出力IF140は、ユーザ端末10への情報の入力を受け付けるとともに、ユーザ端末10の外部へ情報を出力するためのインタフェースとして機能する。   The input / output IF 140 functions as an interface for accepting input of information to the user terminal 10 and outputting information to the outside of the user terminal 10.

記憶部150は、フラッシュメモリ、RAM(Random Access Memory)等により構成され、ユーザ端末10が使用するプログラム、および、ユーザ端末10がサーバ20から受信する各種データ等を記憶する。   The storage unit 150 includes a flash memory, a RAM (Random Access Memory), and the like, and stores programs used by the user terminal 10 and various data received by the user terminal 10 from the server 20.

音声処理部160は、音声信号の変復調を行う。音声処理部160は、マイク170から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部160は、音声信号をスピーカ180へ与える。音声処理部160は、例えば、音声処理用のプロセッサによって実現される。マイク170は、音声信号の入力を受け付けて制御部190へ出力するための音声入力部として機能する。スピーカ180は、音声信号を、ユーザ端末10の外部へ出力するための音声出力部として機能する。   The audio processing unit 160 performs modulation / demodulation of the audio signal. The audio processing unit 160 modulates the signal given from the microphone 170 and gives the modulated signal to the control unit 190. In addition, the audio processing unit 160 provides an audio signal to the speaker 180. The sound processing unit 160 is realized by, for example, a sound processing processor. The microphone 170 functions as an audio input unit for receiving an input of an audio signal and outputting it to the control unit 190. The speaker 180 functions as an audio output unit for outputting an audio signal to the outside of the user terminal 10.

制御部190は、記憶部150に記憶されるプログラムを読み込んで実行することにより、ユーザ端末10の動作を制御する。制御部190は、例えば、アプリケーションプロセッサによって実現される。   The control unit 190 controls the operation of the user terminal 10 by reading and executing a program stored in the storage unit 150. The control unit 190 is realized by an application processor, for example.

ユーザ端末10がゲームプログラム151を実行する処理について、より詳細に説明する。記憶部150は、ゲームプログラム151と、ゲーム情報152と、ユーザ情報153とを記憶する。ユーザ端末10は、例えば、サーバ20からゲームプログラムをダウンロードして記憶部150に記憶させる。また、ユーザ端末10は、ゲームの進行に伴いサーバ20と通信することで、ゲーム情報152およびユーザ情報153等の各種のデータをサーバ20と送受信する。   A process in which the user terminal 10 executes the game program 151 will be described in more detail. The storage unit 150 stores a game program 151, game information 152, and user information 153. For example, the user terminal 10 downloads a game program from the server 20 and stores it in the storage unit 150. Further, the user terminal 10 communicates with the server 20 as the game progresses, thereby transmitting and receiving various data such as game information 152 and user information 153 to and from the server 20.

ゲームプログラム151は、ユーザ端末10においてゲームを進行させるためのプログラムである。ゲーム情報152は、ゲームプログラム151が参照する各種のデータを含む。ゲーム情報152は、例えば、ゲームにおいて仮想空間に配置するオブジェクトの情報、オブジェクトに対応付けられた効果の情報(ゲームキャラクタに設定されるスキルの情報などを含む)などを含む。ユーザ情報153は、ゲームをプレイするユーザについての情報を含む。ユーザ情報153は、例えば、ゲームをプレイするユーザ端末10のユーザを識別する情報、マルチプレイ時に協働してゲームをプレイする他のユーザを識別する情報などを含む。   The game program 151 is a program for causing the user terminal 10 to advance the game. The game information 152 includes various data referred to by the game program 151. The game information 152 includes, for example, information on objects to be arranged in the virtual space in the game, information on effects associated with the objects (including information on skills set for game characters), and the like. The user information 153 includes information about the user who plays the game. The user information 153 includes, for example, information for identifying the user of the user terminal 10 who plays the game, information for identifying other users who play the game in cooperation with the multi-play.

制御部190は、ゲームプログラム151を読み込んで実行することにより、入力操作受付部191と、キャラクタ操作検出部193と、オブジェクト制御部195と、表示制御部197と、の各機能を発揮する。   The control unit 190 reads and executes the game program 151 to exhibit the functions of the input operation receiving unit 191, the character operation detection unit 193, the object control unit 195, and the display control unit 197.

入力操作受付部191は、タッチスクリーン130の出力に基づいて、ユーザの入力操作を受け付ける。具体的には、入力操作受付部191は、ユーザの指などがタッチパネル131に接近したことを、タッチスクリーン130を構成する面の横軸および縦軸からなる座標系の座標として検出する。   The input operation accepting unit 191 accepts a user input operation based on the output of the touch screen 130. Specifically, the input operation accepting unit 191 detects that a user's finger or the like has approached the touch panel 131 as coordinates in a coordinate system including a horizontal axis and a vertical axis of a surface constituting the touch screen 130.

入力操作受付部191は、タッチスクリーン130に対するユーザの操作を判別する。入力操作受付部191は、例えば、(1)「接近操作」、(2)「リリース操作」、(3)「タップ操作」、(4)「長押し操作(ロングタッチ操作)」、(5)「ドラッグ操作(スワイプ操作)」などのユーザの操作を判別する。入力操作受付部191が判別するユーザの操作は、上記に限られない。例えば、タッチパネル131が、ユーザがタッチパネル131に対して押下する圧力の大きさを検出可能な機構を有する場合、入力操作受付部191は、ユーザが押下した圧力の大きさを判別する。   The input operation reception unit 191 determines a user operation on the touch screen 130. The input operation reception unit 191 includes, for example, (1) “approach operation”, (2) “release operation”, (3) “tap operation”, (4) “long press operation (long touch operation)”, (5) A user operation such as “drag operation (swipe operation)” is determined. The user operation determined by the input operation receiving unit 191 is not limited to the above. For example, when the touch panel 131 has a mechanism that can detect the magnitude of the pressure that the user presses against the touch panel 131, the input operation reception unit 191 determines the magnitude of the pressure that the user has pressed.

(1)「接近操作」とは、ユーザが指などをタッチスクリーン130に接近させる操作である。タッチスクリーン130は、ユーザの指などが接近したこと(ユーザの指などがタッチスクリーン130に接触したことを含む)をタッチパネル131により検出し、検出したタッチスクリーン130の座標に応じた信号を入力操作受付部191へ出力する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出しない状態から、接近を検出したときに、状態が「タッチオン状態」になったと判別する。   (1) The “approach operation” is an operation in which the user brings a finger or the like closer to the touch screen 130. The touch screen 130 detects that the user's finger or the like has approached (including that the user's finger or the like has touched the touch screen 130) by the touch panel 131, and inputs a signal corresponding to the detected coordinates of the touch screen 130. The data is output to the reception unit 191. The control unit 190 determines that the state is the “touch-on state” when the approach is detected from the state in which the approach of the user's finger or the like to the touch screen 130 is not detected.

(2)「リリース操作」とは、ユーザがタッチスクリーン130を接近操作している状態を止める操作である。制御部190は、例えば、ユーザが指をタッチスクリーン130に接触させている状態から、指を離す操作をしたときに、ユーザの操作を「リリース操作」と判別する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出している状態から、接近を検出しない状態になったときに、状態が「タッチオン状態」から「タッチオフ状態」になったと判別する。   (2) “Release operation” is an operation for stopping the state in which the user is operating the touch screen 130 to approach. For example, when the user performs an operation of releasing the finger from a state in which the user is in contact with the touch screen 130, the control unit 190 determines that the user's operation is a “release operation”. The control unit 190 determines that the state is changed from the “touch-on state” to the “touch-off state” when the approach is not detected from the state in which the approach of the user's finger or the like to the touch screen 130 is detected. To do.

(3)「タップ操作」とは、ユーザがタッチスクリーン130に対して指などを接近させる接近操作をした後に、接近操作をした位置でリリース操作を行うことである。入力操作受付部191は、接近操作が検出されない状態(ユーザの指などがタッチスクリーン130から離れており、タッチパネル131がユーザの指などの接近を検出していない状態)から、タッチスクリーン130の出力に基づいて、ユーザの指などが接近したことを検出した場合に、その検出した座標を「初期タッチ位置」として保持する。制御部190は、初期タッチ位置の座標と、リリース操作をした座標とがほぼ同一である場合(接近操作が検出された座標から一定範囲内の座標においてリリース操作の座標が検出された場合)に、ユーザの操作を「タップ操作」と判別する。   (3) “Tap operation” refers to performing a release operation at a position where the user performs an approach operation after the user performs an approach operation to bring a finger or the like closer to the touch screen 130. The input operation reception unit 191 outputs the touch screen 130 from a state where no approach operation is detected (a state where the user's finger or the like is away from the touch screen 130 and the touch panel 131 does not detect the approach of the user's finger or the like). When it is detected that the user's finger or the like has approached based on the above, the detected coordinates are held as the “initial touch position”. When the coordinates of the initial touch position and the coordinates of the release operation are substantially the same (when the coordinates of the release operation are detected in the coordinates within a certain range from the coordinates where the approach operation is detected), the control unit 190 The user's operation is determined as “tap operation”.

(4)「長押し操作」とは、ユーザがタッチスクリーン130を押し続ける操作である。制御部190は、ユーザの操作を検出して接近操作を判別してから、接近操作が検出された座標(あるいは当該座標を含む一定領域内)において接近操作が継続している時間が一定時間を超えた場合に、ユーザの操作を「長押し操作」(「長押し操作」を、「ロングタッチ操作」と称することもある)と判別する。   (4) “Long press operation” is an operation in which the user continues to press the touch screen 130. The control unit 190 detects the user's operation and determines the approaching operation, and then the time during which the approaching operation is continued in the coordinates where the approaching operation is detected (or within a certain region including the coordinates) is set to a certain time. When it exceeds, it is determined that the user's operation is “long press operation” (“long press operation” may be referred to as “long touch operation”).

(5)「ドラッグ操作」とは、ユーザがタッチスクリーン130に指などを接近させた接近状態を維持したまま、指をスライドさせる操作である。   (5) “Drag operation” is an operation of sliding a finger while maintaining an approaching state in which the user brings a finger or the like close to the touch screen 130.

キャラクタ操作検出部193は、タッチスクリーン130に対するユーザの入力操作に基づいて、ゲームに登場するプレイヤキャラクタ(以下、「自キャラクタ」と称することもある)に所定の動作を実行させる入力操作の操作内容を検出する。キャラクタ操作検出部193は、ユーザの入力操作に基づいて、例えば、プレイヤキャラクタを移動させる方向を検出する。すなわち、キャラクタ操作検出部193は、ユーザがプレイヤキャラクタの移動方向を指定する入力操作を受け付ける。   Based on the user's input operation on the touch screen 130, the character operation detection unit 193 performs the operation content of the input operation that causes a player character (hereinafter also referred to as “self character”) appearing in the game to execute a predetermined action. Is detected. The character operation detection unit 193 detects, for example, the direction in which the player character is moved based on the input operation of the user. That is, the character operation detection unit 193 receives an input operation in which the user specifies the moving direction of the player character.

具体的には、キャラクタ操作検出部193は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させて、入力操作受付部191がタッチパネル131にユーザの指が接近したことを検出した座標を初期タッチ位置として、ユーザがドラッグ操作を行った場合に、初期タッチ位置の座標とタッチスクリーン130の検出結果とに基づいて、プレイヤキャラクタの移動方向を検出する。キャラクタ操作検出部193での具体的な処理については、後述する。   Specifically, the character operation detection unit 193 causes the user to move the finger closer to the touch screen 130 from the state where the user's finger is separated from the touch screen 130, and the input operation reception unit 191 causes the touch panel 131 to move the user's finger. When the user performs a drag operation using the detected coordinates as the initial touch position, the moving direction of the player character is detected based on the initial touch position coordinates and the detection result of the touch screen 130. Specific processing in the character operation detection unit 193 will be described later.

オブジェクト制御部195は、ユーザ端末10がゲームプログラムを実行することにより進行されるゲームに登場する各種オブジェクト、および、入力操作受付部191が受け付けたユーザの操作内容に基づいて生成される各種オブジェクト(例えば、GUI(Graphical User Interface)画面)の生成、変形、移動などの処理を制御する。オブジェクト制御部195は、例えば、ユーザがプレイヤキャラクタを移動させるためのタッチスクリーン130に対する入力操作に基づいて、プレイヤキャラクタの移動方向を示す操作オブジェクト40を生成する。操作オブジェクト40の詳細については、後述する。   The object control unit 195 includes various objects that appear in a game that is progressed by the user terminal 10 executing a game program, and various objects that are generated based on user operation contents received by the input operation reception unit 191 ( For example, processing such as generation, deformation, and movement of a GUI (Graphical User Interface) screen is controlled. The object control unit 195 generates an operation object 40 indicating the moving direction of the player character based on, for example, an input operation on the touch screen 130 for moving the player character by the user. Details of the operation object 40 will be described later.

表示制御部197は、キャラクタ操作検出部193およびオブジェクト制御部195での制御に応じて、ディスプレイ132の表示内容を決定し、決定した表示内容に従った画像、テキスト等の各種の情報をディスプレイ132に出力する。例えば、表示制御部197は、プレイヤキャラクタをディスプレイ132の一定領域に表示させた状態で、入力操作受付部191によって受け付けた入力操作に応じて操作オブジェクト40を表示させつつプレイヤキャラクタに所定の動作(例えば、移動やジャンプ動作)を行わせる画面表示を行う。   The display control unit 197 determines the display content of the display 132 according to control by the character operation detection unit 193 and the object control unit 195, and displays various information such as images and texts according to the determined display content. Output to. For example, the display control unit 197 displays the operation object 40 in accordance with the input operation received by the input operation receiving unit 191 in a state where the player character is displayed in a certain area of the display 132, and performs a predetermined action ( For example, a screen display for moving or jumping is performed.

図3は、サーバ20の機能的な構成を示すブロック図である。図3を参照して、サーバ20の詳細な構成を説明する。サーバ20は、プログラムに従って動作することにより、通信部220と、記憶部250と、制御部290としての機能を発揮する。   FIG. 3 is a block diagram illustrating a functional configuration of the server 20. The detailed configuration of the server 20 will be described with reference to FIG. The server 20 functions as the communication unit 220, the storage unit 250, and the control unit 290 by operating according to the program.

通信部220は、サーバ20がユーザ端末10などの外部の通信機器とネットワーク30を介して通信するためのインタフェースとして機能する。   The communication unit 220 functions as an interface for the server 20 to communicate with an external communication device such as the user terminal 10 via the network 30.

記憶部250は、ユーザ端末10においてユーザがゲームを進行させるための各種プログラムおよびデータを記憶する。ある局面において、記憶部250は、ゲームプログラム251と、ゲーム情報252と、ユーザ情報253とを記憶する。   The storage unit 250 stores various programs and data for the user to advance the game in the user terminal 10. In one aspect, the storage unit 250 stores a game program 251, game information 252, and user information 253.

ゲームプログラム251は、サーバ20がユーザ端末10と通信して、ユーザ端末10においてゲームを進行させるためのプログラムである。ゲームプログラム251は、ゲームを進行させるための各種データであるゲーム情報252およびユーザ情報253等を参照して、ユーザの入力操作に応じてゲームを進行させる。ゲームプログラム251は、制御部290に実行されることにより、ユーザ端末10とデータを送受信する処理、ユーザ端末10のユーザが行った操作内容に応じてゲームを進行させる処理、ゲームをプレイするユーザの情報を更新する処理などをサーバ20に行わせる。   The game program 251 is a program for allowing the server 20 to communicate with the user terminal 10 and advance the game on the user terminal 10. The game program 251 refers to the game information 252 and user information 253 that are various data for proceeding with the game, and causes the game to proceed according to the user's input operation. The game program 251 is executed by the control unit 290, whereby processing for transmitting / receiving data to / from the user terminal 10, processing for advancing the game according to the operation performed by the user of the user terminal 10, and the user playing the game The server 20 is caused to perform processing for updating information.

ゲーム情報252は、ゲームプログラム251が参照する各種のデータを含む。ゲーム情報252は、例えば、オブジェクト管理テーブル252Aと、ミッション管理テーブル252Bとを含む。   The game information 252 includes various data referred to by the game program 251. The game information 252 includes, for example, an object management table 252A and a mission management table 252B.

オブジェクト管理テーブル252Aは、ゲームの仮想空間内に配置されるオブジェクトの設定を示す。ユーザ端末10は、ゲームプログラム151を実行することにより、仮想空間内に配置されるオブジェクトを、仮想空間内に配置される仮想カメラによって撮影した画像をディスプレイ132に表示することでゲームを進行させる。   The object management table 252A shows the setting of objects arranged in the virtual space of the game. By executing the game program 151, the user terminal 10 causes the display 132 to display an image obtained by photographing an object placed in the virtual space with a virtual camera placed in the virtual space, thereby causing the game to proceed.

ここで、オブジェクトとしては、例えば、ユーザが操作するゲームキャラクタを示すオブジェクト、ゲームキャラクタが装着する対象物を示すオブジェクトなど様々なものがある。これらオブジェクトは、ユーザがタッチスクリーン130に対して予め定められた入力操作を行うこと、ゲームの進行に伴い一定の条件を満たすこと、その他の様々な事象の発生を契機として、オブジェクトに対応付けられた処理が行われる。   Here, there are various objects such as an object indicating a game character operated by the user and an object indicating an object worn by the game character. These objects are associated with objects when the user performs a predetermined input operation on the touch screen 130, meets certain conditions as the game progresses, and other various events occur. Processing is performed.

例えば、あるオブジェクトに対してユーザがタッチスクリーン130に対して接近操作を行うことで、オブジェクトがユーザに選択された状態となる。また、例えば、ユーザがドラッグ操作を行うことで、ユーザに選択されているオブジェクトがユーザの入力操作に応じて移動する等の処理が行われる。また、例えば、ユーザがオブジェクトに対してタッチ操作をすることで、ユーザに対し、ゲームを有利に進めるための報酬が付与される等の処理が行われる。   For example, when the user performs an approach operation on the touch screen 130 with respect to an object, the object is selected by the user. Further, for example, when the user performs a drag operation, processing such as movement of an object selected by the user according to the user's input operation is performed. In addition, for example, when the user performs a touch operation on the object, a process such as a reward for favoring the game is given to the user.

ミッション管理テーブル252Bは、オブジェクトを識別する情報と、オブジェクトに対応付けられたミッションの情報とが対応付けられている。ここで、ミッションとは、クエストとも呼ばれ、例えば、敵キャラクタを倒したり、所定のキャラクタを救出したりすることで、ユーザがゲームを進行させることができるものである。例えば、ミッションをクリアした場合には、所定の報酬(例えばコイン)をユーザが得る等の、ゲームを有利に進行させられる効果が生じる。ミッション管理テーブル252Bには、各ミッションが、後述の複数のミッション発注所のそれぞれと関連付けられて記憶されている。また、各ミッションの情報には、当該ミッションに関連付けられたミッション対象キャラクタの出現場所、難易度、報酬などの情報が含まれている。   In the mission management table 252B, information for identifying an object is associated with information on a mission associated with the object. Here, the mission is also called a quest. For example, the user can advance the game by defeating an enemy character or rescuing a predetermined character. For example, when the mission is cleared, there is an effect that the game can be advantageously advanced such that the user obtains a predetermined reward (for example, a coin). In the mission management table 252B, each mission is stored in association with each of a plurality of mission order offices described later. The information of each mission includes information such as the appearance location, difficulty level, and reward of the mission target character associated with the mission.

ユーザ情報253は、ゲームをプレイするユーザについての情報である。ユーザ情報253は、ユーザ管理テーブル253Aを含む。ユーザ管理テーブル253Aは、各ユーザを識別する情報と、ユーザがゲームを進行させた度合いを示す情報と、ユーザがゲーム内で保有するアイテム、ゲームキャラクタ、ゲームキャラクタが使用する装着物等の情報などを含む。   The user information 253 is information about the user who plays the game. The user information 253 includes a user management table 253A. The user management table 253A includes information for identifying each user, information indicating the degree of progress of the game by the user, information on items held by the user in the game, game characters, items used by the game character, and the like. including.

制御部290は、記憶部250に記憶されるゲームプログラム251を実行することにより、送受信部291、サーバ処理部292、データ管理部293、マッチング部294、計測部295としての機能を発揮する。   The control unit 290 executes functions of the transmission / reception unit 291, the server processing unit 292, the data management unit 293, the matching unit 294, and the measurement unit 295 by executing the game program 251 stored in the storage unit 250.

送受信部291は、ゲームプログラム151を実行するユーザ端末10から、各種情報を受信し、ユーザ端末10に対し、各種情報を送信する。ユーザ端末10とサーバ20とは、ユーザに関連付けられるオブジェクトを仮想空間に配置する要求、オブジェクトを削除する要求、オブジェクトを移動させる要求、ユーザが獲得する報酬に応じて各種パラメータを更新する要求、ゲームを進行させるための画像、音声その他のデータ、サーバ20からユーザ端末10へ送信される通知などの情報を送受信する。   The transmission / reception unit 291 receives various types of information from the user terminal 10 that executes the game program 151, and transmits various types of information to the user terminal 10. The user terminal 10 and the server 20 include a request to place an object associated with the user in the virtual space, a request to delete the object, a request to move the object, a request to update various parameters according to a reward acquired by the user, a game Information such as an image, audio, and other data for advancing, and a notification transmitted from the server 20 to the user terminal 10 are transmitted and received.

サーバ処理部292は、サーバ20全体の動作を制御し、各種のプログラムを呼び出す等によりゲームの進行に必要な処理を行う。サーバ処理部292は、例えば、ユーザ端末10から受信した情報に基づいて、ゲーム情報252、ユーザ情報253、などのデータを更新し、ユーザ端末10に各種データを送信することでゲームを進行させる。   The server processing unit 292 controls the operation of the entire server 20 and performs processing necessary for the progress of the game by calling various programs. For example, the server processing unit 292 updates the data such as the game information 252 and the user information 253 based on the information received from the user terminal 10 and transmits various data to the user terminal 10 to advance the game.

データ管理部293は、サーバ処理部292の処理結果に従って、記憶部250に記憶される各種データを更新する処理、データベースにレコードを追加/更新/削除する処理などを行う。   The data management unit 293 performs processing for updating various data stored in the storage unit 250, processing for adding / updating / deleting records to the database, and the like according to the processing result of the server processing unit 292.

マッチング部294は、複数のユーザを関連付けるための一連の処理を行う。マッチング部294は、例えば、ユーザがマルチプレイを行うための入力操作を行った場合に、ゲームを協同してプレイさせるユーザを関連付ける処理などを行う。   The matching unit 294 performs a series of processes for associating a plurality of users. For example, when the user performs an input operation for performing multi-play, the matching unit 294 performs processing for associating a user who plays a game in cooperation.

計測部295は、時間を計測する処理を行う。計測部295は、例えば、仮想空間に配置される各オブジェクトについて時間の経過を計測する。また、計測部295は、ゲームが進行している時間を計測する。サーバ20は、ユーザ端末10から、ユーザ端末10においてゲームプログラム151を実行して計測される各種の計測結果の情報を受信し、受信した情報と、計測部295の計測結果とを照合することで、ユーザ端末10とサーバ20とで、各種の時間に関する情報を同期させる。   The measurement unit 295 performs processing for measuring time. For example, the measurement unit 295 measures the passage of time for each object arranged in the virtual space. Moreover, the measurement part 295 measures the time for which the game is progressing. The server 20 receives information on various measurement results measured by executing the game program 151 on the user terminal 10 from the user terminal 10, and collates the received information with the measurement results of the measurement unit 295. The user terminal 10 and the server 20 synchronize information about various times.

図4は、本実施形態に係るユーザ端末10のタッチスクリーン130に表示されるゲーム画面の一例を示す。
図4の画面例は、ユーザが操作する自キャラクタ100(プレイヤオブジェクトの一例)に、所定の動作を行わせるための入力操作を受け付ける画面である。制御部190は、タッチスクリーン130に、ユーザが操作するオブジェクトである自キャラクタ100と、対戦相手(敵)となるオブジェクトである相手キャラクタ200(以下、ミッション対象キャラクタと称する場合もある)とを表示させて、ユーザに対し、自キャラクタ100に所定の動作を行わせるための入力操作を受け付ける。自キャラクタ100および相手キャラクタ200は、ユーザ端末10を縦型となるように置いたときに、その上下方向においてタッチスクリーン130の中央付近(例えば、タッチスクリーン130をその上下方向に三分割したときの中央の領域内)に、例えば、左右方向において進行方向に視野がやや広くなるように表示される。タッチスクリーン130の下方には、例えば地面の断面(図4のドット模様の部分)が表示されている。タッチスクリーン130の下半部、すなわち地面の断面が表示された部分は、後述の操作オブジェクト40を操作するためのスペースとして利用可能である。ユーザは、タッチスクリーン130の任意位置への操作によって、自キャラクタ100を操作することができる。ユーザが、例えば、タッチスクリーン130の左右方向に沿った方向(図4の矢印Aの方向)のドラッグ操作を入力した場合、制御部190は、そのドラッグ操作を受け付けて、自キャラクタ100をドラッグ操作の方向に対応する方向(例えば、矢印Bの方向)に移動させるよう制御する。なお、本例では、制御部190は、ドラッグ操作の方向に基づいて、仮想空間内に規定された二次元フィールドにおいて、自キャラクタ100を上下方向および水平方向に移動させることができる。
FIG. 4 shows an example of a game screen displayed on the touch screen 130 of the user terminal 10 according to the present embodiment.
The screen example of FIG. 4 is a screen that receives an input operation for causing the player character 100 (an example of a player object) operated by the user to perform a predetermined action. The control unit 190 displays on the touch screen 130 the own character 100 that is an object operated by the user and an opponent character 200 that is an object that is an opponent (enemy) (hereinafter also referred to as a mission target character). Thus, an input operation for causing the user character 100 to perform a predetermined action is accepted. When the user character 10 and the opponent character 200 are placed so that the user terminal 10 is in a vertical shape, the vicinity of the center of the touch screen 130 in the vertical direction (for example, when the touch screen 130 is divided into three in the vertical direction) In the central area, for example, the field of view is displayed so as to be slightly wider in the direction of travel in the left-right direction. Below the touch screen 130, for example, a cross-section of the ground (dot-patterned portion in FIG. 4) is displayed. The lower half of the touch screen 130, that is, the portion where the cross section of the ground is displayed can be used as a space for operating the operation object 40 described later. The user can operate the player character 100 by operating the touch screen 130 to an arbitrary position. For example, when the user inputs a drag operation in the direction along the left-right direction of the touch screen 130 (the direction of the arrow A in FIG. 4), the control unit 190 accepts the drag operation and drags the player character 100. Control is performed so as to move in a direction corresponding to the direction (for example, the direction of arrow B). In this example, the control unit 190 can move the player character 100 in the vertical and horizontal directions in the two-dimensional field defined in the virtual space based on the direction of the drag operation.

タッチスクリーン130の左右方向の端部(図4では左端)には、各種のユーザインターフェース画像300(以下、UI画像と称する)が表示されていても良い。UI画像300には、例えば、マップを表示するためのUI画像300A、キャラクタを変更するためのUI画像300B、スキル(ゲーム内で自キャラクタ100により行われる攻撃アクションの一つ)を発動させるためのUI画像300Cが含まれ得る。   Various user interface images 300 (hereinafter referred to as UI images) may be displayed on the left and right ends of the touch screen 130 (left end in FIG. 4). The UI image 300 includes, for example, a UI image 300A for displaying a map, a UI image 300B for changing a character, and a skill (one of attack actions performed by the player character 100 in the game). A UI image 300C may be included.

<1.自キャラクタの動作制御>
図5は、キャラクタ操作検出部193が、ユーザの入力操作に応じて自キャラクタ100を移動させる方向を検出する処理を示す図である。キャラクタ操作検出部193は、ユーザがタッチスクリーン130を押していない状態から、指などをタッチパネル131に接近させてタッチスクリーン130を押した位置(初期タッチ位置)を起点と設定する。入力操作受付部191は、ユーザの操作をドラッグ操作と判別している場合に、起点となる座標と、タッチスクリーン130がユーザの指などの接近を検出している座標とに基づいて、自キャラクタ100を移動させる方向を検出する。
<1. Action control of own character>
FIG. 5 is a diagram illustrating processing in which the character operation detection unit 193 detects a direction in which the player character 100 is moved in accordance with a user input operation. The character operation detection unit 193 sets a position (initial touch position) where the user presses the touch screen 130 by bringing a finger or the like closer to the touch panel 131 from the state where the user is not pressing the touch screen 130 as a starting point. When the input operation reception unit 191 determines that the user's operation is a drag operation, the input operation reception unit 191 determines the own character based on the coordinates that are the starting point and the coordinates that the touch screen 130 detects the approach of the user's finger or the like. The direction in which 100 is moved is detected.

図5の状態(A)は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させた状態を示す。入力操作受付部191は、ユーザの指がタッチスクリーン130に接近したことを検出し、検出した座標を初期タッチ位置としてメモリ(例えば、主記憶4または補助記憶5)に保持する。   A state (A) in FIG. 5 shows a state in which the user brings his / her finger closer to the touch screen 130 from a state in which the user's finger has left the touch screen 130. The input operation reception unit 191 detects that the user's finger has approached the touch screen 130 and holds the detected coordinates in the memory (for example, the main memory 4 or the auxiliary memory 5) as an initial touch position.

図5の例では、メモリが保持する初期タッチ位置の座標を、初期タッチ位置座標55として示す。入力操作受付部191は、タッチスクリーン130の検出結果(ユーザの指がタッチスクリーン130に接近している座標、および、ユーザの指がタッチスクリーン130に接近していることを検出していないこと(検出結果「null」))を、一定フレーム分、バッファメモリ53に格納する。バッファメモリ53は、タッチスクリーン130における検出結果を、各フレームについて一定フレーム分(図5の例では、メモリ領域fp〔0〕〜メモリ領域fp〔10〕までの11フレーム分)、格納することができる。バッファメモリ53は、例えばリングバッファとして実現することができる。   In the example of FIG. 5, the coordinates of the initial touch position held by the memory are shown as the initial touch position coordinates 55. The input operation reception unit 191 does not detect the detection result of the touch screen 130 (the coordinates at which the user's finger is approaching the touch screen 130 and the proximity of the user's finger to the touch screen 130 ( The detection result “null”)) is stored in the buffer memory 53 for a certain number of frames. The buffer memory 53 can store detection results on the touch screen 130 for each frame (in the example of FIG. 5, 11 frames from the memory area fp [0] to the memory area fp [10]). it can. The buffer memory 53 can be realized as a ring buffer, for example.

状態(A)の例では、ユーザがタッチスクリーン130を押した位置を、押下位置50A(タッチスクリーン130の座標(x0,y0))として示す。   In the example of the state (A), a position where the user presses the touch screen 130 is indicated as a pressed position 50A (coordinates (x0, y0) of the touch screen 130).

図5の状態(B)は、ユーザがタッチスクリーン130に対してドラッグ操作を行って、タッチスクリーン130に対する押下位置を、押下位置50Aから押下位置50B(タッチスクリーン130の座標(x9,y9))まで10フレーム(メモリ領域fp〔0〕〜メモリ領域fp〔9〕までの10フレーム分)で移動させたことを示す。入力操作受付部191は、タッチスクリーン130の検出結果をバッファメモリ53に格納し、バッファメモリ53に保持される値を参照して、タッチスクリーン130に対するユーザの操作をドラッグ操作と判別する。   In the state (B) of FIG. 5, the user performs a drag operation on the touch screen 130, and the pressing position on the touch screen 130 is changed from the pressing position 50A to the pressing position 50B (coordinates (x9, y9) of the touch screen 130). This indicates that the frame has been moved by 10 frames (10 frames from the memory area fp [0] to the memory area fp [9]). The input operation reception unit 191 stores the detection result of the touch screen 130 in the buffer memory 53 and refers to the value held in the buffer memory 53 to determine that the user's operation on the touch screen 130 is a drag operation.

図5の状態(C)は、ユーザがタッチスクリーン130を押している位置を、押下位置50Bから押下位置50C(タッチスクリーン130の座標(x14,y14))まで、5フレーム(メモリ領域fp〔10〕、fp〔0〕、fp〔1〕、fp〔2〕、fp〔3〕の5フレーム分)で移動させたことを示す。   In the state (C) of FIG. 5, the position where the user is pressing the touch screen 130 is five frames (memory area fp [10]) from the pressed position 50B to the pressed position 50C (coordinates (x14, y14) of the touch screen 130). , Fp [0], fp [1], fp [2], and fp [3]).

図5の状態(D)は、キャラクタ操作検出部193が、状態(B)および状態(C)のそれぞれにおいて、ユーザが自キャラクタ100を移動させる方向を指定する入力操作の検出結果を示す。キャラクタ操作検出部193は、バッファメモリ53において、タッチスクリーン130が検出する押下位置の座標を書き込む対象となるメモリ領域がいずれであるかを示す情報(バッファメモリ53の書き込み位置)を管理している。   The state (D) in FIG. 5 shows the detection result of the input operation in which the character operation detection unit 193 designates the direction in which the user moves the player character 100 in each of the state (B) and the state (C). The character operation detection unit 193 manages information (writing position in the buffer memory 53) indicating which memory area is the target of writing the coordinates of the pressed position detected by the touch screen 130 in the buffer memory 53. .

状態(B)において、キャラクタ操作検出部193は、入力操作受付部191の判別結果に基づいて、初期タッチ位置を示す座標51A(座標(x0,y0))から座標51B(座標(x9,y9))までユーザがドラッグ操作を行ったことを検出する。キャラクタ操作検出部193は、初期タッチ位置の座標51Aを起点として、座標51Aと座標51Bとによって規定されるベクトル52Bを、自キャラクタ100を移動させる方向として検出する。   In the state (B), the character operation detection unit 193 determines from the coordinate 51A (coordinate (x0, y0)) indicating the initial touch position to the coordinate 51B (coordinate (x9, y9)) based on the determination result of the input operation reception unit 191. ) Until the user performs a drag operation. The character operation detection unit 193 detects a vector 52B defined by the coordinates 51A and 51B as a direction in which the player character 100 is moved, starting from the coordinates 51A of the initial touch position.

状態(C)において、キャラクタ操作検出部193は、入力操作受付部191の判別結果に基づいて、座標51B(座標(x9,y9))から座標51C(座標(x14,y14))までユーザがドラッグ操作を行ったことを検出する。キャラクタ操作検出部193は、初期タッチ位置の座標51Aを起点として、座標51Aと座標51Cとによって規定されるベクトル52Cを、自キャラクタ100を移動させる方向として検出する。   In the state (C), the character operation detection unit 193 drags the user from the coordinate 51B (coordinate (x9, y9)) to the coordinate 51C (coordinate (x14, y14)) based on the determination result of the input operation receiving unit 191. Detects that an operation has been performed. The character operation detection unit 193 detects a vector 52C defined by the coordinates 51A and 51C as a starting direction from the coordinates 51A of the initial touch position as a direction in which the player character 100 is moved.

<2.操作オブジェクトの基本構成>
本実施形態に係る操作オブジェクト40(図4参照)は、ユーザのタッチスクリーン130に対する接近操作が検知されるとタッチスクリーン130に表示される。操作オブジェクト40は、ユーザが自キャラクタ100を移動させる方向を示す弾性状のオブジェクトである。操作オブジェクト40は、図6の状態(A)に示すように、指接触時の初期形状として、タッチスクリーン130に接触した位置(例えば、図5の初期タッチ位置座標51A)である接触開始点に関連付けられた基準位置の周囲に、円形状の基部42を有するように形成される。なお、基準位置は、最初に指がタッチスクリーン130に触れた座標でなくても良く、例えば、最初に指が触れたフレームの数フレーム後のフレームにおいて指が触れていた座標であっても良い。
<2. Basic configuration of operation object>
The operation object 40 (see FIG. 4) according to the present embodiment is displayed on the touch screen 130 when a user's approach operation to the touch screen 130 is detected. The operation object 40 is an elastic object that indicates a direction in which the user moves the player character 100. As shown in the state (A) of FIG. 6, the operation object 40 has a contact start point that is a position (for example, initial touch position coordinates 51 </ b> A of FIG. 5) as the initial shape at the time of finger contact with the touch screen 130. A circular base 42 is formed around the associated reference position. Note that the reference position does not have to be the coordinates at which the finger first touches the touch screen 130, and may be, for example, the coordinates at which the finger touched a frame several frames after the first touched frame. .

ユーザがタッチスクリーン130上で接触開始点から接触終了点(ここで、接触終了点とは、ユーザの指などがタッチスクリーン130に接触した状態での最終地点を意味する)までドラッグ操作を行うと、図6の状態(B)に示すように操作オブジェクト40は、ユーザの指に引っ張られるような弾性変形を伴う。このとき、操作オブジェクト40は、ドラッグ操作の接触開始点に対応して表示される基部(拡大部)42に加えて、ドラッグ操作の接触終了点(注:指はタッチスクリーン130に接触したままの状態である。)付近に位置する先端部44と、基部42と先端部44との間を接続する接続部46とを含むように構成される。このように操作オブジェクト40は、接触開始点から接触終了点に向けて入力されたドラッグ操作の方向に弾性的に延ばされるように形成される。また、ユーザが接触終了点を接触状態に維持しつつタッチスクリーン130上において更に指などを移動させた場合、先端部44もそれに追従して更に移動し操作オブジェクト40の延びる向きも変化する。ユーザによるドラッグ操作が終了した際に(すなわち、タッチスクリーン130上において接触終了点からユーザの指が離れた際に)、弾性変形した操作オブジェクト40が、その復元力に従って、接触開始点に向けて段階的に萎縮して、図6の状態(A)に示した初期形状に復元するように表示され、一定時間経過後に非表示となる。   When the user performs a drag operation on the touch screen 130 from the contact start point to the contact end point (here, the contact end point means the final point when the user's finger or the like is in contact with the touch screen 130). As shown in the state (B) of FIG. 6, the operation object 40 is accompanied by elastic deformation such that it is pulled by the user's finger. At this time, in addition to the base part (enlarged part) 42 displayed corresponding to the contact start point of the drag operation, the operation object 40 has a contact end point of the drag operation (note: the finger remains in contact with the touch screen 130). It is configured to include a distal end portion 44 located in the vicinity and a connection portion 46 that connects between the base portion 42 and the distal end portion 44. Thus, the operation object 40 is formed so as to be elastically extended in the direction of the drag operation input from the contact start point toward the contact end point. When the user further moves a finger or the like on the touch screen 130 while maintaining the contact end point in the contact state, the distal end portion 44 further moves following the movement and the extending direction of the operation object 40 also changes. When the user's drag operation is completed (that is, when the user's finger is released from the contact end point on the touch screen 130), the elastically deformed operation object 40 is directed toward the contact start point according to its restoring force. It shrinks in stages and is displayed so as to be restored to the initial shape shown in the state (A) of FIG. 6 and disappears after a lapse of a certain time.

なお、図6の状態(A)では、接触開始点を中心に円形状の基部42を形成しているが、必ずしもこれに限定されない。例えば、基部42を接触開始点から一定距離だけ上部または下部にずらして形成しても良い。すなわち、操作オブジェクト40の基部42は、接触開始点に関連付けられた所定の位置(基準位置)に対応して表示されていても良い。また、接触開始点に形成した操作オブジェクト40(基部42)をドラッグ操作に応じて変形させずに、接触開始点から接触終了点に向けて、操作オブジェクトの一部を構成する別のオブジェクトを表示させるようにしても良い。   In addition, in the state (A) of FIG. 6, although the circular base 42 is formed centering on the contact start point, it is not necessarily limited to this. For example, the base 42 may be formed to be shifted upward or downward by a certain distance from the contact start point. That is, the base 42 of the operation object 40 may be displayed corresponding to a predetermined position (reference position) associated with the contact start point. Further, another object constituting a part of the operation object is displayed from the contact start point toward the contact end point without deforming the operation object 40 (base 42) formed at the contact start point in accordance with the drag operation. You may make it let it.

<3.本ゲームプログラムの動作例の説明>
図7から図11を参照して、本ゲームプログラムにおける動作例について説明する。
本実施形態に係るゲームプログラムは、ユーザの操作によって活動する自キャラクタ100が、複数のミッション(ゲームステージ)を順次クリアしてゆき、全てのミッションをクリアしたときにゲームクリア(エンディング)となるゲームであり、各ゲームステージやゲームステージを選択するためのステージが途切れなく(すなわち、シームレスに)連続している所謂「シームレスフィールド」を採用している。
<3. Explanation of operation example of this game program>
With reference to FIGS. 7 to 11, an example of the operation in the game program will be described.
The game program according to the present embodiment is a game in which the player character 100 that is activated by the user's operation sequentially clears a plurality of missions (game stages), and the game is cleared (ending) when all the missions are cleared. In other words, a so-called “seamless field” is employed in which each stage for selecting each game stage and game stage is continuous (ie, seamless).

図7は、本ゲームプログラムにおけるマルチプレイを実現するためのユーザ端末10およびサーバ20の動作例について説明するフローチャートである。図7に示される処理は、制御部190がゲームプログラム151を、制御部290がゲームプログラム251をそれぞれ実行することにより実現される。   FIG. 7 is a flowchart for explaining an operation example of the user terminal 10 and the server 20 for realizing multi-play in this game program. The processing shown in FIG. 7 is realized by the control unit 190 executing the game program 151 and the control unit 290 executing the game program 251.

ステップS1000において、ユーザ端末10の制御部190は、サーバ20に対してマルチプレイに参加するための参加リクエストを送信する。ステップS1002において、サーバ20の制御部290は、ユーザが操作するユーザ端末10からの参加リクエストを受け付ける。   In step S1000, the control unit 190 of the user terminal 10 transmits a participation request for participating in multiplayer to the server 20. In step S1002, the control unit 290 of the server 20 receives a participation request from the user terminal 10 operated by the user.

ステップS1004において、サーバ20の制御部290は、サーバ処理部292として、マルチプレイに参加するユーザが規定人数に達したと判断したことに応じて、サーバ20側の仮想空間を規定して、当該仮想空間に所定のフィールド(本プログラムでは、シームレスフィールド)を形成するためのオブジェクトを配置する。さらに、制御部290は、送受信部291として、フィールドを形成するためのオブジェクトの情報をユーザ端末10に送信する。   In step S <b> 1004, the control unit 290 of the server 20 defines the virtual space on the server 20 side as the server processing unit 292 in response to determining that the number of users participating in the multiplayer has reached the specified number. An object for forming a predetermined field (a seamless field in this program) is arranged in the space. Furthermore, the control unit 290 transmits, as the transmission / reception unit 291, object information for forming a field to the user terminal 10.

ステップS1006において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信した情報に基づいてゲーム情報152に格納されるオブジェクトをユーザ端末10側の仮想空間に配置する。これにより、制御部190は、仮想空間にフィールドを形成する。   In step S <b> 1006, the control unit 190 of the user terminal 10 arranges an object stored in the game information 152 as the object control unit 195 in the virtual space on the user terminal 10 side based on the information received from the server 20. Thereby, the control unit 190 forms a field in the virtual space.

ステップS1008において、ユーザ端末10の制御部190は、オブジェクト制御部195として、ゲーム情報152に格納される自キャラクタ100の情報に従い、自キャラクタ100をフィールドに配置(生成)する。さらに、制御部190は、自キャラクタ100の情報をサーバ20に送信する。   In step S1008, the control unit 190 of the user terminal 10 arranges (generates) the player character 100 in the field as the object controller 195 in accordance with the player character 100 information stored in the game information 152. Furthermore, the control unit 190 transmits information on the player character 100 to the server 20.

ステップS1010において、サーバ20の制御部290は、データ管理部293として、ユーザ端末10から受信したキャラクタ情報に基づいてユーザ管理テーブル253Aに格納される自キャラクタ100の情報を保存する。なお、同ステップにおいて、制御部290は、マルチプレイに参加する他のユーザ端末10から、当該他のユーザ端末10のユーザが操作するキャラクタ(以下、「他キャラクタ」とも称する)の情報を受信して、ユーザ管理テーブル253Aの情報を保存する。   In step S <b> 1010, the control unit 290 of the server 20 stores, as the data management unit 293, information on the own character 100 stored in the user management table 253 </ b> A based on the character information received from the user terminal 10. In this step, the control unit 290 receives information on a character operated by the user of the other user terminal 10 (hereinafter also referred to as “other character”) from another user terminal 10 participating in the multiplayer. The information of the user management table 253A is stored.

ステップS1012において、サーバ20の制御部290は、サーバ処理部292として、ユーザ管理テーブル253Aに格納される他キャラクタの情報に基づいて、他キャラクタを生成してフィールドに配置する。さらに、制御部290は、送受信部291として、他キャラクタの情報をユーザ端末10に送信する。   In step S1012, the control unit 290 of the server 20 generates, as the server processing unit 292, other characters based on the other character information stored in the user management table 253A and arranges them in the field. Furthermore, the control part 290 transmits the information of other characters to the user terminal 10 as the transmission / reception part 291.

ステップS1014において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信した他キャラクタの情報に基づいて他キャラクタを生成してフィールドに配置する。   In step S <b> 1014, the control unit 190 of the user terminal 10 generates, as the object control unit 195, other characters based on the other character information received from the server 20 and arranges them in the field.

ステップS1016において、サーバ20の制御部290は、サーバ処理部292として、オブジェクト管理テーブル252Aを参照して、ミッション攻略のための対象であるミッション対象キャラクタを生成してフィールドに配置する。また、制御部290は、ミッション対象キャラクタおよびミッション対象キャラクタと関連付けられたミッションの情報をマルチプレイに参加する各ユーザ端末10に送信する。   In step S1016, the control unit 290 of the server 20 refers to the object management table 252A as the server processing unit 292, generates a mission target character that is a target for mission capture, and arranges it in the field. In addition, the control unit 290 transmits the mission target character and the mission information associated with the mission target character to each user terminal 10 participating in the multiplayer.

ステップS1018において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信したミッション対象キャラクタの情報に基づいて、ミッション対象キャラクタを生成してフィールドに配置する。   In step S1018, the control unit 190 of the user terminal 10 generates, as the object control unit 195, a mission target character based on the mission target character information received from the server 20, and places it in the field.

ステップS1020において、ユーザ端末10の制御部190は、キャラクタ操作検出部193として、タッチスクリーン130に対するドラッグ操作を検出し、当該ドラッグ操作のタッチ開始位置およびタッチ継続位置により定まる方向を検出する。制御部190は、キャラクタ操作検出部193が検出した方向に、仮想カメラおよび自キャラクタ100を移動させる。さらに、制御部190は、移動後の自キャラクタ100の仮想空間における位置座標をサーバ20に送信する。なお、他の局面において、制御部190は、仮想空間における自キャラクタ100が向いている方向、自キャラクタ100の移動速度などを併せてサーバ20に送信し得る。   In step S1020, the control unit 190 of the user terminal 10 detects a drag operation on the touch screen 130 as the character operation detection unit 193, and detects a direction determined by the touch start position and the touch continuation position of the drag operation. The control unit 190 moves the virtual camera and the player character 100 in the direction detected by the character operation detection unit 193. Furthermore, the control unit 190 transmits the position coordinates of the moved character 100 in the virtual space to the server 20. In another aspect, the control unit 190 can transmit the direction in which the player character 100 is facing in the virtual space, the moving speed of the player character 100, and the like to the server 20 together.

ステップS1022において、サーバ20の制御部290は、サーバ処理部292として、ユーザ端末10から受信した自キャラクタ100の位置座標に基づいて、サーバ20側の仮想空間の自キャラクタ100の位置を更新する。なお、同ステップにおいて、制御部290は、サーバ20側の仮想空間における他キャラクタの位置も更新する。制御部290は、更新した他キャラクタの位置情報をユーザ端末10に送信する。   In step S <b> 1022, the control unit 290 of the server 20 updates, as the server processing unit 292, the position of the player character 100 in the virtual space on the server 20 side based on the position coordinates of the player character 100 received from the user terminal 10. In this step, the control unit 290 also updates the positions of other characters in the virtual space on the server 20 side. The control unit 290 transmits the updated position information of the other character to the user terminal 10.

ステップS1024において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信した他キャラクタの位置情報に基づいて、仮想空間(フィールド)内において他キャラクタを移動する。   In step S1024, the control unit 190 of the user terminal 10 moves the other character in the virtual space (field) as the object control unit 195 based on the position information of the other character received from the server 20.

ステップS1026において、サーバ20の制御部290は、サーバ処理部292として、ミッション対象キャラクタを移動する。また、制御部290は、送受信部291として機能し、移動後のミッション対象キャラクタの位置情報をユーザ端末10に送信する。   In step S 1026, the control unit 290 of the server 20 moves the mission target character as the server processing unit 292. In addition, the control unit 290 functions as the transmission / reception unit 291 and transmits the position information of the mission target character after movement to the user terminal 10.

ステップS1028において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信したミッション対象キャラクタの位置情報に基づいて、仮想空間内においてミッション対象キャラクタを移動する。   In step S <b> 1028, the control unit 190 of the user terminal 10 moves the mission target character in the virtual space as the object control unit 195 based on the position information of the mission target character received from the server 20.

また、ユーザ端末10およびサーバ20はそれぞれ、その他ゲームを進行するために必要な処理を実行する。ゲームを進行するために必要な処理は、一例として、自キャラクタおよび対象キャラタの攻撃処理、これら攻撃のヒット判定処理、ダメージ処理、ドロップアイテム処理、経験値処理、アイテム取得処理、などが挙げられる。   In addition, each of the user terminal 10 and the server 20 executes other processes necessary for progressing the game. Examples of the processes necessary for progressing the game include attack processing of the player character and the target character, hit determination processing of these attacks, damage processing, drop item processing, experience value processing, item acquisition processing, and the like.

図8は、ミッション対象キャラクタの発生位置に関する画像の表示処理について説明するフローチャートである。   FIG. 8 is a flowchart illustrating an image display process related to the generation position of the mission target character.

図8のステップS1100において、ユーザ端末10の制御部190は、ユーザの移動操作により、自キャラクタ100が図9に示すミッション発注所60(ミッション選択領域の一例)内に移動したか否かを判断する。ミッション発注所60は、フィールドMF内の所定の位置に一つ以上配置されている。上述の通り、各ミッション発注所60には、異なる(あるいは少なくとも一部が重複していても良い)ミッションが関連付けられている。   In step S1100 of FIG. 8, the control unit 190 of the user terminal 10 determines whether or not the player character 100 has moved into the mission ordering place 60 (an example of a mission selection area) shown in FIG. To do. One or more mission order offices 60 are arranged at predetermined positions in the field MF. As described above, each mission order place 60 is associated with a different (or at least partly overlapping) mission.

自キャラクタ100がミッション発注所60内に移動したと判定された場合には(ステップS1100のYes)、ステップS1102において、制御部190は、ミッション発注所60が選択されたと判定し、選択されたミッション発注所60に関する情報を生成し、当該情報をサーバ20へ送信する。   If it is determined that the player character 100 has moved into the mission order place 60 (Yes in step S1100), in step S1102, the control unit 190 determines that the mission order place 60 has been selected, and the selected mission is selected. Information about the order place 60 is generated and the information is transmitted to the server 20.

ステップS1104において、サーバ20の制御部290は、記憶部250に記憶されているミッション管理テーブル252Bを読み出す。そして、ステップS1106において、制御部290は、ミッション管理テーブル252Bからミッション発注所60に関連付けられた情報(以下、ミッション発注所情報と称する)を取得し、このミッション発注所情報をユーザ端末10へ送信する。なお、上述の通り、ミッション管理テーブル252Bに保存されているミッション発注所情報には、当該ミッション発注所60で選択可能なミッションの内容が含まれている。   In step S1104, the control unit 290 of the server 20 reads the mission management table 252B stored in the storage unit 250. In step S1106, the control unit 290 acquires information associated with the mission order place 60 (hereinafter referred to as mission order place information) from the mission management table 252B, and transmits the mission order place information to the user terminal 10. To do. As described above, the mission ordering place information stored in the mission management table 252B includes the contents of missions that can be selected at the mission ordering place 60.

ステップS1108において、ユーザ端末10の制御部190は、サーバ20から受信したミッション発注所情報に基づいて、タッチスクリーン130上に、選択されたミッション発注所60に関連付けられた少なくとも一つ(ここでは、2つ)のミッションのメニュー画面65を表示する(図10参照)。メニュー画面65には、例えば、ミッション1として「キャラクタ200を5匹倒せ!」というミッションとともに、ミッション対象キャラクタ200の出現場所、ミッションクリアの難易度、ミッションクリア時の報酬が表示される。また、ミッション2として、「キャラクタ400を救出せよ!」というミッションとともに、ミッション対象キャラクタ400の出現場所、ミッションクリアの難易度、ミッションクリア時の報酬が表示される。なお、メニュー画面65の表示は、自キャラクタ100がミッション発注所60内に移動した場合に限られない。例えば、制御部190は、ユーザによりミッション発注所60がタップされた場合などにメニュー画面65を表示しても良い。   In step S1108, the control unit 190 of the user terminal 10 determines, based on the mission order place information received from the server 20, at least one associated with the selected mission order place 60 on the touch screen 130 (here, A menu screen 65 of two missions is displayed (see FIG. 10). The menu screen 65 displays, for example, the mission “Defeat 5 characters 200!” As mission 1, along with the appearance location of the mission target character 200, the difficulty of mission clear, and the reward for clearing the mission. In addition, as mission 2, a mission “rescue the character 400!” Is displayed, the appearance location of the mission target character 400, the difficulty level of the mission clear, and the reward when the mission is cleared. The display of the menu screen 65 is not limited to the case where the player character 100 moves into the mission ordering place 60. For example, the control unit 190 may display the menu screen 65 when the mission order place 60 is tapped by the user.

続いて、ステップS1110において、制御部190は、ユーザの操作により、表示されたミッション1および2のうちいずれか一つが選択されたか否かを判定する。なお、ユーザは、一度に複数のミッションを選択することもできる。   Subsequently, in step S1110, the control unit 190 determines whether any one of the displayed missions 1 and 2 is selected by a user operation. The user can also select a plurality of missions at a time.

いずれかのミッションが選択されたと判定された場合には(ステップS1110のYes)、ステップS1112において、制御部190は、選択されたミッションに関する情報(以下、ミッション選択情報と称する)を生成し、サーバ20へ送信する。例えば、ユーザがミッション1を選択した場合には、制御部190は、ミッション1が選択されたことを、サーバ20へ送信する。   If it is determined that one of the missions has been selected (Yes in step S1110), in step S1112, the control unit 190 generates information on the selected mission (hereinafter referred to as mission selection information), and the server 20 is transmitted. For example, when the user selects mission 1, the control unit 190 transmits to the server 20 that mission 1 has been selected.

ステップS1114において、サーバ20の制御部290は、ユーザ端末10から受信したミッション選択情報を、記憶部250のミッション管理テーブル252Bに保存する(ミッション管理テーブル252Bを更新する)。続いて、ステップS1116において、制御部290は、更新されたミッション管理テーブル252Bの情報(以下、ミッション更新情報と称する)を取得し、各ユーザ端末10へ送信する。ミッション更新情報は、特に、ミッション発注所60においてユーザにより選択されたミッションと、選択されたミッションに関連付けられたミッション対象キャラクタ(例えば、キャラクタ200やキャラクタ400)を含む。これにより、ユーザ端末10がミッション1を選択したことに関する情報が、サーバ20を介して、他のユーザ端末へも送信される。   In step S1114, the control unit 290 of the server 20 stores the mission selection information received from the user terminal 10 in the mission management table 252B of the storage unit 250 (updates the mission management table 252B). Subsequently, in step S <b> 1116, the control unit 290 acquires information on the updated mission management table 252 </ b> B (hereinafter referred to as mission update information) and transmits it to each user terminal 10. The mission update information includes, in particular, the mission selected by the user at the mission order place 60 and the mission target character (for example, the character 200 or the character 400) associated with the selected mission. Thereby, the information regarding the user terminal 10 having selected the mission 1 is transmitted to other user terminals via the server 20.

ステップS1118において、ユーザ端末10の制御部190は、サーバ20から受信したミッション更新情報を記憶部150に保存する。すなわち、制御部190は、ミッション発注所60においてユーザにより選択されたミッションと、選択されたミッションに関連付けられたミッション対象キャラクタとに関する情報を、記憶部150に記憶する。   In step S <b> 1118, the control unit 190 of the user terminal 10 stores the mission update information received from the server 20 in the storage unit 150. That is, the control unit 190 stores in the storage unit 150 information related to the mission selected by the user at the mission order place 60 and the mission target character associated with the selected mission.

ステップS1120において、制御部190は、メニュー画面65を非表示とするとともに、自キャラクタ100をミッション発注所60の外側へ移動させる。具体的には、制御部190は、図11に示すように、自キャラクタ100を、ミッション発注所60に対して自キャラクタ100の進行方向側である右側へ移動させる。   In step S <b> 1120, the control unit 190 hides the menu screen 65 and moves the player character 100 to the outside of the mission order place 60. Specifically, as shown in FIG. 11, the control unit 190 moves the player character 100 to the right side that is the traveling direction side of the player character 100 with respect to the mission order place 60.

ステップS1122において、制御部190は、タッチスクリーン130内の所定位置に、ミッション対象キャラクタの発生位置に関する情報を示す位置関連画像500A,500B(これらをまとめて位置関連画像500と称する場合もある)を表示する。図11に示すように、これらの位置関連画像500A,500Bは、ゲームの進行上で邪魔になりにくい位置、例えば、水平方向におけるタッチスクリーン130の端部(例えば、タッチスクリーン130の右端側)に表示される。位置関連画像500Aは、ミッション1に関連付けられたミッション対象キャラクタ200の発生位置に関する情報を示す画像であって、例えば、キャラクタ200の顔が表示されている。位置関連画像500Aの下側には、自キャラクタ100の現在位置からキャラクタ200の発生位置までの距離(ここでは、例えば2km)が表示されている。また、位置関連画像500Bは、ミッション2に関連付けられたミッション対象キャラクタ400の発生位置に関する情報を示す画像であって、例えば、ミッション対象キャラクタ400の顔が表示されている。位置関連画像500Bの下側には、自キャラクタ100の現在位置からキャラクタ400の発生位置までの距離(ここでは、例えば5km)が表示されている。このように、自キャラクタ100がフィールドの所定領域に配置されたときに、制御部190は、ミッション関連情報に基づいて、位置関連画像500A,500Bをタッチスクリーン130上の所定位置に表示させる。   In step S <b> 1122, the control unit 190 displays position-related images 500 </ b> A and 500 </ b> B (information may be collectively referred to as position-related images 500) indicating information related to the generation position of the mission target character at a predetermined position in the touch screen 130. indicate. As shown in FIG. 11, these position-related images 500A and 500B are located at positions that do not get in the way of the game, for example, at the end of the touch screen 130 in the horizontal direction (for example, the right end side of the touch screen 130). Is displayed. The position-related image 500 </ b> A is an image indicating information regarding the generation position of the mission target character 200 associated with the mission 1. For example, the face of the character 200 is displayed. Below the position-related image 500A, a distance (in this case, for example, 2 km) from the current position of the player character 100 to the generation position of the character 200 is displayed. Further, the position-related image 500B is an image showing information on the generation position of the mission target character 400 associated with the mission 2, and for example, the face of the mission target character 400 is displayed. Below the position-related image 500B, a distance (in this case, for example, 5 km) from the current position of the player character 100 to the generation position of the character 400 is displayed. As described above, when the player character 100 is arranged in a predetermined area of the field, the control unit 190 displays the position-related images 500A and 500B at predetermined positions on the touch screen 130 based on the mission-related information.

ステップS1124において、ユーザ端末10の制御部190は、ユーザのドラッグ操作の入力を受けたか否かを判定する。ドラッグ操作の入力を受けたと判定された場合には(ステップS1124のYes)、ステップS1126において、制御部190は、ドラッグ操作に基づいて、自キャラクタ100を移動させる。   In step S1124, the control unit 190 of the user terminal 10 determines whether or not an input of a user's drag operation has been received. If it is determined that an input of a drag operation has been received (Yes in step S1124), in step S1126, the control unit 190 moves the player character 100 based on the drag operation.

ステップS1128において、サーバ20の制御部290は、ユーザ端末10から受信した自キャラクタ100の位置座標に基づいて、サーバ20側の仮想空間の自キャラクタ100の位置を更新する。そして、制御部290は、更新された自キャラクタ100の位置情報を、ユーザ端末10以外の他のユーザ端末へ送信する。   In step S <b> 1128, the control unit 290 of the server 20 updates the position of the player character 100 in the virtual space on the server 20 side based on the position coordinates of the player character 100 received from the user terminal 10. Then, the control unit 290 transmits the updated position information of the own character 100 to a user terminal other than the user terminal 10.

<4.検知オブジェクトが検知された場合の次々フィールド読み込み処理の説明>
続いて、図9および図11とともに、図12および図13を参照して、検知オブジェクトが検知された場合の次々フィールド読み込み処理について説明する。図12は、検知オブジェクトが検知された場合の次々フィールドの読み込み処理について説明するフローチャートである。図13の状態(a)〜(c)は、本実施形態に係るゲーム画面の一例を示す図である。なお、図12のフローチャートでは、特に、ユーザ端末10の制御部190での処理について説明する。
<4. Explanation of field reading process after detection object is detected>
Next, with reference to FIG. 12 and FIG. 13 together with FIG. 9 and FIG. 11, the field reading process after the detection object is detected will be described. FIG. 12 is a flowchart for explaining the field reading process after the detection object is detected. States (a) to (c) of FIG. 13 are diagrams illustrating an example of a game screen according to the present embodiment. In the flowchart of FIG. 12, in particular, processing in the control unit 190 of the user terminal 10 will be described.

ステップS1200において、ユーザ端末10の制御部190は、自キャラクタ100の現在位置座標に対応付けられた現フィールド(例えば、図9等に示すミッション選択用のフィールドMF)のデータ、および、現フィールドMFと連続して配置される(シームレスに繋がる)次フィールド(以下、次フィールドBF1と称する)のデータをサーバ20からダウンロードし、記憶部150に格納する。そして、制御部190は、現フィールドMFのデータおよび次フィールドBF1のデータを記憶部150から読み込んで、これらのデータに基づいてゲーム情報152に格納されるオブジェクトをユーザ端末10側の仮想空間に配置して現フィールドMFおよび次フィールドBF1を生成する。そして、ステップS1202において、制御部190は、仮想空間に生成した現フィールドMFをタッチスクリーン130に表示する。   In step S1200, the control unit 190 of the user terminal 10 determines the data of the current field (for example, the field MF for mission selection shown in FIG. 9) associated with the current position coordinates of the player character 100, and the current field MF. The data of the next field (hereinafter referred to as the next field BF1) arranged continuously (seamlessly connected) is downloaded from the server 20 and stored in the storage unit 150. Then, the control unit 190 reads the data of the current field MF and the data of the next field BF1 from the storage unit 150, and arranges the objects stored in the game information 152 based on these data in the virtual space on the user terminal 10 side. Thus, the current field MF and the next field BF1 are generated. In step S1202, the control unit 190 displays the current field MF generated in the virtual space on the touch screen 130.

ステップS1204において、制御部190は、自キャラクタ100の移動に伴い、図9等に示す検知オブジェクト80がタッチスクリーン130内に含まれるようになったか否かを判定する。検知オブジェクト80は、ゲーム情報152に格納されるオブジェクトの一例であって、サーバ20から受信した情報に基づいてユーザ端末10側の仮想空間の所定の位置に配置されている。例えば、検知オブジェクト80は、各フィールドの境界領域から一定距離だけ内側の位置に配置され得る。なお、図9から図11において破線で図示しているように、検知オブジェクト80は、タッチスクリーン130上では非表示とされている(視認不可能な状態で配置されている)ことが好ましい。   In step S <b> 1204, the control unit 190 determines whether or not the detection object 80 illustrated in FIG. 9 or the like is included in the touch screen 130 with the movement of the player character 100. The detection object 80 is an example of an object stored in the game information 152, and is arranged at a predetermined position in the virtual space on the user terminal 10 side based on information received from the server 20. For example, the sensing object 80 may be disposed at a position that is a predetermined distance from the boundary region of each field. 9 to 11, the detection object 80 is preferably not displayed on the touch screen 130 (arranged in an invisible state).

自キャラクタ100の移動に伴って検知オブジェクト80がタッチスクリーン130内に含まれるようになったと判定された場合には(ステップS1204のYes)、ステップS1206において、制御部190は、検知オブジェクト80に対応するフィールド(本例では、現フィールドMFと反対側において次フィールドBF1とシームレスに繋がるフィールド(以下、次々フィールドBF2と称する))に関する情報を、サーバ20へ送信する。   When it is determined that the detection object 80 is included in the touch screen 130 as the player character 100 moves (Yes in step S1204), the control unit 190 corresponds to the detection object 80 in step S1206. Information related to the field (in this example, a field seamlessly connected to the next field BF1 on the side opposite to the current field MF (hereinafter referred to as the field BF2)) is transmitted to the server 20.

ステップS1208において、サーバ20の制御部290は、ユーザ端末10から受信した次々フィールドBF2に関する情報に基づいて、次々フィールドBF2を形成するためのデータをユーザ端末10に送信する。そして、ユーザ端末10の制御部190は、サーバ20から送信される次々フィールドBF2のデータのダウンロードおよび読み込みを開始する。   In step S <b> 1208, the control unit 290 of the server 20 transmits data for forming the next field BF <b> 2 to the user terminal 10 based on the information about the next field BF <b> 2 received from the user terminal 10. Then, the control unit 190 of the user terminal 10 starts downloading and reading data in the field BF2 transmitted from the server 20 one after another.

なお、制御部190は、検知オブジェクト80に対応するフィールド(例えば次々フィールドBF2)のデータをサーバ20からダウンロードして読み込んでいる間にも、ユーザの操作に基づいて自キャラクタ100を移動制御することができる。例えば、制御部190は、次々フィールドBF2のデータの読み込み中に、自キャラクタ100を現フィールドMFあるいは次フィールドBF1内で移動させることができる。そして、次々フィールドBF2のデータの読み込みが完了すると、読み込みが完了した次々フィールドBF2への自キャラクタ100の移動が可能となる。このようにして、制御部190は、位置関連画像500A,500Bおよびこれらに付随して表示された情報に基づいてなされたユーザのドラッグ操作の入力を受け付けることで、自キャラクタ100をシームレスに繋がった複数のフィールド間で連続的に移動させることができる。   It should be noted that the control unit 190 controls the movement of the player character 100 based on the user's operation while the data of the field corresponding to the detection object 80 (for example, the field BF2 one after another) is downloaded from the server 20 and read. Can do. For example, the control unit 190 can move the player character 100 within the current field MF or the next field BF1 while reading data in the field BF2 one after another. When the reading of the data in the field BF2 is completed, the character 100 can move to the field BF2 after the reading is completed. In this way, the control unit 190 seamlessly connects the player character 100 by accepting the input of the user's drag operation based on the position-related images 500A and 500B and the information displayed accompanying them. It can be moved continuously between multiple fields.

ところで、次々フィールドBF2のデータ量が大きい場合には、次々フィールドBF2のデータをサーバ20からダウンロードするとともに読み込んで、ユーザ端末10側で次々フィールドBF2を生成するまでに時間がかかってしまう。そのため、次々フィールドBF2の生成が完了してタッチスクリーン130に次々フィールドBF2が描画可能な状態となるまで、自キャラクタ100が次々フィールドBF2へ移動することができないように何らかの時間稼ぎを行う必要がある。   By the way, when the data amount of the field BF2 is large, it takes time to download and read the data of the field BF2 from the server 20 and generate the field BF2 on the user terminal 10 side. Therefore, it is necessary to earn some time so that the player character 100 cannot move to the field BF2 one after another until the generation of the field BF2 is completed and the next field BF2 can be drawn on the touch screen 130. .

そこで、本実施形態においては、次々フィールドBF2が描画可能となるまでの時間を確保すべく、以下のステップS1210以降の処理を行う。
ステップS1210において、サーバ20の制御部290は、次々フィールドBF2のデータ量が所定の閾値以上であるか否かを判定し、その判定結果をユーザ端末10へ送信する。
Therefore, in the present embodiment, the following processing from step S1210 is performed in order to secure time until the field BF2 can be drawn one after another.
In step S <b> 1210, the control unit 290 of the server 20 determines whether or not the data amount of the field BF <b> 2 is equal to or greater than a predetermined threshold, and transmits the determination result to the user terminal 10.

次々フィールドBF2のデータ量が所定の閾値よりも少ないと判定された場合には(ステップS1210のNo)、ステップS1212において、ユーザ端末10の制御部190は、ドラッグ操作による自キャラクタ100の移動に基づいて、現フィールドMFに連続して次フィールドBF1をタッチスクリーン130に表示させる。   When it is determined that the data amount of the field BF2 is smaller than the predetermined threshold value (No in step S1210), the control unit 190 of the user terminal 10 in step S1212 is based on the movement of the player character 100 by the drag operation. Then, the next field BF1 is displayed on the touch screen 130 in succession to the current field MF.

そして、ステップS1214において、制御部190は、次々フィールドBF2のデータの読み込みが完了したか否か、すなわち次々フィールドBF2がタッチスクリーン130に描画可能な状態となったか否かを判定する。次々フィールドBF2のデータの読み込みが完了したと判定された場合には(ステップS1214のYes)、ステップS1216において、制御部190は、ドラッグ操作による自キャラクタ100の移動に基づいて、次フィールドBF1に連続して次々フィールドBF2をタッチスクリーン130に表示させる。   In step S <b> 1214, the control unit 190 determines whether the reading of data in the field BF <b> 2 is completed, that is, whether the field BF <b> 2 is ready for drawing on the touch screen 130. If it is determined that the reading of data in the field BF2 is completed (Yes in step S1214), the control unit 190 continues to the next field BF1 based on the movement of the player character 100 by the drag operation in step S1216. Then, the field BF2 is displayed on the touch screen 130 one after another.

一方、次々フィールドBF2のデータ量が所定の閾値以上であると判定された場合には(ステップS1210のYes)、ユーザ端末10の制御部190は、その判定情報をサーバ20に送信する。そして、サーバ20の制御部290は、所定のキャラクタオブジェクト(例えば、相手キャラクタ200)の情報をユーザ端末10に送信し、ステップS1218において、ユーザ端末10の制御部190は、サーバ20から受信した相手キャラクタ200に関する情報に基づいて、ゲーム情報152に格納される相手キャラクタ200をユーザ端末10側の次フィールドBF1の所定位置に配置する。   On the other hand, when it is determined that the data amount of the field BF2 is greater than or equal to the predetermined threshold value (Yes in step S1210), the control unit 190 of the user terminal 10 transmits the determination information to the server 20. Then, the control unit 290 of the server 20 transmits information of a predetermined character object (for example, the opponent character 200) to the user terminal 10, and the control unit 190 of the user terminal 10 receives the partner received from the server 20 in step S1218. Based on the information about the character 200, the opponent character 200 stored in the game information 152 is arranged at a predetermined position in the next field BF1 on the user terminal 10 side.

ステップS1220において、制御部190は、ドラッグ操作による自キャラクタ100の移動に基づいて、現フィールドMFに連続して次フィールドBF1をタッチスクリーン130に表示させる。図13の状態(a)に示すように、次フィールドBF1の所定位置には、相手キャラクタ200が表示されている。自キャラクタ100は、相手キャラク200と対戦して相手キャラクタ200を倒す(例えば、自キャラクタ100から受ける作用に対応する所定のパラメータ(ヒットポイントHP等)をゼロにする)まで、相手キャラクタ200よりも先へ進むことができない。このように、次フィールドBF1に表示される相手キャラクタ200によって、自キャラクタ100の次々フィールドBF2への移動が阻止されている。   In step S1220, the control unit 190 displays the next field BF1 on the touch screen 130 in succession to the current field MF based on the movement of the player character 100 by the drag operation. As shown in the state (a) of FIG. 13, the opponent character 200 is displayed at a predetermined position in the next field BF1. The player character 100 fights against the opponent character 200 and defeats the opponent character 200 (for example, a predetermined parameter (hit point HP or the like) corresponding to the action received from the player character 100 is set to zero). I can't move on. Thus, the opponent character 200 displayed in the next field BF1 prevents the movement of the player character 100 to the next field BF2.

次フィールドBF1に相手キャラクタ200が表示されている間に、ステップS1222において、制御部190は、次々フィールドBF2のデータの読み込みが完了したか否かを判定する。次々フィールドBF2のデータの読み込みが完了したと判定された場合には(ステップS1222のYes)、ステップS1224において、制御部190は、相手キャラクタ200の表示態様を変更する。例えば、図13の状態(b)に示すように、制御部190は、タッチスクリーン130において、相手キャラクタ200のヒットポイントHPをゼロにしたうえで、相手キャラクタ200が倒れる勝利演出を表示させることができる。なお、勝利演出の後に、相手キャラクタ200を非表示とすることが好ましい。   While the opponent character 200 is displayed in the next field BF1, in step S1222, the control unit 190 determines whether or not the reading of the data in the field BF2 is completed. If it is determined that the reading of the data in the field BF2 is completed (Yes in step S1222), the control unit 190 changes the display mode of the opponent character 200 in step S1224. For example, as shown in the state (b) of FIG. 13, the control unit 190 may display a victory effect in which the opponent character 200 falls down on the touch screen 130 after setting the hit point HP of the opponent character 200 to zero. it can. It is preferable that the opponent character 200 is not displayed after the victory effect.

相手キャラクタ200は、例えば、自キャラクタ100から受ける作用に対応する所定のパラメータの値(例えば、自キャラクタ100からの攻撃に基づいて徐々に減少していくヒットポイントHP)が、次々フィールドBF2のデータの読み込み完了率に対応しても良い。例えば、相手キャラクタ200のヒットポイントHPの減少率、すなわち自キャラクタ100の攻撃に基づくダメージ量が、次々フィールドBF2のデータ読込の完了率と対応していても良い。具体的には、制御部190は、次々フィールドBF2のデータの読み込み処理が進むにつれて、すなわち、データ読込完了率が高くなるにつれて、自キャラクタ100から相手キャラクタ200へ与えられる1回のダメージ量の上限値が大きくなるようにダメージ量を制御することが好ましい。これにより、自キャラクタ100の攻撃力が小さければ通常の攻撃力に対応するダメージ量が相手キャラクタ200に与えられ、攻撃力が大きくても相手キャラクタ200に与えられるダメージ量の上限値が完了率によって制限され得る。通常は自キャラクタ100の攻撃力の大小によって相手キャラクタ200に与えられるダメージ量が変動するが、本例においては、ダメージ量の上限値をデータ読込完了率に対応させることによって、相手キャラクタ200に与えられるダメージ量の上限値を適切に制限し、次々フィールドBF2のデータ読み込みの完了よりも早い段階で相手キャラクタ200が倒されてしまうことを防ぐことができる。   For the opponent character 200, for example, the value of a predetermined parameter corresponding to the action received from the own character 100 (for example, the hit point HP that gradually decreases based on the attack from the own character 100) is successively stored in the field BF2. It may correspond to the read completion rate of. For example, the reduction rate of the hit points HP of the opponent character 200, that is, the amount of damage based on the attack of the player character 100 may correspond to the data reading completion rate of the field BF2 one after another. Specifically, the control unit 190 increases the upper limit of the amount of damage that can be given to the opponent character 200 from the own character 100 as the data reading process of the field BF2 progresses, that is, as the data reading completion rate increases. It is preferable to control the amount of damage so as to increase the value. As a result, if the attack power of the player character 100 is small, the damage amount corresponding to the normal attack power is given to the opponent character 200, and the upper limit value of the damage amount given to the opponent character 200 even if the attack power is large is determined by the completion rate. Can be limited. Normally, the amount of damage given to the opponent character 200 varies depending on the magnitude of the attack power of the player character 100. In this example, the upper limit value of the amount of damage is given to the opponent character 200 by corresponding to the data reading completion rate. It is possible to appropriately limit the upper limit value of the amount of damage to be performed, and to prevent the opponent character 200 from being knocked down at an earlier stage than the completion of data reading in the field BF2.

なお、相手キャラクタ200に与えられるダメージ量の上限値がデータ読込完了率と対応する代わりに、相手キャラクタ200のヒットポイントHPの上限値が次々フィールドBF2のデータ読込の完了率と対応していても良い。例えば、次々フィールドBF2のデータ読み込みの完了率が高くなるにつれて相手キャラクタ200のヒットポイントHPの上限値を低くする構成としても良い。この方法によっても、次々フィールドBF2のデータ読み込みの完了よりも早い段階で相手キャラクタ200が倒されてしまうことを防ぐことができる。   Instead of the upper limit value of the amount of damage given to the opponent character 200 corresponding to the data reading completion rate, the upper limit value of the hit point HP of the opponent character 200 may correspond to the data reading completion rate of the field BF2 one after another. good. For example, the upper limit value of the hit point HP of the opponent character 200 may be lowered as the data reading completion rate of the field BF2 increases. Also by this method, it is possible to prevent the opponent character 200 from being knocked down at an earlier stage than the completion of data reading of the field BF2.

次々フィールドBF2のデータ読み込みが完了して相手キャラクタ200が倒されると、タッチスクリーン130に描画可能となった次々フィールドBF2へ自キャラクタ100が移動することができる。すなわち、ステップS1224で相手キャラクタ200の表示態様が変更されると、ステップS1216において、制御部190は、図13の状態(c)に示すように、ドラッグ操作による自キャラクタ100の移動に基づいて、次フィールドBF1とシームレスに繋がる次々フィールドBF2をタッチスクリーン130に表示させる。これにより、制御部190は、自キャラクタ100を次フィールドBF1から次々フィールドBF2へと連続的に移動させることができる。   When the reading of data in the field BF2 is completed and the opponent character 200 is brought down, the player character 100 can move to the field BF2 that can be drawn on the touch screen 130. That is, when the display mode of the opponent character 200 is changed in step S1224, in step S1216, as shown in the state (c) of FIG. The next field BF2 seamlessly connected to the next field BF1 is displayed on the touch screen 130. Thereby, the control unit 190 can continuously move the player character 100 from the next field BF1 to the field BF2 one after another.

以上説明したように、本実施形態によれば、制御部190は、現フィールドMFと、現フィールドMFから自キャラクタ100がシームレスに移動可能な次フィールドBF1と、次フィールドBF1から自キャラクタ100がシームレスに移動可能な次々フィールドBF2とを含む仮想空間を規定し、これらのフィールドMF,BF1,BF2の各画像データを所定のタイミングでダウンロードするとともに読み込むことにより、読み込んだ各画像データをタッチスクリーン130に表示させる。各画像データの表示の際に、制御部190は、自キャラクタ100が現フィールドMFに配置されている状態において検知オブジェクト80がタッチスクリーン130内に含まれるようになった場合に、次々フィールドBF2のデータの読み込みを開始し、次々フィールドBF2のデータ量が所定の閾値以上である場合に、次フィールドBF1に、自キャラクタ100が所定の作用を及ぼすことが可能な相手キャラクタ200を配置し、次々フィールドBF2のデータの読み込みが完了するまで、相手キャラクタ200によって自キャラクタ100の次々フィールドBF2への移動を阻止する。これにより、シームレスフィールドを採用したゲームにおいて、ゲーム性を維持しつつ、次々フィールドBF2のデータの読み込み完了までの時間を確保することができる。   As described above, according to the present embodiment, the control unit 190 allows the current field MF, the next field BF1 to which the own character 100 can move seamlessly from the current field MF, and the own character 100 to be seamless from the next field BF1. The virtual space including the next field BF2 that can be moved is defined, and the image data of these fields MF, BF1, and BF2 are downloaded and read at a predetermined timing, whereby the read image data is transferred to the touch screen 130. Display. At the time of displaying each image data, the control unit 190, when the detection object 80 comes to be included in the touch screen 130 in a state where the own character 100 is arranged in the current field MF, one after another in the field BF2. When reading of data is started and the amount of data in the field BF2 is equal to or greater than a predetermined threshold value, the opponent character 200 that allows the player character 100 to exert a predetermined action is arranged in the next field BF1, Until the reading of the data of BF2 is completed, the opponent character 200 prevents the movement of the player character 100 to the field BF2 one after another. Thereby, in a game adopting a seamless field, it is possible to secure time until completion of reading data in the field BF2 one after another while maintaining the game performance.

<変形例>
図14および図15は、本実施形態の変形例に係るゲーム画面の一例を示す図である。
図14に示す変形例では、ユーザ端末10の制御部190は、ステップS1220において次フィールドBF2および次フィールドBF2に配置される相手キャラクタ200をタッチスクリーン130に表示する際に、サーバ20からデータを読み込み中である次々フィールドBF2に対応する仮データADを次フィールドBF1に隣接するようにタッチスクリーン130に表示させることができる。次々フィールドBF2の代替として仮データADをタッチスクリーン130に描画しておくことで次々フィールドBF2のデータ読込完了までの時間を稼ぐことができる。
<Modification>
14 and 15 are diagrams illustrating an example of a game screen according to a modification of the present embodiment.
In the modification shown in FIG. 14, the control unit 190 of the user terminal 10 reads data from the server 20 when displaying the next field BF2 and the opponent character 200 arranged in the next field BF2 on the touch screen 130 in step S1220. The temporary data AD corresponding to the next field BF2 can be displayed on the touch screen 130 so as to be adjacent to the next field BF1. By drawing the temporary data AD on the touch screen 130 as an alternative to the field BF2 one after another, it is possible to earn time until the data reading of the field BF2 is completed.

仮データADは、現フィールドMF,次フィールドBF2および次々フィールドBF2のデータとは異なる用途に用いられる低データ量の画像データから切り出すことが好ましい。例えば、仮データADは、図15に示すマップ画像70から切り出すことができる。このマップ画像70は、いわゆるミニマップと呼ばれるものであり、本ゲームプログラムにおけるシームレスフィールドの縮小三次元マップが表示されている。   The temporary data AD is preferably cut out from image data having a low data amount that is used for a different purpose from the data in the current field MF, the next field BF2, and the next field BF2. For example, the temporary data AD can be cut out from the map image 70 shown in FIG. This map image 70 is a so-called mini map, and displays a reduced three-dimensional map of a seamless field in this game program.

マップ画像70は、例えば、図4に示すUI画像300Aがユーザに選択された場合にタッチスクリーン130に表示され得る。マップ画像70は、例えば、現フィールドMF、次フィールドBF1、および次々フィールドBF2を含むシームレスフィールドの縮小三次元マップとして構成されている。そして、この三次元マップ上において、自キャラクタ100の現在位置には自キャラクタ100が表示されるとともに、相手キャラクタ200,400の発生位置には、各キャラクタ200,400の画像が表示されている。これにより、ユーザは、自キャラクタ100の現在位置と相手キャラクタ200,400の発生位置とから、自キャラクタ100が移動すべき方向を把握することができる。   The map image 70 can be displayed on the touch screen 130 when, for example, the UI image 300A illustrated in FIG. 4 is selected by the user. The map image 70 is configured as a reduced three-dimensional map of a seamless field including, for example, the current field MF, the next field BF1, and the next field BF2. On the three-dimensional map, the player character 100 is displayed at the current position of the player character 100, and images of the characters 200 and 400 are displayed at the positions where the opponent characters 200 and 400 are generated. Thereby, the user can grasp the direction in which the player character 100 should move from the current position of the player character 100 and the generation positions of the opponent characters 200 and 400.

このマップ画像70のうち次々フィールドBF2に相当する部分を切り出すことで、簡便に仮データADを生成することができる。なお、仮データADとしては、マップ画像70の一部を切り出した画像をそのまま使用しても良く、マップ画像70の切り出し部分にぼかし等の所定の画像処理を施したものを使用しても良い。   By cutting out portions corresponding to the field BF2 one after another from the map image 70, the temporary data AD can be easily generated. As the temporary data AD, an image obtained by cutting out a part of the map image 70 may be used as it is, or an image obtained by performing predetermined image processing such as blurring on the cut-out part of the map image 70 may be used. .

なお、上記の実施形態においては、次々フィールドBF2のデータ量が所定の閾値以上である場合に次フィールドBF1に相手キャラクタ200を配置しているが、ユーザ端末10のデータ処理能力に応じて次フィールドBF1への相手キャラクタ200の出現可否が変更可能であっても良い。データ処理能力が高いユーザ端末10の場合は、次々フィールドBF2のデータ読み込みが完了するまでの時間確保が必要とされない場合もある。そのため、制御部190は、次々フィールドBF2のデータ量と自ユーザ端末10のデータ処理能力とを比較して、次々フィールドBF2のデータ読み込みが所定時間内に完了可能であると判定した場合には、相手キャラクタ200を出現させることなくシームレスフィールド(次フィールドBF1から次々フィールドBF2へ)の描画処理を行うことが可能である。   In the above-described embodiment, the opponent character 200 is arranged in the next field BF1 when the data amount of the field BF2 is equal to or greater than a predetermined threshold, but the next field is determined according to the data processing capability of the user terminal 10. Whether or not the opponent character 200 appears on BF1 may be changeable. In the case of the user terminal 10 having a high data processing capability, it may not be necessary to secure time until data reading of the field BF2 is completed. Therefore, when the control unit 190 compares the data amount of the field BF2 with the data processing capability of the user terminal 10 one after another and determines that the data reading of the field BF2 can be completed within a predetermined time, The drawing process of the seamless field (from the next field BF1 to the next field BF2) can be performed without causing the opponent character 200 to appear.

また、上記の実施形態においては、制御部190は、検知オブジェクト80がタッチスクリーン130に含まれている状態となった場合に、次々フィールドBF2のダウンロードを開始しているが、この例に限られない。制御部190は、検知オブジェクト80と自キャラクタ100との位置関係が所定条件を満たしている、例えば、自キャラクタ100が検知オブジェクト80に対して一定距離内に近づいた場合に、次々フィールドBF2のダウンロードを開始しても良い。なお、制御部190は、仮想空間内に配置される仮想カメラと検知オブジェクト80との位置関係により、次々フィールドBF2のダウンロードを開始しても良い。   In the above embodiment, the control unit 190 starts downloading the field BF2 one after another when the detection object 80 is included in the touch screen 130. However, the present invention is limited to this example. Absent. The control unit 190 downloads the field BF2 one after another when the positional relationship between the detection object 80 and the own character 100 satisfies a predetermined condition, for example, when the own character 100 approaches the detection object 80 within a certain distance. You may start. The control unit 190 may start downloading the field BF2 one after another according to the positional relationship between the virtual camera arranged in the virtual space and the detection object 80.

上記の実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。   The above embodiments are merely examples for facilitating the understanding of the present invention, and are not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.

1:ゲーム配信システム、10:ユーザ端末、20:サーバ、130:タッチスクリーン、150:記憶部、190:(ユーザ端末の)制御部、191:入力操作受付部、193:キャラクタ操作検出部、195:オブジェクト制御部、197:表示制御部、290:(サーバの)制御部、252B:ミッション管理テーブル、40:操作オブジェクト、53:バッファメモリ、55:初期タッチ位置座標、60:ミッション発注所、65:メニュー画面、67:ミッションボタン、80:検知オブジェクト、100:自キャラクタ(プレイヤオブジェクトの一例)、200:相手キャラクタ(対象オブジェクトの一例)、300:ユーザインターフェース画像、400:ミッション対象キャラクタ、500A,500B:位置関連画像、MF:現フィールド(第一のフィールドの一例)、BF1:次フィールド(第二のフィールドの一例)、BF2:次々フィールド(第三のフィールドの一例)   1: game distribution system, 10: user terminal, 20: server, 130: touch screen, 150: storage unit, 190: control unit (of user terminal), 191: input operation reception unit, 193: character operation detection unit, 195 : Object control unit, 197: Display control unit, 290: (Server) control unit, 252B: Mission management table, 40: Operation object, 53: Buffer memory, 55: Initial touch position coordinates, 60: Mission order place, 65 : Menu screen, 67: Mission button, 80: Detected object, 100: Own character (example of player object), 200: opponent character (example of target object), 300: user interface image, 400: mission target character, 500A, 500B: Position-related image, M : Current field (an example of a first field), BF1: (an example of a second field) next field, BF2: after another field (an example of a third field)

Claims (9)

タッチスクリーンを含む端末機器で実行されるゲーム方法であって、
(a)仮想カメラと、第一のフィールドと、前記第一のフィールドからユーザが操作するプレイヤオブジェクトがシームレスに移動可能な第二のフィールドと、前記第二のフィールドから前記プレイヤオブジェクトがシームレスに移動可能な第三のフィールドとを含む仮想空間を規定するステップと、
(b)これらのフィールドの各画像データを所定のタイミングでダウンロードするとともに読み込むことにより、読み込んだ前記各画像データを前記タッチスクリーンに表示させるステップと、を含み、
前記ステップ(b)は、
(b−1)前記プレイヤオブジェクトが前記第一のフィールドに配置されている状態において所定の第一条件を満たした場合に、前記第三のフィールドのデータの読み込みを開始するステップと、
(b−2)前記第三のフィールドのデータが所定の第二条件を満たした場合に、前記第二のフィールドに、前記プレイヤオブジェクトが所定の作用を及ぼすことが可能な対象オブジェクトを配置するステップと、
(b−3)前記第三のフィールドのデータの読み込みが完了するまで、前記対象オブジェクトによって前記プレイヤオブジェクトの前記第三のフィールドへの移動を阻止するステップと、
を含む、ゲーム方法。
A game method executed on a terminal device including a touch screen,
(A) a virtual camera, a first field, a second field in which a player object operated by a user from the first field can move seamlessly, and the player object moves seamlessly from the second field Defining a virtual space including a possible third field;
(B) downloading and reading each image data of these fields at a predetermined timing to display each read image data on the touch screen,
The step (b)
(B-1) starting reading of data in the third field when the predetermined first condition is satisfied in a state where the player object is arranged in the first field;
(B-2) A step of arranging a target object that allows the player object to exert a predetermined action in the second field when the data of the third field satisfies a predetermined second condition. When,
(B-3) blocking the movement of the player object to the third field by the target object until reading of the data of the third field is completed;
Including a game method.
前記所定の第二条件は、前記第三のフィールドのデータ量が所定の閾値以上であることを含む、請求項1に記載の方法。   The method according to claim 1, wherein the predetermined second condition includes that a data amount of the third field is equal to or greater than a predetermined threshold. 前記ステップ(b)は、
(b−4)前記第三のフィールドのデータの読み込みが完了したときに、前記対象オブジェクトの表示態様を変化させるステップをさらに含む、請求項1または2に記載の方法。
The step (b)
(B-4) The method according to claim 1 or 2, further comprising a step of changing a display mode of the target object when reading of data of the third field is completed.
前記対象オブジェクトは、前記プレイヤオブジェクトから及ぼされる前記所定の作用に対応する所定のパラメータを有し、
前記所定のパラメータの値が、前記第三のフィールドのデータの読み込み完了率に対応する、請求項1から3のいずれか一項に記載の方法。
The target object has a predetermined parameter corresponding to the predetermined action exerted from the player object,
The method according to claim 1, wherein the value of the predetermined parameter corresponds to a data read completion rate of the third field.
前記ステップ(b)は、
(b−5)前記第三のフィールドに対応する仮データを前記タッチスクリーンに表示させるステップをさらに含む、請求項1から4のいずれか一項に記載の方法。
The step (b)
(B-5) The method according to any one of claims 1 to 4, further comprising displaying temporary data corresponding to the third field on the touch screen.
前記仮データは、前記第一から前記第三のフィールドのデータとは異なる用途に用いられる画像データから切り出して生成される、請求項5に記載の方法。   The method according to claim 5, wherein the temporary data is generated by cutting out from image data used for a different use from the first to third field data. 前記ステップ(b−2)において、前記端末機器のデータ処理能力に応じて前記対象オブジェクトの出現可否が変更可能である、請求項1から6のいずれか一項に記載の方法。   The method according to any one of claims 1 to 6, wherein in the step (b-2), whether or not the target object can appear can be changed according to a data processing capability of the terminal device. 前記所定の第一条件は、前記第一のフィールドの所定位置に配置された検知オブジェクトが前記タッチスクリーンに含まれていること、または、前記検知オブジェクトと前記仮想カメラあるいは前記プレイヤオブジェクトとの位置関係が所定条件を満たしていることを含む、請求項1から7のいずれか一項に記載の方法。   The predetermined first condition is that a detection object arranged at a predetermined position in the first field is included in the touch screen, or a positional relationship between the detection object and the virtual camera or the player object. The method according to any one of claims 1 to 7, comprising satisfying a predetermined condition. 請求項1から8のいずれか一項に記載のゲーム方法をコンピュータに実行させるためのゲームプログラム。   A game program for causing a computer to execute the game method according to claim 1.
JP2017004402A 2017-01-13 2017-01-13 GAME METHOD AND GAME PROGRAM Active JP6225279B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017004402A JP6225279B1 (en) 2017-01-13 2017-01-13 GAME METHOD AND GAME PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017004402A JP6225279B1 (en) 2017-01-13 2017-01-13 GAME METHOD AND GAME PROGRAM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017189211A Division JP2018110838A (en) 2017-09-28 2017-09-28 Game method and game program

Publications (2)

Publication Number Publication Date
JP6225279B1 JP6225279B1 (en) 2017-11-01
JP2018110786A true JP2018110786A (en) 2018-07-19

Family

ID=60214000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017004402A Active JP6225279B1 (en) 2017-01-13 2017-01-13 GAME METHOD AND GAME PROGRAM

Country Status (1)

Country Link
JP (1) JP6225279B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6480039B1 (en) * 2018-01-23 2019-03-06 株式会社コロプラ GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6661595B2 (en) * 2017-12-12 2020-03-11 株式会社コロプラ Game program, method and information processing device
JP7168591B2 (en) 2018-01-26 2022-11-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
JP2019103815A (en) * 2018-12-14 2019-06-27 株式会社コロプラ Game program, method and information processing apparatus

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08155145A (en) * 1994-12-02 1996-06-18 Namco Ltd Game program, data reading and entering and game device using the same
JP2002143566A (en) * 2000-11-07 2002-05-21 Namco Ltd System for game and information memory medium
JP2005505362A (en) * 2001-10-10 2005-02-24 ソニー・コンピュータ・エンタテインメント・アメリカ・インク System and method for dynamically loading game software for smooth gameplay
JP2005185692A (en) * 2003-12-26 2005-07-14 Copcom Co Ltd Game machine
JP2007222310A (en) * 2006-02-22 2007-09-06 Square Enix Co Ltd Game apparatus, field boundary display method, program, and recording medium
JP2009279038A (en) * 2008-05-19 2009-12-03 Sega Corp Game program and recording medium
JP5942031B1 (en) * 2015-11-27 2016-06-29 グリー株式会社 Program, game control method, and information processing apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08155145A (en) * 1994-12-02 1996-06-18 Namco Ltd Game program, data reading and entering and game device using the same
JP2002143566A (en) * 2000-11-07 2002-05-21 Namco Ltd System for game and information memory medium
JP2005505362A (en) * 2001-10-10 2005-02-24 ソニー・コンピュータ・エンタテインメント・アメリカ・インク System and method for dynamically loading game software for smooth gameplay
JP2005185692A (en) * 2003-12-26 2005-07-14 Copcom Co Ltd Game machine
JP2007222310A (en) * 2006-02-22 2007-09-06 Square Enix Co Ltd Game apparatus, field boundary display method, program, and recording medium
JP2009279038A (en) * 2008-05-19 2009-12-03 Sega Corp Game program and recording medium
JP5942031B1 (en) * 2015-11-27 2016-06-29 グリー株式会社 Program, game control method, and information processing apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6480039B1 (en) * 2018-01-23 2019-03-06 株式会社コロプラ GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE
JP2019126470A (en) * 2018-01-23 2019-08-01 株式会社コロプラ Game program, method, and information processor

Also Published As

Publication number Publication date
JP6225279B1 (en) 2017-11-01

Similar Documents

Publication Publication Date Title
JP6225279B1 (en) GAME METHOD AND GAME PROGRAM
US20200171393A1 (en) Content delivery server, content delivery method, and content delivery program
JP2018153470A (en) Information processing method, apparatus, and program for implementing information processing method in computer
JP6404877B2 (en) GAME PROGRAM, GAME PROVIDING METHOD, AND INFORMATION PROCESSING DEVICE
US20240082713A1 (en) Storage medium, method, and information processing apparatus
JP6673796B2 (en) GAME PROGRAM, GAME PROVIDING METHOD, AND INFORMATION PROCESSING DEVICE
JP6270973B1 (en) GAME METHOD AND GAME PROGRAM
JP6002345B1 (en) Information processing apparatus including game program, method, and touch screen
JP2017192537A (en) Game program, method, and information processor with touch screen
JP6554125B2 (en) Game method and game program
JP6522210B1 (en) Game program, method, and information processing apparatus
JP6225234B1 (en) GAME METHOD AND GAME PROGRAM
JP2018110838A (en) Game method and game program
JP2019051360A (en) Game program, game providing method, and information processor
JP2018086250A (en) Game method and game program
JP2018094424A (en) Game method and game program
JP6554506B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING DEVICE, AND INFORMATION PROCESSING PROGRAM
JP6306771B1 (en) Information processing method, information processing apparatus, and information processing program
JP6174202B1 (en) Information processing apparatus provided with game program, method, and touch screen
JP2017185190A (en) Game program, method, and information processor including touch screen
JP2018020150A (en) Game program, method, and information processor with touch screen
JP6263293B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP2018033972A (en) Game program, method and information processing device including touch screen
JP2018192326A (en) Game program, method for providing game and information processor
JP6002344B1 (en) Information processing apparatus including game program, method, and touch screen

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171006

R150 Certificate of patent or registration of utility model

Ref document number: 6225279

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250