JP6181834B1 - GAME CONTROL METHOD, PROGRAM, AND COMPUTER - Google Patents

GAME CONTROL METHOD, PROGRAM, AND COMPUTER Download PDF

Info

Publication number
JP6181834B1
JP6181834B1 JP2016196185A JP2016196185A JP6181834B1 JP 6181834 B1 JP6181834 B1 JP 6181834B1 JP 2016196185 A JP2016196185 A JP 2016196185A JP 2016196185 A JP2016196185 A JP 2016196185A JP 6181834 B1 JP6181834 B1 JP 6181834B1
Authority
JP
Japan
Prior art keywords
additional image
character
game
image
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016196185A
Other languages
Japanese (ja)
Other versions
JP2018057526A (en
Inventor
洋平 三宅
洋平 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2016196185A priority Critical patent/JP6181834B1/en
Application granted granted Critical
Publication of JP6181834B1 publication Critical patent/JP6181834B1/en
Publication of JP2018057526A publication Critical patent/JP2018057526A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ゲームに登場するキャラクタ等に関する付加情報を適切に表示させる。【解決手段】第1キャラクタと、第1キャラクタに関連付けられた第1付加画像と、第1キャラクタの上下方向における移動を制限するフィールドを含むゲーム画像を生成するステップと、操作入力に基づいて、第1キャラクタを動作させるステップと、第1付加画像をフィールド内に表示させるとともに、操作入力に基づいて第1付加画像をフィールド内における所定経路に沿って移動させる。【選択図】図9Additional information regarding characters and the like appearing in a game is appropriately displayed. Based on an operation input, a step of generating a game image including a first character, a first additional image associated with the first character, a field for restricting movement of the first character in the vertical direction, and The step of moving the first character and the first additional image are displayed in the field, and the first additional image is moved along a predetermined path in the field based on the operation input. [Selection] Figure 9

Description

本発明は、ゲーム制御方法、プログラム、および、コンピュータに関し、特に、タッチ操作による入力操作を受け付けてゲームを進行させる技術に関する。   The present invention relates to a game control method, a program, and a computer, and more particularly, to a technique for advancing a game by accepting an input operation by a touch operation.

特許文献1,2には、タッチパネルに対する接触操作によってキャラクタオブジェクトを操作し、ゲームを進行させることができる方法、および、当該方法をコンピュータに実行させるプログラムが開示されている。上記接触操作が入力された座標が左右方向の変位を有する場合にはキャラクタオブジェクトが左右に移動するように制御され、上下方向の変位を有する場合にはキャラクタオブジェクトがジャンプするように制御される。これにより、所謂横スクロールアクションゲームが進行される。   Patent Documents 1 and 2 disclose a method capable of operating a character object by a touch operation on a touch panel to advance a game, and a program for causing a computer to execute the method. When the coordinate to which the touch operation is input has a horizontal displacement, the character object is controlled to move left and right, and when the coordinate has a vertical displacement, the character object is controlled to jump. Thereby, a so-called side scroll action game is advanced.

特開2016−051266号公報Japanese Patent Laid-Open No. 2006-051266 特開2016−051463号公報JP, 2006-051463, A

上記のようなゲームにおいて、登場するキャラクタ等に関する付加情報を表示する必要がある場合がある。例えば、ユーザの操作対象であるプレイヤキャラクタの敵キャラクタの名称等を、当該キャラクタと関連付けて表示することが必要な場合がある。特に、MMO(Massively Multiplayer Online)ゲームのように、共通のゲーム空間に多くのキャラクタが登場するゲームにおいては、ユーザの操作性を確保しつつ、付加情報を表示する必要がある。   In the game as described above, it may be necessary to display additional information related to characters that appear. For example, it may be necessary to display the name of the enemy character of the player character that is the operation target of the user in association with the character. In particular, in a game in which many characters appear in a common game space, such as a MMO (Massively Multiplayer Online) game, it is necessary to display additional information while ensuring user operability.

本開示は、タッチスクリーンを備えるコンピュータにおいて、登場するキャラクタ等に関する付加情報を適切に表示させる技術を提供することを目的とする。   An object of the present disclosure is to provide a technique for appropriately displaying additional information related to an appearing character or the like in a computer including a touch screen.

本開示に示す一実施形態によれば、以下のゲーム制御方法が提供される;
ゲーム制御方法であって、前記ゲーム制御方法は、検出対象物が接近したことを入力操作として検出するタッチスクリーンと、プロセッサと、メモリとを備えるコンピュータにおいて実行され、ゲーム画像を前記タッチスクリーンに表示させるものであり、前記ゲーム画像の前記タッチスクリーンにおける上下方向および左右方向を特定するステップと、第1キャラクタと、前記第1キャラクタに関連付けられた第1付加画像と、前記第1キャラクタの少なくとも前記上下方向における移動を制限するフィールドを含むゲーム画像を生成するステップと、前記タッチスクリーンにおいて、前記検出対象物が接近していない状態から前記タッチスクリーンに接近したことを検出した第1のタッチ位置から、前記接近していることを検出したまま第2のタッチ位置へ検出位置が移動した場合に、前記接近していることを検出している間、前記第1のタッチ位置と前記第2のタッチ位置との位置関係に基づいて、前記第1キャラクタに対する操作入力を特定するステップと、前記操作入力に基づいて、前記第1キャラクタを動作させるステップと、前記第1付加画像を前記フィールド内に表示させるとともに、前記操作入力に基づいて前記第1付加画像を前記フィールド内における所定経路に沿って移動させるステップと、を含むゲーム制御方法。
According to one embodiment shown in the present disclosure, the following game control method is provided;
A game control method, wherein the game control method is executed in a computer including a touch screen that detects an approaching detection object as an input operation, a processor, and a memory, and displays a game image on the touch screen. Identifying a vertical direction and a horizontal direction on the touch screen of the game image, a first character, a first additional image associated with the first character, and at least the first character of the game character A step of generating a game image including a field that restricts movement in the vertical direction; and a first touch position on the touch screen that has detected that the detection target has approached the touch screen from a state in which the detection target is not approaching. , While still detecting the approach When the detection position moves to the second touch position, the first touch position is detected based on the positional relationship between the first touch position and the second touch position while the approach is detected. A step of specifying an operation input to the character; a step of operating the first character based on the operation input; and displaying the first additional image in the field; and the first based on the operation input. Moving the additional image along a predetermined path in the field.

別の実施形態によると、以下のゲーム制御方法が提供される;
ゲーム制御方法であって、前記ゲーム制御方法は、検出対象物が接近したことを入力操作として検出するタッチスクリーンと、プロセッサと、メモリとを備えるコンピュータにおいて実行され、ゲーム画像を前記タッチスクリーンに表示させるものであり、前記ゲーム画像の前記タッチスクリーンにおける上下方向および左右方向を特定するステップと、第1キャラクタと、前記第1キャラクタに関連付けられた第1付加画像と、第2キャラクタと、前記第2キャラクタに関連付けられた第2付加画像と、第3キャラクタと、前記第3キャラクタに関連付けられた第3付加画像と、前記第1キャラクタ、前記第2キャラクタ、および、前記第3キャラクタの少なくとも前記上下方向における移動を制限するフィールドを含むゲーム画像を生成するステップと、前記第1キャラクタ、前記第2キャラクタ、および、前記第3キャラクタを動作させるステップと、前記第1付加画像、前記第2付加画像、および、前記第3付加画像を前記フィールド内に表示させるステップと、前記第1付加画像を前記第1キャラクタの動作に基づいて前記フィールド内における所定経路に沿って移動させるステップと、前記第2付加画像を前記第2キャラクタの動作に基づいて前記所定経路に沿って移動させるステップと、前記第3付加画像を前記第3キャラクタの動作に基づいて前記所定経路に沿って移動させるステップと、を含み、前記第1付加画像と前記第2付加画像の少なくとも一部が前記所定経路上において重なり、前記第2付加画像と前記第3付加画像の少なくとも一部が前記所定経路上において重なり、前記第1付加画像と前記第3付加画像の少なくとも一部が前記所定経路上において重ならない場合には、前記第2付加画像のみを、前記フィールド内において前記上下方向にずらす、ゲーム制御方法。
According to another embodiment, the following game control method is provided;
A game control method, wherein the game control method is executed in a computer including a touch screen that detects an approaching detection object as an input operation, a processor, and a memory, and displays a game image on the touch screen. Specifying a vertical direction and a horizontal direction on the touch screen of the game image, a first character, a first additional image associated with the first character, a second character, and the first character. A second additional image associated with two characters, a third character, a third additional image associated with the third character, the first character, the second character, and at least the third character. Generate a game image that includes a field that restricts movement in the vertical direction The step of moving the first character, the second character, and the third character, and the first additional image, the second additional image, and the third additional image in the field. A step of displaying, a step of moving the first additional image along a predetermined path in the field based on a motion of the first character, and a step of moving the second additional image based on a motion of the second character. And moving the third additional image along the predetermined path based on the movement of the third character, the first additional image and the second additional image. At least a portion of the second additional image and the third additional image overlap on the predetermined route. And when the first additional image and the third additional image do not overlap on the predetermined route, only the second additional image is shifted in the vertical direction within the field. Control method.

一実施形態によると、タッチスクリーンを備えるコンピュータにおいて、登場するキャラクタ等に関する付加情報を適切に表示させる技術が提供される。   According to an embodiment, there is provided a technique for appropriately displaying additional information related to an appearing character or the like on a computer having a touch screen.

ゲーム配信システムの構成を示す図である。It is a figure which shows the structure of a game delivery system. ユーザ端末10の構成を示すブロック図である。2 is a block diagram showing a configuration of a user terminal 10. FIG. ゲームサーバ20の構成を示すブロック図である。2 is a block diagram showing a configuration of a game server 20. FIG. ユーザ情報の一例を示す図である。It is a figure which shows an example of user information. 本実施形態のゲーム制御方法の一例示すフローチャートである。It is a flowchart which shows an example of the game control method of this embodiment. タッチスクリーンに対する操作入力に基づいてキャラクタの動作を制御する方法の一例を説明するための図である。It is a figure for demonstrating an example of the method of controlling the operation | movement of a character based on the operation input with respect to a touch screen. 本実施形態のゲーム制御方法の一例示すフローチャートである。It is a flowchart which shows an example of the game control method of this embodiment. 本実施形態のゲーム制御方法の一例示すフローチャートである。It is a flowchart which shows an example of the game control method of this embodiment. 本実施形態のゲーム制御方法に基づいて生成されるゲーム画像の一例を示す図である。It is a figure which shows an example of the game image produced | generated based on the game control method of this embodiment. 本実施形態のゲーム制御方法に基づいて生成されるゲーム画像の一例を示す図である。It is a figure which shows an example of the game image produced | generated based on the game control method of this embodiment. 本実施形態のゲーム制御方法に基づいて生成されるゲーム画像の一例を示す図である。It is a figure which shows an example of the game image produced | generated based on the game control method of this embodiment. 本実施形態のゲーム制御方法に基づいて生成されるゲーム画像の一例を示す図である。It is a figure which shows an example of the game image produced | generated based on the game control method of this embodiment.

[本発明の実施形態の説明]
最初に、本開示に示される実施形態の概要を列記する。本開示に示されるゲーム制御方法は、以下のような構成を備える。
(項目1)
ゲーム制御方法であって、
前記ゲーム制御方法は、検出対象物が接近したことを入力操作として検出するタッチスクリーンと、プロセッサと、メモリとを備えるコンピュータにおいて実行され、ゲーム画像を前記タッチスクリーンに表示させるものであり、
前記ゲーム画像の前記タッチスクリーンにおける上下方向および左右方向を特定するステップと、
第1キャラクタと、前記第1キャラクタに関連付けられた第1付加画像と、前記第1キャラクタの少なくとも前記上下方向における移動を制限するフィールドを含むゲーム画像を生成するステップと、
前記タッチスクリーンにおいて、前記検出対象物が接近していない状態から前記タッチスクリーンに接近したことを検出した第1のタッチ位置から、前記接近していることを検出したまま第2のタッチ位置へ検出位置が移動した場合に、前記接近していることを検出している間、前記第1のタッチ位置と前記第2のタッチ位置との位置関係に基づいて、前記第1キャラクタに対する操作入力を特定するステップと、
前記操作入力に基づいて、前記第1キャラクタを動作させるステップと、
前記第1付加画像を前記フィールド内に表示させるとともに、前記操作入力に基づいて前記第1付加画像を前記フィールド内における所定経路に沿って移動させるステップと、
を含むゲーム制御方法。
本項目のゲーム制御方法によれば、第1キャラクタに関する第1付加画像をフィールド内に表示させることにより、ユーザが第1キャラクタを移動させる移動先を決定するにあたって、第1付加画像によってユーザの視野が遮られることを防止できる。また、フィールド内における所定経路に沿って第1付加画像を移動させるので、ユーザが付加画像の位置を見失うといったことも回避し得る。これにより、登場するキャラクタ等に関する付加情報を適切に表示させる技術が提供される。
(項目2)
前記操作入力に基づいて、前記第1キャラクタの前記上下方向および前記左右方向における移動先を特定し、前記左右方向における前記移動先に基づいて、前記第1付加画像を移動させる、
項目1のゲーム制御方法。
これにより、フィールド内における第1キャラクタの近くに第1付加画像が表示されるので、ユーザが付加画像の位置を見失うといったことも回避し得る。
(項目3)
前記ゲーム画像は、第1キャラクタと異なる第2キャラクタと、前記第2キャラクタに関連付けられた第2付加画像をさらに含み、
前記第2付加画像は、前記フィールド内に表示されるとともに、前記第2キャラクタの動作に基づいて前記フィールド内において前記所定経路に沿って移動され、
前記ゲーム画像において、前記第1付加画像と前記第2付加画像の少なくとも一部が重なる場合には、前記第1付加画像と前記第2付加画像の少なくとも一方を、前記フィールド内において前記上下方向にずらす、
項目1または2のゲーム制御方法。
これにより、各付加画像によってユーザの視野が遮られることを防止できるとともに、ユーザが付加画像の位置を見失うといったことも回避し得る。
(項目4)
前記第1付加画像は、前記第1キャラクタの前記左右方向における位置に対応するようにして前記フィールド内において前記所定経路に沿って移動され、
前記第2付加画像は、前記第2キャラクタの前記左右方向における位置に対応するようにして前記フィールド内において前記所定経路に沿って移動され、
前記第1付加画像と前記第2付加画像の少なくとも一部が前記所定経路上において重なる場合には、前記第1付加画像と前記第2付加画像の少なくとも一方を前記所定経路から前記フィールド内において前記上下方向にずらし、
前記第1付加画像と前記第2付加画像の少なくとも一部が前記所定経路上において重ならなくなった場合には、前記第1付加画像および前記第2付加画像を前記所定経路に向けて前記上下方向に移動させる、
項目3のゲーム制御方法。
これにより、各付加画像によってユーザの視野が遮られることを防止できるとともに、ユーザが付加画像の位置を見失うといったことも回避し得る。
(項目5)
前記ゲーム画像は、第1キャラクタと異なる第2キャラクタおよび第3キャラクタと、前記第2キャラクタに関連付けられた第2付加画像および第3付加画像をさらに含み、
前記第2付加画像は、前記フィールド内に表示されるとともに、前記第2キャラクタの動作に基づいて前記フィールド内において前記所定経路に沿って移動され、
前記第3付加画像は、前記フィールド内に表示されるとともに、前記第3キャラクタの動作に基づいて前記フィールド内において前記所定経路に沿って移動され、
前記ゲーム画像において、前記第1付加画像と前記第2付加画像と前記第3付加画像の少なくとも一部がそれぞれに重なる場合には、前記第1付加画像と前記第2付加画像と前記第3付加画像の少なくともいずれか2つを、前記フィールド内において前記上下方向にずらす、
項目1〜4のいずれかのゲーム制御方法。
これにより、各付加画像によってユーザの視野が遮られることを防止できるとともに、ユーザが付加画像の位置を見失うといったことも回避し得る。
(項目6)
前記第1付加画像は、前記所定経路上に配置される、項目5のゲーム制御方法。
これにより、当該コンピュータにおいてユーザが操作する第1キャラクタの付加画像を、他のキャラクタの付加画像よりも近くに表示させることにより、ユーザが重要な付加画像の位置を見失うといったことを回避し得る。
(項目7)
前記第2キャラクタは、前記コンピュータとは異なるコンピュータにおいて特定された操作入力に基づいて動作され、
前記第3キャラクタは、前記メモリに予め記憶されたキャラクタ制御情報に基づいて動作され、
前記第2付加画像の前記上下方向におけるずらし量は、前記第3キャラクタの前記上下方向におけるずらし量より小さい、
項目5または6のゲーム制御方法。
これにより、他のユーザによって操作される第2キャラクタを、キャラクタ制御情報に基づいて自動制御される第3キャラクタの付加画像よりも近くに表示させることにより、ユーザが他のユーザにより操作される第2キャラクタの付加画像の位置を見失うといったことを回避し得る。また、第3キャラクタの付加画像の位置を、常に遠くに配置させることによって、ユーザは容易に第3付加画像を発見できる。
(項目8)
前記第1付加画像と前記第2付加画像の少なくとも一部が前記所定経路上において重なり、前記第2付加画像と前記第3付加画像の少なくとも一部が前記所定経路上において重なり、前記第1付加画像と前記第3付加画像の少なくとも一部が前記所定経路上において重ならない場合には、
前記第2付加画像のみを、前記フィールド内において前記上下方向にずらす、
項目5または6のゲーム制御方法。
これにより、各付加画像によってユーザの視野が遮られることを防止できるとともに、ユーザが付加画像の位置を見失うといったことも回避し得る。
(項目9)
ゲーム制御方法であって、
前記ゲーム制御方法は、検出対象物が接近したことを入力操作として検出するタッチスクリーンと、プロセッサと、メモリとを備えるコンピュータにおいて実行され、ゲーム画像を前記タッチスクリーンに表示させるものであり、
前記ゲーム画像の前記タッチスクリーンにおける上下方向および左右方向を特定するステップと、
第1キャラクタと、前記第1キャラクタに関連付けられた第1付加画像と、第2キャラクタと、前記第2キャラクタに関連付けられた第2付加画像と、第3キャラクタと、前記第3キャラクタに関連付けられた第3付加画像と、前記第1キャラクタ、前記第2キャラクタ、および、前記第3キャラクタの少なくとも前記上下方向における移動を制限するフィールドを含むゲーム画像を生成するステップと、
前記第1キャラクタ、前記第2キャラクタ、および、前記第3キャラクタを動作させるステップと、
前記第1付加画像、前記第2付加画像、および、前記第3付加画像を前記フィールド内に表示させるステップと、
前記第1付加画像を前記第1キャラクタの動作に基づいて前記フィールド内における所定経路に沿って移動させるステップと、
前記第2付加画像を前記第2キャラクタの動作に基づいて前記所定経路に沿って移動させるステップと、
前記第3付加画像を前記第3キャラクタの動作に基づいて前記所定経路に沿って移動させるステップと、を含み、
前記第1付加画像と前記第2付加画像の少なくとも一部が前記所定経路上において重なり、前記第2付加画像と前記第3付加画像の少なくとも一部が前記所定経路上において重なり、前記第1付加画像と前記第3付加画像の少なくとも一部が前記所定経路上において重ならない場合には、前記第2付加画像のみを、前記フィールド内において前記上下方向にずらす、ゲーム制御方法。
本項目のゲーム制御方法によれば、各付加画像によってユーザの視野が遮られることを防止できるとともに、ユーザが付加画像の位置を見失うといったことも回避し得る。
(項目10)
項目1〜9のいずれかのゲーム制御方法を、前記コンピュータに実行させるためのプログラム。
(項目11)
前記メモリに前記プログラムが格納され、項目10の前記プログラムに基づいて前記プロセッサが項目1〜9のいずれかの前記ゲーム制御方法を実行する、コンピュータ。
[Description of Embodiment of the Present Invention]
First, an overview of the embodiments shown in the present disclosure will be listed. The game control method disclosed in the present disclosure has the following configuration.
(Item 1)
A game control method,
The game control method is executed in a computer including a touch screen that detects that an object to be detected approaches as an input operation, a processor, and a memory, and displays a game image on the touch screen.
Identifying a vertical direction and a horizontal direction on the touch screen of the game image;
Generating a game image including a first character, a first additional image associated with the first character, and a field that restricts movement of the first character in at least the vertical direction;
In the touch screen, from the first touch position where it is detected that the detection target is not approaching to the touch screen, the second touch position is detected while the approach is detected. When the position is moved, the operation input to the first character is specified based on the positional relationship between the first touch position and the second touch position while detecting the approach. And steps to
Moving the first character based on the operation input;
Displaying the first additional image in the field, and moving the first additional image along a predetermined path in the field based on the operation input;
A game control method including:
According to the game control method of this item, the first additional image related to the first character is displayed in the field, so that when the user determines the destination to move the first character, the visual field of the user is determined by the first additional image. Can be prevented from being blocked. In addition, since the first additional image is moved along a predetermined route in the field, it is possible to prevent the user from losing sight of the position of the additional image. This provides a technique for appropriately displaying additional information related to characters and the like that appear.
(Item 2)
Based on the operation input, the destination of the first character in the up-down direction and the left-right direction is specified, and the first additional image is moved based on the destination in the left-right direction.
Item 1 game control method.
Thereby, since the first additional image is displayed near the first character in the field, it is possible to prevent the user from losing sight of the position of the additional image.
(Item 3)
The game image further includes a second character different from the first character, and a second additional image associated with the second character,
The second additional image is displayed in the field and moved along the predetermined path in the field based on the movement of the second character.
In the game image, when at least a part of the first additional image and the second additional image overlap, at least one of the first additional image and the second additional image is moved in the vertical direction within the field. Shift,
Item 1 or 2 game control method.
Accordingly, it is possible to prevent the user's visual field from being blocked by each additional image, and to prevent the user from losing the position of the additional image.
(Item 4)
The first additional image is moved along the predetermined path in the field so as to correspond to the position of the first character in the left-right direction,
The second additional image is moved along the predetermined path in the field so as to correspond to the position of the second character in the left-right direction,
When at least a part of the first additional image and the second additional image overlap on the predetermined path, at least one of the first additional image and the second additional image is moved from the predetermined path to the field in the field. Shift up and down,
When at least a part of the first additional image and the second additional image no longer overlap on the predetermined path, the first additional image and the second additional image are directed to the predetermined path in the vertical direction. Move to
Item 3 game control method.
Accordingly, it is possible to prevent the user's visual field from being blocked by each additional image, and to prevent the user from losing the position of the additional image.
(Item 5)
The game image further includes a second character and a third character different from the first character, and a second additional image and a third additional image associated with the second character,
The second additional image is displayed in the field and moved along the predetermined path in the field based on the movement of the second character.
The third additional image is displayed in the field and moved along the predetermined path in the field based on the action of the third character.
In the game image, when at least a part of the first additional image, the second additional image, and the third additional image overlap each other, the first additional image, the second additional image, and the third additional image Shifting at least any two of the images in the vertical direction within the field;
The game control method according to any one of items 1 to 4.
Accordingly, it is possible to prevent the user's visual field from being blocked by each additional image, and to prevent the user from losing the position of the additional image.
(Item 6)
Item 5. The game control method according to Item 5, wherein the first additional image is arranged on the predetermined route.
Thereby, it is possible to prevent the user from losing sight of the position of the important additional image by displaying the additional image of the first character operated by the user on the computer closer to the additional image of the other character.
(Item 7)
The second character is operated based on an operation input specified in a computer different from the computer,
The third character is operated based on character control information stored in advance in the memory,
A shift amount in the vertical direction of the second additional image is smaller than a shift amount in the vertical direction of the third character;
Item 5 or 6 game control method.
Accordingly, the second character operated by the other user is displayed closer to the additional image of the third character that is automatically controlled based on the character control information, so that the user can be operated by the other user. It is possible to avoid losing the position of the additional image of the two characters. In addition, by always arranging the position of the additional image of the third character far away, the user can easily find the third additional image.
(Item 8)
At least a part of the first additional image and the second additional image overlap on the predetermined path, and at least a part of the second additional image and the third additional image overlap on the predetermined path, and the first addition When at least a part of the image and the third additional image do not overlap on the predetermined path,
Only the second additional image is shifted in the vertical direction within the field.
Item 5 or 6 game control method.
Accordingly, it is possible to prevent the user's visual field from being blocked by each additional image, and to prevent the user from losing the position of the additional image.
(Item 9)
A game control method,
The game control method is executed in a computer including a touch screen that detects that an object to be detected approaches as an input operation, a processor, and a memory, and displays a game image on the touch screen.
Identifying a vertical direction and a horizontal direction on the touch screen of the game image;
A first character, a first additional image associated with the first character, a second character, a second additional image associated with the second character, a third character, and the third character. Generating a game image including a third additional image, a field that restricts movement of the first character, the second character, and the third character in at least the vertical direction;
Moving the first character, the second character, and the third character;
Displaying the first additional image, the second additional image, and the third additional image in the field;
Moving the first additional image along a predetermined path in the field based on the action of the first character;
Moving the second additional image along the predetermined path based on the movement of the second character;
Moving the third additional image along the predetermined path based on the action of the third character,
At least a part of the first additional image and the second additional image overlap on the predetermined path, and at least a part of the second additional image and the third additional image overlap on the predetermined path, and the first addition A game control method of shifting only the second additional image in the vertical direction within the field when at least a part of the image and the third additional image do not overlap on the predetermined path.
According to the game control method of this item, it is possible to prevent the user's visual field from being obstructed by each additional image, and to prevent the user from losing the position of the additional image.
(Item 10)
A program for causing a computer to execute the game control method according to any one of items 1 to 9.
(Item 11)
A computer in which the program is stored in the memory, and the processor executes the game control method according to any of items 1 to 9 based on the program of item 10.

[本発明の実施形態の詳細]
以下、図面を参照しつつ、本開示により示される技術の実施形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
[Details of the embodiment of the present invention]
Hereinafter, embodiments of the technology shown by the present disclosure will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

本実施形態において、ユーザは、例えばスマートフォンなどの、タッチスクリーンを搭載したユーザ端末装置を操作する。これにより、ゲームサーバとユーザ端末装置との間で、ゲームに関するデータを送受信しながらゲームが進行される。ゲームは、ユーザが一人でプレイするシングルプレイと、ユーザが他のユーザとともにプレイするマルチプレイとに対応するようにしてもよい。   In the present embodiment, the user operates a user terminal device equipped with a touch screen such as a smartphone. Thereby, a game progresses, transmitting / receiving the data regarding a game between a game server and a user terminal device. The game may correspond to single play in which the user plays alone and multi-play in which the user plays with other users.

図1は、実施の形態のゲーム配信システム1の構成を示す図である。図1に示すように、ゲーム配信システム1は、ユーザが使用する情報処理装置と、ゲームサーバ20とを含み、これらの装置がネットワーク80によって互いに通信可能に接続されている。   FIG. 1 is a diagram illustrating a configuration of a game distribution system 1 according to the embodiment. As shown in FIG. 1, the game distribution system 1 includes an information processing device used by a user and a game server 20, and these devices are communicably connected to each other via a network 80.

図1の例では、ユーザが使用する情報処理装置として、ユーザ端末10A,10B,10C(以下、ユーザ端末10A、10B、10Cなどのユーザ端末を総称して「ユーザ端末10」と記載することもある)など複数のユーザ端末を示している。ユーザ端末10Aとユーザ端末10Bとは、無線基地局81と通信することにより、ネットワーク80と接続する。ユーザ端末10Cは、家屋などの施設に設置される無線ルータ82と通信することにより、ネットワーク80と接続する。ユーザ端末10は、タッチスクリーンを備える端末であり、例えば、スマートフォン、ファブレット、タブレットなどである。   In the example of FIG. 1, user terminals 10 </ b> A, 10 </ b> B, and 10 </ b> C (hereinafter referred to as user terminals 10 </ b> A, 10 </ b> B, and 10 </ b> C) are collectively referred to as “user terminal 10” as information processing apparatuses used by the user. A plurality of user terminals. The user terminal 10 </ b> A and the user terminal 10 </ b> B are connected to the network 80 by communicating with the radio base station 81. The user terminal 10C is connected to the network 80 by communicating with a wireless router 82 installed in a facility such as a house. The user terminal 10 is a terminal provided with a touch screen, and is, for example, a smartphone, a fablet, a tablet, or the like.

ユーザ端末10は、ゲームプログラムを実行することにより、ゲームプログラムに応じたゲームをプレイする環境をユーザに対して提供する。ユーザ端末10は、例えば、アプリ等を配信するプラットフォームを介してゲームプログラムをインストールする。ユーザ端末10は、ユーザ端末10にインストールされたゲームプログラム、または、予めプリインストールされているゲームプログラムを実行することで、ユーザによるゲームのプレイを可能とする。ユーザ端末10は、ゲームプログラムを読み込んで実行することにより、ユーザ端末10と、ゲームサーバ20とを通信接続して、ゲームの進行に応じてゲームに関連するデータをユーザ端末10とゲームサーバ20との間で送受信する。   The user terminal 10 provides the user with an environment for playing a game according to the game program by executing the game program. For example, the user terminal 10 installs a game program via a platform that distributes applications and the like. The user terminal 10 enables a user to play a game by executing a game program installed in the user terminal 10 or a game program pre-installed in advance. The user terminal 10 reads and executes the game program, thereby communicatively connecting the user terminal 10 and the game server 20, and transmits data related to the game to the user terminal 10 and the game server 20 as the game progresses. Send and receive between.

ゲームサーバ20は、ゲームのプレイに必要なデータを、適宜、ユーザ端末10へ送信することで、ユーザ端末10でのゲームのプレイを進行させる。ゲームサーバ20は、ゲームをプレイする各ユーザの、ゲームに関連する各種データを管理する。ゲームサーバ20は、ユーザ端末10と通信し、各ユーザのゲームの進行に応じて、画像、音声、テキストデータその他のデータをユーザ端末10へ送信する。   The game server 20 advances the game play on the user terminal 10 by appropriately transmitting data necessary for the game play to the user terminal 10. The game server 20 manages various data related to the game of each user who plays the game. The game server 20 communicates with the user terminal 10 and transmits images, sounds, text data, and other data to the user terminal 10 in accordance with the progress of each user's game.

例えば、ゲームサーバ20は、各ユーザがゲームのストーリーを進行させた進行状況、ゲーム内に登場するゲームキャラクタのうち各ユーザが使用可能なゲームキャラクタの情報、ゲームキャラクタの能力を示すパラメータ、ゲームキャラクタが使用する道具の性能を示すパラメータその他の各種データを管理する。また、ゲームサーバ20は、ゲームの運営者がユーザに対してキャンペーン、ゲームの進行における不具合の発生、不具合の解消その他のゲームの運営に関連する情報等をユーザに通知する処理を行う。   For example, the game server 20 includes a progress situation in which each user has progressed a game story, information on game characters that can be used by each user among game characters appearing in the game, parameters indicating the capabilities of the game characters, game characters It manages parameters and various other data indicating the performance of tools used by. In addition, the game server 20 performs a process in which the game operator notifies the user of campaigns, occurrence of defects in the progress of the game, resolution of the defects, and other information related to game management.

ゲームプログラムは、ユーザがゲームをプレイするモードとして、一人のユーザがプレイする場合(シングルプレイ)と、複数人のユーザが協同してプレイする場合(マルチプレイ)とに対応している。例えば、ゲーム配信システム1において、ゲームサーバ20が、マルチプレイに参加するユーザを特定して各ユーザの各ユーザ端末10と通信すること等により、マルチプレイでゲームをプレイする環境を各ユーザに提供する。   The game program corresponds to a mode in which a user plays a game when a single user plays (single play) and when a plurality of users play in cooperation (multiplay). For example, in the game distribution system 1, the game server 20 provides each user with an environment for playing a game in multiplayer by specifying a user who participates in multiplay and communicating with each user terminal 10 of each user.

ゲーム配信システム1は、マルチプレイに対応することにより、例えば、アクションゲームであれば、各ユーザでチームを結成して、クエストモードなど比較的強力なキャラクタと対戦するゲームモードを複数のユーザがプレイすることを可能とする。   For example, if the game distribution system 1 is an action game, a plurality of users play a game mode in which each user forms a team and plays against a relatively powerful character such as a quest mode. Make it possible.

ゲームサーバ20のハードウェアの構成を説明する。ゲームサーバ20は、通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備え、これらが通信バスを介して互いに接続する。   A hardware configuration of the game server 20 will be described. The game server 20 includes a communication IF (Interface) 22, an input / output IF 23, a memory 25, a storage 26, and a processor 29, which are connected to each other via a communication bus.

通信IF22は、例えばLAN(Local Area Network)規格など各種の通信規格に対応しており、ユーザ端末10など外部の通信機器との間でデータを送受信するためのインタフェースとして機能する。   The communication IF 22 corresponds to various communication standards such as a LAN (Local Area Network) standard, and functions as an interface for transmitting and receiving data to and from an external communication device such as the user terminal 10.

入出力IF23は、ゲームサーバ20への情報の入力を受け付けるとともに、ゲームサーバ20の外部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス、キーボード等の情報入力機器の接続を受け付ける入力受付部と、画像等を表示するためのディスプレイ等の情報出力機器の接続を受け付ける出力部とを含む。   The input / output IF 23 functions as an interface for receiving information input to the game server 20 and outputting information to the outside of the game server 20. The input / output IF 23 includes an input receiving unit that accepts connection of an information input device such as a mouse and a keyboard, and an output unit that accepts connection of an information output device such as a display for displaying an image or the like.

メモリ25は、処理に使用されるデータ等を記憶するための記憶装置である。メモリ25は、例えば、プロセッサ29が処理を行う際に一時的に使用するための作業領域をプロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置を含んで構成されている。   The memory 25 is a storage device for storing data used for processing. For example, the memory 25 provides the processor 29 with a work area for temporary use when the processor 29 performs processing. The memory 25 includes a storage device such as a ROM (Read Only Memory) and a RAM (Random Access Memory).

ストレージ26は、プロセッサ29が読み込んで実行するための各種プログラム及びデータを記憶するための記憶装置である。ストレージ26が記憶する情報は、ゲームプログラム、ゲームプログラムに関連する情報、ゲームプログラムをプレイするユーザの情報その他の情報を含む。ストレージ26は、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置を含んで構成されている。   The storage 26 is a storage device for storing various programs and data that the processor 29 reads and executes. The information stored in the storage 26 includes a game program, information related to the game program, information on a user who plays the game program, and other information. The storage 26 includes a storage device such as an HDD (Hard Disk Drive) and a flash memory.

プロセッサ29は、ストレージ26に記憶されるプログラム等を読み込んで実行することにより、ゲームサーバ20の動作を制御する。プロセッサ29は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等を含んで構成される。   The processor 29 controls the operation of the game server 20 by reading and executing a program stored in the storage 26. The processor 29 includes, for example, a CPU (Central Processing Unit), a MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and the like.

図2は、ユーザ端末10の構成を示すブロック図である。図2を参照して、ユーザ端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン130と、入出力IF140と、記憶部150と、音声処理部160と、マイク170と、スピーカ180と、制御部190とを含む。   FIG. 2 is a block diagram illustrating a configuration of the user terminal 10. Referring to FIG. 2, the user terminal 10 includes an antenna 110, a wireless communication IF 120, a touch screen 130, an input / output IF 140, a storage unit 150, a sound processing unit 160, a microphone 170, a speaker 180, And a control unit 190.

アンテナ110は、ユーザ端末10が発する信号を電波として空間へ放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ与える。   The antenna 110 radiates a signal emitted from the user terminal 10 to space as a radio wave. Further, the antenna 110 receives radio waves from the space and gives a received signal to the wireless communication IF 120.

無線通信IF120は、ユーザ端末10が他の通信機器と通信するため、アンテナ110等を介して信号を送受信するための変復調処理などを行う。無線通信IF120は、チューナー、高周波回路などを含む無線通信用の通信モジュールであり、ユーザ端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。   The wireless communication IF 120 performs modulation / demodulation processing for transmitting and receiving signals via the antenna 110 and the like so that the user terminal 10 communicates with other communication devices. The wireless communication IF 120 is a communication module for wireless communication including a tuner, a high frequency circuit, and the like, performs modulation / demodulation and frequency conversion of a wireless signal transmitted / received by the user terminal 10, and provides a received signal to the control unit 190.

タッチスクリーン130は、ユーザからの入力を受け付けて、ユーザに対し情報をディスプレイ132に出力する。タッチスクリーン130は、ユーザの入力操作を受け付けるための部材(タッチパネル131)を含む。また、タッチスクリーン130は、メニュー画面や、ゲームの進行を画面に表示するための部材(ディスプレイ132)を含む。タッチパネル131は、例えば静電容量方式のものを用いることによって、ユーザの指などが接近したことを検出する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)、有機EL(electroluminescence)その他の表示装置によって実現される。   The touch screen 130 receives an input from the user and outputs information to the display 132 to the user. Touch screen 130 includes a member (touch panel 131) for accepting a user's input operation. The touch screen 130 includes a menu screen and a member (display 132) for displaying the progress of the game on the screen. The touch panel 131 detects that the user's finger or the like has approached by using, for example, a capacitive type. The display 132 is realized by, for example, an LCD (Liquid Crystal Display), an organic EL (Electroluminescence), or other display device.

入出力IF140は、ユーザ端末10への情報の入力を受け付けるとともに、ユーザ端末10の外部へ情報を出力するためのインタフェースとして機能する。   The input / output IF 140 functions as an interface for accepting input of information to the user terminal 10 and outputting information to the outside of the user terminal 10.

記憶部150は、フラッシュメモリ、RAM(Random Access Memory)等により構成され、ユーザ端末10が使用するプログラム、および、ユーザ端末10がゲームサーバ20から受信する各種データ等を記憶する。   The storage unit 150 includes a flash memory, a RAM (Random Access Memory), and the like, and stores a program used by the user terminal 10, various data received by the user terminal 10 from the game server 20, and the like.

音声処理部160は、音声信号の変復調を行う。音声処理部160は、マイク170から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部160は、音声信号をスピーカ180へ与える。音声処理部160は、例えば、音声処理用のプロセッサによって実現される。マイク170は、音声信号の入力を受け付けて制御部190へ出力するための音声入力部として機能する。スピーカ180は、音声信号を、ユーザ端末10の外部へ出力するための音声出力部として機能する。   The audio processing unit 160 performs modulation / demodulation of the audio signal. The audio processing unit 160 modulates the signal given from the microphone 170 and gives the modulated signal to the control unit 190. In addition, the audio processing unit 160 provides an audio signal to the speaker 180. The sound processing unit 160 is realized by, for example, a sound processing processor. The microphone 170 functions as an audio input unit for receiving an input of an audio signal and outputting it to the control unit 190. The speaker 180 functions as an audio output unit for outputting an audio signal to the outside of the user terminal 10.

制御部190は、記憶部150に記憶されるプログラムを読み込んで実行することにより、ユーザ端末10の動作を制御する。制御部190は、例えば、アプリケーションプロセッサによって実現される。   The control unit 190 controls the operation of the user terminal 10 by reading and executing a program stored in the storage unit 150. The control unit 190 is realized by an application processor, for example.

ユーザ端末10がゲームプログラム151を実行する処理について、より詳細に説明する。ある局面において、記憶部150は、ゲームプログラム151と、ゲーム情報152と、ユーザ情報153とを記憶する。ユーザ端末10は、例えば、ゲームサーバ20からゲームプログラムをダウンロードして記憶部150に記憶させる。また、ユーザ端末10は、ゲームの進行に伴いゲームサーバ20と通信することで、ゲーム情報152およびユーザ情報153等の各種のデータをゲームサーバ20と送受信する。   A process in which the user terminal 10 executes the game program 151 will be described in more detail. In one aspect, the storage unit 150 stores a game program 151, game information 152, and user information 153. For example, the user terminal 10 downloads a game program from the game server 20 and stores it in the storage unit 150. Further, the user terminal 10 communicates with the game server 20 as the game progresses, thereby transmitting and receiving various data such as game information 152 and user information 153 to and from the game server 20.

ゲームプログラム151は、ユーザ端末10においてゲームを進行させるためのプログラムである。ゲーム情報152は、ゲームプログラム151が参照する各種のデータを含む。ゲーム情報152は、例えば、ゲームにおいて仮想空間に配置するオブジェクトの情報、オブジェクトに対応付けられた効果の情報(ゲームキャラクタに設定されるスキルの情報などを含む)などを含む。ユーザ情報153は、ゲームをプレイするユーザについての情報を含む。ユーザ情報153は、例えば、ゲームをプレイするユーザ端末10のユーザを識別する情報、マルチプレイ時に協働してゲームをプレイする他のユーザを識別する情報その他の情報を含む。   The game program 151 is a program for causing the user terminal 10 to advance the game. The game information 152 includes various data referred to by the game program 151. The game information 152 includes, for example, information on objects to be arranged in the virtual space in the game, information on effects associated with the objects (including information on skills set for game characters), and the like. The user information 153 includes information about the user who plays the game. The user information 153 includes, for example, information for identifying the user of the user terminal 10 who plays the game, information for identifying other users who play the game in cooperation with the multiplayer, and other information.

制御部190は、ゲームプログラム151を読み込んで実行することにより、入力操作受付部191と、ゲーム進行処理部192と、移動操作検出部193と、カメラ配置制御部194と、オブジェクト制御部195と、表示制御部196と、の各機能を発揮する。   The control unit 190 reads and executes the game program 151 to thereby execute an input operation receiving unit 191, a game progress processing unit 192, a moving operation detection unit 193, a camera arrangement control unit 194, an object control unit 195, Each function of the display control unit 196 is exhibited.

入力操作受付部191は、タッチスクリーン130の出力に基づいて、ユーザの入力操作を受け付ける。具体的には、入力操作受付部191は、ユーザの指などがタッチパネル131に接近したことを、タッチスクリーン130を構成する面の横軸および縦軸からなる座標系の座標として検出する。   The input operation accepting unit 191 accepts a user input operation based on the output of the touch screen 130. Specifically, the input operation accepting unit 191 detects that a user's finger or the like has approached the touch panel 131 as coordinates in a coordinate system including a horizontal axis and a vertical axis of a surface constituting the touch screen 130.

入力操作受付部191は、タッチスクリーン130に対するユーザの操作を判別する。入力操作受付部191は、例えば、(1)「接近操作」、(2)「リリース操作」、(3)「タップ操作」、(4)「ダブルタップ操作」、(5)「長押し操作(ロングタッチ操作)」、(6)「ドラッグ操作(スワイプ操作)」、(7)「ムーブ操作」、(8)「フリック操作」、その他のユーザの操作を判別する。入力操作受付部191が判別するユーザの操作は、上記に限られない。例えば、タッチパネル131が、ユーザがタッチパネル131に対して押下する圧力の大きさを検出可能な機構を有する場合、入力操作受付部191は、ユーザが押下した圧力の大きさを判別する。   The input operation reception unit 191 determines a user operation on the touch screen 130. The input operation accepting unit 191 includes, for example, (1) “approach operation”, (2) “release operation”, (3) “tap operation”, (4) “double tap operation”, (5) “long press operation ( (Long touch operation) ”, (6)“ drag operation (swipe operation) ”, (7)“ move operation ”, (8)“ flick operation ”, and other user operations. The user operation determined by the input operation receiving unit 191 is not limited to the above. For example, when the touch panel 131 has a mechanism that can detect the magnitude of the pressure that the user presses against the touch panel 131, the input operation reception unit 191 determines the magnitude of the pressure that the user has pressed.

ここで、(1)「接近操作」とは、ユーザが指などをタッチスクリーン130に接近させる操作である。タッチスクリーン130は、ユーザの指などが接近したこと(ユーザの指などがタッチスクリーン130に接触したことを含む)をタッチパネル131により検出し、検出したタッチスクリーン130の座標に応じた信号を制御部190へ出力する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出しない状態から、接近を検出したときに、状態が「タッチオン状態」になったと判別する。   Here, (1) “approach operation” is an operation in which the user brings a finger or the like closer to the touch screen 130. The touch screen 130 detects that the user's finger or the like has approached (including that the user's finger or the like has touched the touch screen 130) by the touch panel 131, and outputs a signal corresponding to the detected coordinates of the touch screen 130 to the control unit. Output to 190. The control unit 190 determines that the state is the “touch-on state” when the approach is detected from the state in which the approach of the user's finger or the like to the touch screen 130 is not detected.

(2)「リリース操作」とは、ユーザがタッチスクリーン130を接近操作している状態を止める操作である。入力操作受付部191は、例えば、ユーザが指などをタッチスクリーン130に接触させている状態から、指を離す操作をしたときに、ユーザの操作を「リリース操作」と判別する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出している状態から、接近を検出しない状態になったときに、状態が「タッチオン状態」から「タッチオフ状態」になったと判別する。   (2) “Release operation” is an operation for stopping the state in which the user is operating the touch screen 130 to approach. For example, when the user performs an operation of releasing his / her finger from a state where the user touches the touch screen 130 with the finger or the like, the input operation receiving unit 191 determines that the user's operation is a “release operation”. The control unit 190 determines that the state is changed from the “touch-on state” to the “touch-off state” when the approach is not detected from the state in which the approach of the user's finger or the like to the touch screen 130 is detected. To do.

(3)「タップ操作」とは、ユーザがタッチスクリーン130に対して指などを接近させる接近操作をした後に、接近操作をした位置でリリース操作を行うことである。入力操作受付部191は、接近操作が検出されない状態(ユーザの指などがタッチパネル131から離れており、タッチパネル131がユーザの指などの接近を検出していない状態)から、タッチスクリーン130の出力に基づいて、ユーザの指などが接近したことを検出した場合に、その検出した座標を「初期タッチ位置」として保持する。入力操作受付部191は、初期タッチ位置の座標と、リリース操作をした座標とがほぼ同一である場合(接近操作が検出された座標から一定範囲内の座標においてリリース操作の座標が検出された場合)に、ユーザの操作を「タップ操作」と判別する。   (3) “Tap operation” refers to performing a release operation at a position where the user performs an approach operation after the user performs an approach operation to bring a finger or the like closer to the touch screen 130. The input operation reception unit 191 outputs the touch screen 130 from the state where the approach operation is not detected (the user's finger or the like is away from the touch panel 131 and the touch panel 131 does not detect the approach of the user's finger or the like). Based on this, when it is detected that the user's finger or the like has approached, the detected coordinates are held as the “initial touch position”. When the coordinates of the initial touch position and the coordinates of the release operation are substantially the same (when the coordinates of the release operation are detected in the coordinates within a certain range from the coordinates where the approach operation is detected) ), The user's operation is determined as a “tap operation”.

(4)「ダブルタップ操作」とは、ユーザがタップ操作を一定時間内に2回行う操作である。入力操作受付部191は、例えば、ユーザの操作をタップ操作と判別してから一定時間内に、タップ操作にかかる座標で再びタップ操作を判別した場合に、ユーザの操作を「ダブルタップ操作」と判別する。   (4) The “double tap operation” is an operation in which the user performs the tap operation twice within a predetermined time. For example, the input operation reception unit 191 determines that the user operation is “double tap operation” when the user operation is determined to be the tap operation and the tap operation is determined again with the coordinates related to the tap operation within a certain time after the user operation is determined to be the tap operation. Determine.

(5)「長押し操作」とは、ユーザがタッチスクリーン130を押し続ける操作である。タッチスクリーン130は、ユーザの操作を検出して接近操作を判別してから、接近操作が検出された座標において接近操作が継続している時間が一定時間を超えた場合に、ユーザの操作を「長押し操作」(「長押し操作」を、「ロングタッチ操作」と称することもある)と判別する。   (5) “Long press operation” is an operation in which the user continues to press the touch screen 130. The touch screen 130 detects the user's operation and discriminates the approaching operation. When the time during which the approaching operation continues at the coordinates where the approaching operation is detected exceeds a certain time, the touch screen 130 determines the user's operation as “ “Long press operation” (the “long press operation” may be referred to as “long touch operation”).

(6)「ドラッグ操作」とは、ユーザがタッチスクリーン130に指などを接近させた接近状態を維持したまま、指をスライドさせる操作である。   (6) “Drag operation” is an operation of sliding a finger while maintaining an approaching state in which the user brings a finger or the like close to the touch screen 130.

(7)「ムーブ操作」とは、ユーザがタッチスクリーン130において、接近操作を維持しつつ、タッチスクリーン130に指などを接近させている位置を移動させてリリース操作を行う一連の操作をいう。   (7) “Move operation” refers to a series of operations in which the user performs a release operation by moving a position where a finger or the like is approaching the touch screen 130 while maintaining the approach operation on the touch screen 130.

(8)「フリック操作」は、ユーザがムーブ操作を予め定められた時間よりも短い時間で行う操作をいう。フリック操作は、ユーザがタッチスクリーン130で指を弾くような操作である。   (8) “Flick operation” refers to an operation in which a user performs a move operation in a time shorter than a predetermined time. The flick operation is an operation in which the user flips a finger on the touch screen 130.

ゲーム進行処理部192は、ユーザの操作に応じて、各種のプログラムを呼び出す等によりゲームを進行させる処理を行う。例えば、ゲーム進行処理部192は、ゲームサーバ20と通信し、ゲームの進行に応じてゲームサーバ20へデータを送信する処理、ゲームサーバ20からゲームに関連するデータを受信する処理、ゲームの進行に応じてユーザに報酬を付与する処理、時間の経過を計測する処理その他の処理を行う。   The game progress processing unit 192 performs a process of advancing the game by calling various programs in accordance with a user operation. For example, the game progress processing unit 192 communicates with the game server 20, transmits data to the game server 20 according to the progress of the game, receives data related to the game from the game server 20, and progresses the game. In response, a process of giving a reward to the user, a process of measuring the passage of time, and other processes are performed.

移動操作検出部193は、タッチスクリーン130に対するユーザの入力操作に基づいて、ゲームに登場するキャラクタ(以下、「ゲームキャラクタ」と称することもある)を移動させる入力操作の操作内容を検出する。例えば、ゲームプログラム151がアクションゲームである場合、移動操作検出部193は、ユーザの入力操作に基づいて、ゲームキャラクタを移動させる方向を検出する(移動操作検出部193は、ユーザがゲームキャラクタの移動方向を指定する入力操作を受け付ける)。   The movement operation detection unit 193 detects the operation content of the input operation for moving a character appearing in the game (hereinafter also referred to as “game character”) based on a user input operation on the touch screen 130. For example, when the game program 151 is an action game, the movement operation detection unit 193 detects the direction in which the game character is moved based on the user's input operation (the movement operation detection unit 193 allows the user to move the game character). Accept input operation to specify direction).

具体的には、移動操作検出部193は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させて、入力操作受付部191がタッチパネル131にユーザの指が接近したことを検出した座標を初期タッチ位置として、ユーザがドラッグ操作を行った場合に、初期タッチ位置の座標とタッチスクリーン130の検出結果とに基づいて、ゲームキャラクタの移動方向を検出する。移動操作検出部193の詳細な処理は、後述する。   Specifically, the movement operation detection unit 193 causes the user to move the finger closer to the touch screen 130 from the state in which the user's finger is separated from the touch screen 130, and the input operation reception unit 191 causes the touch panel 131 to move When the user performs a drag operation using the detected coordinates as the initial touch position, the moving direction of the game character is detected based on the initial touch position coordinates and the detection result of the touch screen 130. Detailed processing of the movement operation detection unit 193 will be described later.

カメラ配置制御部194は、仮想空間に配置される各オブジェクトを、どのようにユーザに見せるかを決定する。具体的には、カメラ配置制御部194は、制御部190がゲームプログラム151を読み込んで実行することで生成される仮想空間において、仮想カメラの配置(カメラワーク)を制御する。制御部190は、仮想空間における仮想カメラの撮影画像をディスプレイ132に表示することで、ユーザに対しゲームのプレイ環境を提供する。   The camera placement control unit 194 determines how to show each object placed in the virtual space to the user. Specifically, the camera arrangement control unit 194 controls the arrangement (camera work) of the virtual camera in the virtual space generated when the control unit 190 reads and executes the game program 151. The control unit 190 provides the game play environment to the user by displaying the captured image of the virtual camera in the virtual space on the display 132.

オブジェクト制御部195は、ユーザ端末10がゲームプログラム151を実行することにより進行されるゲームに登場する各種オブジェクト、および、入力操作受付部191が受け付けたユーザの操作内容に基づいて生成される各種オブジェクト(例えば、GUI(Graphical User Interface)画面など)の生成、変形、移動などの処理を制御する。オブジェクト制御部195は、例えば、ユーザがゲームキャラクタを移動させるためのタッチスクリーン130に対する入力操作に基づいて、ゲームキャラクタの移動方向を示すオブジェクトを生成し、生成したオブジェクトを変形する。   The object control unit 195 includes various objects that appear in the game that is advanced by the user terminal 10 executing the game program 151, and various objects that are generated based on the user operation content received by the input operation receiving unit 191. Processes such as generation, deformation, and movement (for example, a GUI (Graphical User Interface) screen) are controlled. The object control unit 195 generates an object indicating the moving direction of the game character based on, for example, an input operation on the touch screen 130 for moving the game character by the user, and deforms the generated object.

表示制御部196は、仮想カメラのカメラワークに従った画像をディスプレイ132に出力する。表示制御部196は、仮想空間内における仮想カメラの配置に応じて、ディスプレイ132の表示内容を決定し、決定した表示内容に従う画像、テキスト等の各種の情報をディスプレイ132に出力する。   The display control unit 196 outputs an image according to the camera work of the virtual camera to the display 132. The display control unit 196 determines the display content of the display 132 according to the placement of the virtual camera in the virtual space, and outputs various types of information such as images and text according to the determined display content to the display 132.

図3は、ゲームサーバ20の機能的な構成を示すブロック図である。図3を参照して、ゲームサーバ20の詳細な構成を説明する。ゲームサーバ20は、プログラムに従って動作することにより、通信部220と、記憶部250と、制御部290としての機能を発揮する。   FIG. 3 is a block diagram showing a functional configuration of the game server 20. A detailed configuration of the game server 20 will be described with reference to FIG. The game server 20 functions as the communication unit 220, the storage unit 250, and the control unit 290 by operating according to the program.

通信部220は、ゲームサーバ20がユーザ端末10などの外部の通信機器と通信するためのインタフェースとして機能する。   The communication unit 220 functions as an interface for the game server 20 to communicate with an external communication device such as the user terminal 10.

記憶部250は、ユーザ端末10においてユーザがゲームを進行させるための各種プログラムおよびデータを記憶する。ある局面において、記憶部250は、ゲームプログラム251と、ゲーム情報252と、ユーザ情報253とを記憶する。   The storage unit 250 stores various programs and data for the user to advance the game in the user terminal 10. In one aspect, the storage unit 250 stores a game program 251, game information 252, and user information 253.

ゲームプログラム251は、ゲームサーバ20がユーザ端末10と通信して、ユーザ端末10においてゲームを進行させるためのプログラムである。ゲームプログラム251は、ゲームを進行させるための各種データであるゲーム情報252およびユーザ情報253等を参照して、ユーザの入力操作に応じてゲームを進行させる。ゲームプログラム251は、制御部290に実行されることにより、ユーザ端末10とデータを送受信する処理、ユーザ端末10のユーザが行った操作内容に応じてゲームを進行させる処理、ゲームをプレイするユーザの情報を更新する処理その他の処理をゲームサーバ20に行わせる。   The game program 251 is a program for allowing the game server 20 to communicate with the user terminal 10 and advance the game on the user terminal 10. The game program 251 refers to the game information 252 and user information 253 that are various data for proceeding with the game, and causes the game to proceed according to the user's input operation. The game program 251 is executed by the control unit 290, whereby processing for transmitting / receiving data to / from the user terminal 10, processing for advancing the game according to the operation performed by the user of the user terminal 10, and the user playing the game The game server 20 is caused to perform processing for updating information and other processing.

ゲーム情報252は、ゲームプログラム251が参照する各種のデータを含む。ゲーム情報252は、オブジェクト管理テーブル252Aと、パッシブスキル管理テーブル252Bと、アクティブスキル管理テーブル252Cとを含む。   The game information 252 includes various data referred to by the game program 251. The game information 252 includes an object management table 252A, a passive skill management table 252B, and an active skill management table 252C.

オブジェクト管理テーブル252Aは、ゲームの仮想空間内に配置されるオブジェクトの設定を示す。ユーザ端末10は、ゲームプログラム151を実行することにより、仮想空間内に配置されるオブジェクトを、仮想空間内に配置される仮想カメラによって撮影した画像をディスプレイ132に表示することでゲームを進行させる。   The object management table 252A shows the setting of objects arranged in the virtual space of the game. By executing the game program 151, the user terminal 10 causes the display 132 to display an image obtained by photographing an object placed in the virtual space with a virtual camera placed in the virtual space, thereby causing the game to proceed.

ここで、オブジェクトとしては、例えば、ユーザが操作するゲームキャラクタを示すオブジェクト、ゲームキャラクタが装着する対象物を示すオブジェクトなど様々なものがある。これらオブジェクトは、ユーザがタッチスクリーン130に対して予め定められた入力操作を行うこと、ゲームの進行に伴い一定の条件を満たすこと、その他の様々な事象の発生を契機として、オブジェクトに対応付けられた処理が行われる。   Here, there are various objects such as an object indicating a game character operated by the user and an object indicating an object worn by the game character. These objects are associated with objects when the user performs a predetermined input operation on the touch screen 130, meets certain conditions as the game progresses, and other various events occur. Processing is performed.

例えば、あるオブジェクトに対してユーザがタッチスクリーン130に対して接近操作を行うことで、オブジェクトがユーザに選択された状態となる。また、例えば、ユーザがドラッグ操作を行うことで、ユーザに選択されているオブジェクトがユーザの入力操作に応じて移動する等の処理が行われる。また、例えば、ユーザがオブジェクトに対してタッチ操作をすることで、ユーザに対し、ゲームを有利に進めるための報酬が付与される等の処理が行われる。   For example, when the user performs an approach operation on the touch screen 130 with respect to an object, the object is selected by the user. Further, for example, when the user performs a drag operation, processing such as movement of an object selected by the user according to the user's input operation is performed. In addition, for example, when the user performs a touch operation on the object, a process such as a reward for favoring the game is given to the user.

パッシブスキル管理テーブル252Bは、オブジェクトを識別する情報と、オブジェクトに対応付けられたパッシブスキルの情報とが対応付けられている。ここで、パッシブスキルとは、例えば、ゲームにおいて予め定められた条件が満たされたときに発動され、ユーザがゲームを有利に進行させることができるものである。例えば、パッシブスキルが発動した場合に、ゲームキャラクタの移動速度が向上する等の、ゲームを有利に進行させられる効果を発揮させる。   In the passive skill management table 252B, information for identifying an object is associated with information on passive skills associated with the object. Here, the passive skill is activated when, for example, a predetermined condition is satisfied in the game, and the user can advantageously advance the game. For example, when the passive skill is activated, the game character can be advantageously advanced, such as the moving speed of the game character is improved.

アクティブスキル管理テーブル252Cは、オブジェクトを識別する情報と、オブジェクトに対応付けられたアクティブスキルの情報とが対応付けられている。ここで、アクティブスキルとは、例えば、ゲームにおいて予め定められた条件が満たされたときに発動可能な状態となり、ユーザから、スキルを発動させるための入力操作を受け付けることにより、ユーザがゲームを有利に進行させることができるものである。   In the active skill management table 252C, information for identifying an object is associated with information on an active skill associated with the object. Here, the active skill is, for example, in a state where it can be activated when a predetermined condition is satisfied in the game, and by receiving an input operation for activating the skill from the user, the user has an advantage in the game. It can be made to progress.

ユーザ情報253は、ゲームをプレイするユーザについての情報である。ユーザ情報253は、ユーザ管理テーブル253Aを含む。ユーザ管理テーブル253Aは、各ユーザを識別する情報と、ユーザがゲームを進行させた度合いを示す情報と、ユーザがゲーム内で保有するアイテム、ゲームキャラクタ、ゲームキャラクタが使用する装着物等の情報その他の情報を含む。   The user information 253 is information about the user who plays the game. The user information 253 includes a user management table 253A. The user management table 253A includes information for identifying each user, information indicating the degree of progress of the game by the user, information held by the user in the game, game characters, information used by the game character, and the like. Contains information.

図4は、ユーザ管理テーブル253Aが管理するユーザ情報の一例を示す。本実施形態において、複数のユーザ端末10が共通のゲーム空間に関連付けられる。図4において、ユーザA、ユーザBを含む、複数のユーザが、所定のゲーム空間に関連付けられる。各ユーザは、ゲーム空間において、複数のキャラクタを使用することが可能であり、操作対象となるキャラクタを任意のタイミングで切り替えることができる。制御部290は、オブジェクト管理テーブル252Aを参照し、キャラクタID、武器に基づいて、所定の武器を使用するゲームキャラクタのグラフィックを特定することができる。   FIG. 4 shows an example of user information managed by the user management table 253A. In the present embodiment, a plurality of user terminals 10 are associated with a common game space. In FIG. 4, a plurality of users including user A and user B are associated with a predetermined game space. Each user can use a plurality of characters in the game space, and can switch the character to be operated at an arbitrary timing. The control unit 290 can specify the graphic of the game character that uses a predetermined weapon based on the character ID and the weapon by referring to the object management table 252A.

制御部290は、記憶部250に記憶されるゲームプログラム251を実行することにより、送受信部291、サーバ処理部292、データ管理部293、マッチング部294、計測部295としての機能を発揮する。   The control unit 290 executes functions of the transmission / reception unit 291, the server processing unit 292, the data management unit 293, the matching unit 294, and the measurement unit 295 by executing the game program 251 stored in the storage unit 250.

送受信部291は、ゲームプログラム151を実行するユーザ端末10から、各種情報を受信し、ユーザ端末10に対し、各種情報を送信する。ユーザ端末10とゲームサーバ20とは、ユーザに関連付けられるオブジェクトを仮想空間に配置する要求、オブジェクトを削除する要求、オブジェクトを移動させる要求、ユーザが獲得する報酬に応じて各種パラメータを更新する要求、ゲームを進行させるための画像、音声その他のデータ、ゲームサーバ20からユーザ端末10へ送信される通知などの情報を送受信する。   The transmission / reception unit 291 receives various types of information from the user terminal 10 that executes the game program 151, and transmits various types of information to the user terminal 10. The user terminal 10 and the game server 20 include a request to place an object associated with the user in the virtual space, a request to delete the object, a request to move the object, a request to update various parameters according to a reward acquired by the user, Information such as images, sound and other data for advancing the game, and notifications transmitted from the game server 20 to the user terminal 10 are transmitted and received.

サーバ処理部292は、ゲームサーバ20全体の動作を制御し、各種のプログラムを呼び出す等によりゲームの進行に必要な処理を行う。サーバ処理部292は、例えば、ユーザ端末10から受信した情報に基づいて、ゲーム情報252、ユーザ情報253、などのデータを更新し、ユーザ端末10に各種データを送信することでゲームを進行させる。   The server processing unit 292 controls the overall operation of the game server 20 and performs processing necessary for the progress of the game by calling various programs. For example, the server processing unit 292 updates the data such as the game information 252 and the user information 253 based on the information received from the user terminal 10 and transmits various data to the user terminal 10 to advance the game.

データ管理部293は、サーバ処理部292の処理結果に従って、記憶部250に記憶される各種データを更新する処理、データベースにレコードを追加/更新/削除する処理などを行う。   The data management unit 293 performs processing for updating various data stored in the storage unit 250, processing for adding / updating / deleting records to the database, and the like according to the processing result of the server processing unit 292.

マッチング部294は、複数のユーザを関連付けるための一連の処理を行う。マッチング部294は、例えば、ユーザがマルチプレイを行うための入力操作を行った場合に、ゲームを協同してプレイさせるユーザを関連付ける処理などを行う。   The matching unit 294 performs a series of processes for associating a plurality of users. For example, when the user performs an input operation for performing multi-play, the matching unit 294 performs processing for associating a user who plays a game in cooperation.

計測部295は、時間を計測する処理を行う。計測部295は、例えば、仮想空間に配置される各オブジェクトについて時間の経過を計測する。また、計測部295は、ゲームが進行している時間を計測する。ゲームサーバ20は、ユーザ端末10から、ユーザ端末10においてゲームプログラム151を実行して計測される各種の計測結果の情報を受信し、受信した情報と、計測部295の計測結果とを照合することで、ユーザ端末10とゲームサーバ20とで、各種の時間に関する情報を同期させる。   The measurement unit 295 performs processing for measuring time. For example, the measurement unit 295 measures the passage of time for each object arranged in the virtual space. Moreover, the measurement part 295 measures the time for which the game is progressing. The game server 20 receives information on various measurement results measured by executing the game program 151 on the user terminal 10 from the user terminal 10, and collates the received information with the measurement results of the measurement unit 295. Thus, the user terminal 10 and the game server 20 synchronize information about various times.

図5〜図12を参照して、実施の形態のゲーム配信システム1を構成する各装置の動作を説明する。図5は、ユーザ端末10およびゲームサーバ20による、ゲームを進行させるための処理の一例を示すフローチャートである。   With reference to FIGS. 5-12, operation | movement of each apparatus which comprises the game delivery system 1 of embodiment is demonstrated. FIG. 5 is a flowchart showing an example of a process for advancing a game by the user terminal 10 and the game server 20.

ステップS101において、ユーザによりゲームを開始するための操作が入力されると、ユーザ端末10は、プロセッサの制御により、ゲームを開始するためのユーザ情報、および、ゲーム情報をゲームサーバ20に送信する。   In step S101, when an operation for starting a game is input by the user, the user terminal 10 transmits user information for starting the game and game information to the game server 20 under the control of the processor.

ステップS201において、ゲームサーバ20がこれを受信すると、ステップS202において、ゲームサーバ20は、プロセッサの制御により、当該要求を送信したユーザに関するユーザ情報を特定する。ステップS203において、ゲームサーバ20は、プロセッサの制御により、複数のユーザを所定のゲーム空間に関連付けるためのマッチング処理を実行する。本実施形態において、各ゲーム空間には、マッチングすることが可能なユーザ数の上限が設定されており、マッチングユーザ数が上限に達していないゲーム空間のうちから、所定のゲーム空間が特定される。適切なゲーム空間が特定できない場合には、新たにゲーム空間を生成し、当該ユーザを関連付ける。ゲーム空間、および、当該ゲーム空間にマッチングされたユーザの情報は、図4に示したユーザ管理テーブル253Aに含まれるユーザ情報として管理される。   When the game server 20 receives this in step S201, in step S202, the game server 20 specifies user information regarding the user who transmitted the request under the control of the processor. In step S203, the game server 20 executes a matching process for associating a plurality of users with a predetermined game space under the control of the processor. In this embodiment, the upper limit of the number of users that can be matched is set in each game space, and a predetermined game space is specified from among the game spaces in which the number of matching users has not reached the upper limit. . If an appropriate game space cannot be specified, a new game space is generated and associated with the user. The game space and user information matched to the game space are managed as user information included in the user management table 253A shown in FIG.

ステップS204において、ゲームサーバ20は、プロセッサの制御により、当該ゲーム空間に関連付けられたユーザのユーザ情報や、ゲーム情報を送信する。ゲーム情報は、後述するように、ゲーム空間を構成するフィールドや、敵キャラクタ、敵キャラクタの発生ポイント、発生頻度、敵キャラクタの行動を制御するキャラクタ制御情報等を含む。   In step S204, the game server 20 transmits the user information and game information of the user associated with the game space under the control of the processor. As will be described later, the game information includes fields constituting the game space, enemy characters, generation points of enemy characters, generation frequency, character control information for controlling actions of the enemy characters, and the like.

ステップS102において、ユーザ端末10がこれを受信すると、ステップ103において、ユーザ端末10は、プロセッサの制御により、ゲーム画像を生成し、タッチスクリーン130のディスプレイ132に表示させる。   When the user terminal 10 receives this in step S102, in step 103, the user terminal 10 generates a game image under the control of the processor and displays it on the display 132 of the touch screen 130.

ステップS104において、ユーザによってタッチスクリーン130に対してタッチ操作が入力されると、ユーザ端末10は、プロセッサの制御により、これを操作入力として受け付け、操作入力に関する情報を特定する。   In step S <b> 104, when a touch operation is input to the touch screen 130 by the user, the user terminal 10 receives this as an operation input under control of the processor, and specifies information regarding the operation input.

図6は、移動操作検出部193が、ユーザの入力操作に応じたゲームキャラクタに対する動作を検出する処理を示す図である。移動操作検出部193は、ユーザがタッチスクリーン130に触れていない状態から、指などをタッチパネル131に接近させてタッチスクリーン130に触れた位置(タッチオン位置)を起点と設定する。入力操作受付部191は、ユーザの操作をドラッグ操作と判別している場合に、起点となる座標と、タッチスクリーン130がユーザの指などの接近を検出している座標(タッチナウ位置)とに基づいて、操作入力に関する情報を特定する。   FIG. 6 is a diagram illustrating a process in which the movement operation detection unit 193 detects an action on the game character in accordance with a user input operation. The movement operation detection unit 193 sets a position (touch-on position) where the user touches the touch screen 130 by bringing a finger or the like close to the touch screen 131 from the state where the user is not touching the touch screen 130 as a starting point. When the input operation reception unit 191 determines that the user's operation is a drag operation, the input operation reception unit 191 is based on the starting point coordinates and the coordinates (touch now position) at which the touch screen 130 detects the approach of the user's finger or the like. To identify information related to the operation input.

図4の状態(A)は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させた状態を示す。入力操作受付部191は、ユーザの指がタッチパネル131に接近したことを検出し、検出した座標をタッチオン位置としてメモリに保持する。   A state (A) in FIG. 4 shows a state in which the user brings his / her finger close to the touch screen 130 from a state in which the user's finger has left the touch screen 130. The input operation reception unit 191 detects that the user's finger has approached the touch panel 131 and stores the detected coordinates in the memory as a touch-on position.

図4の例では、メモリが保持するタッチオン位置の座標を、タッチオン座標155として示す。入力操作受付部191は、タッチスクリーン130の検出結果(ユーザの指がタッチスクリーン130に接近している座標、および、ユーザの指がタッチスクリーン130に接近していることを検出していないこと(検出結果「null」))を、一定フレーム分、バッファメモリ153に格納する。バッファメモリ153は、タッチスクリーン130における検出結果を、各フレームについて一定フレーム分(図3の例では、メモリ領域fp〔0〕〜メモリ領域fp〔10〕までの11フレーム分)、格納することができる。バッファメモリ153は、例えばリングバッファとして実現することができる。状態(A)では、位置30A(タッチスクリーン130の座標(x0,y0))をタッチオン位置として示す。   In the example of FIG. 4, the coordinates of the touch-on position held by the memory are indicated as touch-on coordinates 155. The input operation reception unit 191 does not detect the detection result of the touch screen 130 (the coordinates at which the user's finger is approaching the touch screen 130 and the proximity of the user's finger to the touch screen 130 ( The detection result “null”)) is stored in the buffer memory 153 for a certain number of frames. The buffer memory 153 can store the detection result on the touch screen 130 for each frame for a certain frame (11 frames from the memory area fp [0] to the memory area fp [10] in the example of FIG. 3). it can. The buffer memory 153 can be realized as a ring buffer, for example. In the state (A), the position 30A (the coordinates (x0, y0) of the touch screen 130) is shown as the touch-on position.

図4の状態(B)は、ユーザがタッチスクリーン130に対してドラッグ操作を行って、タッチスクリーン130に対する各時間における接触位置(タッチナウ位置)を、位置30Aから位置30B(タッチスクリーン130の座標(x9,y9))まで10フレーム(メモリ領域fp〔0〕〜メモリ領域fp〔9〕までの10フレーム分)で移動させたことを示す。入力操作受付部191は、タッチスクリーン130の検出結果をバッファメモリ153に格納し、バッファメモリ153に保持される値を参照して、タッチスクリーン130に対するユーザの操作をドラッグ操作と判別する。   In the state (B) of FIG. 4, the user performs a drag operation on the touch screen 130, and the contact position (touch now position) at each time with respect to the touch screen 130 is changed from the position 30 </ b> A to the position 30 </ b> B (coordinates of the touch screen 130 ( x9, y9)) indicates that the frame has been moved in 10 frames (10 frames from the memory area fp [0] to the memory area fp [9]). The input operation reception unit 191 stores the detection result of the touch screen 130 in the buffer memory 153 and refers to the value held in the buffer memory 153 to determine that the user's operation on the touch screen 130 is a drag operation.

図4の状態(C)は、タッチナウ位置を、位置30Bから位置30C(タッチスクリーン130の座標(x14,y14))まで、5フレーム(メモリ領域fp〔10〕、fp〔0〕、fp〔1〕、fp〔2〕、fp〔3〕の5フレーム分)で移動させたことを示す。   In the state (C) of FIG. 4, the touch now position is changed from the position 30B to the position 30C (coordinates (x14, y14) of the touch screen 130) in five frames (memory areas fp [10], fp [0], fp [1]. ], Fp [2] and fp [3] for 5 frames).

図4の状態(D)は、移動操作検出部193により特定された、状態(B)および状態(C)のそれぞれにおける、操作入力に関する情報の検出結果を示す。移動操作検出部193は、バッファメモリ153において、タッチナウ位置の座標を書き込む対象となるメモリ領域がいずれであるかを示す情報(バッファメモリ153の書き込み位置)を管理している。   The state (D) of FIG. 4 shows the detection result of the information regarding the operation input in each of the state (B) and the state (C) specified by the movement operation detection unit 193. The movement operation detection unit 193 manages information (writing position in the buffer memory 153) indicating which memory area is the target of writing the coordinates of the touch now position in the buffer memory 153.

状態(B)において、移動操作検出部193は、入力操作受付部191の判別結果に基づいて、タッチオン位置を示す座標31A(座標(x0,y0))からタッチナウ位置を示す座標31B(座標(x9,y9))までユーザがドラッグ操作を行ったことを検出する。移動操作検出部193は、タッチオン位置の座標31Aを起点として、タッチナウ座標31Aとタッチナウ座標31Bとによって規定されるベクトル32B((y9−y0)/(x9−x0))を、操作入力に関する情報として検出する。   In the state (B), based on the determination result of the input operation reception unit 191, the movement operation detection unit 193 moves from the coordinate 31A indicating the touch-on position (coordinate (x0, y0)) to the coordinate 31B indicating the touch now position (coordinate (x9)). , Y9)), it is detected that the user has performed a drag operation. The movement operation detection unit 193 starts with the coordinate 31A of the touch-on position as a starting point, and uses a vector 32B ((y9−y0) / (x9−x0)) defined by the touch now coordinate 31A and the touch now coordinate 31B as information related to the operation input. To detect.

状態(C)において、移動操作検出部193は、入力操作受付部191の判別結果に基づいて、タッチナウ座標31B(座標(x9,y9))からタッチナウ座標31C(座標(x14,y14))までユーザがドラッグ操作を行ったことを検出する。移動操作検出部193は、タッチオン位置の座標31Aを起点として、座標31Aと座標31Cとによって規定されるベクトル31C((y14−y0)/(x14−x0))を、操作入力に関する情報として検出する。   In the state (C), the movement operation detection unit 193 determines that the user from the touch now coordinate 31B (coordinate (x9, y9)) to the touch now coordinate 31C (coordinate (x14, y14)) is based on the determination result of the input operation reception unit 191. Detect that has performed a drag operation. The movement operation detection unit 193 detects a vector 31C ((y14−y0) / (x14−x0)) defined by the coordinates 31A and the coordinates 31C as information about the operation input, starting from the coordinates 31A of the touch-on position. .

本実施形態においては、タッチオン位置を基準としたタッチナウ位置への方向に基づいて、キャラクタの動作を制御する。状態(D)に示すように、本実施形態においては、タッチスクリーン130、および、タッチスクリーン130に表示されるゲーム画像に上下方向および左右方向が定義される。そして、タッチオン座標31Aを基準として、当該上下方向および左右方向に平行な直線である上下軸と左右軸をそれぞれ設定し、基準座標系を特定する。左右軸に対して、タッチオン位置からタッチナウ位置への方向がなす角度を特定することにより、操作入力の角度が特定される。   In the present embodiment, the action of the character is controlled based on the direction toward the touch now position with respect to the touch-on position. As shown in the state (D), in the present embodiment, the vertical direction and the horizontal direction are defined in the touch screen 130 and the game image displayed on the touch screen 130. Then, with the touch-on coordinate 31A as a reference, the vertical axis and the horizontal axis, which are straight lines parallel to the vertical direction and the horizontal direction, are set, respectively, and the reference coordinate system is specified. The angle of the operation input is specified by specifying the angle formed by the direction from the touch-on position to the touch now position with respect to the left and right axes.

例えば、操作入力の角度が小さい場合には、キャラクタの動作を歩く、または、走るに設定し、キャラクタを後述するフィールド(地面)に沿って移動させる。このとき、タッチオン位置とタッチナウ位置の間の距離が閾値よりも小さい場合には歩く動作に設定し、閾値よりも大きい場合には走る動作に設定してもよい。操作入力の角度が大きい場合には、キャラクタの動作をジャンプに設定してもよい。このとき、操作入力の角度に基づいて、ジャンプさせる角度を設定することが好ましい。   For example, when the operation input angle is small, the character's motion is set to walk or run, and the character is moved along a field (ground) to be described later. At this time, when the distance between the touch-on position and the touch now position is smaller than the threshold value, the walking operation may be set, and when the distance is larger than the threshold value, the running operation may be set. When the angle of the operation input is large, the character action may be set to jump. At this time, it is preferable to set the jump angle based on the angle of the operation input.

ステップS105において、ユーザ端末10は、プロセッサの制御により、操作入力に関する情報を、ゲーム情報としてゲームサーバ20に送信する。また、ステップS106において、ユーザ端末10は、プロセッサの制御により、操作入力に応じたゲーム画像を生成して、タッチスクリーン130に表示させる。当該処理に基づいて生成されるゲーム画像については後述する。   In step S <b> 105, the user terminal 10 transmits information regarding operation input to the game server 20 as game information under the control of the processor. In step S <b> 106, the user terminal 10 generates a game image corresponding to the operation input and displays the game image on the touch screen 130 under the control of the processor. A game image generated based on the processing will be described later.

ステップS205において、ゲームサーバ20がこれを受信する。ステップS206において、ゲームサーバ20は、プロセッサの制御により、他のユーザ端末10からも、同様に操作入力に関する情報を含むゲーム情報を受け付ける。ステップS207において、ゲームサーバ20は、プロセッサの制御により、各ユーザ端末からの操作入力に関する情報を総合し、ゲーム情報として各ユーザ端末10に送信する。   In step S205, the game server 20 receives this. In step S <b> 206, the game server 20 similarly receives game information including information regarding operation inputs from other user terminals 10 under the control of the processor. In step S207, the game server 20 synthesizes information related to operation inputs from the respective user terminals under the control of the processor, and transmits the information to the respective user terminals 10 as game information.

ステップS107において、ユーザ端末10がこれを受信する。ステップS108において、ユーザ端末10は、プロセッサの制御により、受信した各ユーザ端末10からの操作入力情報を含むゲーム情報に基づいて、ゲーム画像を生成する。そして、当該ゲーム画像をタッチスクリーン130に表示させることによって、タッチスクリーン130に表示されるゲーム画像を更新する。これにより、各ユーザ端末10におけるゲームの進行状況が同期処理される。   In step S107, the user terminal 10 receives this. In step S108, the user terminal 10 generates a game image based on the received game information including the operation input information from each user terminal 10 under the control of the processor. Then, the game image displayed on the touch screen 130 is updated by displaying the game image on the touch screen 130. Thereby, the progress of the game in each user terminal 10 is synchronized.

図7〜図12を参照して、ゲーム画像に各キャラクタに関連付けられた付加画像を適切に表示させる方法を説明する。図7,図8は、ユーザ端末10においてプロセッサの制御により実行される、タッチスクリーン130に付加画像を表示させるための処理を示すフローチャートである。図9〜図12は、タッチスクリーン130に表示されるゲーム画像の一例である。   With reference to FIGS. 7 to 12, a method of appropriately displaying additional images associated with each character in the game image will be described. 7 and 8 are flowcharts showing processing for displaying an additional image on the touch screen 130, which is executed by the user terminal 10 under the control of the processor. 9 to 12 are examples of game images displayed on the touch screen 130.

各ユーザ端末10におけるゲームの進行状況が同期処理されると、ユーザ端末10のタッチスクリーン130には、図9に示すゲーム画像G1が表示される。ゲーム画像G1は、第1プレイヤキャラクタ(第1キャラクタ)PC1と、第2プレイヤキャラクタ(第2キャラクタ)PC2と、敵キャラクタ(第3キャラクタ)ECと、を含む。ゲーム画像G1は、第1付加画像AD1と、第2付加画像AD2と、第3付加画像AD3と、を含む。ゲーム画像G1はフィールドFを含んでおり、第1プレイヤキャラクタPC1、第2プレイヤキャラクタPC2、敵キャラクタECは、フィールドFの外部においてフィールドFに沿って移動することができる。一方、第1付加画像AD1〜第3付加画像AD3は、フィールドFの内部においてフィールドFに沿って移動することができる。換言すれば、フィールドFは、各キャラクタの上下方向少なくとも上下方向における移動を制限する。フィールドFは、ゲーム画像G1における、下方側の4分の1〜3分の2、好ましくは3分の1〜2分の1を占めていることが好ましい。これにより、後述するように、タッチスクリーンに対する操作入力が容易となる。   When the progress of the game in each user terminal 10 is synchronized, a game image G1 shown in FIG. 9 is displayed on the touch screen 130 of the user terminal 10. The game image G1 includes a first player character (first character) PC1, a second player character (second character) PC2, and an enemy character (third character) EC. The game image G1 includes a first additional image AD1, a second additional image AD2, and a third additional image AD3. The game image G1 includes a field F, and the first player character PC1, the second player character PC2, and the enemy character EC can move along the field F outside the field F. On the other hand, the first additional image AD1 to the third additional image AD3 can move along the field F within the field F. In other words, the field F restricts the movement of each character in the vertical direction at least in the vertical direction. It is preferable that the field F occupies the lower 1/4 to 1/3, preferably 1/3 to 1/2 in the game image G1. As a result, as will be described later, operation input to the touch screen is facilitated.

第1付加画像AD1は、第1プレイヤキャラクタPC1に関連付けられる付加情報を画像化したものであり、第1プレイヤキャラクタPC1に関連付けられるようにしてゲーム画像G1内に表示される。付加情報は、例えば第1プレイヤキャラクタPC1を操作するユーザのユーザ名や、第1プレイヤキャラクタPC1のキャラクタ名、レベル、状態(ステータス異常状態であるか等)、等、キャラクタに関する様々な情報であり得る。ユーザ端末10は、プロセッサの制御により、記憶部150に記憶されたゲーム情報やユーザ情報を参照することによって第1プレイヤキャラクタPC1の付加情報を特定し、第1付加画像AD1を生成するとともに、当該第1付加画像を含むゲーム画像G1を生成する。本実施形態において、第1付加画像AD1は第1プレイヤキャラクタPC1を操作するユーザのユーザ名「たろう」を含み、第2付加画像AD2は第2プレイヤキャラクタPC2を操作するユーザのユーザ名「はなこ」を含み、第3付加画像AD3は敵キャラクタECのキャラクタ名「たぬき」を含む。   The first additional image AD1 is obtained by imaging additional information associated with the first player character PC1, and is displayed in the game image G1 so as to be associated with the first player character PC1. The additional information is various information related to the character such as the user name of the user who operates the first player character PC1, the character name, level, and state (status abnormal state) of the first player character PC1. obtain. The user terminal 10 specifies the additional information of the first player character PC1 by referring to the game information and user information stored in the storage unit 150 under the control of the processor, and generates the first additional image AD1. A game image G1 including the first additional image is generated. In the present embodiment, the first additional image AD1 includes the user name “Taro” of the user who operates the first player character PC1, and the second additional image AD2 includes the user name “Hanako” of the user who operates the second player character PC2. The third additional image AD3 includes the character name “tanuki” of the enemy character EC.

ゲーム画像G1は、ユーザのタッチ操作に応じた画像UI1、および、第1プレイヤキャラクタPC1の他の付加情報に関する画像UI2をも含む。画像UI1は、図6に示したタッチオン位置からタッチナウ位置へ向けて伸びるように表示される画像であり、ユーザにタッチ操作の方向および距離を視認させることができる。画像UI1は、タッチオン位置側に太い基部を有し、タッチナウ位置側に細い先端部を有する。そして、基部内に第1プレイヤキャラクタPC1の動作状態を示す表示が付されている。例えば、ユーザが第1プレイヤキャラクタPC1を走らせたい場合には、十分なタッチ操作距離を確保する必要があるが、タッチ操作距離が不足している場合には第1プレイヤキャラクタPC1は歩いてしまう。この場合、画像UI1の太い部分に「Walk」と付されている場合には、ユーザは十分なタッチ操作距離を確保するようにタッチナウ位置を修正することができる。このように、ユーザは意図する動作が第1プレイヤキャラクタPC1に指示されているか否かを容易に視認できる。また、画像UI2はゲーム画像G1内の所定位置に固定的に表示されていることが好ましい。   The game image G1 also includes an image UI1 corresponding to the user's touch operation and an image UI2 relating to other additional information of the first player character PC1. The image UI1 is an image displayed so as to extend from the touch-on position illustrated in FIG. 6 toward the touch-now position, and allows the user to visually recognize the direction and distance of the touch operation. The image UI1 has a thick base on the touch-on position side and a thin tip on the touch-now position side. And the display which shows the movement state of 1st player character PC1 is attached | subjected in the base. For example, when the user wants to run the first player character PC1, it is necessary to secure a sufficient touch operation distance, but when the touch operation distance is insufficient, the first player character PC1 will walk. In this case, when “Walk” is added to the thick part of the image UI1, the user can correct the touch now position so as to ensure a sufficient touch operation distance. Thus, the user can easily visually recognize whether or not the intended action is instructed to the first player character PC1. The image UI2 is preferably displayed fixedly at a predetermined position in the game image G1.

タッチスクリーン130に表示されるゲーム画像G1には上下方向および左右方向が定義されている。カメラ配置制御部194は、ゲーム空間において、フィールドFを横から見たような視覚効果を与えるようなゲーム画像G1を生成するために、仮想カメラの位置および向きが制御される。本実施形態においては、フィールドFに対して重力が働く方向を上下方向とし、当該上下方向に直交する方向のうち、所定の方向を左右方向として特定する。カメラ配置制御部194は、当該上下方向および左右方向に直交する奥行き方向に視軸を設定し、当該方向からフィールドFおよび各キャラクタを観察するように、仮想カメラの向きを設定する。カメラ配置制御部194は、当該ユーザ端末10によって操作できる第1プレイヤキャラクタPC1が、上下方向におけるほぼ中央に、左右方向においては第1プレイヤキャラクタPC1の進行方向に向けて中央からやや左寄りの位置に配置されるように、仮想カメラの位置を設定する。   The game image G1 displayed on the touch screen 130 has a vertical direction and a horizontal direction defined. In the game space, the camera arrangement control unit 194 controls the position and orientation of the virtual camera in order to generate a game image G1 that gives a visual effect as if the field F is viewed from the side. In the present embodiment, the direction in which gravity acts on the field F is defined as the vertical direction, and a predetermined direction is specified as the horizontal direction among the directions orthogonal to the vertical direction. The camera arrangement control unit 194 sets the visual axis in the depth direction orthogonal to the vertical direction and the horizontal direction, and sets the orientation of the virtual camera so as to observe the field F and each character from the direction. The camera placement control unit 194 moves the first player character PC1 that can be operated by the user terminal 10 to a position slightly leftward from the center in the up-down direction, and in the left-right direction toward the traveling direction of the first player character PC1. Set the position of the virtual camera to be placed.

ユーザの操作によって第1プレイヤキャラクタPC1が移動した場合には、第1プレイヤキャラクタPC1のゲーム画像G1内における位置が概ね保存されるように、カメラ配置制御部194が仮想カメラの位置を更新する。このとき、カメラ配置制御部194は、仮想カメラの向きが変更されないように、仮想カメラを平行に移動させる。これにより、図6で示したようにタッチオン座標およびタッチナウ座標に基づいて第1プレイヤキャラクタPC1の動作、移動先を指定する場合に、第1プレイヤキャラクタPC1の移動に伴って指定する動作、移動先が連続的に変化してしまうといった、操作上の違和感が生じることを防止できる。また、第1プレイヤキャラクタPC1が上下方向においてほぼ中央に配置されるようにフィールドFを設定することにより、タッチスクリーン130における第1プレイヤキャラクタPC1の下方側(フィールドFの断面に相当する領域)を、ユーザによるタッチスクリーン130に対する操作領域として確保することができる。これにより、ユーザは視覚的にタッチスクリーン130の下方側が操作領域であることを直感的に認識することができ、ユーザが自らの指によって各キャラクタを隠してしまうといったことを、回避させることができる。   When the first player character PC1 is moved by a user operation, the camera placement control unit 194 updates the position of the virtual camera so that the position of the first player character PC1 in the game image G1 is generally saved. At this time, the camera arrangement control unit 194 moves the virtual camera in parallel so that the orientation of the virtual camera is not changed. Accordingly, when the movement and destination of the first player character PC1 are designated based on the touch-on coordinates and the touch now coordinates as shown in FIG. 6, the movement and destination specified along with the movement of the first player character PC1. It is possible to prevent a sense of incongruity in operation, such as continuously changing. In addition, by setting the field F so that the first player character PC1 is arranged substantially in the center in the vertical direction, the lower side of the first player character PC1 on the touch screen 130 (an area corresponding to the cross section of the field F). It can be secured as an operation area for the touch screen 130 by the user. Thereby, the user can visually recognize that the lower side of the touch screen 130 is the operation area, and can prevent the user from hiding each character with his / her finger. .

以下、第1付加画像AD1〜第3付加画像AD3の表示態様を具体的に説明する。図7に示すステップS10において、ユーザ端末10は、プロセッサの制御により、各キャラクタの動作、ゲーム空間内における移動先を特定する。第1プレイヤキャラクタPC1の動作は、ユーザ端末10に対する操作入力に基づいて特定され、当該動作に基づいて第1プレイヤキャラクタPC1のゲーム空間内における移動先が特定される。第2プレイヤキャラクタPC2の動作は、ステップS206〜S207,S107においてユーザ端末10が受信した、他のユーザからの第2プレイヤキャラクタPC2に対する操作入力に基づいて特定され、当該動作に基づいて第2プレイヤキャラクタPC2のゲーム空間内における移動先が特定される。ユーザ端末10は、プロセッサの制御により記憶部150に記憶されたゲームプログラム、および、ゲーム情報に含まれるキャラクタ制御情報を参照することによって、敵キャラクタECの動作および移動先を特定する。   Hereinafter, display modes of the first additional image AD1 to the third additional image AD3 will be specifically described. In step S10 shown in FIG. 7, the user terminal 10 specifies the movement of each character and the movement destination in the game space under the control of the processor. The action of the first player character PC1 is specified based on an operation input to the user terminal 10, and the movement destination of the first player character PC1 in the game space is specified based on the action. The action of the second player character PC2 is specified based on an operation input to the second player character PC2 from another user received by the user terminal 10 in steps S206 to S207 and S107, and the second player is based on the action. The movement destination of the character PC2 in the game space is specified. The user terminal 10 specifies the action and the movement destination of the enemy character EC by referring to the game program stored in the storage unit 150 and the character control information included in the game information under the control of the processor.

ステップS11において、ユーザ端末10は、プロセッサの制御により、フィールドF内における所定経路CHを特定する。所定経路CHは、第1付加画像AD1〜第3付加画像AD3を表示させる位置を特定するために設定されるものであり、ゲーム画像G1においては視認できないように設定されていることが好ましい。所定経路CHは、フィールドF内の上方において、フィールドFと各キャラクタが移動することができる空間の境界に沿って、左右方向に延在していることが好ましい。また、所定経路CHは、当該境界からの距離が一定となるように設定されていることが好ましく、フィールドFに段差がある場合には、当該段差に沿って設定されていることが好ましい。所定経路CHの、当該境界からの距離は、第1付加画像AD1〜第3付加画像AD3の上下方向における幅の半分より大きくなるように設定されていることが好ましい。これにより、第1付加画像AD1〜第3付加画像AD3の上下方向における中心を所定経路CHに設定した場合にも、第1付加画像AD1〜第3付加画像AD3をフィールドF内に確実に表示させることができる。   In step S11, the user terminal 10 specifies a predetermined route CH in the field F under the control of the processor. The predetermined route CH is set to specify the position at which the first additional image AD1 to the third additional image AD3 are displayed, and is preferably set so as not to be visible in the game image G1. The predetermined route CH preferably extends in the left-right direction above the field F, along the boundary between the field F and the space in which each character can move. Further, the predetermined route CH is preferably set so that the distance from the boundary is constant, and when the field F has a step, it is preferably set along the step. The distance from the boundary of the predetermined route CH is preferably set to be larger than half of the width in the vertical direction of the first additional image AD1 to the third additional image AD3. Accordingly, the first additional image AD1 to the third additional image AD3 are reliably displayed in the field F even when the center in the vertical direction of the first additional image AD1 to the third additional image AD3 is set to the predetermined path CH. be able to.

ステップS12において、ユーザ端末10は、プロセッサの制御により、各キャラクタの左右方向における移動先を特定する。そして、ステップS13において、ユーザ端末10は、プロセッサの制御により、第1付加画像AD1〜第3付加画像AD3の移動先を特定する。さらに、ステップS14において、ユーザ端末10は、プロセッサの制御により、特定された第1付加画像AD1〜第3付加画像AD3の移動先に対し、第1付加画像AD1〜第3付加画像AD3を所定経路CHに沿って移動させる。本実施形態においては、図9に示されるように、各キャラクタの左右方向における移動先に基づいて、第1付加画像AD1〜第3付加画像AD3の左右方向における移動先を特定する。一方、第1付加画像AD1〜第3付加画像AD3の上下方向における移動先は、主に所定経路CHに基づいて特定される。これにより、第1付加画像AD1〜第3付加画像AD3を各キャラクタの動作によらず確実にフィールドF内に表示させることができ、各付加画像によってユーザの視野が遮られることを防止できる。また、左右方向の移動先は各キャラクタに対応付けることにより、ユーザが各付加画像の位置を見失うといったことも回避し得る。   In step S12, the user terminal 10 specifies the movement destination in the left-right direction of each character under the control of the processor. In step S13, the user terminal 10 specifies the movement destinations of the first additional image AD1 to the third additional image AD3 under the control of the processor. Furthermore, in step S14, the user terminal 10 passes the first additional image AD1 to the third additional image AD3 to a predetermined path with respect to the movement destination of the specified first additional image AD1 to the third additional image AD3 under the control of the processor. Move along CH. In this embodiment, as shown in FIG. 9, the movement destination in the left-right direction of the first additional image AD1 to the third additional image AD3 is specified based on the movement destination of each character in the left-right direction. On the other hand, the movement destination in the vertical direction of the first additional image AD1 to the third additional image AD3 is specified mainly based on the predetermined route CH. Accordingly, the first additional image AD1 to the third additional image AD3 can be reliably displayed in the field F regardless of the motion of each character, and the user's visual field can be prevented from being blocked by each additional image. In addition, by associating the left and right movement destinations with each character, it is possible to prevent the user from losing sight of the position of each additional image.

図8に示されるステップS20において、ユーザ端末10は、プロセッサの制御により、第1付加画像AD1〜第3付加画像AD3が互いに少なくとも一部が重なっているかいなかを判定する。図9に示したゲーム画像G1においては、第1付加画像AD1〜第3付加画像AD3が互いに重なっていないため、ステップS20におけるNへ進み、処理が終了される。一方、図10に示したゲーム画像G2においては、各キャラクタの左右方向における位置が互いに重複しているため、第1付加画像AD1〜第3付加画像AD3が、左右方向において互いに重なる。そのため、ステップS20におけるYへ進む。   In step S20 shown in FIG. 8, the user terminal 10 determines whether or not the first additional image AD1 to the third additional image AD3 are at least partially overlapped with each other under the control of the processor. In the game image G1 shown in FIG. 9, since the first additional image AD1 to the third additional image AD3 do not overlap each other, the process proceeds to N in step S20, and the process is ended. On the other hand, in the game image G2 shown in FIG. 10, since the positions of the characters in the left-right direction overlap each other, the first additional image AD1 to the third additional image AD3 overlap each other in the left-right direction. Therefore, the process proceeds to Y in step S20.

ステップS21において、ユーザ端末10は、プロセッサの制御により、互いに重なる第1付加画像AD1〜第3付加画像AD3のうち、少なくともいずれかを、フィールド内において上下方向にずらす。具体的には、図10に示すように、第1付加画像AD1は上下方向に移動させず、第2付加画像AD2、第3付加画像AD3を、互いに重ならないように下方向に移動させる。また、第2付加画像AD2の上下方向におけるずらし量が、第3付加画像AD3の上下方向におけるずらし量よりも小さくなるようにされている。このように、ユーザは自己の操作対象である第1プレイヤキャラクタPC1に関する第1付加画像AD1が重なり時にも上下方向に移動されないことにより、第1付加画像AD1を見失うことを回避できる。そして、他のユーザによって操作される第2プレイヤキャラクタPC2の付加画像を、キャラクタ制御情報に基づいて自動制御される敵キャラクタECの付加画像よりも所定経路CHの近くに表示させることにより、ユーザが他のユーザにより操作される第2プレイヤキャラクタPC2の付加画像の位置を見失うといったことを回避し得る。また、敵キャラクタECの付加画像の位置を、常に所定経路CHから遠くに配置させることによって、ユーザは容易に敵キャラクタECを認識できる。   In step S <b> 21, the user terminal 10 shifts at least one of the first additional image AD <b> 1 to the third additional image AD <b> 3 overlapping each other in the vertical direction within the field under the control of the processor. Specifically, as shown in FIG. 10, the first additional image AD1 is not moved in the vertical direction, and the second additional image AD2 and the third additional image AD3 are moved downward so as not to overlap each other. Further, the shift amount in the vertical direction of the second additional image AD2 is made smaller than the shift amount in the vertical direction of the third additional image AD3. In this way, the user can avoid losing sight of the first additional image AD1 by not moving the first additional image AD1 related to the first player character PC1 that is the subject of his / her operation in the vertical direction even when overlapping. Then, the additional image of the second player character PC2 operated by another user is displayed closer to the predetermined path CH than the additional image of the enemy character EC that is automatically controlled based on the character control information. It is possible to avoid losing sight of the position of the additional image of the second player character PC2 operated by another user. Further, the user can easily recognize the enemy character EC by always arranging the position of the additional image of the enemy character EC far from the predetermined route CH.

ステップS22において、ユーザ端末10は、プロセッサの制御により、第1付加画像AD1〜第3付加画像AD3が依然として互いに重なっているか否かを判定する。図10に示すように依然として重なっている場合には、ステップS22のYに進み、判定を継続する。一方、図11に示すように、第1付加画像AD1〜第3付加画像AD3のうち、少なくとも2つが互いに重ならなくなった場合には、ステップS22のNに進む。   In step S22, the user terminal 10 determines whether or not the first additional image AD1 to the third additional image AD3 still overlap each other under the control of the processor. As shown in FIG. 10, when it still overlaps, it progresses to Y of step S22 and continues determination. On the other hand, as shown in FIG. 11, when at least two of the first additional image AD1 to the third additional image AD3 do not overlap each other, the process proceeds to N in step S22.

ステップS23において、ユーザ端末10は、プロセッサの制御により、上下方向にずらした第1付加画像AD1〜第3付加画像AD3のいずれかを所定経路CH上に戻すように上下方向に移動させる。具体的には、第1付加画像AD1〜第3付加画像AD3のうち、互いに重ならなくなって付加画像のいずれかを、所定経路CH上に戻すように上下方向に移動させる。図11において、第1付加画像AD1と第2付加画像AD2は左右方向において互いに重ならなくなっている。従って、図10に比較して、第2付加画像AD2が所定経路CH上に戻すように上方向に移動されている。また、第3付加画像AD3も同様に所定経路CH上に戻すように上方向に移動されているが、第2付加画像AD2と重ならないように、所定経路CHより下方向に移動される処理が継続されている。   In step S23, under the control of the processor, the user terminal 10 moves one of the first additional image AD1 to the third additional image AD3 shifted in the vertical direction in the vertical direction so as to return to the predetermined route CH. Specifically, the first additional image AD1 to the third additional image AD3 are moved in the vertical direction so as not to overlap each other and return any one of the additional images to the predetermined route CH. In FIG. 11, the first additional image AD1 and the second additional image AD2 do not overlap each other in the left-right direction. Therefore, compared with FIG. 10, the second additional image AD2 is moved upward so as to return to the predetermined route CH. Similarly, the third additional image AD3 is also moved upward so as to return to the predetermined path CH, but the process of moving downward from the predetermined path CH so as not to overlap the second additional image AD2 is performed. It has been continued.

図11においては、第1付加画像AD1と第2付加画像AD2は左右方向において互いに重ならなくなっているが、第1付加画像AD1と第3付加画像AD3,および、第2付加画像AD2と第3付加画像AD3は、依然として左右方向において互いに重なっている。この場合、第1付加画像AD1または第2付加画像AD2を第3付加画像AD3よりも下方側(所定経路CHからの上下方向におけるずらし量が大きい側)にも配置し得る。しかし、所定経路CHからの上下方向におけるずらし量が大きくなるに従って、ユーザからの各付加画像の視認性が低下するため、上記のように第1付加画像AD1と第2付加画像AD2が左右方向において互いに重ならなくなっている場合には、第1付加画像AD1と第2付加画像AD2を所定経路CHから上に表示させることが好ましい。   In FIG. 11, the first additional image AD1 and the second additional image AD2 do not overlap each other in the left-right direction, but the first additional image AD1 and the third additional image AD3, and the second additional image AD2 and the third additional image AD3. The additional image AD3 still overlaps in the left-right direction. In this case, the first additional image AD1 or the second additional image AD2 can also be arranged below the third additional image AD3 (the side with the larger shift amount in the vertical direction from the predetermined route CH). However, as the shift amount in the vertical direction from the predetermined route CH increases, the visibility of each additional image from the user decreases, so that the first additional image AD1 and the second additional image AD2 are in the left-right direction as described above. If they do not overlap each other, it is preferable to display the first additional image AD1 and the second additional image AD2 upward from the predetermined route CH.

<変形例>
図12に示すように、フィールドFが上下方向において複数に分割されており、上フィールドFUと下フィールドFDを有していてもよい。そして、上フィールドFUと下フィールドFDの双方に、各付加画像の表示位置を特定するための所定経路が設定されていてもよい。
<Modification>
As shown in FIG. 12, the field F is divided into a plurality of parts in the vertical direction, and may have an upper field FU and a lower field FD. A predetermined path for specifying the display position of each additional image may be set in both the upper field FU and the lower field FD.

図12において、第1プレイヤキャラクタPC1および敵キャラクタECは、上フィールドFU上に配置され、第2プレイヤキャラクタPCは下フィールドFD上に配置されている。この場合、第1付加画像AD1および第3付加画像AD3は、上フィールドFUにおける所定経路CHに基づいて配置位置が特定され、第2付加画像AD2は、下フィールドFDにおける所定経路CHに基づいて配置位置が特定されることが好ましい。なお、上フィールドFUの上下方向における幅が、一つの付加画像しか収容できないような幅である場合には、第1付加画像AD1および第3付加画像AD3が重なった場合には、いずれかを下フィールドFD内に表示させることが好ましい。これにより、付加画像によってユーザの視野が遮られることを防止できる。   In FIG. 12, the first player character PC1 and the enemy character EC are arranged on the upper field FU, and the second player character PC is arranged on the lower field FD. In this case, the arrangement positions of the first additional image AD1 and the third additional image AD3 are specified based on the predetermined route CH in the upper field FU, and the second additional image AD2 is arranged based on the predetermined route CH in the lower field FD. Preferably the location is specified. When the upper field FU has a width in the vertical direction that can accommodate only one additional image, when the first additional image AD1 and the third additional image AD3 are overlapped, either It is preferable to display in the field FD. Thereby, it can prevent that a user's visual field is obstruct | occluded by an additional image.

以上のように各実施形態のゲーム配信システムを構成するユーザ端末10およびゲームサーバ20の動作について説明してきたが、ユーザ端末10で行われる各処理をゲームサーバ20で行うこととしてもよいし、ゲームサーバ20で行われる処理をユーザ端末10で行うこととしてもよい。また、その他のハードウェアを適宜用いて分散処理するようにしてもよい。   As described above, the operations of the user terminal 10 and the game server 20 configuring the game distribution system of each embodiment have been described. However, each process performed on the user terminal 10 may be performed on the game server 20 or a game may be performed. The processing performed by the server 20 may be performed by the user terminal 10. Further, distributed processing may be performed using other hardware as appropriate.

今回開示された実施の形態はすべての点で例示であって制限的なものでないと考えられるべきである。この発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time must be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

10 ユーザ端末、20 サーバ、22 通信IF、23 入出力IF、25 メモリ、26 ストレージ、29 プロセッサ、80 ネットワーク、81 無線基地局、82 無線ルータ、110 アンテナ、120 無線通信IF、130 タッチスクリーン、131 タッチパネル、132 ディスプレイ、150 記憶部、151 ゲームプログラム、153 バッファメモリ、155 初期タッチ位置座標、160 音声処理部、170 マイク、180 スピーカ、190 制御部、191 入力操作受付部、192 ゲーム進行処理部、193 移動操作検出部、194 カメラ配置制御部、195 オブジェクト制御部、196 表示制御部、220 通信部、250 記憶部、251 ゲームプログラム、252 ゲーム情報、253 ユーザ情報、290 制御部、291 送受信部、292 サーバ処理部、293 データ管理部、294 マッチング部、295 計測部。

10 user terminal, 20 server, 22 communication IF, 23 input / output IF, 25 memory, 26 storage, 29 processor, 80 network, 81 wireless base station, 82 wireless router, 110 antenna, 120 wireless communication IF, 130 touch screen, 131 Touch panel, 132 display, 150 storage unit, 151 game program, 153 buffer memory, 155 initial touch position coordinates, 160 voice processing unit, 170 microphone, 180 speaker, 190 control unit, 191 input operation reception unit, 192 game progress processing unit, 193 Moving operation detection unit, 194 Camera arrangement control unit, 195 Object control unit, 196 Display control unit, 220 Communication unit, 250 Storage unit, 251 Game program, 252 Game information, 253 User information, 290 Control unit, 29 Transceiver, 292 server processing unit, 293 data management unit, 294 matching unit, 295 measuring unit.

Claims (11)

ゲーム制御方法であって、
前記ゲーム制御方法は、検出対象物が接近したことを入力操作として検出するタッチスクリーンと、プロセッサと、メモリとを備えるコンピュータにおいて実行され、ゲーム画像を前記タッチスクリーンに表示させるものであり、
前記ゲーム画像の前記タッチスクリーンにおける上下方向および左右方向を特定するステップと、
第1キャラクタと、前記第1キャラクタに関連付けられた第1付加画像と、前記第1キャラクタの少なくとも前記上下方向における移動を制限するフィールドを含むゲーム画像を生成するステップと、
前記タッチスクリーンにおいて、前記検出対象物が接近していない状態から前記タッチスクリーンに接近したことを検出した第1のタッチ位置から、前記接近していることを検出したまま第2のタッチ位置へ検出位置が移動した場合に、前記接近していることを検出している間、前記第1のタッチ位置と前記第2のタッチ位置との位置関係に基づいて、前記第1キャラクタに対する操作入力を特定するステップと、
前記操作入力に基づいて、前記第1キャラクタを動作させるステップと、
前記第1付加画像を前記フィールド内に表示させるとともに、前記操作入力に基づいて前記第1付加画像を前記フィールド内における所定経路に沿って移動させるステップと、
を含むゲーム制御方法。
A game control method,
The game control method is executed in a computer including a touch screen that detects that an object to be detected approaches as an input operation, a processor, and a memory, and displays a game image on the touch screen.
Identifying a vertical direction and a horizontal direction on the touch screen of the game image;
Generating a game image including a first character, a first additional image associated with the first character, and a field that restricts movement of the first character in at least the vertical direction;
In the touch screen, from the first touch position where it is detected that the detection target is not approaching to the touch screen, the second touch position is detected while the approach is detected. When the position is moved, the operation input to the first character is specified based on the positional relationship between the first touch position and the second touch position while detecting the approach. And steps to
Moving the first character based on the operation input;
Displaying the first additional image in the field, and moving the first additional image along a predetermined path in the field based on the operation input;
A game control method including:
前記操作入力に基づいて、前記第1キャラクタの前記上下方向および前記左右方向における移動先を特定し、前記左右方向における前記移動先に基づいて、前記第1付加画像を移動させる、
請求項1のゲーム制御方法。
Based on the operation input, the destination of the first character in the up-down direction and the left-right direction is specified, and the first additional image is moved based on the destination in the left-right direction.
The game control method according to claim 1.
前記ゲーム画像は、第1キャラクタと異なる第2キャラクタと、前記第2キャラクタに関連付けられた第2付加画像をさらに含み、
前記第2付加画像は、前記フィールド内に表示されるとともに、前記第2キャラクタの動作に基づいて前記フィールド内において前記所定経路に沿って移動され、
前記ゲーム画像において、前記第1付加画像と前記第2付加画像の少なくとも一部が重なる場合には、前記第1付加画像と前記第2付加画像の少なくとも一方を、前記フィールド内において前記上下方向にずらす、
請求項1または2のゲーム制御方法。
The game image further includes a second character different from the first character, and a second additional image associated with the second character,
The second additional image is displayed in the field and moved along the predetermined path in the field based on the movement of the second character.
In the game image, when at least a part of the first additional image and the second additional image overlap, at least one of the first additional image and the second additional image is moved in the vertical direction within the field. Shift,
The game control method according to claim 1 or 2.
前記第1付加画像は、前記第1キャラクタの前記左右方向における位置に対応するようにして前記フィールド内において前記所定経路に沿って移動され、
前記第2付加画像は、前記第2キャラクタの前記左右方向における位置に対応するようにして前記フィールド内において前記所定経路に沿って移動され、
前記第1付加画像と前記第2付加画像の少なくとも一部が前記所定経路上において重なる場合には、前記第1付加画像と前記第2付加画像の少なくとも一方を前記所定経路から前記フィールド内において前記上下方向にずらし、
前記第1付加画像と前記第2付加画像の少なくとも一部が前記所定経路上において重ならなくなった場合には、前記第1付加画像および前記第2付加画像を前記所定経路に向けて前記上下方向に移動させる、
請求項3のゲーム制御方法。
The first additional image is moved along the predetermined path in the field so as to correspond to the position of the first character in the left-right direction,
The second additional image is moved along the predetermined path in the field so as to correspond to the position of the second character in the left-right direction,
When at least a part of the first additional image and the second additional image overlap on the predetermined path, at least one of the first additional image and the second additional image is moved from the predetermined path to the field in the field. Shift up and down,
When at least a part of the first additional image and the second additional image no longer overlap on the predetermined path, the first additional image and the second additional image are directed to the predetermined path in the vertical direction. Move to
The game control method according to claim 3.
前記ゲーム画像は、第1キャラクタと異なる第2キャラクタおよび第3キャラクタと、前記第2キャラクタに関連付けられた第2付加画像および第3付加画像をさらに含み、
前記第2付加画像は、前記フィールド内に表示されるとともに、前記第2キャラクタの動作に基づいて前記フィールド内において前記所定経路に沿って移動され、
前記第3付加画像は、前記フィールド内に表示されるとともに、前記第3キャラクタの動作に基づいて前記フィールド内において前記所定経路に沿って移動され、
前記ゲーム画像において、前記第1付加画像と前記第2付加画像と前記第3付加画像の少なくとも一部がそれぞれに重なる場合には、前記第1付加画像と前記第2付加画像と前記第3付加画像の少なくともいずれか2つを、前記フィールド内において前記上下方向にずらす、
請求項1〜4のいずれかのゲーム制御方法。
The game image further includes a second character and a third character different from the first character, and a second additional image and a third additional image associated with the second character,
The second additional image is displayed in the field and moved along the predetermined path in the field based on the movement of the second character.
The third additional image is displayed in the field and moved along the predetermined path in the field based on the action of the third character.
In the game image, when at least a part of the first additional image, the second additional image, and the third additional image overlap each other, the first additional image, the second additional image, and the third additional image Shifting at least any two of the images in the vertical direction within the field;
The game control method in any one of Claims 1-4.
前記第1付加画像は、前記所定経路上に配置される、請求項5のゲーム制御方法。   The game control method according to claim 5, wherein the first additional image is arranged on the predetermined route. 前記第2キャラクタは、前記コンピュータとは異なるコンピュータにおいて特定された操作入力に基づいて動作され、
前記第3キャラクタは、前記メモリに予め記憶されたキャラクタ制御情報に基づいて動作され、
前記第2付加画像の前記上下方向におけるずらし量は、前記第3キャラクタの前記上下方向におけるずらし量より小さい、
請求項5または6のゲーム制御方法。
The second character is operated based on an operation input specified in a computer different from the computer,
The third character is operated based on character control information stored in advance in the memory,
A shift amount in the vertical direction of the second additional image is smaller than a shift amount in the vertical direction of the third character;
The game control method according to claim 5 or 6.
前記第1付加画像と前記第2付加画像の少なくとも一部が前記所定経路上において重なり、前記第2付加画像と前記第3付加画像の少なくとも一部が前記所定経路上において重なり、前記第1付加画像と前記第3付加画像の少なくとも一部が前記所定経路上において重ならない場合には、
前記第2付加画像のみを、前記フィールド内において前記上下方向にずらす、
請求項5または6のゲーム制御方法。
At least a part of the first additional image and the second additional image overlap on the predetermined path, and at least a part of the second additional image and the third additional image overlap on the predetermined path, and the first addition When at least a part of the image and the third additional image do not overlap on the predetermined path,
Only the second additional image is shifted in the vertical direction within the field.
The game control method according to claim 5 or 6.
ゲーム制御方法であって、
前記ゲーム制御方法は、検出対象物が接近したことを入力操作として検出するタッチスクリーンと、プロセッサと、メモリとを備えるコンピュータにおいて実行され、ゲーム画像を前記タッチスクリーンに表示させるものであり、
前記ゲーム画像の前記タッチスクリーンにおける上下方向および左右方向を特定するステップと、
第1キャラクタと、前記第1キャラクタに関連付けられた第1付加画像と、第2キャラクタと、前記第2キャラクタに関連付けられた第2付加画像と、第3キャラクタと、前記第3キャラクタに関連付けられた第3付加画像と、前記第1キャラクタ、前記第2キャラクタ、および、前記第3キャラクタの少なくとも前記上下方向における移動を制限するフィールドを含むゲーム画像を生成するステップと、
前記第1キャラクタ、前記第2キャラクタ、および、前記第3キャラクタを動作させるステップと、
前記第1付加画像、前記第2付加画像、および、前記第3付加画像を前記フィールド内に表示させるステップと、
前記第1付加画像を前記第1キャラクタの動作に基づいて前記フィールド内における所定経路に沿って移動させるステップと、
前記第2付加画像を前記第2キャラクタの動作に基づいて前記所定経路に沿って移動させるステップと、
前記第3付加画像を前記第3キャラクタの動作に基づいて前記所定経路に沿って移動させるステップと、を含み、
前記第1付加画像と前記第2付加画像の少なくとも一部が前記所定経路上において重なり、前記第2付加画像と前記第3付加画像の少なくとも一部が前記所定経路上において重なり、前記第1付加画像と前記第3付加画像の少なくとも一部が前記所定経路上において重ならない場合には、前記第2付加画像のみを、前記フィールド内において前記上下方向にずらす、ゲーム制御方法。
A game control method,
The game control method is executed in a computer including a touch screen that detects that an object to be detected approaches as an input operation, a processor, and a memory, and displays a game image on the touch screen.
Identifying a vertical direction and a horizontal direction on the touch screen of the game image;
A first character, a first additional image associated with the first character, a second character, a second additional image associated with the second character, a third character, and the third character. Generating a game image including a third additional image, a field that restricts movement of the first character, the second character, and the third character in at least the vertical direction;
Moving the first character, the second character, and the third character;
Displaying the first additional image, the second additional image, and the third additional image in the field;
Moving the first additional image along a predetermined path in the field based on the action of the first character;
Moving the second additional image along the predetermined path based on the movement of the second character;
Moving the third additional image along the predetermined path based on the action of the third character,
At least a part of the first additional image and the second additional image overlap on the predetermined path, and at least a part of the second additional image and the third additional image overlap on the predetermined path, and the first addition A game control method of shifting only the second additional image in the vertical direction within the field when at least a part of the image and the third additional image do not overlap on the predetermined path.
請求項1〜9のいずれかのゲーム制御方法を、前記コンピュータに実行させるためのプログラム。   A program for causing a computer to execute the game control method according to claim 1. 前記メモリに前記プログラムが格納され、請求項10の前記プログラムに基づいて前記プロセッサが請求項1〜9のいずれかの前記ゲーム制御方法を実行する、コンピュータ。


A computer in which the program is stored in the memory, and the processor executes the game control method according to any one of claims 1 to 9 based on the program according to claim 10.


JP2016196185A 2016-10-04 2016-10-04 GAME CONTROL METHOD, PROGRAM, AND COMPUTER Active JP6181834B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016196185A JP6181834B1 (en) 2016-10-04 2016-10-04 GAME CONTROL METHOD, PROGRAM, AND COMPUTER

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016196185A JP6181834B1 (en) 2016-10-04 2016-10-04 GAME CONTROL METHOD, PROGRAM, AND COMPUTER

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017137459A Division JP2018057826A (en) 2017-07-13 2017-07-13 Game control method, program, and computer

Publications (2)

Publication Number Publication Date
JP6181834B1 true JP6181834B1 (en) 2017-08-16
JP2018057526A JP2018057526A (en) 2018-04-12

Family

ID=59604938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016196185A Active JP6181834B1 (en) 2016-10-04 2016-10-04 GAME CONTROL METHOD, PROGRAM, AND COMPUTER

Country Status (1)

Country Link
JP (1) JP6181834B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001351125A (en) * 2000-03-30 2001-12-21 Sega Corp Method for displaying image
JP2015123244A (en) * 2013-12-26 2015-07-06 株式会社バンダイナムコエンターテインメント Program and game device
JP2015144836A (en) * 2013-02-27 2015-08-13 株式会社スクウェア・エニックス Video game processing device and video game processing program
JP2016051463A (en) * 2015-01-21 2016-04-11 株式会社Cygames Method for improving operability of user input
JP2016051266A (en) * 2014-08-29 2016-04-11 株式会社Cygames Method for improving operability of user input
JP2016220847A (en) * 2015-05-28 2016-12-28 株式会社コロプラ Game program with message transmission function, message transmission method, and computer terminal with message transmission function

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001351125A (en) * 2000-03-30 2001-12-21 Sega Corp Method for displaying image
JP2015144836A (en) * 2013-02-27 2015-08-13 株式会社スクウェア・エニックス Video game processing device and video game processing program
JP2015123244A (en) * 2013-12-26 2015-07-06 株式会社バンダイナムコエンターテインメント Program and game device
JP2016051266A (en) * 2014-08-29 2016-04-11 株式会社Cygames Method for improving operability of user input
JP2016051463A (en) * 2015-01-21 2016-04-11 株式会社Cygames Method for improving operability of user input
JP2016220847A (en) * 2015-05-28 2016-12-28 株式会社コロプラ Game program with message transmission function, message transmission method, and computer terminal with message transmission function

Also Published As

Publication number Publication date
JP2018057526A (en) 2018-04-12

Similar Documents

Publication Publication Date Title
US10695661B2 (en) Game control device, game system, and information storage medium
US20220291791A1 (en) Method and apparatus for determining selected target, device, and storage medium
JP2016220846A (en) Game program with message transmission function, message transmission method, and computer terminal with message transmission function
JP6225279B1 (en) GAME METHOD AND GAME PROGRAM
KR101987859B1 (en) A program, a game system, an electronic device, a server, and a game control method for improving operability of user input
JP2016220847A (en) Game program with message transmission function, message transmission method, and computer terminal with message transmission function
JP6673796B2 (en) GAME PROGRAM, GAME PROVIDING METHOD, AND INFORMATION PROCESSING DEVICE
JP6404877B2 (en) GAME PROGRAM, GAME PROVIDING METHOD, AND INFORMATION PROCESSING DEVICE
JP6002345B1 (en) Information processing apparatus including game program, method, and touch screen
JP6181834B1 (en) GAME CONTROL METHOD, PROGRAM, AND COMPUTER
JP2017192538A (en) Game program, method, and information processor with touch screen
JP6924564B2 (en) Game program
JP2018057826A (en) Game control method, program, and computer
JP2018153467A (en) Information processing method, apparatus, and program for implementing that information processing method in computer
KR102204599B1 (en) Method for outputting screen and display device for executing the same
JP2018102378A (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP2017192537A (en) Game program, method, and information processor with touch screen
JP6002344B1 (en) Information processing apparatus including game program, method, and touch screen
JP2018192326A (en) Game program, method for providing game and information processor
JP2020110352A (en) Game program, game method, and information processor
JP2018033972A (en) Game program, method and information processing device including touch screen
JP6225234B1 (en) GAME METHOD AND GAME PROGRAM
KR20210005832A (en) Method for outputting screen and display device for executing the same
JP2018086250A (en) Game method and game program
KR101421085B1 (en) Method, terminal, monitor apparatus, system, and recording medium for position indication

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170720

R150 Certificate of patent or registration of utility model

Ref document number: 6181834

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250