JP2020185344A - Program, computer device, and control method - Google Patents

Program, computer device, and control method Download PDF

Info

Publication number
JP2020185344A
JP2020185344A JP2019093960A JP2019093960A JP2020185344A JP 2020185344 A JP2020185344 A JP 2020185344A JP 2019093960 A JP2019093960 A JP 2019093960A JP 2019093960 A JP2019093960 A JP 2019093960A JP 2020185344 A JP2020185344 A JP 2020185344A
Authority
JP
Japan
Prior art keywords
user
area
unit
input
computer device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019093960A
Other languages
Japanese (ja)
Inventor
貴裕 野田
Takahiro Noda
貴裕 野田
利夫 秋山
Toshio Akiyama
利夫 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Priority to JP2019093960A priority Critical patent/JP2020185344A/en
Publication of JP2020185344A publication Critical patent/JP2020185344A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

To provide a program that increases visibility and convenience of a user.SOLUTION: Objects 52a to 52c or related objects 56a, 56b that are related with the objects 52a to 52c are displayed in a distinguishable display mode between cases where a predetermined operation can be executed to the objects 52a to 52c even if a user object 51 does not move in the virtual space and where a predetermined operation can be executed to the objects 52a to 52c by the user object 51 being moved.SELECTED DRAWING: Figure 10

Description

本発明は、プログラム、コンピュータ装置、及び制御方法に関する。 The present invention relates to programs, computer devices, and control methods.

従来、所定の条件を満たすと、イベントを発生させるプログラムがある。また、イベントが発生する位置に目印となるアイコン等を表示するプログラムもある。 Conventionally, there is a program that generates an event when a predetermined condition is satisfied. There is also a program that displays an icon or the like as a mark at the position where the event occurs.

しかし、目印が少ない場合には、ユーザはイベントを発生させることができず、目印が多すぎる場合には、視認性を悪化させてしまい、ユーザがイベントを見逃すことがあった。 However, when there are few marks, the user cannot generate an event, and when there are too many marks, the visibility is deteriorated, and the user may miss the event.

本発明の少なくとも1つの実施の形態の目的は、ユーザの視認性及び利便性を向上させるプログラムを提供することである。 An object of at least one embodiment of the present invention is to provide a program that improves the visibility and convenience of the user.

非限定的な観点によると、本発明に係るプログラムは、コンピュータ装置を、仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示するオブジェクト表示手段として機能させる、プログラムである。 From a non-limiting point of view, the program according to the present invention can perform a predetermined operation on a computer device without moving a user object in a virtual space. Object display that displays the object or related objects associated with the object in a distinguishable display mode depending on whether it is possible to perform a predetermined operation on the object by moving the user object. It is a program that functions as a means.

非限定的な観点によると、本発明に係るコンピュータ装置は、仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示するオブジェクト表示手段を備える、コンピュータ装置である。 From a non-limiting point of view, the computer device according to the present invention can perform a predetermined operation on an object without the user object moving in the virtual space, and the user object can perform a predetermined operation. An object display means for displaying the object or a related object associated with the object in a distinguishable display mode is provided depending on whether a predetermined operation can be performed on the object by moving the object. , A computer device.

非限定的な観点によると、本発明に係る制御方法は、コンピュータ装置において実行される制御方法であって、仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示する、制御方法である。 From a non-limiting point of view, the control method according to the present invention is a control method executed in a computer device, and executes a predetermined operation on an object even if the user object does not move in the virtual space. Distinguish between the object and related objects associated with the object, depending on whether it is possible to do so or if the user object is able to perform a given action on the object by moving it. It is a control method that displays in a possible display mode.

本発明の各実施形態により1または2以上の不足が解決される。 Each embodiment of the present invention solves one or more deficiencies.

本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the computer apparatus corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。It is a flowchart of the program execution process corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the computer apparatus corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。It is a flowchart of the program execution process corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the computer apparatus corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。It is a flowchart of the program execution process corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the computer apparatus corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。It is a flowchart of the program execution process corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the computer apparatus corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、プログラム実行画面の例を表す図である。It is a figure which shows the example of the program execution screen corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the computer apparatus corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。It is a flowchart of the program execution process corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、領域を説明するための概念図である。It is a conceptual diagram for demonstrating the area corresponding to at least one of the embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、移動処理のフローチャートである。It is a flowchart of the movement process corresponding to at least one of the embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、サーバ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the server apparatus corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。It is a flowchart of the program execution process corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、システムの構成を示すブロック図である。It is a block diagram which shows the structure of the system corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。It is a flowchart of the execution process corresponding to at least one of the embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、クライアント端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of the client terminal apparatus corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。It is a flowchart of the program execution process corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、システムの構成を示すブロック図である。It is a block diagram which shows the structure of the system corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、サーバ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the server apparatus corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、システムの構成を示すブロック図である。It is a block diagram which shows the structure of the system corresponding to at least one of the Embodiments of this invention. 本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。It is a flowchart of the execution process corresponding to at least one of the embodiments of this invention.

以下、添付図面を参照して、本発明の実施の形態について説明する。以下、効果に関する記載は、本発明の実施の形態の効果の一側面であり、ここに記載するものに限定されない。また、以下で説明するフローチャートを構成する各処理の順序は、処理内容に矛盾や不整合が生じない範囲で順不同である。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. Hereinafter, the description regarding the effect is one aspect of the effect of the embodiment of the present invention, and is not limited to what is described here. In addition, the order of each process constituting the flowchart described below is random as long as there is no contradiction or inconsistency in the process contents.

[第一の実施の形態]
本発明の第一の実施の形態の概要について説明をする。以下では、第一の実施の形態として、ユーザにより操作されるコンピュータ装置において実行されるプログラムを例示して説明をする。
[First Embodiment]
The outline of the first embodiment of the present invention will be described. Hereinafter, as the first embodiment, a program executed in a computer device operated by a user will be illustrated and described.

図1は、本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。コンピュータ装置1は、オブジェクト表示部101を少なくとも備える。 FIG. 1 is a block diagram showing a configuration of a computer device corresponding to at least one of the embodiments of the present invention. The computer device 1 includes at least an object display unit 101.

オブジェクト表示部101は、仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示する機能を有する。 The object display unit 101 can perform a predetermined operation on the object even if the user object does not move in the virtual space, and the object display unit 101 moves the user object to the object. It has a function of displaying the object or a related object associated with the object in a distinguishable display mode depending on whether or not it is possible to perform a predetermined operation.

次に、本発明の第一の実施の形態におけるプログラム実行処理について説明する。図2は、本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。 Next, the program execution process according to the first embodiment of the present invention will be described. FIG. 2 is a flowchart of a program execution process corresponding to at least one of the embodiments of the present invention.

コンピュータ装置1は、仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示し(ステップS1)、終了する。 The computer device 1 can perform a predetermined operation on the object even if the user object does not move in the virtual space, and the computer device 1 determines the object by moving the user object. (Step S1), the object or the related object associated with the object is displayed in a distinguishable display mode, and the process ends.

第一の実施の形態の一側面として、ユーザの視認性及び利便性を向上させることができる。 As one aspect of the first embodiment, the visibility and convenience of the user can be improved.

第一の実施の形態において、「コンピュータ装置」とは、例えば、携帯電話、スマートフォン、タブレットコンピュータ、パーソナルコンピュータ、携帯型ゲーム機、据置型ゲーム機、又はウェアラブル型端末等、プログラムの実行処理を可能なものをいう。 In the first embodiment, the "computer device" can execute a program such as a mobile phone, a smartphone, a tablet computer, a personal computer, a portable game machine, a stationary game machine, or a wearable terminal. I mean something.

「仮想空間」とは、例えば、コンピュータにより定義された空間をいい、より具体的には、プログラムにより描画された二次元あるいは三次元空間や、現実世界を撮像した画像を用いて構成される空間を含むものである。「オブジェクト」とは、例えば、コンテンツ等を構成する物体をいい、具体的には、キャラクタ、乗り物、武器、防具、アイテム、アバター、宝箱などの配置物等が挙げられる。「ユーザオブジェクト」とは、例えば、ユーザの操作指示により仮想空間内において動作するオブジェクトをいう。 The "virtual space" refers to, for example, a space defined by a computer, more specifically, a two-dimensional or three-dimensional space drawn by a program, or a space composed of images of the real world. Is included. The “object” refers to, for example, an object that constitutes content or the like, and specific examples thereof include an arrangement such as a character, a vehicle, a weapon, armor, an item, an avatar, or a treasure chest. The "user object" means, for example, an object that operates in a virtual space according to a user's operation instruction.

「動作」とは、例えば、オブジェクトが実行可能な挙動、あるいは振舞いをいう。「関連オブジェクト」とは、例えば、オブジェクトに関連付けられたオブジェクトをいい、より具体的には、オブジェクトの名称、オブジェクトの属性を表す標識等が挙げられる。「区別可能」とは、例えば、視覚を用いて違いを識別できることをいい、より具体的には、形状、位置、大きさ、模様、色彩等が異なることが挙げられる。 "Behavior" refers, for example, the behavior or behavior that an object can perform. The "related object" means, for example, an object associated with an object, and more specifically, a name of the object, a sign indicating an attribute of the object, and the like can be mentioned. “Distinguishable” means, for example, that the difference can be visually identified, and more specifically, the shape, position, size, pattern, color, and the like are different.

[第二の実施の形態]
次に、本発明の第二の実施の形態の概要について説明をする。以下では、第二の実施の形態として、ユーザにより操作されるコンピュータ装置において実行されるプログラムを例示して説明をする。
[Second Embodiment]
Next, the outline of the second embodiment of the present invention will be described. In the following, as the second embodiment, a program executed in a computer device operated by a user will be illustrated and described.

図3は、本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。コンピュータ装置1は、オブジェクト表示部111、及び領域設定部112を少なくとも備える。 FIG. 3 is a block diagram showing a configuration of a computer device corresponding to at least one of the embodiments of the present invention. The computer device 1 includes at least an object display unit 111 and an area setting unit 112.

オブジェクト表示部111は、仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示する機能を有する。領域設定部112は、ユーザオブジェクトが移動をしなくても、オブジェクトに対して所定の動作を実行することが可能である第1領域と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である第2領域とを設定する機能を有する。 The object display unit 111 can perform a predetermined operation on the object even if the user object does not move in the virtual space, and the object display unit 111 moves the user object to the object. It has a function of displaying the object or a related object associated with the object in a distinguishable display mode depending on whether or not it is possible to perform a predetermined operation. The area setting unit 112 has a first area capable of performing a predetermined operation on the object even if the user object does not move, and a predetermined area on the object by moving the user object. It has a function of setting a second area capable of executing the operation of.

オブジェクト表示部111は、第1領域に対応する第1オブジェクトと、第2領域に対応する第2オブジェクトとを区別可能な表示態様で表示する、又は、該第1オブジェクトと関連付けられた第1関連オブジェクトと、該第2オブジェクトと関連付けられた第2関連オブジェクトとを区別可能な表示態様で表示することが好ましい。 The object display unit 111 displays the first object corresponding to the first area and the second object corresponding to the second area in a distinguishable display mode, or the first association associated with the first object. It is preferable to display the object and the second related object associated with the second object in a distinguishable display mode.

次に、本発明の第二の実施の形態におけるプログラム実行処理について説明する。図4は、本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。 Next, the program execution process according to the second embodiment of the present invention will be described. FIG. 4 is a flowchart of a program execution process corresponding to at least one of the embodiments of the present invention.

コンピュータ装置1は、仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示する(ステップS11)。 The computer device 1 can perform a predetermined operation on the object even if the user object does not move in the virtual space, and the computer device 1 determines the object by moving the user object. The object or the related object associated with the object is displayed in a distinguishable display mode depending on the case where the operation of (step S11) can be executed (step S11).

次に、コンピュータ装置1は、ユーザオブジェクトが移動をしなくても、オブジェクトに対して所定の動作を実行することが可能である第1領域と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である第2領域とを設定し(ステップS12)、終了する。ここで、オブジェクト表示部111は、第1領域に対応する第1オブジェクトと、第2領域に対応する第2オブジェクトとを区別可能な表示態様で表示する、又は、該第1オブジェクトと関連付けられた第1関連オブジェクトと、該第2オブジェクトと関連付けられた第2関連オブジェクトとを区別可能な表示態様で表示する。 Next, the computer device 1 has a first area capable of performing a predetermined operation on the object without the user object moving, and the user object moves on the object. A second area capable of executing a predetermined operation is set (step S12), and the process ends. Here, the object display unit 111 displays the first object corresponding to the first area and the second object corresponding to the second area in a distinguishable display mode, or is associated with the first object. The first related object and the second related object associated with the second object are displayed in a distinguishable display mode.

第二の実施の形態の一側面として、ユーザの視認性及び利便性を向上させることができる。 As one aspect of the second embodiment, the visibility and convenience of the user can be improved.

第二の実施の形態の一側面として、第1領域及び第2領域を設定し、それぞれの領域に対応するオブジェクト同士を区別可能な表示態様で表示することで、領域を表示することなく、いずれの領域に対応するオブジェクトか判別することができ、かつ、ユーザオブジェクトによる所定の動作の実行可否を判別可能となり、ユーザの視認性及び利便性を向上させることができる。 As one aspect of the second embodiment, the first area and the second area are set, and the objects corresponding to the respective areas are displayed in a distinguishable display mode, so that the area is not displayed. It is possible to determine whether the object corresponds to the area of the above, and it is possible to determine whether or not the predetermined operation can be executed by the user object, and the visibility and convenience of the user can be improved.

第二の実施の形態において、「コンピュータ装置」、「仮想空間」、「オブジェクト」、「ユーザオブジェクト」、「動作」、「関連オブジェクト」、及び「区別可能」は、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。 In the second embodiment, "computer device", "virtual space", "object", "user object", "behavior", "related object", and "distinguishable" are each in the first embodiment. The contents described in the above can be adopted to the extent necessary.

第二の実施の形態において、「領域を設定」とは、例えば、仮想空間内に領域を定義することをいい、既に定義されている領域を更新して新たな領域とすることも含むものである。 In the second embodiment, "setting an area" means, for example, defining an area in a virtual space, and includes updating an already defined area to make a new area.

[第三の実施の形態]
次に、本発明の第三の実施の形態の概要について説明をする。以下では、第三の実施の形態として、ユーザにより操作されるコンピュータ装置において実行されるプログラムを例示して説明をする。
[Third Embodiment]
Next, the outline of the third embodiment of the present invention will be described. Hereinafter, as the third embodiment, a program executed in a computer device operated by a user will be illustrated and described.

図5は、本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。コンピュータ装置1は、オブジェクト表示部121、第1実行部122、及び第2実行部123を少なくとも備える。 FIG. 5 is a block diagram showing a configuration of a computer device corresponding to at least one of the embodiments of the present invention. The computer device 1 includes at least an object display unit 121, a first execution unit 122, and a second execution unit 123.

オブジェクト表示部121は、仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示する機能を有する。 The object display unit 121 can perform a predetermined operation on the object even if the user object does not move in the virtual space, and when the user object moves, the object display unit 121 can perform the predetermined operation on the object. It has a function of displaying the object or a related object associated with the object in a distinguishable display mode depending on whether or not it is possible to perform a predetermined operation.

第1実行部122は、ユーザの入力操作に応じて、ユーザオブジェクトが移動せずに、第1オブジェクトに所定の動作を実行する機能を有する。第2実行部123は、ユーザの入力操作に応じて、ユーザオブジェクトが移動し、第2オブジェクトに所定の動作を実行する機能を有する。 The first execution unit 122 has a function of executing a predetermined operation on the first object without moving the user object in response to a user input operation. The second execution unit 123 has a function of moving the user object in response to the input operation of the user and executing a predetermined operation on the second object.

次に、本発明の第三の実施の形態におけるプログラム実行処理について説明する。図6は、本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。 Next, the program execution process according to the third embodiment of the present invention will be described. FIG. 6 is a flowchart of a program execution process corresponding to at least one of the embodiments of the present invention.

コンピュータ装置1は、仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示する(ステップS21)。 The computer device 1 can perform a predetermined operation on the object even if the user object does not move in the virtual space, and the computer device 1 determines the object by moving the user object. The object or the related object associated with the object is displayed in a distinguishable display mode depending on the case where the operation of (step S21) can be executed (step S21).

次に、コンピュータ装置1は、ユーザの入力操作に応じて、ユーザオブジェクトが移動せずに、第1オブジェクトに所定の動作を実行する(ステップS22)。次に、コンピュータ装置1は、ユーザの入力操作に応じて、ユーザオブジェクトが移動し、第2オブジェクトに所定の動作を実行し(ステップS23)、終了する。 Next, the computer device 1 executes a predetermined operation on the first object without moving the user object in response to the input operation of the user (step S22). Next, the computer device 1 moves the user object in response to the input operation of the user, executes a predetermined operation on the second object (step S23), and ends.

第三の実施の形態の一側面として、ユーザの視認性及び利便性を向上させることができる。 As one aspect of the third embodiment, the visibility and convenience of the user can be improved.

第三の実施の形態の一側面として、ユーザの入力操作に応じて、ユーザオブジェクトが移動せず、第1オブジェクトに所定の動作を実行する第1実行手段、及び、ユーザの入力操作に応じて、ユーザオブジェクトが移動し、第2オブジェクトに所定の動作を実行する第2実行手段を備えることで、ユーザがユーザオブジェクトを移動させるか否かを意識することなく、オブジェクトに所定の動作を実行することができ、ユーザの利便性を向上させることができる。 As one aspect of the third embodiment, the user object does not move in response to the user's input operation, and the first execution means that executes a predetermined operation on the first object, and the user's input operation. , The user object moves and the second object is provided with the second execution means for executing the predetermined action, so that the user executes the predetermined action on the object without being aware of whether or not the user object is moved. It is possible to improve the convenience of the user.

第三の実施の形態において、「コンピュータ装置」、「仮想空間」、「オブジェクト」、「ユーザオブジェクト」、「動作」、「関連オブジェクト」、及び「区別可能」は、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。 In the third embodiment, "computer device", "virtual space", "object", "user object", "behavior", "related object", and "distinguishable" are each in the first embodiment. The contents described in the above can be adopted to the extent necessary.

第三の実施の形態において、「入力操作」とは、例えば、コンピュータ装置が有する入力装置を介して受け付ける操作及び操作により生じる信号をいう。具体的には、キーボード、マウス、あるいはタッチパネル等の外部入力装置を介する入力や、マイクを介した音声による入力、コンピュータ装置が有するセンサを用いた入力、センサを用いて測定するユーザの動作による入力等が挙げられる。 In the third embodiment, the "input operation" refers to, for example, an operation received via an input device included in the computer device and a signal generated by the operation. Specifically, input via an external input device such as a keyboard, mouse, or touch panel, input by voice via a microphone, input using a sensor possessed by a computer device, and input by a user's action measured using a sensor. And so on.

[第四の実施の形態]
次に、本発明の第四の実施の形態の概要について説明をする。以下では、第四の実施の形態として、ユーザにより操作されるコンピュータ装置において実行されるプログラムを例示して説明をする。
[Fourth Embodiment]
Next, the outline of the fourth embodiment of the present invention will be described. In the following, as a fourth embodiment, a program executed in a computer device operated by a user will be illustrated and described.

図7は、本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。コンピュータ装置1は、オブジェクト表示部131、第1実行部132、経路決定部133、及び第2実行部134を少なくとも備える。 FIG. 7 is a block diagram showing a configuration of a computer device corresponding to at least one of the embodiments of the present invention. The computer device 1 includes at least an object display unit 131, a first execution unit 132, a routing unit 133, and a second execution unit 134.

オブジェクト表示部131は、仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示する機能を有する。 The object display unit 131 can perform a predetermined operation on the object even if the user object does not move in the virtual space, and the object display unit 131 can move the user object to the object. It has a function of displaying the object or a related object associated with the object in a distinguishable display mode depending on whether or not it is possible to perform a predetermined operation.

第1実行部132は、ユーザの入力操作に応じて、ユーザオブジェクトが移動せずに、第1オブジェクトに所定の動作を実行する機能を有する。経路決定部133は、ユーザオブジェクトと第2オブジェクトとを隣接させるための移動の経路を決定する機能を有する。 The first execution unit 132 has a function of executing a predetermined operation on the first object without moving the user object in response to a user input operation. The route determination unit 133 has a function of determining a movement route for adjoining the user object and the second object.

第2実行部134は、ユーザの入力操作に応じて、ユーザオブジェクトが移動し、第2オブジェクトに所定の動作を実行する機能を有する。 The second execution unit 134 has a function of moving the user object in response to the input operation of the user and executing a predetermined operation on the second object.

第2実行部134は、経路決定部133により決定された経路にしたがって、ユーザオブジェクトを移動させることが好ましい。 The second execution unit 134 preferably moves the user object according to the route determined by the route determination unit 133.

次に、本発明の第四の実施の形態におけるプログラム実行処理について説明する。図8は、本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。 Next, the program execution process according to the fourth embodiment of the present invention will be described. FIG. 8 is a flowchart of a program execution process corresponding to at least one of the embodiments of the present invention.

コンピュータ装置1は、仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示する(ステップS31)。 The computer device 1 can perform a predetermined operation on the object even if the user object does not move in the virtual space, and the computer device 1 determines the object by moving the user object. The object or the related object associated with the object is displayed in a distinguishable display mode depending on the case where the operation of (step S31) can be executed (step S31).

次に、コンピュータ装置1は、ユーザの入力操作に応じて、ユーザオブジェクトが移動せずに、第1オブジェクトに所定の動作を実行する(ステップS32)。次に、コンピュータ装置1は、ユーザオブジェクトと第2オブジェクトとを隣接させるための移動の経路を決定する(ステップS33)。 Next, the computer device 1 executes a predetermined operation on the first object without moving the user object in response to the input operation of the user (step S32). Next, the computer device 1 determines a movement route for adjoining the user object and the second object (step S33).

次に、コンピュータ装置1は、ユーザの入力操作に応じて、ユーザオブジェクトが移動し、第2オブジェクトに所定の動作を実行し(ステップS34)、終了する。第2実行部134は、決定した経路にしたがって、ユーザオブジェクトを移動させる。 Next, the computer device 1 moves the user object in response to the input operation of the user, executes a predetermined operation on the second object (step S34), and ends. The second execution unit 134 moves the user object according to the determined route.

第四の実施の形態の一側面として、ユーザの視認性及び利便性を向上させることができる。 As one aspect of the fourth embodiment, the visibility and convenience of the user can be improved.

第四の実施の形態の一側面として、ユーザの入力操作に応じて、ユーザオブジェクトが移動せず、第1オブジェクトに所定の動作を実行する第1実行手段、及び、ユーザの入力操作に応じて、ユーザオブジェクトが移動し、第2オブジェクトに所定の動作を実行する第2実行手段を備えることで、ユーザがユーザオブジェクトを移動させるか否かを意識することなく、オブジェクトに所定の動作を実行することができ、ユーザの利便性を向上させることができる。 As one aspect of the fourth embodiment, the user object does not move in response to the user's input operation, and the first execution means that executes a predetermined operation on the first object, and the user's input operation. , The user object moves and the second object is provided with the second execution means for executing the predetermined action, so that the user executes the predetermined action on the object without being aware of whether or not the user object is moved. It is possible to improve the convenience of the user.

第四の実施の形態の一側面として、経路決定手段を備え、第2実行手段が、決定した経路にしたがって、ユーザオブジェクトを移動させることにより、ユーザがユーザオブジェクトの移動操作をすることなく、第2オブジェクトへ隣接させ、かつ、所定の動作を実行することができ、ユーザの利便性を向上させることができる。 As one aspect of the fourth embodiment, a route determining means is provided, and the second executing means moves the user object according to the determined route, so that the user does not move the user object. It is possible to make a predetermined operation adjacent to the two objects and improve the convenience of the user.

第四の実施の形態において、「コンピュータ装置」、「仮想空間」、「オブジェクト」、「ユーザオブジェクト」、「動作」、「関連オブジェクト」、及び「区別可能」は、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。「入力操作」は、第三の実施の形態において記載した内容を必要な範囲で採用できる。 In the fourth embodiment, "computer device", "virtual space", "object", "user object", "behavior", "related object", and "distinguishable" are each the first embodiment. The contents described in the above can be adopted to the extent necessary. As the "input operation", the contents described in the third embodiment can be adopted to the extent necessary.

第四の実施の形態において、「隣接」とは、例えば、オブジェクトの基準となる位置と、他のオブジェクトの基準となる位置とが所定の距離より短くなるような範囲にオブジェクト同士が位置することをいい、接触していない状態を含む。「経路」とは、例えば、仮想空間において、所定の位置から他の所定の位置へ到達するための道筋をいう。ここで仮想空間には、ユーザオブジェクトが侵入可能な場所と、侵入不可能な場所とが存在するものであってもよく、経路はユーザオブジェクトが侵入可能な場所のみから構成されるようにしてもよい。 In the fourth embodiment, "adjacent" means that, for example, the objects are located in a range in which the reference position of the object and the reference position of another object are shorter than a predetermined distance. Including the state of no contact. The “path” means, for example, a route from a predetermined position to another predetermined position in a virtual space. Here, in the virtual space, there may be a place where the user object can enter and a place where the user object cannot enter, and the route may be composed of only the place where the user object can enter. Good.

[第五の実施の形態]
次に、本発明の第五の実施の形態の概要について説明をする。以下では、第五の実施の形態として、ユーザにより操作されるコンピュータ装置において実行されるプログラムを例示して説明をする。
[Fifth Embodiment]
Next, the outline of the fifth embodiment of the present invention will be described. In the following, as a fifth embodiment, a program executed in a computer device operated by a user will be illustrated and described.

図9は、本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。コンピュータ装置1は、制御部11、RAM(Random Access Memory)12、ストレージ部13、サウンド処理部14、グラフィックス処理部15、外部記憶媒体読込部16、通信インタフェース17、及び、インタフェース部18を少なくとも備え、それぞれ内部バスにより接続されている。 FIG. 9 is a block diagram showing a configuration of a computer device corresponding to at least one of the embodiments of the present invention. The computer device 1 includes at least a control unit 11, a RAM (Random Access Memory) 12, a storage unit 13, a sound processing unit 14, a graphics processing unit 15, an external storage medium reading unit 16, a communication interface 17, and an interface unit 18. Each is connected by an internal bus.

制御部11は、CPU(Central Processing Unit)やROM(Read Only Memory)から構成される。制御部11は、ストレージ部13や外部記憶媒体24に格納されたプログラムを実行し、コンピュータ装置1の制御を行う。また、制御部11は時間を計時する内部タイマを備えている。RAM12は、制御部11のワークエリアである。ストレージ部13は、プログラムやデータを保存するための記憶領域である。 The control unit 11 is composed of a CPU (Central Processing Unit) and a ROM (Read Only Memory). The control unit 11 executes a program stored in the storage unit 13 or the external storage medium 24 to control the computer device 1. In addition, the control unit 11 includes an internal timer that measures the time. The RAM 12 is a work area of the control unit 11. The storage unit 13 is a storage area for storing programs and data.

外部記憶媒体読込部16は、DVD−ROM、CD−ROM、カートリッジROM等のプログラムが格納された外部記憶媒体24から、格納されたプログラムを読み込むことが可能である。外部記憶媒体24には、例えばプログラム及びデータが記憶されている。外部記憶媒体読込部16により、プログラム及びデータが外部記憶媒体24から読み出され、RAM12にロードされる。 The external storage medium reading unit 16 can read the stored program from the external storage medium 24 in which the program such as a DVD-ROM, a CD-ROM, or a cartridge ROM is stored. For example, programs and data are stored in the external storage medium 24. The program and data are read from the external storage medium 24 by the external storage medium reading unit 16 and loaded into the RAM 12.

制御部11は、プログラム及びデータをRAM12から読み出して処理を行う。制御部11は、RAM12にロードされたプログラム及びデータを処理することで、サウンド出力の指示をサウンド処理部14に出力し、描画命令をグラフィックス処理部15に出力する。 The control unit 11 reads the program and data from the RAM 12 and performs processing. By processing the program and data loaded in the RAM 12, the control unit 11 outputs a sound output instruction to the sound processing unit 14 and outputs a drawing command to the graphics processing unit 15.

サウンド処理部14は、スピーカであるサウンド出力装置21に接続されている。制御部11がサウンド出力の指示をサウンド処理部14に出力すると、サウンド処理部14はサウンド出力装置21にサウンド信号を出力する。 The sound processing unit 14 is connected to a sound output device 21 which is a speaker. When the control unit 11 outputs a sound output instruction to the sound processing unit 14, the sound processing unit 14 outputs a sound signal to the sound output device 21.

グラフィックス処理部15は表示装置22に接続されている。表示装置22は表示画面23を有している。制御部11が描画命令をグラフィックス処理部15に出力すると、グラフィックス処理部15は、フレームメモリ(フレームバッファ)19に画像を展開し、表示画面23上に画像を表示するためのビデオ信号を出力する。グラフィックス処理部15は、フレーム単位で1枚の画像の描画を実行する。画像の1フレーム時間は、例えば30分の1秒である。グラフィックス処理部15は、制御部11だけで行ってきた描画に関する演算処理の一部を受け持ち、システム全体の負荷を分散させる役割を有する。 The graphics processing unit 15 is connected to the display device 22. The display device 22 has a display screen 23. When the control unit 11 outputs a drawing command to the graphics processing unit 15, the graphics processing unit 15 expands the image in the frame memory (frame buffer) 19 and outputs a video signal for displaying the image on the display screen 23. Output. The graphics processing unit 15 draws one image in frame units. One frame time of an image is, for example, 1/30 second. The graphics processing unit 15 is in charge of a part of the arithmetic processing related to drawing performed only by the control unit 11, and has a role of distributing the load of the entire system.

インタフェース部18には入力部20(例えば、マウスやキーボード等)が接続され得る。ユーザによる入力部20からの入力情報はRAM12に格納され、制御部11は入力情報をもとに各種の演算処理を実行する。あるいは、インタフェース部18に記憶媒体読取装置を接続し、メモリ等からプログラム及びデータ等を読み込むことも可能である。また、タッチパネルを備えた表示装置22を入力部20とすることもできる。 An input unit 20 (for example, a mouse, a keyboard, etc.) may be connected to the interface unit 18. The input information from the input unit 20 by the user is stored in the RAM 12, and the control unit 11 executes various arithmetic processes based on the input information. Alternatively, it is also possible to connect a storage medium reading device to the interface unit 18 and read a program, data, or the like from a memory or the like. Further, the display device 22 provided with the touch panel can be used as the input unit 20.

通信インタフェース17は無線又は有線により通信ネットワーク2に接続が可能であり、通信ネットワーク2を介して他のコンピュータ装置との間で情報の送受信を行うことが可能である。 The communication interface 17 can be connected to the communication network 2 wirelessly or by wire, and can transmit and receive information to and from other computer devices via the communication network 2.

コンピュータ装置1は、近接センサ、赤外線センサ、ジャイロセンサ、又は、加速度センサ等のセンサを備えるものであってもよい。また、コンピュータ装置1は、レンズを有し、レンズ介して撮像する撮像部を備えるものであってもよい。 The computer device 1 may include a sensor such as a proximity sensor, an infrared sensor, a gyro sensor, or an acceleration sensor. Further, the computer device 1 may have a lens and include an imaging unit that captures an image through the lens.

次に、本発明の第五の実施の形態におけるプログラム実行画面について説明する。第五の実施の形態では、一例として、コンピュータ装置1がタッチパネルを備え、タッチ操作による入力が可能な場合について説明する。図10は、本発明の実施の形態の少なくとも1つに対応する、プログラム実行画面の例を表す図である。 Next, the program execution screen according to the fifth embodiment of the present invention will be described. In the fifth embodiment, as an example, a case where the computer device 1 is provided with a touch panel and input by touch operation is possible will be described. FIG. 10 is a diagram showing an example of a program execution screen corresponding to at least one of the embodiments of the present invention.

[実行画面]
第五の実施の形態では、一例として、仮想空間において、ユーザが操作するユーザオブジェクトを移動させることが可能なフィールド移動型のゲームプログラムを挙げる。コンピュータ装置1の表示画面23には、ゲーム画面50が表示される。ゲーム画面50には、ユーザオブジェクト51、ゲームフィールド上に配置されたオブジェクト52a〜c、障害物オブジェクト53、メニューオブジェクト54、操作部55が表示される。オブジェクト52a〜cはいずれも、同じ位置から動かなくてもよいし、ランダムに動き回っていてもよい。また、オブジェクト52の近傍には、一例として、吹き出しの形状をした関連オブジェクト56が表示され得る。
[Execution screen]
In the fifth embodiment, as an example, a field movement type game program capable of moving a user object operated by a user in a virtual space is given. The game screen 50 is displayed on the display screen 23 of the computer device 1. The user object 51, the objects 52a to 52c arranged on the game field, the obstacle object 53, the menu object 54, and the operation unit 55 are displayed on the game screen 50. All of the objects 52a to 52c may not move from the same position or may move around randomly. Further, in the vicinity of the object 52, as an example, a related object 56 in the shape of a balloon may be displayed.

ゲーム画面50には、第1領域61及び第2領域62が設定される。領域の設定については、後述する。第1領域61及び第2領域62は、説明の都合で円形に図示したが、非表示にして視認できなくてもよい。一例として、第1領域61の外側に第2領域62が存在する。第2領域62の外側にも領域(第3領域)が存在する。つまり、仮想空間には、第1領域、第2領域及び第3領域が存在する。 A first area 61 and a second area 62 are set on the game screen 50. The area setting will be described later. The first area 61 and the second area 62 are shown in a circle for convenience of explanation, but they may be hidden and invisible. As an example, the second region 62 exists outside the first region 61. A region (third region) also exists outside the second region 62. That is, the virtual space has a first region, a second region, and a third region.

第1領域61の範囲内に存在するオブジェクト52a(第1オブジェクトともいう)の関連オブジェクト56aの形状は、第2領域62の範囲内に存在するオブジェクト52b(第2オブジェクトともいう)の関連オブジェクト56bの形状とは異なる。形状が異なるのは一例であり、これに限定されない。すなわち、色、大きさ、模様等が異なり、区別可能であればよい。 The shape of the related object 56a of the object 52a (also referred to as the first object) existing in the range of the first area 61 is the related object 56b of the object 52b (also referred to as the second object) existing in the range of the second area 62. It is different from the shape of. The difference in shape is an example, and is not limited to this. That is, it suffices if the colors, sizes, patterns, etc. are different and can be distinguished.

一方、第3領域に存在するオブジェクト52c(第3オブジェクトともいう)には、関連オブジェクト56は表示されない。このように、関連オブジェクトが表示される第1領域及び第2領域と、関連オブジェクトが表示されない第3領域を設けることで、ユーザオブジェクトに行動を実行可能なオブジェクトを捜索するという趣向性をユーザに与えつつ、表示される情報の範囲を制御して視認性を確保することができる。 On the other hand, the related object 56 is not displayed on the object 52c (also referred to as the third object) existing in the third area. In this way, by providing the first and second areas where the related objects are displayed and the third area where the related objects are not displayed, the user is given the intention of searching for an object that can perform an action on the user object. While giving, the range of displayed information can be controlled to ensure visibility.

障害物オブジェクト53は、ユーザオブジェクト51が通過することができない場所である。つまり、ユーザオブジェクト51が障害物オブジェクト53に隣接した場合には、ユーザオブジェクト51は障害物オブジェクト53が存在する方向へは移動することができない。 The obstacle object 53 is a place where the user object 51 cannot pass. That is, when the user object 51 is adjacent to the obstacle object 53, the user object 51 cannot move in the direction in which the obstacle object 53 exists.

ユーザオブジェクト51の移動は、移動先の場所をタッチする、あるいは、操作部55を使用することで行う。操作部55は、仮想コントローラともいう。移動先の場所をタッチすると、後述するように、タッチした場所までの最短距離となる経路を探索し、ユーザオブジェクト51を移動させる。操作部55を使用する場合には、操作部55の中央に表示されるユーザオブジェクトをタッチし、移動させたい方向へスライドさせることで、移動方向の入力を受け付ける。 The movement of the user object 51 is performed by touching the destination location or by using the operation unit 55. The operation unit 55 is also referred to as a virtual controller. When the destination location is touched, as will be described later, the route that is the shortest distance to the touched location is searched for, and the user object 51 is moved. When the operation unit 55 is used, the user object displayed in the center of the operation unit 55 is touched and slid in the direction to be moved to accept the input of the movement direction.

また、ユーザがオブジェクト52又は関連オブジェクト56をタップすると、ユーザオブジェクト51は、タップしたオブジェクト52又は関連オブジェクト56が関連付けられているオブジェクトに対して、所定の動作を実行する。所定の動作とは、例えば、会話、攻撃、盗む、回復する、突き飛ばす等、人物に対する行為や、宝箱やタンスを開ける、扉を開ける等の物体に対する行為が挙げられる。 Further, when the user taps the object 52 or the related object 56, the user object 51 executes a predetermined operation on the object to which the tapped object 52 or the related object 56 is associated. Predetermined actions include, for example, actions against a person such as talking, attacking, stealing, recovering, and pushing, and actions against an object such as opening a treasure chest or chest of drawers or opening a door.

タップしたオブジェクト52が第1領域に位置する場合には、ユーザオブジェクト51は移動せず、所定の動作を実行する。タップしたオブジェクト52が第2領域に位置する場合には、ユーザオブジェクト51は、オブジェクト52に隣接する距離まで移動し、所定の動作を実行する。このように、ユーザは、ユーザオブジェクト51を移動させることを意識することなく、所定の動作を実行したいオブジェクトに対する操作を行うだけで、目的を達することができ、ユーザの利便性を高めることができる。 When the tapped object 52 is located in the first area, the user object 51 does not move and executes a predetermined operation. When the tapped object 52 is located in the second area, the user object 51 moves to a distance adjacent to the object 52 and executes a predetermined operation. In this way, the user can achieve the purpose and enhance the convenience of the user simply by performing an operation on the object to perform a predetermined operation without being conscious of moving the user object 51. ..

メニューオブジェクト54は、例えば、タッチすることで、システムメニューを表示するオブジェクトである。メニューオブジェクト54にタッチした場合に、コンピュータ装置1は、ユーザオブジェクト51が移動しないように制御することができる。メニューオブジェクト54に対してタップした後に、指をタッチパネルから離した場合に、システムメニューを表示するようにしてもよい。つまり、メニューオブジェクト54をタップするだけではメニューを表示しないようにしてもよい。このように、ユーザオブジェクトの移動とシステムメニュー表示との操作を異ならせることで、誤操作を防止することができる。 The menu object 54 is, for example, an object that displays a system menu by touching it. When the menu object 54 is touched, the computer device 1 can control the user object 51 so that it does not move. The system menu may be displayed when the finger is released from the touch panel after tapping the menu object 54. That is, the menu may not be displayed only by tapping the menu object 54. In this way, by making the operation of moving the user object different from the operation of displaying the system menu, it is possible to prevent an erroneous operation.

続いて、コンピュータ装置1が備える機能について説明する。図11は、本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。コンピュータ装置1は、領域設定部201、入力受付部202、入力判定部203、操作部処理部204、メニュー処理部205、オブジェクト判定部206、オブジェクト制御部207、移動処理部208、領域判定部209、隣接判定部210、及び行動実行部211を少なくとも備える。 Subsequently, the functions provided by the computer device 1 will be described. FIG. 11 is a block diagram showing a configuration of a computer device corresponding to at least one of the embodiments of the present invention. The computer device 1 includes an area setting unit 201, an input reception unit 202, an input determination unit 203, an operation unit processing unit 204, a menu processing unit 205, an object determination unit 206, an object control unit 207, a movement processing unit 208, and an area determination unit 209. , At least an adjacency determination unit 210 and an action execution unit 211.

移動処理部208は、経路決定部221、表示制御部222、移動中入力判定部223、移動完了判定部224、及び停止部225を少なくとも備える。 The movement processing unit 208 includes at least a route determination unit 221, a display control unit 222, a moving input determination unit 223, a movement completion determination unit 224, and a stop unit 225.

領域設定部201は、ユーザオブジェクトが移動をしなくても、オブジェクトに対して所定の動作を実行することが可能である第1領域と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である第2領域とを設定する機能を有する。入力受付部202は、ユーザからの入力操作を受け付ける機能を有する。入力判定部203は、入力受付部202により受け付けた入力操作の操作対象を判定する機能を有する。 The area setting unit 201 has a first area capable of performing a predetermined operation on the object even if the user object does not move, and a predetermined area on the object by moving the user object. It has a function of setting a second area capable of executing the operation of. The input receiving unit 202 has a function of receiving an input operation from the user. The input determination unit 203 has a function of determining an operation target of the input operation received by the input reception unit 202.

操作部処理部204は、操作部に対する処理を実行する機能を有する。メニュー処理部205は、メニューに対する処理を実行する機能を有する。オブジェクト判定部206は、オブジェクトに対する入力か否かを判定する機能を有する。オブジェクト制御部207は、オブジェクトの行動を制御する機能を有する。 The operation unit processing unit 204 has a function of executing processing for the operation unit. The menu processing unit 205 has a function of executing processing for the menu. The object determination unit 206 has a function of determining whether or not the input is for an object. The object control unit 207 has a function of controlling the behavior of the object.

移動処理部208は、ユーザオブジェクトの移動処理を実行する機能を有する。領域判定部209は、入力受付部202が受け付けた入力に対応するオブジェクトが存在する領域を判定する機能を有する。隣接判定部210は、ユーザオブジェクトと、入力受付部202が受け付けた入力に対応するオブジェクトとが隣接しているか否かを判定する機能を有する。行動実行部211は、ユーザオブジェクトに所定の動作を実行させる機能を有する。 The movement processing unit 208 has a function of executing the movement processing of the user object. The area determination unit 209 has a function of determining an area in which an object corresponding to the input received by the input reception unit 202 exists. The adjacency determination unit 210 has a function of determining whether or not the user object and the object corresponding to the input received by the input reception unit 202 are adjacent to each other. The action execution unit 211 has a function of causing the user object to execute a predetermined operation.

経路決定部221は、ユーザオブジェクトとオブジェクトとを隣接させるための移動の経路を決定する機能を有する。表示制御部222は、ユーザオブジェクトが移動している場合に、ユーザオブジェクトの動作の対象となるオブジェクトと、それ以外のオブジェクトとを、区別可能な表示態様で表示する機能を有する。移動中入力判定部223は、ユーザオブジェクトが移動している場合に、さらにユーザの入力を受け付けたか否かを判定する機能を有する。移動完了判定部224は、ユーザオブジェクトの移動が完了したか否かを判定する機能を有する。停止部225は、ユーザオブジェクトの移動を停止する機能を有する。 The route determination unit 221 has a function of determining a movement route for adjoining a user object and the object. The display control unit 222 has a function of displaying an object to be operated by the user object and other objects in a distinguishable display mode when the user object is moving. The moving input determination unit 223 has a function of determining whether or not the user's input has been further received when the user object is moving. The movement completion determination unit 224 has a function of determining whether or not the movement of the user object is completed. The stop unit 225 has a function of stopping the movement of the user object.

続いて、プログラム実行処理について説明する。以下に説明するプログラムは、ユーザから入力を受け付け、受け付けた結果を出力するまでの処理を表す。つまり、ユーザから入力を受け付ける都度、実行されるものである。図12は、本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。コンピュータ装置1は、領域設定部201により領域を設定する(ステップS101)。 Next, the program execution process will be described. The program described below represents a process of receiving input from a user and outputting the received result. That is, it is executed each time an input is received from the user. FIG. 12 is a flowchart of a program execution process corresponding to at least one of the embodiments of the present invention. The computer device 1 sets an area by the area setting unit 201 (step S101).

[領域設定]
領域設定は、仮想空間に第1領域と第2領域とを設定する。一例として、ユーザオブジェクトの位置を基準として、所定の距離である第1距離の範囲内を第1領域とすることができる。そして、第1距離よりも長い第2距離の範囲内を第2領域とすることができる。別の例として、ユーザオブジェクト以外のオブジェクトの位置を基準として、第1距離の範囲内を第1領域、第1距離よりも長い第2距離の範囲内を第2領域としてもよい。
[Area setting]
For the area setting, the first area and the second area are set in the virtual space. As an example, the first area can be within the range of the first distance, which is a predetermined distance, with reference to the position of the user object. Then, the range of the second distance longer than the first distance can be set as the second region. As another example, the range of the first distance may be the first region, and the range of the second distance longer than the first distance may be the second region based on the position of an object other than the user object.

図13は、本発明の実施の形態の少なくとも1つに対応する、領域を説明するための概念図である。図13(A)は、仮想空間が格子状に区切られている場合の領域設定について説明する図である。ユーザオブジェクト等基準となる基準位置60に対して領域を設定する場合には、網掛けした8マスを第1領域61として設定する。そして、第1領域の周囲の格子状のマスを第2領域62として設定する。第2領域62の外側は、第1領域及び第2領域とは異なる第3領域63である。 FIG. 13 is a conceptual diagram for explaining a region corresponding to at least one of the embodiments of the present invention. FIG. 13A is a diagram for explaining the area setting when the virtual space is divided in a grid pattern. When setting an area with respect to the reference position 60 which is a reference such as a user object, the shaded 8 squares are set as the first area 61. Then, the grid-like mass around the first region is set as the second region 62. The outside of the second region 62 is a third region 63 different from the first region and the second region.

図13(B)は、仮想空間が区切られていない場合の領域設定について説明する図である。仮想空間が区切られていない状態とは、仮想空間がシームレスなフィールドで構成されている場合である。ユーザオブジェクト等基準となる基準位置60に対して領域を設定する場合には、図示するように、基準位置から同心円状に領域が設定される。基準位置に近い、網掛けした領域を第1領域61として設定し、第1領域の外側の領域を第2領域62として設定する。第2領域62の外側は、第1領域及び第2領域とは異なる第3領域63である。 FIG. 13B is a diagram for explaining the area setting when the virtual space is not divided. The state in which the virtual space is not delimited is when the virtual space is composed of seamless fields. When the area is set with respect to the reference position 60 which is the reference such as a user object, the area is set concentrically from the reference position as shown in the figure. The shaded area close to the reference position is set as the first area 61, and the area outside the first area is set as the second area 62. The outside of the second region 62 is a third region 63 different from the first region and the second region.

図13の(A)及び(B)はいずれの場合も、第2領域が第1領域を包含し、かつ、第2領域が仮想空間全体より小さい領域である。第2領域は、表示画面で表示される領域よりも小さいことが好ましい。領域はそれぞれ重複して設定されないようにしてもよい。つまり、第1領域と第2領域とは、排他的に存在する領域となり得る。 In both cases (A) and (B) of FIG. 13, the second region includes the first region, and the second region is smaller than the entire virtual space. The second area is preferably smaller than the area displayed on the display screen. The areas may not be set in duplicate. That is, the first region and the second region can be regions that exist exclusively.

領域設定の基準位置については、表示画面の略中央部を基点としてもよい。このようにすることで、ユーザオブジェクトが存在しない場合でも、表示画面の略中央部をユーザの視軸として仮定して、仮想空間内を探索するようなプログラムにおいて、第1領域及び第2領域の表示態様を変更し、ユーザの視認性及び利便性を向上させることができる。 The reference position for setting the area may be based on the substantially central portion of the display screen. By doing so, even if the user object does not exist, in a program that searches in the virtual space assuming that the substantially central part of the display screen is the user's visual axis, the first region and the second region The display mode can be changed to improve the visibility and convenience of the user.

図12のフローチャートに戻る。コンピュータ装置1は、ユーザから入力を受け付ける(ステップS102)。コンピュータ装置1は、入力判定部203により、受け付けた入力に対応する位置に存在するオブジェクトの属性を判定する(ステップS103)。 Return to the flowchart of FIG. The computer device 1 receives an input from the user (step S102). The computer device 1 determines the attribute of the object existing at the position corresponding to the received input by the input determination unit 203 (step S103).

受け付けた操作が、操作部への操作である場合(ステップS103にて1の場合)、コンピュータ装置1は、操作部処理を実行する(ステップS104)。操作部処理とは、操作部55に対する操作であり、仮想コントローラに対する操作である。仮想コントローラに対する操作は汎用的な操作であるため、詳細な説明は省略する。 When the received operation is an operation to the operation unit (in the case of 1 in step S103), the computer device 1 executes the operation unit process (step S104). The operation unit processing is an operation on the operation unit 55 and an operation on the virtual controller. Since the operation on the virtual controller is a general-purpose operation, detailed description thereof will be omitted.

受け付けた操作が、メニューオブジェクトへの操作である場合(ステップS103にて2の場合)、コンピュータ装置1は、メニュー処理を実行する(ステップS105)。メニュー処理とは、メニューオブジェクト54に対する操作であり、システムメニューを表示し、選択する操作である。メニュー選択に関する操作は汎用的な操作であるため、詳細な説明は省略する。 When the received operation is an operation on the menu object (in the case of step 2 in step S103), the computer device 1 executes the menu process (step S105). The menu process is an operation on the menu object 54, and is an operation for displaying and selecting a system menu. Since the operation related to menu selection is a general-purpose operation, detailed description thereof will be omitted.

受け付けた操作が、操作部又はメニューオブジェクト以外への操作である場合(ステップS103にて3の場合)、コンピュータ装置1は、オブジェクト判定部206により、操作を受け付けた位置に対応するオブジェクトが存在するか否かを判定する(ステップS106)。オブジェクトが存在しない場合(ステップS106にてYES)には、受け付けた位置をユーザオブジェクトの移動先と特定し、移動処理を行い(ステップS107)、処理を終了する。 When the received operation is an operation other than the operation unit or the menu object (in the case of 3 in step S103), the computer device 1 has an object corresponding to the position where the operation is received by the object determination unit 206. Whether or not it is determined (step S106). If the object does not exist (YES in step S106), the accepted position is specified as the move destination of the user object, the move process is performed (step S107), and the process ends.

[移動処理]
図14は、本発明の実施の形態の少なくとも1つに対応する、移動処理のフローチャートである。コンピュータ装置1は、ユーザオブジェクトの位置と、ステップS102において受け付けた入力に対応する位置との最短経路を探索し、決定する(ステップS151)。経路探索のアルゴリズムは、ダイクストラ法等従来知られたアルゴリズムを採用することができる。
[Move processing]
FIG. 14 is a flowchart of the movement process corresponding to at least one of the embodiments of the present invention. The computer device 1 searches for and determines the shortest path between the position of the user object and the position corresponding to the input received in step S102 (step S151). As the route search algorithm, a conventionally known algorithm such as Dijkstra's algorithm can be adopted.

コンピュータ装置1は、決定した経路にしたがって、ユーザオブジェクトを移動させる(ステップS152)。ユーザオブジェクトが移動中に、コンピュータ装置1は、行動の対象となるオブジェクト、すなわち、移動先のオブジェクトと、それ以外のオブジェクトとを、区別可能な表示態様で表示するよう制御する(ステップS153)。例えば、移動先のオブジェクトについてのみ関連オブジェクト56を表示し、それ以外のオブジェクトの関連オブジェクト56は非表示としてもよい。このようにすることで、移動先であるオブジェクトが強調され、ユーザの視認性を高めることができる。 The computer device 1 moves the user object according to the determined route (step S152). While the user object is moving, the computer device 1 controls to display the object to be acted on, that is, the object to be moved and the other objects in a distinguishable display mode (step S153). For example, the related object 56 may be displayed only for the destination object, and the related object 56 of other objects may be hidden. By doing so, the object to be moved is emphasized, and the visibility of the user can be improved.

コンピュータ装置1は、ユーザオブジェクトが移動中に、さらに入力を受け付けたか否かを判定する(ステップS154)。ユーザオブジェクトが移動中とは、例えば、ユーザオブジェクトが停止しておらず、かつ、移動先のオブジェクトに隣接する位置まで到達していない状態をいう。 The computer device 1 determines whether or not the user object has received further input while moving (step S154). The moving user object means, for example, a state in which the user object is not stopped and has not reached a position adjacent to the moved object.

移動中の入力を受け付けた場合(ステップS154にてYES)には、ユーザオブジェクトを停止させる(ステップS155)。移動中の入力を受け付けていない場合(ステップS154にてNO)には、移動が完了したか否かを判定する(ステップ156)。移動が完了するとは、例えば、ユーザオブジェクトが移動先のオブジェクトに隣接した状態となる位置まで接近したことをいう。移動が完了した場合(ステップS156にてYES)には、ユーザオブジェクトを停止させる(ステップS155)。移動が完了していない場合(ステップS156にてNO)にはさらに、ユーザオブジェクトの移動制御を行う(ステップS152)。 When the moving input is accepted (YES in step S154), the user object is stopped (step S155). When the input during movement is not accepted (NO in step S154), it is determined whether or not the movement is completed (step 156). When the movement is completed, for example, it means that the user object approaches a position adjacent to the destination object. When the movement is completed (YES in step S156), the user object is stopped (step S155). If the movement is not completed (NO in step S156), the movement control of the user object is further performed (step S152).

図12のフローチャートに戻る。ユーザがオブジェクト又は関連オブジェクトを指定した場合(ステップS106にてNO)には、コンピュータ装置1は、オブジェクトの行動を制御する(ステップS108)。オブジェクトには、コンピュータ装置1により制御されず移動をしないものと、制御されて所定の移動を繰り返すものが存在し得る。行動の制御とは、例えば、オブジェクトの動作を停止させることをいう。このように制御することで、ユーザオブジェクトの移動先のオブジェクトまでの経路を容易に確定させることができ、コンピュータ装置1における処理負荷を減らすことができる。 Return to the flowchart of FIG. When the user specifies an object or a related object (NO in step S106), the computer device 1 controls the behavior of the object (step S108). There may be an object that is not controlled by the computer device 1 and does not move, and an object that is controlled and repeats a predetermined movement. Behavioral control means, for example, stopping the movement of an object. By controlling in this way, the route to the destination object of the user object can be easily determined, and the processing load on the computer device 1 can be reduced.

次に、コンピュータ装置1は、ユーザの入力に対応する位置が第2領域であるか否かを判定する(ステップS109)。第2領域である場合(ステップS109にてYES)には、ユーザオブジェクトの移動処理を行い(ステップS110)、ユーザの入力に対応するオブジェクトと隣接したか否かを判定する(ステップS111)。隣接している場合(ステップS111にてYES)には、コンピュータ装置1は、ユーザオブジェクトに所定の動作を実行させる(ステップS112)。所定の動作とは、一例として、オブジェクトとの会話が挙げられる。 Next, the computer device 1 determines whether or not the position corresponding to the user's input is the second region (step S109). In the case of the second region (YES in step S109), the movement process of the user object is performed (step S110), and it is determined whether or not the object is adjacent to the object corresponding to the user's input (step S111). When they are adjacent to each other (YES in step S111), the computer device 1 causes the user object to perform a predetermined operation (step S112). An example of a predetermined action is a conversation with an object.

ユーザの入力に対応するオブジェクトに隣接していない場合(ステップS111にてNO)とは、ユーザオブジェクトが移動中にユーザから入力があった、つまり、移動をキャンセルさせる入力があった場合であるので、コンピュータ装置1は、ユーザからの次の入力を待機する。このとき、ユーザオブジェクトは、オブジェクトと隣接しない位置で停止している。 The case where the object is not adjacent to the object corresponding to the user's input (NO in step S111) means that the user has input while the user object is moving, that is, there is an input to cancel the movement. , The computer device 1 waits for the next input from the user. At this time, the user object is stopped at a position not adjacent to the object.

ユーザの入力に対応する位置が第2領域でない場合(ステップS109にてNO)には、コンピュータ装置1は、ユーザの入力に対応する位置が第1領域であるか否かを判定する(ステップS113)。第1領域である場合(ステップS113にてYES)には、コンピュータ装置1は、ユーザオブジェクトに所定の動作を実行させる(ステップS112)。第1領域でない場合(ステップS113にてNO)は、第3領域に位置するオブジェクトを指定したということであるので、無効な入力として処理を実行しないようにしてもよい。 When the position corresponding to the user's input is not the second area (NO in step S109), the computer device 1 determines whether or not the position corresponding to the user's input is the first area (step S113). ). In the case of the first region (YES in step S113), the computer device 1 causes the user object to execute a predetermined operation (step S112). If it is not the first area (NO in step S113), it means that the object located in the third area is specified, so that the process may not be executed as an invalid input.

コンピュータ装置1は、図示しないが、プログラム実行処理を終了後に、再度領域設定を行う(ステップS101)。このようにすることで、ユーザオブジェクトが移動後の状況における領域が設定され、関連オブジェクトの表示が更新され得る。 Although not shown, the computer device 1 sets the area again after the program execution process is completed (step S101). By doing so, the area in the situation after the user object is moved can be set, and the display of the related object can be updated.

第五の実施の形態の一例として、タッチパネルを備えるコンピュータ装置を挙げたが、これに限定されない。すなわち、マウス等何らかの入力を受け付け、仮想空間内の位置座標を特定可能な入力装置が備わっていればよい。 As an example of the fifth embodiment, a computer device including a touch panel has been mentioned, but the present invention is not limited thereto. That is, it suffices to have an input device such as a mouse that can accept some input and specify the position coordinates in the virtual space.

第五の実施の形態の一例としてゲームプログラムを挙げたが、ゲームに限定されるものではなく、適用可能なジャンルは限定されない。 Although a game program is given as an example of the fifth embodiment, it is not limited to the game, and the applicable genre is not limited.

第五の実施の形態の一例として仮想空間を挙げたが、現実世界の情報を取り入れたAR(拡張現実)の分野にも適用可能である。 Although virtual space is mentioned as an example of the fifth embodiment, it can also be applied to the field of AR (augmented reality) incorporating information in the real world.

第五の実施の形態の一側面として、ユーザの視認性及び利便性を向上させることができる。 As one aspect of the fifth embodiment, the visibility and convenience of the user can be improved.

第五の実施の形態の一側面として、第1領域及び第2領域を設定し、それぞれの領域に対応するオブジェクト同士を区別可能な表示態様で表示することで、領域を表示することなく、いずれの領域に対応するオブジェクトか判別することができ、かつ、ユーザオブジェクトによる所定の動作の実行可否を判別可能となり、ユーザの視認性及び利便性を向上させることができる。 As one aspect of the fifth embodiment, the first area and the second area are set, and the objects corresponding to the respective areas are displayed in a distinguishable display mode, so that the area is not displayed. It is possible to determine whether the object corresponds to the area of the above, and it is possible to determine whether or not the predetermined operation can be executed by the user object, and the visibility and convenience of the user can be improved.

第五の実施の形態の一側面として、ユーザの入力操作に応じて、ユーザオブジェクトが移動せず、第1オブジェクトに所定の動作を実行する第1実行手段、及び、ユーザの入力操作に応じて、ユーザオブジェクトが移動し、第2オブジェクトに所定の動作を実行する第2実行手段を備えることで、ユーザがユーザオブジェクトを移動させるか否かを意識することなく、オブジェクトに所定の動作を実行することができ、ユーザの利便性を向上させることができる。 As one aspect of the fifth embodiment, the user object does not move in response to the user's input operation, and the first execution means that executes a predetermined operation on the first object, and the user's input operation. , The user object moves and the second object is provided with the second execution means for executing the predetermined action, so that the user executes the predetermined action on the object without being aware of whether or not the user object is moved. It is possible to improve the convenience of the user.

第五の実施の形態の一側面として、経路決定手段を備え、第2実行手段が、決定した経路にしたがって、ユーザオブジェクトを移動させることにより、ユーザがユーザオブジェクトの移動操作をすることなく、第2オブジェクトへ隣接させ、かつ、所定の動作を実行することができ、ユーザの利便性を向上させることができる。 As one aspect of the fifth embodiment, a route determining means is provided, and the second executing means moves the user object according to the determined route, so that the user does not move the user object. It is possible to make a predetermined operation adjacent to the two objects and improve the convenience of the user.

第五の実施の形態において、「コンピュータ装置」、「仮想空間」、「オブジェクト」、「ユーザオブジェクト」、「動作」、「関連オブジェクト」、及び「区別可能」は、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。「入力操作」は、第三の実施の形態において記載した内容を必要な範囲で採用できる。「隣接」及び「経路」は、それぞれ第四の実施の形態において記載した内容を必要な範囲で採用できる。 In the fifth embodiment, "computer device", "virtual space", "object", "user object", "behavior", "related object", and "distinguishable" are each the first embodiment. The contents described in the above can be adopted to the extent necessary. As the "input operation", the contents described in the third embodiment can be adopted to the extent necessary. As the "adjacent" and the "route", the contents described in the fourth embodiment can be adopted to the extent necessary.

第五の実施の形態において、「行動の停止」とは、例えば、仮想空間内を移動可能なオブジェクトが、略同一の位置座標において留まることをいい、再び移動の指示があるまでは待機することをいう。「表示画面の略中央部」とは、例えば、画像が表示される領域の略中央をいう。 In the fifth embodiment, "stopping action" means, for example, that an object that can move in the virtual space stays at substantially the same position coordinates, and waits until there is an instruction to move again. To say. The “substantially central portion of the display screen” means, for example, the substantially central portion of the area where the image is displayed.

[第六の実施の形態]
本発明の第六の実施の形態の概要について説明をする。以下では、第六の実施の形態として、クライアント端末装置と、該クライアント端末装置と通信により接続可能なサーバ装置において実行させるプログラムを例示して説明をする。
[Sixth Embodiment]
The outline of the sixth embodiment of the present invention will be described. Hereinafter, as the sixth embodiment, a program to be executed in the client terminal device and the server device that can be connected to the client terminal device by communication will be described as an example.

図15は、本発明の実施の形態の少なくとも1つに対応する、サーバ装置の構成を示すブロック図である。サーバ装置3は、オブジェクト表示部301を少なくとも備える。 FIG. 15 is a block diagram showing a configuration of a server device corresponding to at least one of the embodiments of the present invention. The server device 3 includes at least an object display unit 301.

オブジェクト表示部301は、仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示する機能を有する。 The object display unit 301 can perform a predetermined operation on the object even if the user object does not move in the virtual space, and the object display unit 301 can move the user object to the object. It has a function of displaying the object or a related object associated with the object in a distinguishable display mode depending on whether or not it is possible to perform a predetermined operation.

次に、本発明の第六の実施の形態におけるプログラム実行処理について説明する。図16は、本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。 Next, the program execution process according to the sixth embodiment of the present invention will be described. FIG. 16 is a flowchart of a program execution process corresponding to at least one of the embodiments of the present invention.

サーバ装置3は、仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示し(ステップS201)、終了する。 The server device 3 can perform a predetermined operation on the object even if the user object does not move in the virtual space, and the server device 3 determines the object by moving the user object. (Step S201), the object or a related object associated with the object is displayed in a distinguishable display mode, and the process ends.

第六の実施の形態の一側面として、ユーザの視認性及び利便性を向上させることができる。 As one aspect of the sixth embodiment, the visibility and convenience of the user can be improved.

第六の実施の形態において、「仮想空間」、「オブジェクト」、「ユーザオブジェクト」、「動作」、「関連オブジェクト」、及び「区別可能」は、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。「入力操作」は、第三の実施の形態において記載した内容を必要な範囲で採用できる。「隣接」及び「経路」は、それぞれ第四の実施の形態において記載した内容を必要な範囲で採用できる。「行動の停止」及び「表示画面の略中央部」は、それぞれ第五の実施の形態において記載した内容を必要な範囲で採用できる。 In the sixth embodiment, "virtual space", "object", "user object", "action", "related object", and "distinguishable" are the contents described in the first embodiment, respectively. It can be adopted within the required range. As the "input operation", the contents described in the third embodiment can be adopted to the extent necessary. As the "adjacent" and the "route", the contents described in the fourth embodiment can be adopted to the extent necessary. As the "stop of action" and the "substantially central part of the display screen", the contents described in the fifth embodiment can be adopted to the extent necessary.

第六の実施の形態において、「クライアント端末装置」とは、例えば、据置型ゲーム機、携帯型ゲーム機、ウェアラブル型端末、デスクトップ型又はノート型パーソナルコンピュータ、タブレットコンピュータ、又は、PDA等をいい、表示画面にタッチパネルセンサを備えるスマートフォン等の携帯型端末であってもよい。「サーバ装置」とは、例えば、クライアント端末装置からの要求に応じて処理を実行する装置をいう。 In the sixth embodiment, the "client terminal device" refers to, for example, a stationary game machine, a portable game machine, a wearable terminal, a desktop or notebook personal computer, a tablet computer, a PDA, or the like. It may be a portable terminal such as a smartphone having a touch panel sensor on the display screen. The “server device” refers to, for example, a device that executes processing in response to a request from a client terminal device.

[第七の実施の形態]
本発明の第七の実施の形態の概要について説明をする。以下では、第七の実施の形態として、クライアント端末装置と、該クライアント端末装置と通信により接続可能なサーバ装置とを備えるシステムを例示して説明をする。
[Seventh Embodiment]
The outline of the seventh embodiment of the present invention will be described. Hereinafter, as a seventh embodiment, a system including a client terminal device and a server device that can be connected to the client terminal device by communication will be described as an example.

図17は、本発明の実施の形態の少なくとも1つに対応する、システムの構成を示すブロック図である。システム4は、オブジェクト表示部351を少なくとも備える。 FIG. 17 is a block diagram showing a system configuration corresponding to at least one of the embodiments of the present invention. The system 4 includes at least an object display unit 351.

オブジェクト表示部351は、仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示する機能を有する。 The object display unit 351 can perform a predetermined operation on the object even if the user object does not move in the virtual space, and the object display unit 351 moves the user object to the object. It has a function of displaying the object or a related object associated with the object in a distinguishable display mode depending on whether or not it is possible to perform a predetermined operation.

次に、本発明の第七の実施の形態における実行処理について説明する。図18は、本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。 Next, the execution process according to the seventh embodiment of the present invention will be described. FIG. 18 is a flowchart of execution processing corresponding to at least one of the embodiments of the present invention.

システム4は、仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示し(ステップS211)、終了する。 The system 4 can perform a predetermined operation on the object even if the user object does not move in the virtual space, and a predetermined operation on the object by moving the user object. The object or the related object associated with the object is displayed in a distinguishable display mode depending on whether the operation can be executed (step S211), and the process ends.

第七の実施の形態の一側面として、ユーザの視認性及び利便性を向上させることができる。 As one aspect of the seventh embodiment, the visibility and convenience of the user can be improved.

第七の実施の形態において、「仮想空間」、「オブジェクト」、「ユーザオブジェクト」、「動作」、「関連オブジェクト」、及び「区別可能」は、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。「入力操作」は、第三の実施の形態において記載した内容を必要な範囲で採用できる。「隣接」及び「経路」は、それぞれ第四の実施の形態において記載した内容を必要な範囲で採用できる。「行動の停止」及び「表示画面の略中央部」は、それぞれ第五の実施の形態において記載した内容を必要な範囲で採用できる。「クライアント端末装置」及び「サーバ装置」は、それぞれ第六の実施の形態において記載した内容を必要な範囲で採用できる。 In the seventh embodiment, "virtual space", "object", "user object", "action", "related object", and "distinguishable" are the contents described in the first embodiment, respectively. It can be adopted within the required range. As the "input operation", the contents described in the third embodiment can be adopted to the extent necessary. As the "adjacent" and the "route", the contents described in the fourth embodiment can be adopted to the extent necessary. As the "stop of action" and the "substantially central part of the display screen", the contents described in the fifth embodiment can be adopted to the extent necessary. As the "client terminal device" and the "server device", the contents described in the sixth embodiment can be adopted to the extent necessary.

[第八の実施の形態]
本発明の第八の実施の形態の概要について説明をする。以下では、第八の実施の形態として、サーバ装置と、該サーバ装置と通信により接続可能なクライアント端末装置において実行させるプログラムを例示して説明をする。
[Eighth embodiment]
The outline of the eighth embodiment of the present invention will be described. Hereinafter, as the eighth embodiment, a program to be executed in the server device and the client terminal device that can be connected to the server device by communication will be described as an example.

図19は、本発明の実施の形態の少なくとも1つに対応する、クライアント端末装置の構成を示すブロック図である。クライアント端末装置5は、オブジェクト表示部381を少なくとも備える。 FIG. 19 is a block diagram showing a configuration of a client terminal device corresponding to at least one of the embodiments of the present invention. The client terminal device 5 includes at least an object display unit 381.

オブジェクト表示部381は、仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示する機能を有する。 The object display unit 381 can perform a predetermined operation on the object even if the user object does not move in the virtual space, and the object display unit 381 moves the user object on the object. It has a function of displaying the object or a related object associated with the object in a distinguishable display mode depending on whether or not it is possible to perform a predetermined operation.

次に、本発明の第八の実施の形態におけるプログラム実行処理について説明する。図20は、本発明の実施の形態の少なくとも1つに対応する、プログラム実行処理のフローチャートである。 Next, the program execution process according to the eighth embodiment of the present invention will be described. FIG. 20 is a flowchart of a program execution process corresponding to at least one of the embodiments of the present invention.

クライアント端末装置5は、仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示し(ステップS221)、終了する。 The client terminal device 5 can perform a predetermined operation on the object even if the user object does not move in the virtual space, and the client terminal device 5 moves the user object on the object. The object or the related object associated with the object is displayed in a distinguishable display mode depending on the case where a predetermined operation can be performed (step S221), and the process ends.

第八の実施の形態の一側面として、ユーザの視認性及び利便性を向上させることができる。 As one aspect of the eighth embodiment, the visibility and convenience of the user can be improved.

第八の実施の形態において、「仮想空間」、「オブジェクト」、「ユーザオブジェクト」、「動作」、「関連オブジェクト」、及び「区別可能」は、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。「入力操作」は、第三の実施の形態において記載した内容を必要な範囲で採用できる。「隣接」及び「経路」は、それぞれ第四の実施の形態において記載した内容を必要な範囲で採用できる。「行動の停止」及び「表示画面の略中央部」は、それぞれ第五の実施の形態において記載した内容を必要な範囲で採用できる。「クライアント端末装置」及び「サーバ装置」は、それぞれ第六の実施の形態において記載した内容を必要な範囲で採用できる。 In the eighth embodiment, "virtual space", "object", "user object", "action", "related object", and "distinguishable" are the contents described in the first embodiment, respectively. It can be adopted within the required range. As the "input operation", the contents described in the third embodiment can be adopted to the extent necessary. As the "adjacent" and the "route", the contents described in the fourth embodiment can be adopted to the extent necessary. As the "stop of action" and the "substantially central part of the display screen", the contents described in the fifth embodiment can be adopted to the extent necessary. As the "client terminal device" and the "server device", the contents described in the sixth embodiment can be adopted to the extent necessary.

[第九の実施の形態]
次に、本発明の第九の実施の形態の概要について説明をする。以下では、第九の実施の形態として、クライアント端末装置と、該クライアント端末装置と通信により接続可能なサーバ装置とを備えるシステムを例示して説明をする。
[Ninth embodiment]
Next, the outline of the ninth embodiment of the present invention will be described. Hereinafter, as a ninth embodiment, a system including a client terminal device and a server device that can be connected to the client terminal device by communication will be described as an example.

図21は、本発明の実施の形態の少なくとも1つに対応する、システムの構成を示すブロック図である。図示するように、システムは、複数のユーザ(ユーザA、B・・・Z)によって操作される複数のクライアント端末装置5(クライアント端末装置5a、5b・・・5z)と、通信ネットワーク2と、サーバ装置3とから構成される。クライアント端末装置5は、通信ネットワーク2を介してサーバ装置3と接続されている。なお、クライアント端末装置5とサーバ装置3とは常時接続していなくてもよく、必要に応じて、接続が可能であればよい。 FIG. 21 is a block diagram showing a system configuration corresponding to at least one of the embodiments of the present invention. As shown in the figure, the system includes a plurality of client terminal devices 5 (client terminal devices 5a, 5b ... 5z) operated by a plurality of users (users A, B ... Z), a communication network 2, and a communication network 2. It is composed of a server device 3. The client terminal device 5 is connected to the server device 3 via the communication network 2. The client terminal device 5 and the server device 3 do not have to be connected at all times, and may be connected as needed.

図22は、本発明の実施の形態の少なくとも1つに対応する、サーバ装置の構成を示すブロック図である。サーバ装置3は、制御部31、RAM32、ストレージ部33及び通信インタフェース34を備え、それぞれ内部バスにより接続されている。 FIG. 22 is a block diagram showing a configuration of a server device corresponding to at least one of the embodiments of the present invention. The server device 3 includes a control unit 31, a RAM 32, a storage unit 33, and a communication interface 34, each of which is connected by an internal bus.

制御部31は、CPUやROMから構成され、ストレージ部33に格納されたプログラムを実行し、サーバ装置3の制御を行う。また、制御部31は時間を計時する内部タイマを備えている。RAM32は、制御部31のワークエリアである。ストレージ部33は、プログラムやデータを保存するための記憶領域である。制御部31は、プログラム及びデータをRAM32から読み出し、クライアント端末装置5から受信した要求情報をもとに、プログラム実行処理を行う。通信インタフェース34は、無線又は有線により通信ネットワーク2に接続が可能であり、通信ネットワーク2を介してデータを受信することが可能である。通信インタフェース34を介して受信したデータは、RAM32にロードされ、制御部31により演算処理が行われる。 The control unit 31 is composed of a CPU and a ROM, executes a program stored in the storage unit 33, and controls the server device 3. Further, the control unit 31 is provided with an internal timer that measures the time. The RAM 32 is a work area of the control unit 31. The storage unit 33 is a storage area for storing programs and data. The control unit 31 reads the program and data from the RAM 32, and performs the program execution process based on the request information received from the client terminal device 5. The communication interface 34 can be connected to the communication network 2 wirelessly or by wire, and can receive data via the communication network 2. The data received via the communication interface 34 is loaded into the RAM 32, and arithmetic processing is performed by the control unit 31.

本発明の第九の実施の形態におけるクライアント端末装置の構成に関しては、図9に記載された内容を必要な範囲で採用できる。本発明の第九の実施の形態における実行画面に関しては、第五の実施の形態に記載された内容を必要な範囲で採用できる。第九の実施の形態では、一例として、クライアント端末装置5がタッチパネルを備え、タッチ操作による入力が可能な場合について説明する。 Regarding the configuration of the client terminal device according to the ninth embodiment of the present invention, the contents shown in FIG. 9 can be adopted to the extent necessary. Regarding the execution screen in the ninth embodiment of the present invention, the contents described in the fifth embodiment can be adopted to the extent necessary. In the ninth embodiment, as an example, a case where the client terminal device 5 is provided with a touch panel and input by touch operation is possible will be described.

続いて、システム4が備える機能について説明する。図23は、本発明の実施の形態の少なくとも1つに対応する、システムの構成を示すブロック図である。コンピュータ装置1は、領域設定部401、入力受付部402、入力判定部403、操作部処理部404、メニュー処理部405、オブジェクト判定部406、オブジェクト制御部407、移動処理部408、領域判定部409、隣接判定部410、及び行動実行部411を少なくとも備える。 Subsequently, the functions provided by the system 4 will be described. FIG. 23 is a block diagram showing a system configuration corresponding to at least one of the embodiments of the present invention. The computer device 1 includes an area setting unit 401, an input reception unit 402, an input determination unit 403, an operation unit processing unit 404, a menu processing unit 405, an object determination unit 406, an object control unit 407, a movement processing unit 408, and an area determination unit 409. , Adjacent determination unit 410, and action execution unit 411 are provided at least.

移動処理部408は、経路決定部421、表示制御部422、移動中入力判定部423、移動完了判定部424、及び停止部425を少なくとも備える。 The movement processing unit 408 includes at least a route determination unit 421, a display control unit 422, a moving input determination unit 423, a movement completion determination unit 424, and a stop unit 425.

領域設定部401は、ユーザオブジェクトが移動をしなくても、オブジェクトに対して所定の動作を実行することが可能である第1領域と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である第2領域とを設定する機能を有する。入力受付部402は、ユーザからの入力操作を受け付ける機能を有する。入力判定部403は、入力受付部402により受け付けた入力操作の操作対象を判定する機能を有する。 The area setting unit 401 has a first area in which a predetermined operation can be performed on the object without the user object moving, and the area setting unit 401 determines the object by moving the user object. It has a function of setting a second area capable of executing the operation of. The input receiving unit 402 has a function of receiving an input operation from the user. The input determination unit 403 has a function of determining an operation target of the input operation received by the input reception unit 402.

操作部処理部404は、操作部に対する処理を実行する機能を有する。メニュー処理部405は、メニューに対する処理を実行する機能を有する。オブジェクト判定部406は、オブジェクトに対する入力か否かを判定する機能を有する。オブジェクト制御部407は、オブジェクトの行動を制御する機能を有する。 The operation unit processing unit 404 has a function of executing processing for the operation unit. The menu processing unit 405 has a function of executing processing for the menu. The object determination unit 406 has a function of determining whether or not the input is for an object. The object control unit 407 has a function of controlling the behavior of the object.

移動処理部408は、ユーザオブジェクトの移動処理を実行する機能を有する。領域判定部409は、入力受付部402が受け付けた入力に対応するオブジェクトが存在する領域を判定する機能を有する。隣接判定部410は、ユーザオブジェクトと、入力受付部402が受け付けた入力に対応するオブジェクトとが隣接しているか否かを判定する機能を有する。行動実行部411は、ユーザオブジェクトに所定の動作を実行させる機能を有する。 The movement processing unit 408 has a function of executing the movement processing of the user object. The area determination unit 409 has a function of determining an area in which an object corresponding to the input received by the input reception unit 402 exists. The adjacency determination unit 410 has a function of determining whether or not the user object and the object corresponding to the input received by the input reception unit 402 are adjacent to each other. The action execution unit 411 has a function of causing the user object to execute a predetermined action.

経路決定部421は、ユーザオブジェクトとオブジェクトとを隣接させるための移動の経路を決定する機能を有する。表示制御部422は、ユーザオブジェクトが移動している場合に、ユーザオブジェクトの動作の対象となるオブジェクトと、それ以外のオブジェクトとを、区別可能な表示態様で表示する機能を有する。移動中入力判定部423は、ユーザオブジェクトが移動している場合に、さらにユーザの入力を受け付けたか否かを判定する機能を有する。移動完了判定部424は、ユーザオブジェクトの移動が完了したか否かを判定する機能を有する。停止部425は、ユーザオブジェクトの移動を停止する機能を有する。 The route determination unit 421 has a function of determining a movement route for adjoining a user object and the object. The display control unit 422 has a function of displaying an object to be operated by the user object and other objects in a distinguishable display mode when the user object is moving. The moving input determination unit 423 has a function of determining whether or not the user's input has been further received when the user object is moving. The movement completion determination unit 424 has a function of determining whether or not the movement of the user object is completed. The stop unit 425 has a function of stopping the movement of the user object.

続いて、実行処理について説明する。以下に説明する実行処理は、ユーザから入力を受け付け、受け付けた結果を出力するまでの処理を表す。つまり、ユーザから入力を受け付ける都度、実行されるものである。図24は、本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。システム4は、領域設定部401により領域を設定する(ステップS401)。領域設定に関しては、図13及び第五の実施の形態に記載された内容を必要な範囲で採用できる。 Next, the execution process will be described. The execution process described below represents a process of receiving input from a user and outputting the received result. That is, it is executed each time an input is received from the user. FIG. 24 is a flowchart of execution processing corresponding to at least one of the embodiments of the present invention. The system 4 sets an area by the area setting unit 401 (step S401). Regarding the area setting, the contents described in FIG. 13 and the fifth embodiment can be adopted to the extent necessary.

システム4は、ユーザから入力を受け付ける(ステップS402)。システム4は、入力判定部403により、受け付けた入力に対応する位置に存在するオブジェクトの属性を判定する(ステップS403)。 The system 4 receives input from the user (step S402). The system 4 determines the attribute of the object existing at the position corresponding to the received input by the input determination unit 403 (step S403).

受け付けた操作が、操作部への操作である場合(ステップS403にて1の場合)、システム4は、操作部処理を実行する(ステップS404)。操作部処理とは、操作部55に対する操作であり、仮想コントローラに対する操作である。仮想コントローラに対する操作は汎用的な操作であるため、詳細な説明は省略する。 When the received operation is an operation to the operation unit (in the case of 1 in step S403), the system 4 executes the operation unit process (step S404). The operation unit processing is an operation on the operation unit 55 and an operation on the virtual controller. Since the operation on the virtual controller is a general-purpose operation, detailed description thereof will be omitted.

受け付けた操作が、メニューオブジェクトへの操作である場合(ステップS403にて2の場合)、システム4は、メニュー処理を実行する(ステップS405)。メニュー処理とは、メニューオブジェクト54に対する操作であり、システムメニューを表示し、選択する操作である。メニュー選択に関する操作は汎用的な操作であるため、詳細な説明は省略する。 When the received operation is an operation on the menu object (in the case of 2 in step S403), the system 4 executes the menu process (step S405). The menu process is an operation on the menu object 54, and is an operation for displaying and selecting a system menu. Since the operation related to menu selection is a general-purpose operation, detailed description thereof will be omitted.

受け付けた操作が、操作部又はメニューオブジェクト以外への操作である場合(ステップS403にて3の場合)、システム4は、オブジェクト判定部406により、操作を受け付けた位置に、オブジェクトが存在するか否かを判定する(ステップS406)。オブジェクトが存在しない場合(ステップS406にてYES)には、受け付けた位置をユーザオブジェクトの移動先と特定し、移動処理を行い(ステップS407)、処理を終了する。移動処理に関しては、図14及び第五の実施の形態に記載された内容を必要な範囲で採用できる。 When the accepted operation is an operation other than the operation unit or the menu object (in the case of 3 in step S403), the system 4 determines whether or not the object exists at the position where the operation is accepted by the object determination unit 406. (Step S406). If the object does not exist (YES in step S406), the accepted position is specified as the move destination of the user object, the move process is performed (step S407), and the process ends. Regarding the moving process, the contents described in FIG. 14 and the fifth embodiment can be adopted to the extent necessary.

ユーザがオブジェクト又は関連オブジェクトを指定した場合(ステップS406にてNO)には、システム4は、オブジェクトの行動を制御する(ステップS408)。オブジェクトには、システム4により制御されず移動をしないものと、制御されて所定の移動を繰り返すものが存在し得る。行動の制御とは、例えば、オブジェクトの動作を停止させることをいう。このように制御することで、ユーザオブジェクトの移動先のオブジェクトまでの経路を容易に確定させることができ、システム4における処理負荷を減らすことができる。 When the user specifies an object or a related object (NO in step S406), the system 4 controls the behavior of the object (step S408). There may be an object that is not controlled by the system 4 and does not move, and an object that is controlled and repeats a predetermined movement. Behavioral control means, for example, stopping the movement of an object. By controlling in this way, the route to the destination object of the user object can be easily determined, and the processing load in the system 4 can be reduced.

次に、システム4は、ユーザの入力に対応する位置が第2領域であるか否かを判定する(ステップS409)。第2領域である場合(ステップS409にてYES)には、ユーザオブジェクトの移動処理を行い(ステップS410)、ユーザの入力に対応するオブジェクトと隣接したか否かを判定する(ステップS411)。隣接している場合(ステップS411にてYES)には、システム4は、ユーザオブジェクトに所定の動作を実行させる(ステップS412)。所定の動作とは、一例として、オブジェクトとの会話が挙げられる。 Next, the system 4 determines whether or not the position corresponding to the user's input is the second region (step S409). In the case of the second region (YES in step S409), the movement process of the user object is performed (step S410), and it is determined whether or not the object is adjacent to the object corresponding to the user's input (step S411). If they are adjacent (YES in step S411), the system 4 causes the user object to perform a predetermined operation (step S412). An example of a predetermined action is a conversation with an object.

ユーザの入力に対応するオブジェクトに隣接していない場合(ステップS411にてNO)とは、ユーザオブジェクトが移動中にユーザから入力があった、つまり、移動をキャンセルさせる入力があった場合であるので、システム4は、ユーザからの次の入力を待機する。このとき、ユーザオブジェクトは、オブジェクトと隣接しない位置で停止している。 The case where the object is not adjacent to the object corresponding to the user's input (NO in step S411) is the case where the user has input while the user object is moving, that is, there is an input to cancel the movement. , System 4 waits for the next input from the user. At this time, the user object is stopped at a position not adjacent to the object.

ユーザの入力に対応する位置が第2領域でない場合(ステップS409にてNO)には、システム4は、ユーザの入力に対応する位置が第1領域であるか否かを判定する(ステップS413)。第1領域である場合(ステップS413にてYES)には、システム4は、ユーザオブジェクトに所定の動作を実行させる(ステップS412)。第1領域でない場合(ステップS413にてNO)には、第3領域に位置するオブジェクトを指定したということであるので、無効な入力として処理を実行しないようにしてもよい。 When the position corresponding to the user's input is not the second area (NO in step S409), the system 4 determines whether or not the position corresponding to the user's input is the first area (step S413). .. In the case of the first region (YES in step S413), the system 4 causes the user object to execute a predetermined operation (step S412). If it is not the first area (NO in step S413), it means that the object located in the third area is specified, so that the process may not be executed as an invalid input.

システム4は、図示しないが、プログラム実行処理を終了後に、再度領域設定を行う(ステップS401)。このようにすることで、ユーザオブジェクトが移動後の状況における領域が設定され、関連オブジェクトの表示が更新され得る。 Although not shown, the system 4 sets the area again after the program execution process is completed (step S401). By doing so, the area in the situation after the user object is moved can be set, and the display of the related object can be updated.

第九の実施の形態の一例として、タッチパネルを備えるコンピュータ装置を挙げたが、これに限定されない。すなわち、マウス等何らかの入力を受け付け、仮想空間内の位置座標を特定可能な入力装置が備わっていればよい。 As an example of the ninth embodiment, a computer device including a touch panel has been mentioned, but the present invention is not limited thereto. That is, it suffices to have an input device such as a mouse that can accept some input and specify the position coordinates in the virtual space.

第九の実施の形態の一例としてゲームプログラムを挙げたが、ゲームに限定されるものではなく、適用可能なジャンルは限定されない。 Although a game program is given as an example of the ninth embodiment, it is not limited to the game, and the applicable genre is not limited.

第九の実施の形態の一例として仮想空間を挙げたが、現実世界の情報を取り入れたAR(拡張現実)の分野にも適用可能である。 Although virtual space is mentioned as an example of the ninth embodiment, it can also be applied to the field of AR (augmented reality) incorporating information in the real world.

第九の実施の形態は、一例として、シンクライアント技術を適用したクラウドゲームにも適用可能である。 The ninth embodiment can also be applied to a cloud game to which the thin client technology is applied, as an example.

第九の実施の形態の一側面として、ユーザの視認性及び利便性を向上させることができる。 As one aspect of the ninth embodiment, the visibility and convenience of the user can be improved.

第九の実施の形態の一側面として、第1領域及び第2領域を設定し、それぞれの領域に対応するオブジェクト同士を区別可能な表示態様で表示することで、領域を表示することなく、いずれの領域に対応するオブジェクトか判別することができ、かつ、ユーザオブジェクトによる所定の動作の実行可否を判別可能となり、ユーザの視認性及び利便性を向上させることができる。 As one aspect of the ninth embodiment, the first area and the second area are set, and the objects corresponding to the respective areas are displayed in a distinguishable display mode, so that the area is not displayed. It is possible to determine whether the object corresponds to the area of the above, and it is possible to determine whether or not the predetermined operation can be executed by the user object, and the visibility and convenience of the user can be improved.

第九の実施の形態の一側面として、ユーザの入力操作に応じて、ユーザオブジェクトが移動せず、第1オブジェクトに所定の動作を実行する第1実行手段、及び、ユーザの入力操作に応じて、ユーザオブジェクトが移動し、第2オブジェクトに所定の動作を実行する第2実行手段を備えることで、ユーザがユーザオブジェクトを移動させるか否かを意識することなく、オブジェクトに所定の動作を実行することができ、ユーザの利便性を向上させることができる。 As one aspect of the ninth embodiment, the user object does not move in response to the user's input operation, and the first execution means that executes a predetermined operation on the first object, and the user's input operation. , The user object moves and the second object is provided with the second execution means for executing the predetermined action, so that the user executes the predetermined action on the object without being aware of whether or not the user object is moved. It is possible to improve the convenience of the user.

第九の実施の形態の一側面として、経路決定手段を備え、第2実行手段が、決定した経路にしたがって、ユーザオブジェクトを移動させることにより、ユーザがユーザオブジェクトの移動操作をすることなく、第2オブジェクトへ隣接させ、かつ、所定の動作を実行することができ、ユーザの利便性を向上させることができる。 As one aspect of the ninth embodiment, a route determining means is provided, and the second executing means moves the user object according to the determined route, so that the user does not move the user object. It is possible to make the two objects adjacent to each other and execute a predetermined operation, which can improve the convenience of the user.

第九の実施の形態において、「仮想空間」、「オブジェクト」、「ユーザオブジェクト」、「動作」、「関連オブジェクト」、及び「区別可能」は、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。「入力操作」は、第三の実施の形態において記載した内容を必要な範囲で採用できる。「隣接」及び「経路」は、それぞれ第四の実施の形態において記載した内容を必要な範囲で採用できる。「行動の停止」及び「表示画面の略中央部」は、それぞれ第五の実施の形態において記載した内容を必要な範囲で採用できる。「クライアント端末装置」及び「サーバ装置」は、それぞれ第六の実施の形態において記載した内容を必要な範囲で採用できる。 In the ninth embodiment, "virtual space", "object", "user object", "action", "related object", and "distinguishable" are the contents described in the first embodiment, respectively. It can be adopted within the required range. As the "input operation", the contents described in the third embodiment can be adopted to the extent necessary. As the "adjacent" and the "route", the contents described in the fourth embodiment can be adopted to the extent necessary. As the "stop of action" and the "substantially central part of the display screen", the contents described in the fifth embodiment can be adopted to the extent necessary. As the "client terminal device" and the "server device", the contents described in the sixth embodiment can be adopted to the extent necessary.

[付記]
上で述べた実施の形態の説明は、下記の発明を、発明の属する分野における通常の知識を有する者がその実施をすることができるように記載した。
[Additional Notes]
The description of the embodiments described above has described the following inventions so that a person having ordinary knowledge in the field to which the invention belongs can carry out the invention.

[1] コンピュータ装置を、
仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示するオブジェクト表示手段
として機能させる、プログラム。
[1] Computer equipment
When it is possible to perform a predetermined action on an object even if the user object does not move in the virtual space, and when the user object moves, a predetermined action is executed on the object. A program that functions as an object display means for displaying the object or an associated object associated with the object in a distinguishable display mode, depending on where it is possible.

[2] コンピュータ装置を、さらに、
ユーザオブジェクトが移動をしなくても、オブジェクトに対して所定の動作を実行することが可能である第1領域と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である第2領域とを設定する領域設定手段
として機能させ、
オブジェクト表示手段が、第1領域に対応する第1オブジェクトと、第2領域に対応する第2オブジェクトとを区別可能な表示態様で表示する、又は、該第1オブジェクトと関連付けられた第1関連オブジェクトと、該第2オブジェクトと関連付けられた第2関連オブジェクトとを区別可能な表示態様で表示する、[1]に記載のプログラム。
[2] Computer equipment,
Performing a predetermined operation on an object by moving a first area and a user object that can perform a predetermined operation on the object even if the user object does not move. To function as an area setting means to set a second area that is possible
The object display means displays the first object corresponding to the first area and the second object corresponding to the second area in a distinguishable display mode, or the first related object associated with the first object. The program according to [1], which displays the second object and the second related object associated with the second object in a distinguishable display mode.

[3] コンピュータ装置を、さらに、
ユーザの入力操作に応じて、ユーザオブジェクトが移動せずに、第1オブジェクトに所定の動作を実行する第1実行手段、
ユーザの入力操作に応じて、ユーザオブジェクトが移動し、第2オブジェクトに所定の動作を実行する第2実行手段
として機能させる、[1]又は[2]に記載のプログラム。
[3] Computer equipment,
A first execution means, which executes a predetermined operation on a first object without moving the user object in response to a user input operation.
The program according to [1] or [2], wherein the user object moves according to a user input operation, and causes the second object to function as a second execution means for executing a predetermined operation.

[4] コンピュータ装置を、さらに、
ユーザオブジェクトと第2オブジェクトとを隣接させるための移動の経路を決定する経路決定手段
として機能させ、
第2実行手段が、決定した経路にしたがって、ユーザオブジェクトを移動させる、[3]に記載のプログラム。
[4] Computer equipment,
It functions as a route determination means for determining the movement route for adjoining the user object and the second object.
The program according to [3], wherein the second execution means moves the user object according to the determined route.

[5] 第2実行手段によりユーザオブジェクトが移動している場合に、さらにユーザの入力を受け付けると、ユーザオブジェクトの行動を停止する、[3]又は[4]に記載のプログラム。 [5] The program according to [3] or [4], wherein when the user object is moved by the second execution means and the user's input is further received, the action of the user object is stopped.

[6] オブジェクト表示手段が、
第2実行手段によりユーザオブジェクトが移動している場合に、第2実行手段の行動の対象となるオブジェクトと、それ以外のオブジェクトとを、区別可能な表示態様で表示する、[3]〜[5]のいずれかに記載のプログラム。
[6] The object display means is
When the user object is moved by the second executing means, the object to be acted by the second executing means and the other objects are displayed in a distinguishable display mode [3] to [5]. ] The program described in any of.

[7] 領域設定手段が、ユーザオブジェクト、又は、ユーザオブジェクト以外のオブジェクトを基点とした距離に基づいて、第1領域及び第2領域を設定する、
[2]〜[6]のいずれかに記載のプログラム。
[7] The area setting means sets the first area and the second area based on the distance from the user object or an object other than the user object as a base point.
The program according to any one of [2] to [6].

[8] コンピュータ装置が、表示画面を有するものであって、
領域設定手段が、該表示画面の略中央部を基点とした距離に基づいて、第1領域及び第2領域を設定する、
[2]〜[7]のいずれかに記載のプログラム。
[8] The computer device has a display screen and has a display screen.
The area setting means sets the first area and the second area based on the distance from the substantially central portion of the display screen.
The program according to any one of [2] to [7].

[9] コンピュータ装置を、
第1オブジェクト及び/又は第2オブジェクトの行動を制御するオブジェクト制御手段
として機能させ、
第1オブジェクトに対するユーザの入力を受け付けると、第1オブジェクトの行動を停止し、
第2オブジェクトに対するユーザの入力を受け付けると、第2オブジェクトの行動を停止する、[1]〜[8]のいずれかに記載のプログラム。
[9] Computer equipment
To function as an object control means that controls the behavior of the first object and / or the second object,
When the user's input to the first object is accepted, the action of the first object is stopped and
The program according to any one of [1] to [8], which stops the action of the second object when the user's input to the second object is received.

[10] コンピュータ装置が、表示画面を有するものであって、
第2領域が第1領域を包含し、かつ、第2領域が仮想空間より小さい領域である、[2]〜[9]のいずれかに記載のプログラム。
[10] The computer device has a display screen and has a display screen.
The program according to any one of [2] to [9], wherein the second area includes the first area and the second area is smaller than the virtual space.

[11] 仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示するオブジェクト表示手段
を備える、コンピュータ装置。
[11] When it is possible to perform a predetermined operation on an object even if the user object does not move in the virtual space, and when the user object moves, a predetermined operation is performed on the object. A computer device comprising an object display means for displaying the object or an associated object associated with the object in a distinguishable display mode, depending on where it is possible to perform.

[12] コンピュータ装置において実行される制御方法であって、
仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示する、制御方法。
[12] A control method executed in a computer device.
When it is possible to perform a predetermined action on an object even if the user object does not move in the virtual space, and when the user object moves, a predetermined action is executed on the object. A control method for displaying the object or related objects associated with the object in a distinguishable display mode, depending on where it is possible.

[13] クライアント装置と、該クライアント装置と通信可能なサーバ装置とを備えるシステムのサーバ装置において実行されるプログラムであって、
サーバ装置を、
仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示するオブジェクト表示手段
として機能させる、プログラム。
[13] A program executed in a server device of a system including a client device and a server device capable of communicating with the client device.
Server device,
When it is possible to perform a predetermined action on an object even if the user object does not move in the virtual space, and when the user object moves, a predetermined action is executed on the object. A program that functions as an object display means for displaying the object or an associated object associated with the object in a distinguishable display mode, depending on where it is possible.

[14] [13]に記載のプログラムをインストールしたサーバ装置。 [14] A server device on which the program described in [13] is installed.

[15] クライアント装置と、該クライアント装置と通信可能なサーバ装置とを備えるシステムであって、
仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示するオブジェクト表示手段
を備える、システム。
[15] A system including a client device and a server device capable of communicating with the client device.
When it is possible to perform a predetermined action on an object even if the user object does not move in the virtual space, and when the user object moves, a predetermined action is executed on the object. A system comprising object display means for displaying the object or related objects associated with the object in a distinguishable display mode, depending on where it is possible.

[16] クライアント装置と、該クライアント装置と通信可能なサーバ装置とを備えるシステムのクライアント装置において実行されるプログラムであって、
クライアント装置を、
仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示するオブジェクト表示手段
として機能させる、プログラム。
[16] A program executed in a client device of a system including a client device and a server device capable of communicating with the client device.
Client device,
When it is possible to perform a predetermined action on an object even if the user object does not move in the virtual space, and when the user object moves, a predetermined action is executed on the object. A program that functions as an object display means for displaying the object or an associated object associated with the object in a distinguishable display mode, depending on where it is possible.

[17] [16]に記載のプログラムをインストールしたクライアント装置。 [17] A client device on which the program described in [16] is installed.

[18] クライアント装置と、該クライアント装置と通信可能なサーバ装置とを備えるシステムのサーバ装置において実行される制御方法であって、
仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示する、制御方法。
[18] A control method executed in a server device of a system including a client device and a server device capable of communicating with the client device.
When it is possible to perform a predetermined action on an object even if the user object does not move in the virtual space, and when the user object moves, a predetermined action is executed on the object. A control method for displaying the object or related objects associated with the object in a distinguishable display mode, depending on where it is possible.

[19] クライアント装置と、該クライアント装置と通信可能なサーバ装置とを備えるシステムにおいて実行される制御方法であって、
仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示する、制御方法。
[19] A control method executed in a system including a client device and a server device capable of communicating with the client device.
When it is possible to perform a predetermined action on an object even if the user object does not move in the virtual space, and when the user object moves, a predetermined action is executed on the object. A control method for displaying the object or related objects associated with the object in a distinguishable display mode, depending on where it is possible.

1 コンピュータ装置
2 通信ネットワーク
3 サーバ装置
4 システム
5 クライアント端末装置
11 制御部
12 RAM
13 ストレージ部
14 サウンド処理部
15 グラフィックス処理部
16 外部記憶媒体読込部
17 通信インタフェース
18 インタフェース部
20 入力部
21 サウンド出力装置
22 表示装置
23 表示画面
24 外部記憶媒体
31 制御部
32 RAM
33 ストレージ部
34 通信インタフェース
50 ゲーム画面
1 Computer device 2 Communication network 3 Server device 4 System 5 Client terminal device 11 Control unit 12 RAM
13 Storage unit 14 Sound processing unit 15 Graphics processing unit 16 External storage medium reading unit 17 Communication interface 18 Interface unit 20 Input unit 21 Sound output device 22 Display device 23 Display screen 24 External storage medium 31 Control unit 32 RAM
33 Storage unit 34 Communication interface 50 Game screen

Claims (8)

コンピュータ装置を、
仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示するオブジェクト表示手段
として機能させる、プログラム。
Computer equipment,
When it is possible to perform a predetermined action on an object even if the user object does not move in the virtual space, and when the user object moves, a predetermined action is executed on the object. A program that functions as an object display means for displaying the object or an associated object associated with the object in a distinguishable display mode, depending on where it is possible.
コンピュータ装置を、さらに、
ユーザオブジェクトが移動をしなくても、オブジェクトに対して所定の動作を実行することが可能である第1領域と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である第2領域とを設定する領域設定手段
として機能させ、
オブジェクト表示手段が、第1領域に対応する第1オブジェクトと、第2領域に対応する第2オブジェクトとを区別可能な表示態様で表示する、又は、該第1オブジェクトと関連付けられた第1関連オブジェクトと、該第2オブジェクトと関連付けられた第2関連オブジェクトとを区別可能な表示態様で表示する、請求項1に記載のプログラム。
Computer equipment,
Performing a predetermined operation on an object by moving a first area and a user object that can perform a predetermined operation on the object even if the user object does not move. To function as an area setting means to set a second area that is possible
The object display means displays the first object corresponding to the first area and the second object corresponding to the second area in a distinguishable display mode, or the first related object associated with the first object. The program according to claim 1, wherein the second object and the second related object associated with the second object are displayed in a distinguishable display mode.
コンピュータ装置を、さらに、
ユーザの入力操作に応じて、ユーザオブジェクトが移動せずに、第1オブジェクトに所定の動作を実行する第1実行手段、
ユーザの入力操作に応じて、ユーザオブジェクトが移動し、第2オブジェクトに所定の動作を実行する第2実行手段
として機能させる、請求項1又は2に記載のプログラム。
Computer equipment,
A first execution means, which executes a predetermined operation on a first object without moving the user object in response to a user input operation.
The program according to claim 1 or 2, wherein the user object moves in response to a user input operation, and causes the second object to function as a second execution means for executing a predetermined operation.
コンピュータ装置を、さらに、
ユーザオブジェクトと第2オブジェクトとを隣接させるための移動の経路を決定する経路決定手段
として機能させ、
第2実行手段が、決定した経路にしたがって、ユーザオブジェクトを移動させる、請求項3に記載のプログラム。
Computer equipment,
It functions as a route determination means for determining the movement route for adjoining the user object and the second object.
The program according to claim 3, wherein the second execution means moves the user object according to the determined route.
第2実行手段によりユーザオブジェクトが移動している場合に、さらにユーザの入力を受け付けると、ユーザオブジェクトの行動を停止する、請求項3又は4に記載のプログラム。 The program according to claim 3 or 4, wherein when the user object is moved by the second execution means and the user's input is further received, the action of the user object is stopped. オブジェクト表示手段が、
第2実行手段によりユーザオブジェクトが移動している場合に、第2実行手段の行動の対象となるオブジェクトと、それ以外のオブジェクトとを、区別可能な表示態様で表示する、請求項3〜5のいずれかに記載のプログラム。
The object display means is
Claims 3 to 5, wherein when the user object is moved by the second executing means, the object to be acted by the second executing means and the other objects are displayed in a distinguishable display mode. The program described in either.
仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示するオブジェクト表示手段
を備える、コンピュータ装置。
When it is possible to perform a predetermined action on an object even if the user object does not move in the virtual space, and when the user object moves, a predetermined action is executed on the object. A computer device comprising object display means for displaying the object or an associated object associated with the object in a distinguishable display mode, depending on where it is possible.
コンピュータ装置において実行される制御方法であって、
仮想空間内においてユーザオブジェクトが移動しなくても、オブジェクトに対して所定の動作を実行することが可能である場合と、ユーザオブジェクトが移動をすることで、オブジェクトに対して所定の動作を実行することが可能である場合とで、該オブジェクト又は該オブジェクトと関連付けられた関連オブジェクトを区別可能な表示態様で表示する、制御方法。
A control method performed in a computer device
When it is possible to perform a predetermined action on an object even if the user object does not move in the virtual space, and when the user object moves, a predetermined action is executed on the object. A control method for displaying the object or related objects associated with the object in a distinguishable display mode, depending on where it is possible.
JP2019093960A 2019-05-17 2019-05-17 Program, computer device, and control method Pending JP2020185344A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019093960A JP2020185344A (en) 2019-05-17 2019-05-17 Program, computer device, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019093960A JP2020185344A (en) 2019-05-17 2019-05-17 Program, computer device, and control method

Publications (1)

Publication Number Publication Date
JP2020185344A true JP2020185344A (en) 2020-11-19

Family

ID=73221390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019093960A Pending JP2020185344A (en) 2019-05-17 2019-05-17 Program, computer device, and control method

Country Status (1)

Country Link
JP (1) JP2020185344A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013208373A (en) * 2012-03-30 2013-10-10 Namco Bandai Games Inc Program, information storage medium, and server
JP2014236907A (en) * 2013-06-10 2014-12-18 株式会社カプコン Game program and game system
JP2018020001A (en) * 2016-08-05 2018-02-08 株式会社セガゲームス Information processing device and game program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013208373A (en) * 2012-03-30 2013-10-10 Namco Bandai Games Inc Program, information storage medium, and server
JP2014236907A (en) * 2013-06-10 2014-12-18 株式会社カプコン Game program and game system
JP2018020001A (en) * 2016-08-05 2018-02-08 株式会社セガゲームス Information processing device and game program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"オルクス オンライン", 月刊アプリスタイル, vol. 第1巻 第5号, JPN6020026581, 27 April 2013 (2013-04-27), pages 200 - 201, ISSN: 0004470594 *
"三国志を抱く", 月刊アプリスタイル, vol. 第1巻 第8号, JPN6020026584, 27 July 2013 (2013-07-27), pages 149 - 151, ISSN: 0004619397 *
山下 章, パラサイト・イヴ解体真書, vol. 初版, JPN6020026583, 28 February 1999 (1999-02-28), pages 22 - 24, ISSN: 0004470595 *

Similar Documents

Publication Publication Date Title
WO2019218815A1 (en) Method and device for displaying marker elements in virtual scene, computer device, and computer-readable storage medium
US10850196B2 (en) Terminal device
JP6185123B1 (en) Program, control method, and information processing apparatus
WO2012124250A1 (en) Object control device, object control method, object control program, and integrated circuit
CN108196765A (en) Display control method, electronic equipment and storage medium
JP6470111B2 (en) Game program having message transmission function, message transmission method, and computer terminal with message transmission function
JP2006314632A5 (en)
US20210117070A1 (en) Computer-readable recording medium, computer apparatus, and method of controlling
US9047244B1 (en) Multi-screen computing device applications
JP2007299330A (en) Image display device and its control method and program
JP6100497B2 (en) Information processing program, information processing apparatus, information processing system, and image display method
TWI817208B (en) Method and apparatus for determining selected target, computer device, non-transitory computer-readable storage medium, and computer program product
US9665232B2 (en) Information-processing device, storage medium, information-processing method, and information-processing system for enlarging or reducing an image displayed on a display device
JP2016220847A (en) Game program with message transmission function, message transmission method, and computer terminal with message transmission function
JP2021176104A (en) Program, image processing method, and image processing system
KR20200113834A (en) Apparatus and method for providing application information
JP5977878B1 (en) Program, game control method, and information processing apparatus
JP2020185344A (en) Program, computer device, and control method
JP2017174144A (en) Program, computer device, program execution method and system
WO2018043693A1 (en) Game program, method, and information processing device
JP6641041B2 (en) Display control program, display control method, and display control system
JP6554220B1 (en) Program, processing apparatus, and processing method
JP6956209B2 (en) Terminal devices and programs
JP5247907B1 (en) Data acquisition device, data acquisition system, data acquisition device control method, and program
JP6002346B1 (en) Program, method, electronic apparatus and system for displaying object image in game

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211019