JP6002346B1 - Program, method, electronic apparatus and system for displaying object image in game - Google Patents

Program, method, electronic apparatus and system for displaying object image in game Download PDF

Info

Publication number
JP6002346B1
JP6002346B1 JP2016077338A JP2016077338A JP6002346B1 JP 6002346 B1 JP6002346 B1 JP 6002346B1 JP 2016077338 A JP2016077338 A JP 2016077338A JP 2016077338 A JP2016077338 A JP 2016077338A JP 6002346 B1 JP6002346 B1 JP 6002346B1
Authority
JP
Japan
Prior art keywords
image
display
visible region
visible
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016077338A
Other languages
Japanese (ja)
Other versions
JP2017187978A (en
Inventor
修一 倉林
修一 倉林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cygames Inc
Original Assignee
Cygames Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cygames Inc filed Critical Cygames Inc
Priority to JP2016077338A priority Critical patent/JP6002346B1/en
Application granted granted Critical
Publication of JP6002346B1 publication Critical patent/JP6002346B1/en
Publication of JP2017187978A publication Critical patent/JP2017187978A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ゲームにおけるオブジェクト画像表示のためのプログラム、方法、電子装置及びシステムを提供すること。【解決手段】表示装置を含む電子装置に、仮想空間における可視領域をプレイヤに操作させるための可視領域操作画像及び仮想空間に配置されたオブジェクトをプレイヤに操作させるためのオブジェクト操作画像を表示するステップと、プレイヤ操作によって移動された可視領域操作画像において表示された可視領域表示の移動先位置に対応する仮想空間における領域に可視領域を変更するステップと、変更された可視領域の中に配置されたオブジェクトに対して可視化処理を実行し、変更された可視領域の外に配置されたオブジェクトに対して不可視化処理を実行して表示オブジェクト画像を生成するステップと、表示オブジェクト画像に基づいて、表示装置上に表示されたオブジェクト操作画像を更新して表示させるステップと、を実行させるプログラム。【選択図】図1A program, a method, an electronic apparatus, and a system for displaying an object image in a game are provided. A step of displaying, on an electronic device including a display device, a visible region operation image for causing a player to operate a visible region in a virtual space and an object operation image for causing a player to operate an object arranged in the virtual space. And a step of changing the visible area to the area in the virtual space corresponding to the movement destination position of the visible area display displayed in the visible area operation image moved by the player operation, and being arranged in the changed visible area A step of generating a display object image by executing a visualization process on the object and executing an invisibility process on the object arranged outside the changed visible region; and a display device based on the display object image And updating and displaying the object operation image displayed above. Program to. [Selection] Figure 1

Description

本発明は、ゲームにおけるオブジェクト画像表示のためのプログラム、方法、電子装置及びシステムに関する。   The present invention relates to a program, a method, an electronic apparatus, and a system for displaying an object image in a game.

箱庭系ゲームのような、仮想空間に配置されたオブジェクトの配置を変更する等の操作をプレイヤに行わせるゲームが知られている。このようなゲームにおいては、三次元の空間を、俯瞰視点から、二次元的に描き表す方法であるクォータービューという手法が一般的に用いられている。視点をある特定の方向からのみに限定した、固定クォータービューは、比較的少ないハードウェア資源を用いて実装することができるため広く採用されている。   There is known a game such as a miniature garden game in which a player performs an operation such as changing the arrangement of objects arranged in a virtual space. In such a game, a technique called quarter view, which is a method of two-dimensionally drawing a three-dimensional space from an overhead viewpoint, is generally used. Fixed quarter views, which limit the viewpoint only from a specific direction, are widely adopted because they can be implemented using relatively few hardware resources.

このように所定の視点から三次元空間を二次元的に表わす手法を用いた場合、画面の手前方向に配置されたオブジェクトが、画面の奥行方向に配置されたオブジェクト群を覆い隠してしまうオクルージョン(occlusion)が発生する。特に、固定クォータービューのように視点をある特定の方向からのみに限定した場合には、手前のオブジェクトによって覆い隠されたオブジェクトをプレイヤは視認することはできない。特許文献1は、このオクルージョンの問題を解決する手法の一つとして、奥に配置されたオブジェクトを前面のオブジェクトに平面的に投影させて前面のオブジェクトの一部の色(テクスチャなど)を変化させ、奥のオブジェクトの存在をプレイヤに認識させる構成を開示する。   In this way, when using a method for representing a three-dimensional space in a two-dimensional manner from a predetermined viewpoint, an object arranged in the front direction of the screen covers an object group arranged in the depth direction of the screen ( occlusion) occurs. In particular, when the viewpoint is limited to only from a specific direction as in the fixed quarter view, the player cannot visually recognize the object covered by the object in front. In Patent Document 1, as one of the techniques for solving this occlusion problem, an object placed in the back is projected onto a front object in a planar manner to change the color (texture, etc.) of a part of the front object. A configuration is disclosed in which the player recognizes the presence of an object in the back.

特開2005−322085号公報Japanese Patent Laid-Open No. 2005-322085

特許文献1に記載された構成では、プレイヤは奥のオブジェクトの存在を認識することはできたとしても、手前のオブジェクトによって隠された奥のオブジェクトを操作することは困難である。例えば、タッチパネルを入力デバイスに用いて、タッチパネル上に表示されたオブジェクトへのタッチによって操作対象を選択させる場合には、手前のオブジェクトによって覆い隠された奥のオブジェクトを選択することはできない。   In the configuration described in Patent Document 1, even if the player can recognize the presence of the back object, it is difficult to operate the back object hidden by the near object. For example, when an operation target is selected by touching an object displayed on the touch panel using the touch panel as an input device, it is not possible to select a back object that is covered by the front object.

本発明は上記の課題に鑑みてなされたものであり、以下のような特徴を有している。すなわち、本発明のプログラムは、仮想空間に配置されたオブジェクトをプレイヤに操作させるゲームのためのプログラムであって、前記プログラムは、表示装置を含む電子装置に、前記表示装置に、仮想空間における可視領域をプレイヤに操作させるための可視領域操作画像及び前記仮想空間に配置された1つ以上のオブジェクトをプレイヤに操作させるためのオブジェクト操作画像を表示するステップであって、前記可視領域操作画像は前記仮想空間の少なくとも一部の領域を表現するものであり、所定の可視領域を示す可視領域表示が前記可視領域操作画像において表示され、前記オブジェクト操作画像は前記仮想空間に含まれる他の少なくとも一部の領域を仮想カメラから見た画像である、ステップと、プレイヤの操作によって移動された前記可視領域操作画像において表示された可視領域表示の移動先位置に対応する前記仮想空間における領域に前記可視領域を変更するステップと、前記仮想空間に配置された1つ以上のオブジェクトの位置情報に基づいて、前記変更された可視領域の中に配置されたオブジェクトに対して可視化処理を実行し、前記変更された可視領域の外に配置されたオブジェクトに対して不可視化処理を実行して表示オブジェクト画像を生成するステップと、前記表示オブジェクト画像に基づいて、前記表示装置上に表示された前記オブジェクト操作画像を更新して表示させるステップと、を実行させる。   The present invention has been made in view of the above problems, and has the following characteristics. That is, the program of the present invention is a program for a game that causes a player to operate an object placed in a virtual space, and the program is displayed on an electronic device including a display device, on the display device, on a visible space in the virtual space. Displaying a visible region operation image for causing a player to operate an area and an object operation image for causing a player to operate one or more objects arranged in the virtual space, wherein the visible region operation image is It represents at least a part of a virtual space, a visible region display indicating a predetermined visible region is displayed in the visible region manipulation image, and the object manipulation image is at least another part included in the virtual space This is an image of the area viewed from the virtual camera. Changing the visible area to an area in the virtual space corresponding to a movement destination position of the visible area display displayed in the visible area operation image, and positions of one or more objects arranged in the virtual space Based on the information, the visualization process is executed for the object arranged in the changed visible area, and the invisibility process is executed for the object arranged outside the changed visibility area. A step of generating a display object image and a step of updating and displaying the object operation image displayed on the display device based on the display object image are executed.

前記仮想カメラの位置は前記オブジェクト操作画像上におけるプレイヤの操作によって移動されてもよい。   The position of the virtual camera may be moved by a player operation on the object operation image.

前記不可視化処理は、プレイヤによるオブジェクトの操作をできなくする操作無効化処理、及び、オブジェクト画像の透過処理または非表示化処理であり、前記可視化処理は、プレイヤによるオブジェクトの操作を可能にする操作有効化処理、及び、オブジェクト画像の透過処理の終了処理または表示化処理とすることができる。   The invisibility process is an operation invalidation process that prevents the player from operating the object, and an object image transparency process or a non-display process. The visualization process is an operation that enables the player to operate the object. The validation process and the object image transparency process end process or display process can be used.

前記可視領域は複数の可視領域であり、前記可視領域表示は複数の可視領域表示としてもよい。   The visible region may be a plurality of visible regions, and the visible region display may be a plurality of visible region displays.

前記可視領域は三次元領域とすることができる。   The visible region can be a three-dimensional region.

前記不可視化処理は、前記変更された可視領域に対応する領域の外に少なくとも一部が配置されたオブジェクトに対して不可視化処理してもよい。   In the invisibility process, an invisible process may be performed on an object at least a part of which is arranged outside the area corresponding to the changed visible area.

前記可視化処理は、前記変更された可視領域に対応する領域の中に配置されたオブジェクトの部分に対して可視化処理し、前記不可視化処理は、前記変更された可視領域に対応する領域の外に配置されたオブジェクトの部分に対して不可視化処理してもよい。   The visualization process performs a visualization process on a part of an object arranged in an area corresponding to the changed visible area, and the invisibility process is performed outside the area corresponding to the changed visible area. You may make the arrangement | positioning object part invisible.

前記可視領域画像はオブジェクト画像を含むものであり、前記プログラムは、前記電子装置に、前記表示装置上に表示された前記オブジェクト操作画像におけるオブジェクトの配置がプレイヤ操作によって変更されると、オブジェクト情報における当該オブジェクトの位置情報を変更して、前記オブジェクト情報を更新するステップと、前記更新されたオブジェクト情報に基づいて、前記表示装置に表示された前記可視領域操作画像を更新して表示するステップを更に実行させてもよい。   The visible region image includes an object image, and the program stores the object information in the electronic device when the placement of the object in the object operation image displayed on the display device is changed by a player operation. Changing the position information of the object and updating the object information; and updating and displaying the visible region operation image displayed on the display device based on the updated object information. It may be executed.

前記仮想空間は、不連続な複数の仮想空間を含み、前記可視領域操作画像を表示するステップは、前記複数の仮想空間の各々の少なくとも一部の領域を表現する複数の可視領域操作画像を表示するステップを含み、前記複数の可視領域操作画像の表示間隔は、隣接する可視領域操作画像が配置される方向の可視領域表示幅より大きく、前記オブジェクト操作画像を表示するステップは、前記表示装置に表示された複数の可視領域操作画像からプレイヤの操作によって選択された一つの可視領域操作画像に対応する仮想空間のためのオブジェクト操作画像を表示するステップを含んでもよい。   The virtual space includes a plurality of discontinuous virtual spaces, and the step of displaying the visible region manipulation image displays a plurality of visible region manipulation images representing at least a part of each of the plurality of virtual spaces. A display interval of the plurality of visible region operation images is larger than a visible region display width in a direction in which adjacent visible region operation images are arranged, and the step of displaying the object operation image is displayed on the display device. A step of displaying an object operation image for the virtual space corresponding to one visible region operation image selected by the player's operation from the displayed plurality of visible region operation images may be included.

本発明は、前述のプログラムを格納したコンピュータ読み取り可能な記録媒体とすることができる。   The present invention can be a computer-readable recording medium storing the aforementioned program.

さらに、本発明の電子装置は、仮想空間に配置されたオブジェクトをプレイヤに操作させるゲームを実行する電子装置であって、表示手段と、可視領域決定手段と、表示画像生成手段と、を備え、前記表示手段は、前記仮想空間における可視領域をプレイヤに操作させるための可視領域操作画像及び前記仮想空間に配置された1つ以上のオブジェクトをプレイヤに操作させるためのオブジェクト操作画像を表示するものであって、前記可視領域操作画像は前記仮想空間の少なくとも一部の領域を表現するものであり、所定の可視領域を示す可視領域表示が前記可視領域操作画像において表示され、前記オブジェクト操作画像は前記仮想空間に含まれる他の少なくとも一部の領域を仮想カメラから見た画像であり、前記可視領域決定手段は、プレイヤの操作によって移動された前記可視領域操作画像において表示された可視領域表示の移動先位置に対応する前記仮想空間における領域に前記可視領域を変更し、前記表示画像生成手段は、前記仮想空間に配置された1つ以上のオブジェクトの位置情報に基づいて、前記変更された可視領域の中に配置されたオブジェクトに対して可視化処理を実行し、前記変更された可視領域の外に配置されたオブジェクトに対して不可視化処理を実行して表示オブジェクト画像を生成し、前記表示手段は、前記表示オブジェクト画像に基づいて更新された前記オブジェクト操作画像を表示する。  Furthermore, an electronic device according to the present invention is an electronic device that executes a game that causes a player to operate an object placed in a virtual space, and includes a display unit, a visible region determination unit, and a display image generation unit. The display means displays a visible region operation image for causing the player to operate a visible region in the virtual space and an object operation image for causing the player to operate one or more objects arranged in the virtual space. The visible area operation image represents at least a part of the virtual space, a visible area display indicating a predetermined visible area is displayed in the visible area operation image, and the object operation image is An image obtained by viewing at least a part of another region included in the virtual space from the virtual camera, and the visible region determining means The visible area is changed to an area in the virtual space corresponding to the movement destination position of the visible area display displayed in the visible area operation image moved by the operation of the ear, and the display image generating means is in the virtual space. An object arranged outside the changed visible area by executing a visualization process on the object arranged in the changed visible area based on position information of the arranged one or more objects A display object image is generated by performing invisibility processing on the display object, and the display means displays the object operation image updated based on the display object image.

本発明のシステムは、サーバと、前記サーバにネットワークを介して接続される、表示手段を備える電子装置とを含むシステムであって、可視領域決定手段と、表示画像生成手段と、の各手段を前記サーバ又は前記電子装置が備え、前記表示手段は、仮想空間における可視領域をプレイヤに操作させるための可視領域操作画像及び前記仮想空間に配置された1つ以上のオブジェクトをプレイヤに操作させるためオブジェクト操作画像を表示するものであって、前記可視領域操作画像は前記仮想空間の少なくとも一部の領域を表現するものであり、所定の可視領域を示す可視領域表示が前記可視領域操作画像において表示され、前記オブジェクト操作画像は前記仮想空間に含まれる他の少なくとも一部の領域を仮想カメラから見た画像であり、前記可視領域決定手段は、プレイヤの操作によって移動された前記可視領域操作画像において表示された可視領域表示の移動先位置に対応する前記仮想空間における領域に前記可視領域を変更し、前記表示画像生成手段は、前記仮想空間に配置された1つ以上のオブジェクトの位置情報に基づいて、前記変更された可視領域の中に配置されたオブジェクトに対して可視化処理を実行し、前記変更された可視領域の外に配置されたオブジェクトに対して不可視化処理を実行して表示オブジェクト画像を生成し、前記表示手段は、前記表示オブジェクト画像に基づいて更新された前記オブジェクト操作画像を表示する。   The system of the present invention is a system including a server and an electronic device including display means connected to the server via a network, wherein each means of a visible region determining means and a display image generating means is provided. The server or the electronic apparatus includes the display unit, an object for causing the player to operate a visible area operation image for causing the player to operate a visible area in the virtual space, and one or more objects arranged in the virtual space. An operation image is displayed, wherein the visible area operation image represents at least a part of the virtual space, and a visible area display indicating a predetermined visible area is displayed in the visible area operation image. The object operation image is an image obtained by viewing at least a part of another area included in the virtual space from the virtual camera, The visible region determining means changes the visible region to a region in the virtual space corresponding to a movement destination position of the visible region display displayed in the visible region operation image moved by a player's operation, and generates the display image The means executes a visualization process on the object arranged in the changed visible area based on position information of one or more objects arranged in the virtual space, and the changed visible area A display object image is generated by executing an invisibility process on an object arranged outside the display object, and the display means displays the object operation image updated based on the display object image.

本発明の方法は、仮想空間に配置されたオブジェクトをプレイヤに操作させるゲームのための表示装置を含む電子装置が実行する方法であって、前記表示装置に、仮想空間における可視領域をプレイヤに操作させるための可視領域操作画像及び前記仮想空間に配置された1つ以上のオブジェクトをプレイヤに操作させるためオブジェクト操作画像を表示するステップであって、前記可視領域操作画像は前記仮想空間の少なくとも一部の領域を表現するものであり、所定の可視領域を示す可視領域表示が前記可視領域操作画像において表示され、前記オブジェクト操作画像は前記仮想空間に含まれる他の少なくとも一部の領域を仮想カメラから見た画像である、ステップと、プレイヤの操作によって移動された前記可視領域操作画像において表示された可視領域表示の移動先位置に対応する前記仮想空間における領域に前記可視領域を変更するステップと、前記仮想空間に配置された1つ以上のオブジェクトの位置情報に基づいて、前記変更された可視領域の中に配置されたオブジェクトに対して可視化処理を実行し、前記変更された可視領域の外に配置されたオブジェクトに対して不可視化処理を実行して表示オブジェクト画像を生成するステップと、前記表示装置に、前記表示オブジェクト画像に基づいて更新された前記オブジェクト操作画像を表示するステップと、を含む。   The method of the present invention is a method executed by an electronic device including a display device for a game that causes a player to operate an object arranged in a virtual space, and the player manipulates a visible region in the virtual space. Displaying a visible region operation image for causing the player to operate one or more objects arranged in the virtual space, wherein the visible region operation image is at least a part of the virtual space. A visible area display indicating a predetermined visible area is displayed in the visible area operation image, and the object operation image is obtained by transmitting at least a part of the other area included in the virtual space from the virtual camera. In the visible region operation image that has been moved by the operation of the step and the player, which is the viewed image Changing the visible area to an area in the virtual space corresponding to the movement destination position of the displayed visible area, and the position information of one or more objects arranged in the virtual space Performing a visualization process on an object arranged in a visible region, generating a display object image by performing an invisibility process on an object arranged outside the changed visible region; and Displaying the object operation image updated based on the display object image on the display device.

本発明によれば、オクルージョンによる問題を解決し、プレイヤの操作性を向上することができる。すなわち、興味のある領域を可視領域としてプレイヤに選択させ、可視領域外に配置されたオブジェクトを不可視化することにより、興味のないオブジェクトによって妨げられることなく、興味のあるオブジェクトを表示させることができる。また、可視領域操作画像上の可視領域表示に対する操作によって、オブジェクト操作画像における可視領域を移動させることができる。オブジェクト操作画像における可視領域の位置は、表示画面上における所定の位置に固定されるものではなく、可視領域操作画像上の操作によって自由に動かすことができる。可視領域を移動させるために、オブジェクト操作画像の表示領域を移動させる必要もない。このため、プレイヤの必要に応じて柔軟にオブジェクト画像を表示させることができる。   According to the present invention, problems due to occlusion can be solved and the operability of the player can be improved. That is, by making the player select an area of interest as a visible area and making an object placed outside the visible area invisible, the object of interest can be displayed without being obstructed by an object of no interest. . Further, the visible region in the object operation image can be moved by an operation on the visible region display on the visible region operation image. The position of the visible region in the object operation image is not fixed at a predetermined position on the display screen, and can be freely moved by an operation on the visible region operation image. It is not necessary to move the display area of the object operation image in order to move the visible area. For this reason, an object image can be displayed flexibly as the player needs.

本発明の一実施形態に係る電子装置のハードウェア構成ブロック図である。It is a hardware block diagram of the electronic device which concerns on one Embodiment of this invention. 本発明の1つの実施形態に係る電子装置のタッチパネルの座標軸を示す図である。It is a figure which shows the coordinate axis of the touchscreen of the electronic device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る電子装置の機能ブロック図である。It is a functional block diagram of the electronic device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画面表示例を示す図である。It is a figure which shows the example of a screen display which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像レイヤを示す図である。It is a figure which shows the image layer which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像レイヤを示す図である。It is a figure which shows the image layer which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理を示すフローチャートである。It is a flowchart which shows the information processing which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理を示すフローチャートである。It is a flowchart which shows the information processing which concerns on one Embodiment of this invention. 本発明の一実施形態に係るプレイヤ操作例を示す図である。It is a figure which shows the example of player operation which concerns on one Embodiment of this invention. 本発明の一実施形態に係るプレイヤ操作例を示す図である。It is a figure which shows the example of player operation which concerns on one Embodiment of this invention. 本発明の一実施形態に係るプレイヤ操作例を示す図である。It is a figure which shows the example of player operation which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画面表示例を示す図である。It is a figure which shows the example of a screen display which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画面表示例を示す図である。It is a figure which shows the example of a screen display which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画面表示例を示す図である。It is a figure which shows the example of a screen display which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画面表示例を示す図である。It is a figure which shows the example of a screen display which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画面表示例を示す図である。It is a figure which shows the example of a screen display which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理を示すフローチャートである。It is a flowchart which shows the information processing which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理を示すフローチャートである。It is a flowchart which shows the information processing which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理を示すフローチャートである。It is a flowchart which shows the information processing which concerns on one Embodiment of this invention. 本発明の1つの実施形態に係るシステムの全体構成である。1 is an overall configuration of a system according to one embodiment of the present invention. 本発明の1つの実施形態に係るサーバのハードウェア構成である。It is a hardware constitutions of the server concerning one embodiment of the present invention.

以下、図面を参照して、本発明の実施形態を説明する。本実施形態に係るゲームシステムは、ネットワークを介して複数の電子装置が接続されるシステムによって実現することができるが、一台の電子装置によっても実現することもできる。まず、一台の電子装置で実現する実施形態を説明し、その後、ネットワークに接続されたシステムについて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The game system according to the present embodiment can be realized by a system in which a plurality of electronic devices are connected via a network, but can also be realized by a single electronic device. First, an embodiment realized by one electronic device will be described, and then a system connected to a network will be described.

[第1の実施形態]
以下、一台の電子装置で実現する実施形態について説明する。本実施形態における電子装置100は、ゲームの実行を制御する装置であり、タッチパネルによりプレイヤの操作入力を受け付ける。例えば、スマートフォン、タブレット端末または携帯ゲーム機等の携帯型装置とすることができる。また、タッチパネルに替えてマウスやコントローラによるプレイヤの操作入力を受け付けるPCまたはゲーム専用機等の据置型装置としても実施可能であることは明らかである。
[First Embodiment]
Hereinafter, an embodiment realized by a single electronic device will be described. The electronic device 100 in the present embodiment is a device that controls the execution of a game, and receives an operation input from a player through a touch panel. For example, a portable device such as a smartphone, a tablet terminal, or a portable game machine can be used. It is also apparent that the present invention can be implemented as a stationary device such as a PC or a game-dedicated machine that accepts a player's operation input from a mouse or controller instead of the touch panel.

処理部101は、プログラム106、入力部103からの入力データ、または通信部105から受信したデータに基づいて、ゲーム処理や画像生成処理などの各種の処理を行う。処理部101は、電子装置100が備える各部を制御するプロセッサを備えており、プロセッサが含むレジスタや記憶部104をワーク領域として各種処理を行う。これらの各構成部はバス108によって接続されるが、それぞれが必要に応じて個別に接続される形態であってもかまわない。   The processing unit 101 performs various processing such as game processing and image generation processing based on the program 106, input data from the input unit 103, or data received from the communication unit 105. The processing unit 101 includes a processor that controls each unit included in the electronic apparatus 100, and performs various processes using a register included in the processor and the storage unit 104 as a work area. Each of these components is connected by the bus 108, but each may be individually connected as necessary.

表示部(ディスプレイ)102は、処理部101の制御に従って、ゲームの進行やプレイヤ操作に応じたゲーム画面を表示する。好ましくは液晶ディスプレイであるが、有機ELを用いたディスプレイやプラズマディスプレイ等であってもよい。   The display unit (display) 102 displays a game screen according to the progress of the game and the player operation in accordance with the control of the processing unit 101. A liquid crystal display is preferable, but a display using an organic EL, a plasma display, or the like may be used.

記憶部104は、ハードディスク、メインメモリ、及びバッファメモリを含む。ハードディスクにはプログラム106が記憶される。ただしハードディスクは、情報を格納できるものであればいかなる不揮発性ストレージまたは不揮発性メモリであってもよく、着脱可能なものであっても構わない。例えば電子装置100がスマートフォンである場合はROM及びRAMを含む。記憶部104には、プログラム106や当該プログラムの実行に伴って参照されうる各種のデータが記憶される。プログラム106は、オペレーティングシステム、またはビデオゲーム、ウェブブラウザ等のプレイヤ入力を要求するあらゆるアプリケーションのためのプログラムを含み、各種のデータには、例えばゲームに登場するオブジェクトなどの各種画像を表示するための画像データ、オブジェクトの位置、ゲーム中に記憶部104に書き込まれうるデータも含まれる。   The storage unit 104 includes a hard disk, a main memory, and a buffer memory. A program 106 is stored in the hard disk. However, the hard disk may be any nonvolatile storage or nonvolatile memory as long as it can store information, and may be removable. For example, when the electronic device 100 is a smartphone, it includes ROM and RAM. The storage unit 104 stores the program 106 and various types of data that can be referred to when the program is executed. The program 106 includes a program for any application that requires player input such as an operating system or a video game, a web browser, etc., and various data for displaying various images such as objects appearing in the game, for example. The image data, the position of the object, and data that can be written in the storage unit 104 during the game are also included.

通信部105は、移動体通信、無線LAN等の無線通信やイーサネット(登録商標)ケーブル、USBケーブル等を用いた有線通信を行う。この通信部105によって、プログラムをサーバからダウンロードして、記憶部104に格納することもできる。通信部105を介して、プログラムをサーバからダウンロードして、記憶部104に格納してもよい。CD/DVD等の光学ディスクにプログラムを格納し、通信部105に光学ドライブを接続して、光学ディスクからプログラム等を読み込んで記憶部104に格納してもよい。   The communication unit 105 performs mobile communication, wireless communication such as wireless LAN, and wired communication using an Ethernet (registered trademark) cable, a USB cable, or the like. The communication unit 105 can also download the program from the server and store it in the storage unit 104. The program may be downloaded from the server via the communication unit 105 and stored in the storage unit 104. The program may be stored in an optical disk such as a CD / DVD, an optical drive may be connected to the communication unit 105, and the program or the like may be read from the optical disk and stored in the storage unit 104.

入力部103は、タッチパネル、タッチパッド、キーボード、マウス、またはゲームコントローラ等のように使用者からの入力を受け付ける機能を有するものである。入力部103は、例えばタッチパネルのように、プレイヤがタッチした位置に基づいた入力を電子装置100に与える接触型入力部であるのが好ましい。電子装置100が入力部103としてタッチパネル110を備える場合、タッチパネル110は表示部102としても機能し、表示部102と入力部103は一体とした構造である。この場合タッチパネル110は、表示部102(入力部103)へのプレイヤのタッチによる入力を受け付け、プレイヤがタッチした位置に対応する座標を検出し、電子装置100に与える。検出方式は、静電容量方式などのあらゆる方式を含みうる。表示部102と入力部103は、別の位置に配置される別個の形態であっても構わないが、本実施形態においては主に、タッチパネル110を備えた電子装置100について説明する。   The input unit 103 has a function of receiving input from the user, such as a touch panel, a touch pad, a keyboard, a mouse, or a game controller. The input unit 103 is preferably a contact type input unit that gives an input to the electronic apparatus 100 based on a position touched by the player, such as a touch panel. When the electronic device 100 includes the touch panel 110 as the input unit 103, the touch panel 110 also functions as the display unit 102, and the display unit 102 and the input unit 103 have an integrated structure. In this case, the touch panel 110 receives an input by a player's touch on the display unit 102 (input unit 103), detects coordinates corresponding to a position touched by the player, and provides the electronic device 100 with the coordinates. The detection method may include any method such as a capacitance method. Although the display unit 102 and the input unit 103 may be in separate forms arranged at different positions, in the present embodiment, the electronic apparatus 100 including the touch panel 110 will be mainly described.

ここでタッチとは、指などがタッチパネル110に接触する動作や状態である。なおプレイヤによるタッチはプレイヤの指によるものとして説明するが、どの指によるタッチでもよく、または例えばスタイラスペンのような、その他のものであってもよい。一方、リリースとは指などがタッチパネルから離れる動作や状態である。プレイヤは主にタッチパネル110をタッチやリリースすることにより操作する。このようなタッチ操作には、タッチ、ロングタッチ、マルチタッチ、リリース、スライド、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、及びフリックなどを含むことができる。例えばスライドは、指などがタッチパネルに接触したままタッチ位置を移動させる操作である。   Here, the touch is an operation or a state in which a finger or the like touches the touch panel 110. Note that although the touch by the player is described as being performed by the player's finger, the touch may be performed by any finger, or may be another such as a stylus pen. On the other hand, the release is an operation or state in which a finger or the like is separated from the touch panel. The player mainly operates by touching or releasing the touch panel 110. Such touch operations may include touch, long touch, multi-touch, release, slide, swipe, tap, double tap, long tap, drag, and flick. For example, the slide is an operation of moving the touch position while a finger or the like is in contact with the touch panel.

タッチパネル110は、第1軸及び第1軸に実質的に直交する第2軸からなる座標平面を用いて、座標により位置が指定される。好ましくは図2に示すように、第1軸は略長方形であるタッチパネル110の短辺と、第2軸はタッチパネル110の長辺と、実質的に平行であって、第1軸方向の座標軸(横軸)及び第2軸方向の座標軸(縦軸)により座標(x,y)として表される。処理部101はプログラム等を用いて、タッチパネル110により検出するタッチ位置を当該座標(x,y)データとして取得することができる。例えばタッチパネル110の検出精度が640ドット×1,136ドットである場合は、横軸方向に640ドット、縦軸方向に1,136ドットの分解能を有することができる。この場合のドットは1つの点であってもよいし、一定の領域(セル)であっても構わない。ただしドット間の距離は、通常タッチパネル(電子装置)毎に異なることに注意が必要である。なお図2に示す座標設定はこの一例であり、座標軸はプログラムにより設定することもできる。また極座標を設定することもできるし、座標変換により他の座標系を設定することもできる。なお、表示部102と入力部103が別の位置に配置される別個の形態である場合、入力部103には上記のように座標を設定し、表示部102には入力部103の座標に対応する座標を設定することができる。   The touch panel 110 is designated by coordinates using a coordinate plane composed of a first axis and a second axis substantially orthogonal to the first axis. Preferably, as illustrated in FIG. 2, the first axis is substantially rectangular and the short side of the touch panel 110 and the second axis are substantially parallel to the long side of the touch panel 110, and the first axis direction coordinate axis ( The horizontal axis) and the coordinate axis (vertical axis) in the second axis direction are represented as coordinates (x, y). The processing unit 101 can acquire a touch position detected by the touch panel 110 as the coordinate (x, y) data using a program or the like. For example, when the detection accuracy of the touch panel 110 is 640 dots × 1,136 dots, the resolution can be 640 dots in the horizontal axis direction and 1,136 dots in the vertical axis direction. In this case, the dot may be a single point or a certain region (cell). However, it should be noted that the distance between the dots is usually different for each touch panel (electronic device). Note that the coordinate setting shown in FIG. 2 is an example of this, and the coordinate axes can be set by a program. Also, polar coordinates can be set, and other coordinate systems can be set by coordinate conversion. In the case where the display unit 102 and the input unit 103 are arranged in different positions, coordinates are set in the input unit 103 as described above, and the display unit 102 corresponds to the coordinates of the input unit 103. You can set the coordinates.

図3は本発明の電子装置100の機能ブロック図の一例を示す。電子装置100は、タッチ検出手段301、表示手段302、可視領域決定手段303、表示画像生成手段304、プレイヤ操作処理手段305、記憶手段306、及び通信手段307を備える。   FIG. 3 shows an example of a functional block diagram of the electronic device 100 of the present invention. The electronic device 100 includes a touch detection unit 301, a display unit 302, a visible region determination unit 303, a display image generation unit 304, a player operation processing unit 305, a storage unit 306, and a communication unit 307.

タッチ検出手段301は、タッチパネル110上へのプレイヤによるタッチ位置やタッチ操作を検出する機能を有する。表示手段302は、可視領域操作画像とオブジェクト操作画像等のゲーム画像を表示する。可視領域操作画像は、ゲームの仮想空間における可視領域の位置をプレイヤに操作させるためのものであり、仮想空間の少なくとも一部の領域を表現する。所定の可視領域を示す可視領域表示が可視領域操作画像において表示され、プレイヤはこの可視領域表示を移動させることによって、可視領域を移動させることができる。オブジェクト操作画像は、仮想空間に配置されたオブジェクトをプレイヤに操作させるためものであり、仮想空間の他の少なくとも一部の領域を仮想カメラから見た画像である。   The touch detection unit 301 has a function of detecting a touch position and a touch operation by the player on the touch panel 110. The display unit 302 displays a game image such as a visible region operation image and an object operation image. The visible region operation image is for causing the player to operate the position of the visible region in the virtual space of the game, and expresses at least a part of the virtual space. A visible area display indicating a predetermined visible area is displayed in the visible area operation image, and the player can move the visible area by moving the visible area display. The object operation image is for causing the player to operate an object arranged in the virtual space, and is an image obtained by viewing at least a part of the other area of the virtual space from the virtual camera.

可視領域決定手段303は、所定の可視領域を決定し、その後、可視領域操作画像において表示された可視領域表示がプレイヤによって移動されると、その可視領域操作画像上の移動先位置に対応する仮想空間における領域に可視領域を変更する。   The visible region determining means 303 determines a predetermined visible region, and then when the visible region display displayed in the visible region operation image is moved by the player, the virtual region corresponding to the movement destination position on the visible region operation image is displayed. Change the visible area to the area in space.

表示画像生成手段304は、表示手段302に表示するための可視領域操作画像及びオブジェクト操作画像を生成する。オブジェクト操作画像生成に際しては、仮想空間に配置されたオブジェクトの位置情報に基づいて、可視領域の中に配置されたオブジェクトに対して可視化処理を実行し、可視領域の外に配置されたオブジェクトに対して不可視化処理を実行して表示オブジェクト画像を生成し、オブジェクト操作画像の対応する位置に配置して、オブジェクト画像を含むオブジェクト操作画像を生成する。既にオブジェクト操作画像が表示オブジェクト画像を含んでいる場合には、既に含まれている表示オブジェクト画像に替えて、新たに生成された表示オブジェクト画像を用いて、オブジェクト操作画像を更新して表示する。可視化処理はプレイヤがそのオブジェクトを視認できるように表示するための処理であり、不可視化処理はプレイヤがオブジェクトを認識できないように非表示化するための処理である。また、不可視化処理は、プレイヤが通常の表示とは異なることを認識できるような透過処理等の形態であってもよい。不可視化処理は、さらに、プレイヤによる当該オブジェクトに対する操作を無効化する処理を含むことが好ましい。可視化処理は、当該オブジェクトに対する操作を有効化する処理を含むことが好ましい。   The display image generation unit 304 generates a visible region operation image and an object operation image to be displayed on the display unit 302. When generating an object operation image, a visualization process is performed on an object placed in the visible region based on position information of the object placed in the virtual space, and an object placed outside the visible region is executed. The display object image is generated by executing the invisibility processing, and the object operation image including the object image is generated by arranging the display object image at the corresponding position of the object operation image. If the object operation image already includes the display object image, the object operation image is updated and displayed using the newly generated display object image instead of the already included display object image. The visualization process is a process for displaying the object so that the player can visually recognize the object, and the invisibility process is a process for hiding the object so that the player cannot recognize the object. Further, the invisible process may be in a form such as a transparent process that allows the player to recognize that the display is different from the normal display. The invisible process preferably further includes a process of invalidating an operation on the object by the player. The visualization process preferably includes a process for validating an operation on the object.

プレイヤ操作処理手段305は、タッチ検出手段301からの入力及びその他の情報に基づいて、どのようなプレイヤ操作がなされたのかを判定し処理する。記憶手段306は、仮想空間情報、オブジェクト情報等のデータを記憶する機能を有する。通信手段307は他の装置との情報の送受信を行う機能を有する。本実施形態においては、図1に記載されたハードウェア構成に含まれるプログラム106が実行されることによりこれらの機能が実現されるが、各機能を実現するための電子回路等を構成することによりハードウェアによっても実現できる。   The player operation processing unit 305 determines and processes what player operation has been performed based on the input from the touch detection unit 301 and other information. The storage unit 306 has a function of storing data such as virtual space information and object information. The communication unit 307 has a function of transmitting / receiving information to / from other devices. In the present embodiment, these functions are realized by executing the program 106 included in the hardware configuration shown in FIG. 1, but by configuring an electronic circuit or the like for realizing each function. It can also be realized by hardware.

図4に、本発明の1つの実施例としてのゲーム画面400を示す。本実施形態におけるゲームは、仮想空間においてビル等の建物として表現されたオブジェクトをプレイヤが任意の位置に配置、移動させるゲームである。ゲーム画面400においては、オブジェクト操作画像451に可視領域操作画像401を重畳して表示される。好ましくは、オブジェクト操作画像451の方が可視領域操作画像401よりも大きく表示される。可視領域操作画像401及びオブジェクト操作画像451を重畳せずに並べて表示してもよい。また、例えば、電子装置100が2つの別体の表示手段を有する場合には、可視領域操作画像401及びオブジェクト操作画像451をそれぞれの表示手段に別々に表示してもよい。可視領域操作画像401は、仮想空間全体の俯瞰図であるが、例えば、鉛直方向から見下ろした二次元マップ等でもよいし、オブジェクト等を含まない仮想空間の形状のみを示すものであってもよい。また、仮想空間の全体ではなく一部のみを示すものであってもよいが、オブジェクト操作画像によって表現される領域よりも広い領域を表現するものであることが好ましい。仮想空間における位置はXYZ座標によって特定することができる。図4においては、仮想空間を示す方形の左下の実線403をX軸として示し、右下の実線404をY軸として示し、これらの軸に平行な線(グリッド線)を点線で示した。Z軸については非表示としたが、これを表示してもかまわない。オブジェクト操作画像451においても同様の表示を行う。   FIG. 4 shows a game screen 400 as one embodiment of the present invention. The game in the present embodiment is a game in which a player places and moves an object expressed as a building such as a building in a virtual space at an arbitrary position. On the game screen 400, the visible region operation image 401 is superimposed on the object operation image 451 and displayed. Preferably, the object operation image 451 is displayed larger than the visible region operation image 401. The visible region operation image 401 and the object operation image 451 may be displayed side by side without being superimposed. For example, when the electronic apparatus 100 has two separate display units, the visible region operation image 401 and the object operation image 451 may be displayed separately on the respective display units. The visible region operation image 401 is an overhead view of the entire virtual space, but may be, for example, a two-dimensional map looking down from the vertical direction, or showing only the shape of the virtual space that does not include objects or the like. . Moreover, although it may show only a part of the virtual space instead of the whole, it is preferable to express an area wider than the area expressed by the object operation image. The position in the virtual space can be specified by XYZ coordinates. In FIG. 4, the lower left solid line 403 indicating the virtual space is shown as the X axis, the lower right solid line 404 is shown as the Y axis, and lines (grid lines) parallel to these axes are shown by dotted lines. Although the Z-axis is not displayed, it may be displayed. The same display is performed on the object operation image 451.

可視領域操作画像401においては、仮想空間の全体を所定のカメラ位置から見たときの画像402と可視領域表示405が表示される。可視領域表示405は正方形の枠として表示され、枠の外側は色のトーンを下げて表示することで、可視領域と不可視領域との区別を明確にしている。可視領域表示405は正方形の枠に限定されず、円形等の形状であってもよいし、プレイヤの操作によって変更されてもよい。可視領域と不可視領域を区別するために色の差をつけなくともよい。 In the visible region operation image 401, an image 402 and a visible region display 405 when the entire virtual space is viewed from a predetermined camera position are displayed. The visible region display 405 is displayed as a square frame, and the outside of the frame is displayed with the color tone lowered, thereby clarifying the distinction between the visible region and the invisible region. The visible region display 405 is not limited to a square frame, and may be a circular shape or may be changed by an operation of the player. In order to distinguish between the visible region and the invisible region, it is not necessary to make a color difference.

可視領域操作画像401は、固定背景オブジェクト406及び操作対象オブジェクト407、408を表示する。固定背景オブジェクトは川や山等のプレイヤによって操作することができず、自律的にも動かないオブジェクトである。操作対象オブジェクトは例えばビルやスタジアム等の建物であり、プレイヤによって配置、移動等の操作が可能なオブジェクトである。固定背景オブジェクト及び操作対象オブジェクトは可視領域内外にかかわらず表示されるが、可視領域外の部分は色のトーンを下げて表示される。   The visible region operation image 401 displays a fixed background object 406 and operation target objects 407 and 408. The fixed background object is an object that cannot be operated by a player such as a river or a mountain and does not move autonomously. The operation target object is, for example, a building such as a building or a stadium, and is an object that can be arranged and moved by a player. The fixed background object and the operation target object are displayed regardless of whether they are inside or outside the visible region, but the portion outside the visible region is displayed with the color tone lowered.

オブジェクト操作画像451においては、操作対象オブジェクト453、固定背景オブジェクト454に加えて自律的に動く背景オブジェクト455を表示する。動く背景オブジェクト455はプレイヤによって操作することはできない。さらに、可視領域に対応する位置に可視領域表示452が表示される。オブジェクト画像は可視領域内に配置されたオブジェクトのみが表示され、外側の領域に配置されたオブジェクトは表示されない。非表示とされた操作対象オブジェクト407、408が配置された位置に着色された平面パネル456を表示することにより、不可視化処理されたオブジェクトが配置されていることを示す。可視領域の内側と外側にまたがって配置された操作対象オブジェクト407は、内側に配置された部分も含めて不可視化処理し、平面パネル456を表示する。このような処理のため、可視領域操作画像401においてはオブジェクト407によって覆い隠されたオブジェクト453が、オブジェクト操作画像451においては表示され、プレイヤによって確認、操作することが可能となる。 In the object operation image 451, a background object 455 that moves autonomously in addition to the operation target object 453 and the fixed background object 454 is displayed. The moving background object 455 cannot be operated by the player. Further, a visible area display 452 is displayed at a position corresponding to the visible area. Only the object arranged in the visible area is displayed as the object image, and the object arranged in the outer area is not displayed. By displaying a colored flat panel 456 at a position where the operation target objects 407 and 408 that have been hidden are arranged, it is indicated that the object that has been made invisible is arranged. The operation target object 407 arranged across the inside and outside of the visible region is invisible including the portion arranged inside, and the flat panel 456 is displayed. Due to such processing, the object 453 obscured by the object 407 in the visible region operation image 401 is displayed in the object operation image 451 and can be confirmed and operated by the player.

本実施形態における可視領域操作画像401は、図5(a)に示すとおり、下地レイヤ500、オブジェクトレイヤ501及び可視領域表示レイヤ502の3つの画像レイヤを重畳することにより形成される。下地レイヤ500は、表示画像のための下地となるレイヤであり、XY座標軸及びグリッド線を含む。オブジェクトレイヤは表示オブジェクト画像を含むレイヤであり、固定背景オブジェクトレイヤ503及び操作対象オブジェクトレイヤ504に分割される。固定背景オブジェクトレイヤ503は、固定背景オブジェクト406のための画像を含むものである。操作対象オブジェクトレイヤ504は、操作対象となるオブジェクト画像407、408を含むレイヤである。可視領域表示レイヤ502は可視領域表示405を含むレイヤである。また可視領域外を半透明のグレーとすることにより、可視領域外の色のトーンを下げて表示することができる。   As shown in FIG. 5A, the visible region operation image 401 in the present embodiment is formed by superimposing three image layers: a base layer 500, an object layer 501, and a visible region display layer 502. The base layer 500 is a layer that is a base for a display image, and includes XY coordinate axes and grid lines. The object layer is a layer including a display object image, and is divided into a fixed background object layer 503 and an operation target object layer 504. The fixed background object layer 503 includes an image for the fixed background object 406. The operation target object layer 504 is a layer including object images 407 and 408 to be operated. The visible area display layer 502 is a layer including the visible area display 405. In addition, by setting the outside of the visible region to a semi-transparent gray, the tone of the color outside the visible region can be lowered and displayed.

また、図5(b)に示すとおり、本実施形態におけるオブジェクト操作画像451も、下地レイヤ550、オブジェクトレイヤ551及び可視領域表示レイヤ552の3つの画像レイヤを重畳することにより形成される。ここでのオブジェクトレイヤ551は固定背景オブジェクトレイヤ553及び操作対象オブジェクトレイヤ555に加えて、動く背景オブジェクトレイヤ554を含む。動く背景オブジェクトレイヤ554は、動く背景オブジェクト455のための画像を含むものである。オブジェクトレイヤ551においては、可視領域内に配置されたオブジェクト画像のみを表示し、可視領域外のオブジェクトについては不可視化処理を行う。不可視化処理された操作対象オブジェクトについては、当該オブジェクトの位置に着色された平面パネル456を配置する。   Further, as shown in FIG. 5B, the object operation image 451 in the present embodiment is also formed by superimposing three image layers of the base layer 550, the object layer 551, and the visible region display layer 552. The object layer 551 here includes a moving background object layer 554 in addition to the fixed background object layer 553 and the operation target object layer 555. The moving background object layer 554 includes an image for the moving background object 455. In the object layer 551, only the object image arranged in the visible region is displayed, and the invisible processing is performed for the object outside the visible region. For an operation target object that has been made invisible, a colored flat panel 456 is disposed at the position of the object.

それぞれのレイヤにおいて、オブジェクト情報等に基づいて、表示すべきオブジェクト画像、可視領域表示を仮想空間の配置位置に対応する各レイヤの位置に配置する。プレイヤ操作等によって、表示すべきオブジェクト画像が変化した場合には、更新対象となるレイヤを再度生成し、可視領域操作画像及びオブジェクト操作画像の対応するレイヤを更新して、可視領域操作画像及びオブジェクト操作画像を更新する。すべてのレイヤを再生成し更新してもよい。   In each layer, the object image to be displayed and the visible region display are arranged at the position of each layer corresponding to the arrangement position of the virtual space based on the object information or the like. When the object image to be displayed is changed by a player operation or the like, a layer to be updated is generated again, the corresponding layer of the visible region operation image and the object operation image is updated, and the visible region operation image and the object are updated. Update the operation image. All layers may be regenerated and updated.

本実施形態においては、前述のとおり、複数の画像レイヤに分けて処理を行うこととしたが、レイヤの構造はこれに限定されるものではなく、その他の形態であってもよい。また、レイヤ構造によらず、すべてのオブジェクト画像等を一括して処理しても構わない。   In the present embodiment, as described above, processing is performed by dividing into a plurality of image layers. However, the structure of the layers is not limited to this, and other forms may be used. Further, all object images and the like may be processed collectively regardless of the layer structure.

次に、本実施形態における電子装置100の動作について図6に示したフローチャートを用いて説明する。まず、ステップ601において、可視領域決定手段303は、記憶手段306に記憶された初期値としての可視領域の情報に基づいて、仮想空間における可視領域の位置、大きさ、形状等を決定する。   Next, the operation of the electronic apparatus 100 in the present embodiment will be described using the flowchart shown in FIG. First, in step 601, the visible region determining unit 303 determines the position, size, shape, and the like of the visible region in the virtual space based on the visible region information as the initial value stored in the storage unit 306.

次に、ステップ603において、表示画像生成手段304が、可視領域操作画像401を生成する。前述とおり、可視領域操作画像401は、下地レイヤ500、オブジェクトレイヤ501及び可視領域表示レイヤ502によって形成される。下地レイヤ500については、記憶手段306に格納された所定の画像を取得して、これを下地レイヤ501とする。本実施形態における下地レイヤ画像は、立方体の仮想空間を所定のカメラ位置から見たときの画像である。可視領域操作画像401が仮想空間の一部を表現する画像である場合には、記憶手段306から取得した全体の下地レイヤ画像に基づいて表示すべき一部の領域の下地レイヤを生成する。また、仮想空間の大きさ、形状等、仮想空間を画定する仮想空間情報等に基づいて演算によって可視領域操作画像を生成してもよい。   Next, in step 603, the display image generation unit 304 generates a visible region operation image 401. As described above, the visible region operation image 401 is formed by the base layer 500, the object layer 501, and the visible region display layer 502. For the base layer 500, a predetermined image stored in the storage unit 306 is acquired and used as the base layer 501. The base layer image in the present embodiment is an image when the cubic virtual space is viewed from a predetermined camera position. When the visible region operation image 401 is an image representing a part of the virtual space, a base layer of a partial region to be displayed is generated based on the entire base layer image acquired from the storage unit 306. Further, the visible region operation image may be generated by calculation based on virtual space information that defines the virtual space, such as the size and shape of the virtual space.

次に、オブジェクトレイヤ501を生成する。オブジェクトレイヤ501は、固定背景オブジェクトレイヤ503及び操作対象オブジェクトレイヤ504を含む。表示画像生成手段304は、オブジェクト情報に基づいて、固定背景オブジェクトの画像を仮想空間におけるオブジェクトの位置に対応する固定背景オブジェクトレイヤ503の位置に配置し、操作対象オブジェクトの画像をオブジェクトの位置に対応する操作対象オブジェクトレイヤ503の位置に配置する。オブジェクト情報は、オブジェクトの画像、位置、オブジェクトの種類(固定背景オブジェクト、動く背景オブジェクト、操作対象オブジェクト)等の情報を含む。表示画像生成手段304は更に、決定された可視領域についての情報に基づいて、可視領域表示レイヤ502を生成する。可視領域表示レイヤ502は、可視領域表示405を含むとともに、可視領域外を半透明のグレーとする。   Next, the object layer 501 is generated. The object layer 501 includes a fixed background object layer 503 and an operation target object layer 504. Based on the object information, the display image generation unit 304 arranges the image of the fixed background object at the position of the fixed background object layer 503 corresponding to the position of the object in the virtual space, and corresponds the image of the operation target object to the position of the object. It is arranged at the position of the operation target object layer 503 to be operated. The object information includes information such as the object image, position, and object type (fixed background object, moving background object, operation target object). The display image generation unit 304 further generates a visible area display layer 502 based on the information about the determined visible area. The visible area display layer 502 includes a visible area display 405, and the outside of the visible area is a semi-transparent gray.

表示画像生成手段304は、生成された下地レイヤ500、オブジェクトレイヤ501及び可視領域表示レイヤ502を重畳して、可視領域操作画像401を生成する。   The display image generation unit 304 generates a visible region operation image 401 by superimposing the generated base layer 500, object layer 501, and visible region display layer 502.

ステップ605において、表示画像生成手段304は、オブジェクト操作画像451を生成する。下地レイヤ550、オブジェクトレイヤ551及び可視領域表示レイヤ552によって形成される。本実施形態においては、記憶手段306に格納された仮想空間全体の下地レイヤ画像の一部を、下地レイヤ550とするが、所定のカメラ位置、仮想空間の大きさ、形状等の仮想空間を定義する情報に基づいて演算によってオブジェクト操作画像を生成してもよい。   In step 605, the display image generation unit 304 generates an object operation image 451. The base layer 550, the object layer 551, and the visible region display layer 552 are formed. In this embodiment, a part of the background layer image of the entire virtual space stored in the storage unit 306 is set as the background layer 550, but the virtual space such as a predetermined camera position, the size of the virtual space, and the shape is defined. The object operation image may be generated by calculation based on the information to be performed.

表示画像生成手段304は、決定された可視領域及びオブジェクト情報に基づいて、表示されるオブジェクト画像としてのオブジェクトレイヤを生成する。オブジェクトレイヤ550は、固定背景オブジェクトレイヤ553、動く背景オブジェクトレイヤ554及び操作対象オブジェクトレイヤ555を含む。   The display image generation unit 304 generates an object layer as an object image to be displayed based on the determined visible region and object information. The object layer 550 includes a fixed background object layer 553, a moving background object layer 554, and an operation target object layer 555.

表示画像生成手段304は、決定された可視領域及びオブジェクトの位置情報に基づいて、各操作対象オブジェクトが可視領域に配置されているか否かの判定を行い、可視領域内に配置されたオブジェクトに対して、当該オブジェクトについて可視化処理を行う。具体的には、当該オブジェクトに対するプレイヤ操作を有効化するとともに、オブジェクトを表わすオブジェクト画像を描画処理の対象とし、オブジェクト位置に対応する操作対象オブジェクトレイヤ555の位置に配置する。可視領域外または可視領域内外にまたがって配置されたオブジェクトについては、不可視化処理を行う。具体的には、当該オブジェクトに対するプレイヤ操作を無効化するとともに、オブジェクトを表わすオブジェクト画像を一時的に描画処理の対象外とし、オブジェクト位置に対応する操作対象オブジェクト555のレイヤに着色された平面パネルを表示する。   The display image generation unit 304 determines whether or not each operation target object is arranged in the visible area based on the determined visible area and the position information of the object, and for the object arranged in the visible area Then, the visualization process is performed on the object. Specifically, the player operation on the object is validated, and an object image representing the object is set as a drawing process target and is arranged at the position of the operation target object layer 555 corresponding to the object position. For objects placed outside the visible region or across the visible region, an invisible process is performed. Specifically, the player operation on the object is invalidated, the object image representing the object is temporarily excluded from the drawing process, and the flat panel colored on the layer of the operation target object 555 corresponding to the object position is displayed. indicate.

固定背景オブジェクト及び動く背景オブジェクトについても同様に、可視領域に配置されているか否かの判定を行い、可視領域内に配置されたオブジェクトについては、当該オブジェクトについて可視化処理を行う。ただし、背景オブジェクトはプレイヤ操作の対象外であるから、プレイヤ操作の有効化/無効化の設定は行われない。また、不可視領域に配置されたオブジェクトの位置に着色された平面パネルを表示することもしない。動く背景オブジェクトが不可視化処理された場合には、描画処理の対象から除外されるのであるから、当該オブジェクトの画像を動かす処理はその時点における状態を保持しつつ、無効化される。これらの処理によって、固定背景オブジェクトレイヤ503及び動く背景オブジェクトレイヤ504が生成される。表示画像生成手段304は更に、決定された可視領域についての情報に基づいて、可視領域表示レイヤ552を生成する。可視領域表示レイヤ552は、可視領域表示452を含むとともに、可視領域外を半透明のグレーとする。   Similarly, whether or not the fixed background object and the moving background object are arranged in the visible region is determined, and for the object arranged in the visible region, the object is visualized. However, since the background object is not subject to the player operation, the setting for enabling / disabling the player operation is not performed. Further, a colored flat panel is not displayed at the position of the object arranged in the invisible region. When the moving background object is invisible, the moving background object is excluded from the drawing process target. Therefore, the process of moving the image of the object is invalidated while maintaining the state at that time. By these processes, a fixed background object layer 503 and a moving background object layer 504 are generated. The display image generation unit 304 further generates a visible area display layer 552 based on the information about the determined visible area. The visible area display layer 552 includes a visible area display 452, and the outside of the visible area is a semi-transparent gray.

表示画像生成手段304は、生成された下地レイヤ550、オブジェクトレイヤ551及び可視領域表示レイヤ552を重畳して、オブジェクト操作画像451を生成する。   The display image generation unit 304 generates the object operation image 451 by superimposing the generated base layer 550, object layer 551, and visible region display layer 552.

ステップ607において、可視領域操作画像401及びオブジェクト操作画像451を表示手段302に表示する。   In step 607, the visible region operation image 401 and the object operation image 451 are displayed on the display unit 302.

次に、電子装置100は、プレイヤ操作に基づいて、可視領域移動処理、オブジェクト移動処理及びオブジェクト画像移動処理を行う(ステップ611〜ステップ635)。まず、ステップ611において、タッチ検出手段301がプレイヤによるタッチパネル110へのタッチ操作を検出すると、これをプレイヤ入力処理手段305へ出力する。これに基づいて、プレイヤ入力処理手段305は、プレイヤによる可視領域移動操作が行われた否かを判定する。例えば、図7(a)に示されたように、プレイヤがタッチパネル110(タッチ検出手段301及び表示手段302)上に表示された可視領域操作画像701における可視領域表示705上をタッチしてスライドすると、タッチ検出手段301が、スライド開始位置を含むスライド入力を検出する。プレイヤ入力処理手段305は、この検出されたスライド入力情報及び可視領域表示705のタッチパネル110上の表示位置情報に基づいて、この入力が可視領域操作画像における可視領域表示705のスライド操作であることを判定する(ステップ611)。そして、可視領域決定手段303が、可視領域操作画像701において表示された可視領域表示705の移動先位置に対応する仮想空間における領域に可視領域を移動させ、表示画像生成手段304は、変更された可視領域情報に基づいて、可視領域表示レイヤ502、552を再生成する(ステップ613)。   Next, the electronic device 100 performs a visible region movement process, an object movement process, and an object image movement process based on the player operation (steps 611 to 635). First, in step 611, when the touch detection unit 301 detects a touch operation on the touch panel 110 by the player, this is output to the player input processing unit 305. Based on this, the player input processing means 305 determines whether or not the player has performed a visible region moving operation. For example, as shown in FIG. 7A, when the player touches and slides on the visible region display 705 in the visible region operation image 701 displayed on the touch panel 110 (touch detection unit 301 and display unit 302). The touch detection unit 301 detects a slide input including the slide start position. Based on the detected slide input information and display position information on the touch panel 110 of the visible area display 705, the player input processing means 305 confirms that this input is a slide operation of the visible area display 705 in the visible area operation image. Determination is made (step 611). Then, the visible region determining unit 303 moves the visible region to the region in the virtual space corresponding to the movement destination position of the visible region display 705 displayed in the visible region operation image 701, and the display image generating unit 304 is changed. Based on the visible area information, the visible area display layers 502 and 552 are regenerated (step 613).

ステップ615において、表示画像生成手段304は、変更された可視領域及びオブジェクト情報に基づいて、表示されるオブジェクト画像を再度生成する。可視領域移動前には可視領域範囲外に配置されていたが、可視領域の移動によって可視領域内となったオブジェクトに対しては可視化処理を行い、可視領域移動前には可視領域内であったが、可視領域外となったオブジェクトに対しては不可視化処理を行う。これらの可視化/不可視化処理によって、新たな表示オブジェクト画像としての新たなオブジェクトレイヤを生成する。そして、可視領域移動前のレイヤに替えて、新たに生成されたレイヤを用いて、可視領域操作画像450及びオブジェクト操作画像451を更新して表示する(ステップ617)。   In step 615, the display image generation unit 304 generates the object image to be displayed again based on the changed visible region and object information. Before moving to the visible area, the object was placed outside the visible area, but the object that was in the visible area by moving the visible area was visualized, and it was in the visible area before moving the visible area. However, invisibility processing is performed for objects that are outside the visible region. By these visualization / invisibility processes, a new object layer is generated as a new display object image. Then, the visible region operation image 450 and the object operation image 451 are updated and displayed using the newly generated layer instead of the layer before the visible region movement (step 617).

プレイヤ入力処理手段305は、タッチ検出手段301からの入力に基づいて、可視領域表示702に対するプレイヤのスライド操作が終了したか否かを判定する(ステップ619)。例えば、プレイヤによるタッチパネル110へのタッチがリリースされたことを検出すると、スライド操作が終了したものと判定し、可視領域移動処理を終了する。スライド操作が継続している場合には、ステップ613へ戻り、スライド位置に基づいて、可視領域を逐次更新し、可視領域操作画像及びオブジェクト操作画像の更新を行う。   Based on the input from the touch detection unit 301, the player input processing unit 305 determines whether or not the player's slide operation on the visible region display 702 has ended (step 619). For example, when it is detected that the touch on the touch panel 110 by the player has been released, it is determined that the slide operation has ended, and the visible region moving process ends. When the slide operation is continued, the process returns to step 613, and the visible area is sequentially updated based on the slide position, and the visible area operation image and the object operation image are updated.

ステップ611〜ステップ619の処理により、図7(a)に示すように可視領域操作画像701上における可視領域表示702に対するプレイヤ操作によって、可視領域表示702が画面上方向に移動され、オブジェクト操作画像751における可視領域表示752も画面上方向へ移動される。これにともない、これまで表示されていたオブジェクト455が非表示となり、オブジェクト753が表示されるようになった。   As a result of the processing from step 611 to step 619, the visible area display 702 is moved in the upward direction on the screen by the player operation on the visible area display 702 on the visible area operation image 701 as shown in FIG. The visible region display 752 is also moved upward on the screen. Accordingly, the object 455 that has been displayed so far is hidden and the object 753 is displayed.

次に、プレイヤ入力処理手段305は、タッチ検出手段301からの入力に基づいて、オブジェクトの移動操作のためのプレイヤ入力が行われたか否かを判定する(ステップ621)。図7(b)に示したように、プレイヤが、表示手段302上に表示されたオブジェクト操作画像751におけるオブジェクト画像760をタッチして画面右上方向へスライドさせると、タッチ検出手段301が、このスライド入力を検出する。プレイヤ入力処理手段305はこの検出されたスライド入力情報及びオブジェクト位置情報に基づいて、この入力がオブジェクト操作画像751上におけるオブジェクト760に対するスライド操作であることを判定する(ステップ621)。そして、プレイヤ入力処理手段305は、この移動先位置に基づいて記憶手段306に格納されたオブジェクトの位置情報を更新する(ステップ623)。表示画像生成手段304は、移動先位置が可視領域外であれば不可視化処理を行い、可視領域内であれば移動先の位置に当該オブジェクトの画像を配置し、更新されたオブジェクトレイヤを生成し、オブジェクト操作画像751上に表示する(ステップ625)。図7(b)においては、可視領域内への移動であるから、オブジェクト760は移動先位置に表示される。このようなオブジェクトの操作は、オブジェクトの位置を変更する移動処理だけでなく、オブジェクトの向きを変える操作等であってもよい。   Next, the player input processing unit 305 determines whether or not a player input for an object moving operation has been performed based on the input from the touch detection unit 301 (step 621). As shown in FIG. 7B, when the player touches and slides the object image 760 in the object operation image 751 displayed on the display unit 302 in the upper right direction of the screen, the touch detection unit 301 causes the slide. Detect input. Based on the detected slide input information and object position information, the player input processing means 305 determines that this input is a slide operation on the object 760 on the object operation image 751 (step 621). Then, the player input processing unit 305 updates the position information of the object stored in the storage unit 306 based on the movement destination position (step 623). The display image generation unit 304 performs invisibility processing if the movement destination position is outside the visible region, and if it is within the visible region, arranges the image of the object at the movement destination position and generates an updated object layer. And displayed on the object operation image 751 (step 625). In FIG. 7B, since the movement is within the visible region, the object 760 is displayed at the movement destination position. Such an operation of the object may be not only a movement process for changing the position of the object but also an operation for changing the direction of the object.

プレイヤ入力処理手段305は、タッチ検出手段301からの入力に基づいて、オブジェクト760に対するプレイヤのスライド操作が終了したか否かを判定する(ステップ627)。例えば、プレイヤによるタッチパネル110へのタッチがリリースされたことを検出すると、スライド操作が終了したものと判定する。スライド操作が継続している場合には、ステップ623へ戻り、スライド位置に基づいて、オブジェクト位置を逐次更新し、オブジェクト操作画像751の更新を行う。スライド操作が終了した場合には、その際のオブジェクトの位置に基づいて、可視領域操作画像701についての操作対象オブジェクトレイヤを更新して表示する(ステップ629)。このように、オブジェクトの移動操作の際には、オブジェクト操作画像については逐次更新して表示するが、可視領域操作画像については、移動操作が終了した後にのみ画像の更新及び表示を行うことが好ましい。   Based on the input from the touch detection unit 301, the player input processing unit 305 determines whether or not the player's slide operation on the object 760 has ended (step 627). For example, when it is detected that the touch on the touch panel 110 by the player has been released, it is determined that the slide operation has ended. If the slide operation continues, the process returns to step 623 to update the object operation image 751 by sequentially updating the object position based on the slide position. When the slide operation is completed, the operation target object layer for the visible region operation image 701 is updated and displayed based on the position of the object at that time (step 629). As described above, during the object moving operation, the object operation image is sequentially updated and displayed, but it is preferable that the visible region operation image is updated and displayed only after the moving operation is completed. .

次に、ステップ631〜635において、オブジェクト操作画像の移動操作処理を実行する。図7(c)に示されるように、プレイヤがオブジェクト操作画像751をスライド操作することによって、仮想カメラの位置を変更し、オブジェクト操作画像751に表示される領域を変更することができる。例えば、プレイヤが、タッチパネル上に表示されたオブジェクト操作画像701においていずれの操作対象オブジェクトも表示されていない位置をタッチしてスライドすると、そのタッチ位置、移動方向及び移動量をタッチ検出手段301が検出し、プレイヤ入力処理手段305へ出力する。これらの情報及びオブジェクト情報等に基づいて、プレイヤ入力処理手段305は、オブジェクト操作画像751の移動操作入力が行われたことを決定する(ステップ631)。そして、移動方向及び移動量に基づいて、表示画像生成手段304が、移動された領域の固定背景オブジェクトレイヤ、動く背景オブジェクトレイヤ、操作対象オブジェクトレイヤを生成して、更新されたオブジェクト操作画像を表示する(ステップ633)。このとき、仮想空間における可視領域の位置は変更されないから、オブジェクト操作画像の表示領域の移動に伴って、可視領域表示も移動して表示される。   Next, in steps 631 to 635, an object operation image moving operation process is executed. As shown in FIG. 7C, when the player slides the object operation image 751, the position of the virtual camera can be changed and the area displayed on the object operation image 751 can be changed. For example, when the player touches and slides on a position where no operation target object is displayed in the object operation image 701 displayed on the touch panel, the touch detection unit 301 detects the touch position, movement direction, and movement amount. And output to the player input processing means 305. Based on the information, the object information, and the like, the player input processing unit 305 determines that the movement operation input of the object operation image 751 has been performed (step 631). Based on the moving direction and moving amount, the display image generating unit 304 generates a fixed background object layer, a moving background object layer, and an operation target object layer in the moved area, and displays the updated object operation image. (Step 633). At this time, since the position of the visible area in the virtual space is not changed, the visible area display is also moved and displayed as the display area of the object operation image is moved.

プレイヤ入力処理手段305は、タッチ検出手段301からの入力に基づいて、オブジェクト操作画像751に対するプレイヤのスライド操作が終了したか否かを判定する(ステップ635)。スライド操作が継続している場合にはステップ633へ戻り、終了した場合にはステップ611に戻る。   Based on the input from the touch detection unit 301, the player input processing unit 305 determines whether or not the player's slide operation on the object operation image 751 has ended (step 635). If the slide operation is continued, the process returns to step 633, and if the slide operation is completed, the process returns to step 611.

このように本発明によれば、プレイヤが可視領域操作画像上の可視領域表示に対する操作によって、興味のある領域のオブジェクトのみをオブジェクト操作画像に表示させ、オブジェクト操作を容易に行わせることができる。オブジェクト操作画像における可視領域の位置は、表示画面上における所定の位置に固定されるものではなく、可視領域操作画像上の操作によって自由に動かすことができる。可視領域を移動させるために、オブジェクト操作画像の表示領域を移動させる必要もない。このため、プレイヤは興味のある領域をオブジェクト操作画像に表示させておいて、可視領域操作画像上の可視領域表示のみの操作によって、オブジェクト操作画像における可視領域のみを移動することができる。また、オブジェクト操作画像の移動は可視領域を移動させるものではないから、仮想空間上の可視領域の位置を固定したままオブジェクト操作画像の表示領域を動かすことができる。さらに、可視領域表示においては、比較的広い範囲を表現する画像を表示できるため、仮想空間全体を見ながら可視領域を選択することができるとともに、オブジェクト操作画像においては、プレイヤが注目している領域を詳細に表示することができる。   As described above, according to the present invention, it is possible to cause an object operation to be easily performed by causing the player to display only an object in an area of interest on the object operation image by performing an operation on the visible area display on the visible area operation image. The position of the visible region in the object operation image is not fixed at a predetermined position on the display screen, and can be freely moved by an operation on the visible region operation image. It is not necessary to move the display area of the object operation image in order to move the visible area. Therefore, the player can move only the visible region in the object operation image by displaying the region of interest on the object operation image and performing only the visible region display on the visible region operation image. In addition, since the movement of the object operation image does not move the visible region, the display region of the object operation image can be moved while the position of the visible region in the virtual space is fixed. Furthermore, in the visible area display, since an image representing a relatively wide range can be displayed, the visible area can be selected while viewing the entire virtual space, and in the object operation image, the area that the player is paying attention to Can be displayed in detail.

本実施形態においては、可視領域の内外にまたがって配置されたオブジェクトは、オブジェクト全体に対して不可視化処理を行うこととしたが、図8(a)に示すように、可視領域内に配置された部分860については可視化処理を行い、可視領域外に配置された部分861については、不可視化処理を行ってもよい。このような処理は、例えば、複数の部分オブジェクトによって1つのオブジェクトを形成し、各部分オブジェクトに対して可視化/不可視化処理を実行することによって実現することができる。また、操作有効化処理/無効化処理については1つのオブジェクト全体に対して行うことが好ましい。   In the present embodiment, the object placed across the visible region is subjected to the invisibility process for the entire object. However, as shown in FIG. 8A, the object is placed in the visible region. The portion 860 may be visualized, and the portion 861 arranged outside the visible region may be invisible. Such a process can be realized, for example, by forming one object with a plurality of partial objects and executing a visualization / invisibility process for each partial object. The operation validation / invalidation process is preferably performed on the entire object.

また、本実施形態においては、不可視化処理として、オブジェクトを非表示処理する形態を例にとって説明したが、図8(b)に示すように透過処理としてもよい。透過処理によっても、オブジェクト870に隠れていたオブジェクト871を視認することが可能となる。透過処理を施されたオブジェクトに対しては、プレイヤによる選択等の操作を無効化する処理を行うことが好ましい。透過処理されたオブジェクトの背後に配置されたオブジェクトをタッチ操作等によって容易に操作可能とすることが可能となる。また、可視領域の移動によって、可視領域外にあったオブジェクトが可視領域内となった場合には、当該オブジェクトに対する透過処理を終了させるとともに、プレイヤ操作を有効化することによって、可視化処理を実行することができる。   Further, in the present embodiment, as an example of the invisibility process, an example in which an object is not displayed has been described, but a transparent process may be used as shown in FIG. The object 871 hidden behind the object 870 can also be visually recognized by the transparency process. It is preferable to perform a process of invalidating an operation such as selection by the player for the object that has been subjected to the transparent process. It is possible to easily operate an object arranged behind the transparently processed object by a touch operation or the like. Further, when an object outside the visible area is moved into the visible area due to the movement of the visible area, the transparency process for the object is terminated and the player operation is validated to execute the visualization process. be able to.

図8(c)に示すように、2以上の可視領域802、880を用いてもよい。2つ以上の離れた領域に配置されたオブジェクトを同時に確認しながらオブジェクトの配置を検討し、操作することが可能となる。例えば、都市開発を行うゲームにおいて、地理的に離れているが路線としてつながっている2つの駅を同時に開発したい場合に、関連した開発を戦略的に行うことを容易にする。また、ゲームの対戦相手に対するトラップを相手のルート上の離れた場所に配置したい場合に、離れた領域を同時に確認しながら戦略的にトラップを配置することも可能となる。   As shown in FIG. 8C, two or more visible regions 802 and 880 may be used. It is possible to examine and manipulate the arrangement of objects while simultaneously confirming objects arranged in two or more distant areas. For example, in a game for urban development, when it is desired to simultaneously develop two stations that are geographically separated but connected as a route, the related development is facilitated strategically. Further, when it is desired to place a trap for the opponent of the game at a remote location on the opponent's route, it is also possible to strategically arrange the trap while simultaneously checking the remote areas.

さらに、可視領域の形状を高さ方向も含む立体形状としてもよい。例えば、図8(d)に示すように高さHの直方体802、892とした場合には、高さHより高い部分に配置されたオブジェクトに対しては不可視化処理が行われる。高さHより高い領域と低い領域の両方にまたがって配置されたオブジェクトについては、低い領域に配置された部分に対して可視化処理を行い、高さHより高い領域に配置された部分に対しては不可視化処理を行うことができる。例えば、一つのオブジェクトを複数の部分オブジェクトによって形成し、各部分オブジェクト毎にこれらの処理を行うことで実現することが可能である。このように可視領域として三次元領域を用いると、可視領域内の前面領域において背の高いオブジェクト890がある場合に、高いオブジェクト890を表示しつつ背後にある背の低いオブジェクト891を確認することが可能となる。高さHの上下にまたがったオブジェクトに対しては、プレイヤ操作については有効化処理を行うことが好ましい。   Furthermore, the shape of the visible region may be a three-dimensional shape including the height direction. For example, in the case of the rectangular parallelepipeds 802 and 892 having a height H as shown in FIG. 8D, the invisible process is performed on the objects arranged in the portion higher than the height H. For an object placed across both the region higher than the height H and the region lower than the height H, the visualization processing is performed on the portion placed in the lower region, and the portion placed in the region higher than the height H is performed. Can be made invisible. For example, it can be realized by forming one object by a plurality of partial objects and performing these processes for each partial object. As described above, when a three-dimensional area is used as the visible area, when there is a tall object 890 in the front area within the visible area, the tall object 891 behind the high object 890 can be confirmed while the tall object 890 is displayed. It becomes possible. For an object that straddles the height H, it is preferable to perform an activation process for the player operation.

[第2の実施形態]
本実施形態は、ゲーム空間が不連続な複数の仮想空間であり、これらの仮想空間のために複数の可視領域操作画像を表示する点で、第1の実施形態と異なる。その他の点については、第1の実施形態と同様である。以下、第1の実施形態と異なる点を中心に説明する。
[Second Embodiment]
The present embodiment is a plurality of virtual spaces in which the game space is discontinuous, and is different from the first embodiment in that a plurality of visible region operation images are displayed for these virtual spaces. The other points are the same as in the first embodiment. Hereinafter, a description will be given focusing on differences from the first embodiment.

本実施形態においては、ゲーム空間である仮想空間として、不連続な5つの仮想空間ア〜オを含む。そして、図9の例では、5つの仮想空間のうちの3つの仮想空間のための可視領域操作画像901A〜Cをオブジェクト操作画像951とともに表示手段302に表示している。すなわち、可視領域操作画像901A〜Cは5つの仮想三次元空間のうちの3つのいずれかに対応し、対応する仮想空間の領域全体のクォータービューである。そして、可視領域操作画像901A〜Cの上部及び下部に表示された矢印910、911をプレイヤが操作することにより、可視領域操作画像901として表示される仮想空間を変更することができる。   In the present embodiment, the virtual space that is the game space includes five discontinuous virtual spaces a to o. In the example of FIG. 9, visible region operation images 901 </ b> A to 901 </ b> C for three virtual spaces of the five virtual spaces are displayed on the display unit 302 together with the object operation image 951. That is, the visible region operation images 901A to 901C correspond to any one of the three virtual three-dimensional spaces, and are quarter views of the entire region of the corresponding virtual space. The virtual space displayed as the visible region operation image 901 can be changed by the player operating the arrows 910 and 911 displayed at the upper and lower portions of the visible region operation images 901A to 901C.

図10に基づいて、本実施形態の処理を説明する。ステップ1001において、3つの可視領域操作画像901A〜Cを生成する。ここでは、初期状態として、可視領域操作画像901A〜Cは仮想空間イ〜エにそれぞれ対応するものとし、オブジェクト操作画像に表示する空間としては、可視領域操作画像901Bに対応する仮想空間ウが選択されているものとする。可視領域決定手段が、第1の実施形態と同様の処理によって可視領域を決定し(ステップ1001)、各仮想空間イ〜エのための可視領域操作画像を生成し(ステップ1003)、可視領域操作画像901Bに対応する仮想空間ウのためのオブジェクト操作画像951を生成し(ステップ1005)、3つの可視領域操作画像901A〜C及び1つのオブジェクト操作画像951を表示手段304に表示する(ステップ1007)。ここで、3つの可視領域操作画像901A〜Cは、表示手段302において、可視領域表示902の高さh1より大きいh2及びh3の間隔を空けて配置される。可視領域表示902を可視領域操作画像901Bの上端や下端に移動させた場合であっても、隣接する可視領域操作画像901Aや901Cに重なることを防止できる。可視領域操作画像を左右等に配置した場合も同様に可視領域表示が隣接する可視領域操作画像と重ならないように配置することが好ましい。   Based on FIG. 10, the process of this embodiment is demonstrated. In step 1001, three visible region operation images 901A-C are generated. Here, as an initial state, the visible area operation images 901A to 901C correspond to the virtual spaces i to d, respectively, and the virtual space c corresponding to the visible area operation image 901B is selected as a space to be displayed on the object operation image. It is assumed that The visible region determining means determines the visible region by the same processing as in the first embodiment (step 1001), generates a visible region operation image for each virtual space (i) to (d) (step 1003), and operates the visible region operation. An object operation image 951 for the virtual space C corresponding to the image 901B is generated (step 1005), and the three visible region operation images 901A to 901C and one object operation image 951 are displayed on the display unit 304 (step 1007). . Here, the three visible area operation images 901 </ b> A to 901 </ b> C are arranged on the display unit 302 with an interval of h <b> 2 and h <b> 3 larger than the height h <b> 1 of the visible area display 902. Even when the visible region display 902 is moved to the upper end or the lower end of the visible region operation image 901B, it is possible to prevent the visible region operation image 901A or 901C from overlapping. Similarly, when the visible region operation images are arranged on the left and right sides, it is also preferable that the visible region display is arranged so as not to overlap with the adjacent visible region operation images.

第1の実施形態におけるステップ611〜ステップ635における処理と同様の処理によって、選択された仮想空間ウに関連して、可視領域移動処理(ステップ1011〜ステップ1019)、オブジェクト移動処理(ステップ1021〜1029)及びオブジェクト操作画像移動処理(ステップ1031〜1035)が実行される。   The visible region moving process (step 1011 to step 1019) and the object moving process (steps 1021 to 1029) are related to the selected virtual space c by the same process as the process in step 611 to step 635 in the first embodiment. ) And object operation image movement processing (steps 1031 to 1035) are executed.

本実施形態においてはさらに、オブジェクト操作画像に表示させるための仮想空間を変更するために、可視領域操作画像の選択を変更する処理が実行される(ステップ1037、ステップ1039)。すなわち、タッチパネル110に表示された可視領域可視領域操作画像901AまたはCのいずれかをプレイヤがタッチすると、タッチ検出手段301がこれを検出して、プレイヤ入力処理手段305に出力する。プレイヤ入力手段305は、これに基づいて、プレイヤによるタッチが、可視領域可視領域操作画像901AまたはCのいずれかに対する選択であるか否かを判定する(ステップ1037)。可視領域可視領域操作画像901AまたはCのいずれかに対する選択であった場合には、選択された可視領域可視領域操作画像に対応する仮想空間のための所定のエリアを可視領域として決定し、可視領域操作画像に可視領域表示を表示し(ステップ1039)、その仮想空間の一部の領域のためのオブジェクト操作画像を生成して、表示する(ステップ1041)。   In the present embodiment, a process for changing the selection of the visible region operation image is executed in order to change the virtual space to be displayed on the object operation image (steps 1037 and 1039). That is, when the player touches one of the visible region visible region operation images 901 </ b> A or C displayed on the touch panel 110, the touch detection unit 301 detects this and outputs it to the player input processing unit 305. Based on this, the player input means 305 determines whether or not the touch by the player is a selection with respect to either the visible region / visible region operation image 901A or C (step 1037). If the selection is made for either the visible region visible region manipulation image 901A or C, a predetermined area for the virtual space corresponding to the selected visible region visible region manipulation image is determined as the visible region, and the visible region A visible region display is displayed on the operation image (step 1039), and an object operation image for a part of the virtual space is generated and displayed (step 1041).

次に、可視領域操作画像901A〜Cに表示される仮想空間を変更する処理を実行する(ステップ1041)。例えば、矢印910をプレイヤがタッチして、仮想空間の変更操作を行ったことをプレイヤ入力処理手段305が決定すると(ステップ1043)、可視領域操作画像901A〜Cに表示される仮想空間はア〜ウに変更され、これらの可視領域操作画像が生成されて表示される(ステップ1045)。   Next, a process of changing the virtual space displayed in the visible region operation images 901A to 901C is executed (step 1041). For example, when the player input processing means 305 determines that the player has touched the arrow 910 and changed the virtual space (step 1043), the virtual spaces displayed in the visible region operation images 901A to 901A to 901C These visible region operation images are generated and displayed (step 1045).

[第3の実施形態]
図11は、ネットワークを介して複数の電子装置が接続されるシステムによって実現する本発明の1つの実施形態に係るシステムの全体構成の一例を示す。システム1100は、1以上の電子装置100と、サーバ1200とを含んで構成される。これらはネットワーク1150によって互いに接続されるが、それぞれが必要に応じて個別に接続される形態であってもかまわない。また複数の電子装置のうちの1つをサーバとしても機能させる場合、システム1100はサーバを含まない構成とすることもできる。電子装置100のハードウェア構成は図1に示すとおりである。
[Third Embodiment]
FIG. 11 shows an example of the overall configuration of a system according to an embodiment of the present invention realized by a system in which a plurality of electronic devices are connected via a network. The system 1100 includes one or more electronic devices 100 and a server 1200. These are connected to each other by the network 1150, but may be individually connected as necessary. When one of the plurality of electronic devices also functions as a server, the system 1100 can be configured not to include the server. The hardware configuration of the electronic device 100 is as shown in FIG.

図12は本発明の実施形態に係るサーバ1200のハードウェア構成を示すブロック図である。サーバ1200は、処理部1201、表示部1202、入力部1203、記憶部1204及び通信部1205を備える。これらの各構成部はバス1210によって接続されるが、それぞれが必要に応じて個別に接続される形態であってもかまわない。   FIG. 12 is a block diagram showing a hardware configuration of the server 1200 according to the embodiment of the present invention. The server 1200 includes a processing unit 1201, a display unit 1202, an input unit 1203, a storage unit 1204, and a communication unit 1205. Each of these components is connected by the bus 1210, but may be individually connected as necessary.

処理部1201は、サーバ1200が備える各部を制御するプロセッサを備えており、記憶部1204をワーク領域として各種処理を行う。表示部1202は使用者に情報を表示する機能を有する。入力部1203はキーボードやマウス等のように使用者からの入力を受け付ける機能を有するものである。   The processing unit 1201 includes a processor that controls each unit included in the server 1200, and performs various processes using the storage unit 1204 as a work area. The display unit 1202 has a function of displaying information to the user. The input unit 1203 has a function of accepting input from the user, such as a keyboard and a mouse.

記憶部1204は、ハードディスク、メインメモリ、及びバッファメモリを含む。ハードディスクにはプログラム1206が記憶される。ただしハードディスクは、情報を格納できるものであればいかなる不揮発性ストレージまたは不揮発性メモリであってもよく、着脱可能なものであっても構わない。記憶部1204には、プログラム1206や当該プログラムの実行に伴って参照され得る各種のデータが記憶される。   The storage unit 1204 includes a hard disk, a main memory, and a buffer memory. A program 1206 is stored in the hard disk. However, the hard disk may be any nonvolatile storage or nonvolatile memory as long as it can store information, and may be removable. The storage unit 1204 stores a program 1206 and various types of data that can be referred to when the program is executed.

通信部1205はイーサネット(登録商標)ケーブル等を用いた有線通信や移動体通信、無線LAN等の無線通信を行い、ネットワーク1150へ接続する。   A communication unit 1205 performs wireless communication such as wired communication using an Ethernet (registered trademark) cable, mobile communication, and wireless LAN, and connects to the network 1150.

サーバ1200は、プログラム1206が実行されることによって様々な機能が実現されるが、これらの機能の一部は電子回路等を構成することによっても実現できる。   The server 1200 implements various functions by executing the program 1206, but some of these functions can also be implemented by configuring an electronic circuit or the like.

上記の構成により、システム1100は、図3に示す各機能と同等の機能を有することができる。これらはプログラム106を電子装置100に実行させ、かつプログラム1206をサーバ1200に実行させることで実現される。すなわちこの場合、電子装置100及びサーバ1200の少なくとも一方が図3に示す各種機能を備える。このように各種機能がプログラム読み込みにより実現される場合は、当然ながら1つの手段の一部の機能を他の手段が有していてもよい。   With the above configuration, the system 1100 can have functions equivalent to the functions illustrated in FIG. These are realized by causing the electronic apparatus 100 to execute the program 106 and causing the server 1200 to execute the program 1206. That is, in this case, at least one of the electronic device 100 and the server 1200 includes various functions illustrated in FIG. As described above, when various functions are realized by reading a program, it is a matter of course that other means may have some functions of one means.

例えばシステム1100の1つの実施形態としては、サーバ1200が表示画像生成手段304を備え、電子装置100が図3に示すその他の機能を有する。この場合、電子装置100が変更された可視領域の情報とともに、サーバ1100へ問い合わせを行うと、サーバ1200は可視領域操作画像及びオブジェクト操作画像を、電子装置100へ送信する。電子装置100は通信手段306を介してこれを受信し、表示手段302に表示する。   For example, as one embodiment of the system 1100, the server 1200 includes the display image generation unit 304, and the electronic device 100 has other functions illustrated in FIG. 3. In this case, when the electronic device 100 makes an inquiry to the server 1100 together with the changed visible region information, the server 1200 transmits the visible region operation image and the object operation image to the electronic device 100. The electronic device 100 receives this via the communication unit 306 and displays it on the display unit 302.

以上に説明した処理または動作において、矛盾が生じない限りにおいて、処理または動作を自由に変更することができる。また以上に説明してきた各実施形態は、本発明を説明するための例示であり、本発明はこれらの実施形態に限定されるものではない。本発明は、その要旨を逸脱しない限り、種々の形態で実施することができる。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。   In the processes or operations described above, the processes or operations can be freely changed as long as no contradiction occurs. Each embodiment described above is an illustration for explaining the present invention, and the present invention is not limited to these embodiments. The present invention can be implemented in various forms without departing from the gist thereof. Further, the effects described in the present embodiment are merely a list of the most preferable effects resulting from the present invention, and the effects of the present invention are not limited to those described in the present embodiment.

100 電子装置
101、1201 処理部
102、1202 表示部
103、1203 入力部
104、1204 記憶部
105、1205 通信部
106、1206 プログラム
108、1210 バス
110 タッチパネル
301 タッチ検出手段
302 表示手段
303 可視領域決定手段
304 表示画像生成手段
305 プレイヤ操作処理手段
306 記憶手段
307 通信手段
308 一時記憶手段
400 ゲーム画面
401、701、801、901 可視領域操作画像
402 仮想空間画像
403 X軸
404 Y軸
405、452、702、752、802、880、892、902 可視領域表示
406、454 固定背景オブジェクト
407、408、453、760、860、861、870、871、890、891 操作対象オブジェクト
451、751、851、951 オブジェクト操作画像
455、554、753 動く背景オブジェクト
456 平面パネル
500、550 下地レイヤ
501、551 オブジェクトレイヤ
502、552 可視領域表示レイヤ
503、553 固定背景オブジェクトレイヤ
504、555 操作対象オブジェクトレイヤ
1100 システム
1150 ネットワーク
1200 サーバ
DESCRIPTION OF SYMBOLS 100 Electronic device 101,1201 Processing unit 102, 1202 Display unit 103, 1203 Input unit 104, 1204 Storage unit 105, 1205 Communication unit 106, 1206 Program 108, 1210 Bus 110 Touch panel 301 Touch detection unit 302 Display unit 303 Visible region determination unit 304 Display image generation means 305 Player operation processing means 306 Storage means 307 Communication means 308 Temporary storage means 400 Game screen 401, 701, 801, 901 Visible area operation image 402 Virtual space image 403 X axis 404 Y axis 405, 452, 702, 752, 802, 880, 892, 902 Visible region display 406, 454 Fixed background object 407, 408, 453, 760, 860, 861, 870, 871, 890, 891 Object 451, 751, 851, 951 Object operation image 455, 554, 753 Moving background object 456 Flat panel 500, 550 Base layer 501, 551 Object layer 502, 552 Visible region display layer 503, 553 Fixed background object layer 504, 555 Operation Target object layer 1100 system 1150 network 1200 server

Claims (13)

仮想空間に配置されたオブジェクトをプレイヤに操作させるゲームのためのプログラムであって、
前記プログラムは、表示装置を含む電子装置に、
前記表示装置に、仮想空間における可視領域をプレイヤに操作させるための可視領域操作画像及び前記仮想空間に配置された1つ以上のオブジェクトをプレイヤに操作させるためのオブジェクト操作画像を表示するステップであって、前記可視領域操作画像は前記仮想空間の少なくとも一部の領域を表現するものであり、所定の可視領域を示す可視領域表示が前記可視領域操作画像において表示され、前記オブジェクト操作画像は前記仮想空間に含まれる他の少なくとも一部の領域を仮想カメラから見た画像である、ステップと、
プレイヤの操作によって移動された前記可視領域操作画像において表示された可視領域表示の移動先位置に対応する前記仮想空間における領域に前記可視領域を変更するステップと、
前記仮想空間に配置された1つ以上のオブジェクトの位置情報に基づいて、前記変更された可視領域の中に配置されたオブジェクトに対して可視化処理を実行し、前記変更された可視領域の外に配置されたオブジェクトに対して不可視化処理を実行して表示オブジェクト画像を生成するステップと、
前記表示オブジェクト画像に基づいて、前記表示装置上に表示された前記オブジェクト操作画像を更新して表示させるステップと、
を実行させるプログラム。
A program for a game that causes a player to operate an object placed in a virtual space,
The program is stored in an electronic device including a display device.
Displaying the visible region operation image for causing the player to operate the visible region in the virtual space and the object operation image for causing the player to operate one or more objects arranged in the virtual space on the display device. The visible region manipulation image represents at least a part of the virtual space, a visible region display indicating a predetermined visible region is displayed in the visible region manipulation image, and the object manipulation image is the virtual region manipulation image. An image of at least some other area included in the space as seen from the virtual camera; and
Changing the visible area to an area in the virtual space corresponding to a movement destination position of the visible area display displayed in the visible area operation image moved by a player's operation;
Based on position information of one or more objects arranged in the virtual space, a visualization process is executed on the object arranged in the changed visible area, and the object is placed outside the changed visible area. Performing a de-visualization process on the placed object to generate a display object image;
Updating and displaying the object operation image displayed on the display device based on the display object image;
A program that executes
前記仮想カメラの位置は前記オブジェクト操作画像上におけるプレイヤの操作によって移動される、請求項1に記載のプログラム。   The program according to claim 1, wherein the position of the virtual camera is moved by a player's operation on the object operation image. 前記不可視化処理は、プレイヤによるオブジェクトの操作をできなくする操作無効化処理、及び、オブジェクト画像の透過処理または非表示化処理であり、前記可視化処理は、プレイヤによるオブジェクトの操作を可能にする操作有効化処理、及び、オブジェクト画像の透過処理の終了処理または表示化処理である、請求項1及び2のいずれか1項に記載のプログラム。   The invisibility process is an operation invalidation process that prevents the player from operating the object, and an object image transparency process or a non-display process. The visualization process is an operation that enables the player to operate the object. The program according to any one of claims 1 and 2, which is an activation process and an end process or a display process of an object image transparency process. 前記可視領域は複数の可視領域であり、前記可視領域表示は複数の可視領域表示である、請求項1〜3のいずれか1項に記載のプログラム。   The program according to claim 1, wherein the visible region is a plurality of visible regions, and the visible region display is a plurality of visible region displays. 前記可視領域は三次元領域である、請求項1〜4のいずれか1項に記載のプログラム。   The program according to claim 1, wherein the visible region is a three-dimensional region. 前記不可視化処理は、前記変更された可視領域に対応する領域の外に少なくとも一部が配置されたオブジェクトに対して不可視化処理する、請求項1〜5のいずれか1項に記載のプログラム。   The program according to any one of claims 1 to 5, wherein the invisibility process performs an invisibility process on an object at least a part of which is arranged outside an area corresponding to the changed visible area. 前記可視化処理は、前記変更された可視領域に対応する領域の中に配置されたオブジェクトの部分に対して可視化処理し、前記不可視化処理は、前記変更された可視領域に対応する領域の外に配置されたオブジェクトの部分に対して不可視化処理する、請求項1〜6のいずれか1項に記載のプログラム。   The visualization process performs a visualization process on a part of an object arranged in an area corresponding to the changed visible area, and the invisibility process is performed outside the area corresponding to the changed visible area. The program according to any one of claims 1 to 6, wherein the invisible processing is performed on a portion of the arranged object. 前記可視領域画像はオブジェクト画像を含むものであり、
前記プログラムは、前記電子装置に、
前記表示装置上に表示された前記オブジェクト操作画像におけるオブジェクトの配置がプレイヤ操作によって変更されると、オブジェクト情報における当該オブジェクトの位置情報を変更して、前記オブジェクト情報を更新するステップと、
前記更新されたオブジェクト情報に基づいて、前記表示装置に表示された前記可視領域操作画像を更新して表示するステップを更に実行させる、
請求項1〜7のいずれか1項に記載のプログラム。
The visible region image includes an object image,
The program is stored in the electronic device.
Updating the object information by changing the position information of the object in the object information when the arrangement of the object in the object operation image displayed on the display device is changed by a player operation;
Further executing the step of updating and displaying the visible region operation image displayed on the display device based on the updated object information.
The program according to any one of claims 1 to 7.
前記仮想空間は、不連続な複数の仮想空間を含み、
前記可視領域操作画像を表示するステップは、前記複数の仮想空間の各々の少なくとも一部の領域を表現する複数の可視領域操作画像を表示するステップを含み、
前記複数の可視領域操作画像の表示間隔は、隣接する可視領域操作画像が配置される方向の可視領域表示幅より大きく、
前記オブジェクト操作画像を表示するステップは、前記表示装置に表示された複数の可視領域操作画像からプレイヤの操作によって選択された一つの可視領域操作画像に対応する仮想空間のためのオブジェクト操作画像を表示するステップを含む、
請求項1〜8のいずれか1項に記載のプログラム。
The virtual space includes a plurality of discontinuous virtual spaces,
Displaying the visible region manipulation image includes displaying a plurality of visible region manipulation images representing at least a partial region of each of the plurality of virtual spaces;
The display interval of the plurality of visible region operation images is larger than the visible region display width in the direction in which the adjacent visible region operation images are arranged,
The step of displaying the object operation image displays an object operation image for a virtual space corresponding to one visible region operation image selected by a player's operation from a plurality of visible region operation images displayed on the display device. Including the step of
The program according to any one of claims 1 to 8.
請求項1〜9のいずれか1項に記載のプログラムを格納したコンピュータ読み取り可能な記録媒体。   The computer-readable recording medium which stored the program of any one of Claims 1-9. 仮想空間に配置されたオブジェクトをプレイヤに操作させるゲームを実行する電子装置であって、
表示手段と、
可視領域決定手段と、
表示画像生成手段と、
を備え、
前記表示手段は、前記仮想空間における可視領域をプレイヤに操作させるための可視領域操作画像及び前記仮想空間に配置された1つ以上のオブジェクトをプレイヤに操作させるためのオブジェクト操作画像を表示するものであって、前記可視領域操作画像は前記仮想空間の少なくとも一部の領域を表現するものであり、所定の可視領域を示す可視領域表示が前記可視領域操作画像において表示され、前記オブジェクト操作画像は前記仮想空間に含まれる他の少なくとも一部の領域を仮想カメラから見た画像であり、
前記可視領域決定手段は、プレイヤの操作によって移動された前記可視領域操作画像において表示された可視領域表示の移動先位置に対応する前記仮想空間における領域に前記可視領域を変更し、
前記表示画像生成手段は、前記仮想空間に配置された1つ以上のオブジェクトの位置情報に基づいて、前記変更された可視領域の中に配置されたオブジェクトに対して可視化処理を実行し、前記変更された可視領域の外に配置されたオブジェクトに対して不可視化処理を実行して表示オブジェクト画像を生成し、
前記表示手段は、前記表示オブジェクト画像に基づいて更新された前記オブジェクト操作画像を表示する、
電子装置。
An electronic device that executes a game that causes a player to operate an object placed in a virtual space,
Display means;
A visible region determining means;
Display image generation means;
With
The display means displays a visible region operation image for causing the player to operate a visible region in the virtual space and an object operation image for causing the player to operate one or more objects arranged in the virtual space. The visible area operation image represents at least a part of the virtual space, a visible area display indicating a predetermined visible area is displayed in the visible area operation image, and the object operation image is It is an image of at least some other areas included in the virtual space as seen from the virtual camera,
The visible area determining means changes the visible area to an area in the virtual space corresponding to a movement destination position of the visible area display displayed in the visible area operation image moved by a player's operation,
The display image generation means executes a visualization process on an object arranged in the changed visible region based on position information of one or more objects arranged in the virtual space, and performs the change The display object image is generated by executing the invisibility process for the object placed outside the visible area.
The display means displays the object operation image updated based on the display object image;
Electronic equipment.
サーバと、前記サーバにネットワークを介して接続される、表示手段を備える電子装置とを含むシステムであって、
可視領域決定手段と、
表示画像生成手段と、
の各手段を前記サーバ又は前記電子装置が備え、
前記表示手段は、仮想空間における可視領域をプレイヤに操作させるための可視領域操作画像及び前記仮想空間に配置された1つ以上のオブジェクトをプレイヤに操作させるためオブジェクト操作画像を表示するものであって、前記可視領域操作画像は前記仮想空間の少なくとも一部の領域を表現するものであり、所定の可視領域を示す可視領域表示が前記可視領域操作画像において表示され、前記オブジェクト操作画像は前記仮想空間に含まれる他の少なくとも一部の領域を仮想カメラから見た画像であり、
前記可視領域決定手段は、プレイヤの操作によって移動された前記可視領域操作画像において表示された可視領域表示の移動先位置に対応する前記仮想空間における領域に前記可視領域を変更し、
前記表示画像生成手段は、前記仮想空間に配置された1つ以上のオブジェクトの位置情報に基づいて、前記変更された可視領域の中に配置されたオブジェクトに対して可視化処理を実行し、前記変更された可視領域の外に配置されたオブジェクトに対して不可視化処理を実行して表示オブジェクト画像を生成し、
前記表示手段は、前記表示オブジェクト画像に基づいて更新された前記オブジェクト操作画像を表示する、
システム。
A system comprising: a server; and an electronic device comprising display means connected to the server via a network,
A visible region determining means;
Display image generation means;
The server or the electronic device includes the following means:
The display means displays a visible region operation image for causing the player to operate a visible region in the virtual space and an object operation image for causing the player to operate one or more objects arranged in the virtual space. The visible region manipulation image represents at least a part of the virtual space, a visible region display indicating a predetermined visible region is displayed in the visible region manipulation image, and the object manipulation image is the virtual space. Is an image of at least a part of the other area included in
The visible area determining means changes the visible area to an area in the virtual space corresponding to a movement destination position of the visible area display displayed in the visible area operation image moved by a player's operation,
The display image generation means executes a visualization process on an object arranged in the changed visible region based on position information of one or more objects arranged in the virtual space, and performs the change The display object image is generated by executing the invisibility process for the object placed outside the visible area.
The display means displays the object operation image updated based on the display object image;
system.
仮想空間に配置されたオブジェクトをプレイヤに操作させるゲームのための表示装置を含む電子装置が実行する方法であって、
前記表示装置に、仮想空間における可視領域をプレイヤに操作させるための可視領域操作画像及び前記仮想空間に配置された1つ以上のオブジェクトをプレイヤに操作させるためオブジェクト操作画像を表示するステップであって、前記可視領域操作画像は前記仮想空間の少なくとも一部の領域を表現するものであり、所定の可視領域を示す可視領域表示が前記可視領域操作画像において表示され、前記オブジェクト操作画像は前記仮想空間に含まれる他の少なくとも一部の領域を仮想カメラから見た画像である、ステップと、
プレイヤの操作によって移動された前記可視領域操作画像において表示された可視領域表示の移動先位置に対応する前記仮想空間における領域に前記可視領域を変更するステップと、
前記仮想空間に配置された1つ以上のオブジェクトの位置情報に基づいて、前記変更された可視領域の中に配置されたオブジェクトに対して可視化処理を実行し、前記変更された可視領域の外に配置されたオブジェクトに対して不可視化処理を実行して表示オブジェクト画像を生成するステップと、
前記表示装置に、前記表示オブジェクト画像に基づいて更新された前記オブジェクト操作画像を表示するステップと、
を含む方法。
A method executed by an electronic device including a display device for a game that causes a player to operate an object arranged in a virtual space,
Displaying a visible region operation image for causing the player to operate a visible region in the virtual space and an object operation image for causing the player to operate one or more objects arranged in the virtual space on the display device; The visible region manipulation image represents at least a part of the virtual space, a visible region display indicating a predetermined visible region is displayed in the visible region manipulation image, and the object manipulation image is the virtual space. An image of at least some other areas included in the image as viewed from the virtual camera; and
Changing the visible area to an area in the virtual space corresponding to a movement destination position of the visible area display displayed in the visible area operation image moved by a player's operation;
Based on position information of one or more objects arranged in the virtual space, a visualization process is executed on the object arranged in the changed visible area, and the object is placed outside the changed visible area. Performing a de-visualization process on the placed object to generate a display object image;
Displaying the object operation image updated based on the display object image on the display device;
Including methods.
JP2016077338A 2016-04-07 2016-04-07 Program, method, electronic apparatus and system for displaying object image in game Active JP6002346B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016077338A JP6002346B1 (en) 2016-04-07 2016-04-07 Program, method, electronic apparatus and system for displaying object image in game

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016077338A JP6002346B1 (en) 2016-04-07 2016-04-07 Program, method, electronic apparatus and system for displaying object image in game

Publications (2)

Publication Number Publication Date
JP6002346B1 true JP6002346B1 (en) 2016-10-05
JP2017187978A JP2017187978A (en) 2017-10-12

Family

ID=57048642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016077338A Active JP6002346B1 (en) 2016-04-07 2016-04-07 Program, method, electronic apparatus and system for displaying object image in game

Country Status (1)

Country Link
JP (1) JP6002346B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0950541A (en) * 1995-08-10 1997-02-18 Sega Enterp Ltd Virtual picture generating device and its method
JP2002230577A (en) * 2001-01-30 2002-08-16 Namco Ltd Game device and information storage medium
JP2005100109A (en) * 2003-09-25 2005-04-14 Namco Ltd Image generation information, information storage medium and image generation apparatus
JP2005322085A (en) * 2004-05-10 2005-11-17 Konami Co Ltd Image processor, and image processing method and program
JP2008043589A (en) * 2006-08-18 2008-02-28 Nintendo Co Ltd Game program and game device
JP2013097473A (en) * 2011-10-28 2013-05-20 Nintendo Co Ltd Game processing system, game processing method, game processing device, and game processing program
JP2016016319A (en) * 2015-05-22 2016-02-01 株式会社コロプラ Game program for display-controlling objects arranged on virtual spatial plane

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0950541A (en) * 1995-08-10 1997-02-18 Sega Enterp Ltd Virtual picture generating device and its method
JP2002230577A (en) * 2001-01-30 2002-08-16 Namco Ltd Game device and information storage medium
JP2005100109A (en) * 2003-09-25 2005-04-14 Namco Ltd Image generation information, information storage medium and image generation apparatus
JP2005322085A (en) * 2004-05-10 2005-11-17 Konami Co Ltd Image processor, and image processing method and program
JP2008043589A (en) * 2006-08-18 2008-02-28 Nintendo Co Ltd Game program and game device
JP2013097473A (en) * 2011-10-28 2013-05-20 Nintendo Co Ltd Game processing system, game processing method, game processing device, and game processing program
JP2016016319A (en) * 2015-05-22 2016-02-01 株式会社コロプラ Game program for display-controlling objects arranged on virtual spatial plane

Also Published As

Publication number Publication date
JP2017187978A (en) 2017-10-12

Similar Documents

Publication Publication Date Title
US10657716B2 (en) Collaborative augmented reality system
JP5916037B2 (en) Information processing apparatus, information processing method, program, and information storage medium
CN110379019A (en) The method and mobile device of point of interest are indicated in the view of true environment
US10572134B2 (en) Method and system for providing prototyping tool, and non-transitory computer-readable recording medium
US9495067B2 (en) Method and apparatus for providing three-dimensional user interface in an electronic device
CN102934067A (en) Information processing system, operation input device, information processing device, information processing method, program and information storage medium
KR102205283B1 (en) Electro device executing at least one application and method for controlling thereof
JPWO2015025345A1 (en) Information display device, information display method, and information display program
CN101553843A (en) Interacting with 2D content on 3D surfaces
JP6470111B2 (en) Game program having message transmission function, message transmission method, and computer terminal with message transmission function
CN109976614B (en) Method, device, equipment and medium for marking three-dimensional graph
CN111309203A (en) Method and device for acquiring positioning information of mouse cursor
JP2019155062A (en) Display system, display control device, and program
JP5767371B1 (en) Game program for controlling display of objects placed on a virtual space plane
JP5981617B1 (en) Computer program and computer-implemented method for displaying user interface images
JP6002346B1 (en) Program, method, electronic apparatus and system for displaying object image in game
JP2013225321A (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP2016016319A (en) Game program for display-controlling objects arranged on virtual spatial plane
JP2016130888A (en) Computer program for icon selection, portable terminal, and computer mounting method
JP5738372B2 (en) Information processing apparatus, information processing program, information processing system, and information processing method
JP5738351B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5932273B2 (en) Display control apparatus, display control method, program, and storage medium
JP6452014B1 (en) Display system, display control apparatus, and program
JP6439132B1 (en) Display system, display control apparatus, and program
JP6050615B2 (en) MAP DISPLAY DEVICE, MAP DISPLAY METHOD, AND MAP DISPLAY PROGRAM

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160902

R150 Certificate of patent or registration of utility model

Ref document number: 6002346

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250