JP5767378B1 - Computer program for controlling objects in virtual space and computer-implemented method - Google Patents

Computer program for controlling objects in virtual space and computer-implemented method Download PDF

Info

Publication number
JP5767378B1
JP5767378B1 JP2014179094A JP2014179094A JP5767378B1 JP 5767378 B1 JP5767378 B1 JP 5767378B1 JP 2014179094 A JP2014179094 A JP 2014179094A JP 2014179094 A JP2014179094 A JP 2014179094A JP 5767378 B1 JP5767378 B1 JP 5767378B1
Authority
JP
Japan
Prior art keywords
area
screen
plane
deactivation
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014179094A
Other languages
Japanese (ja)
Other versions
JP2016052396A (en
Inventor
行規 深津
行規 深津
篤 猪俣
篤 猪俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2014179094A priority Critical patent/JP5767378B1/en
Application granted granted Critical
Publication of JP5767378B1 publication Critical patent/JP5767378B1/en
Publication of JP2016052396A publication Critical patent/JP2016052396A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】ユーザに対し操作上の煩わしさを与えることなく、各種オブジェクトへのユーザ操作を容易かつ円滑に実現できるコンピュータ・プログラムおよびコンピュータ実装方法を提供すること。【解決手段】コンピュータ・プログラムは、ユーザ入力に応じて、仮想空間内における仮想カメラの位置を決定し、仮想空間の視界領域を決定する第1決定部、ユーザ画面の表示領域における非活性化画面領域と対応付けがされる視界領域の非活性化平面領域を決定する第2決定部、当該非活性化平面領域上に少なくとも一部が配置されたオブジェクトに対し、透過処理および非活性化処理を行う処理部、並びに、ユーザ画面に出力するために、透過処理を行ったオブジェクトの画像を用いて視界領域に基づくゲーム画像を生成する生成部としてコンピュータを機能させる。【選択図】図6A computer program and a computer-implemented method capable of easily and smoothly realizing a user operation on various objects without giving the user troublesome operations. A computer program determines a position of a virtual camera in a virtual space in response to a user input, a first determination unit that determines a visual field area of the virtual space, and a deactivation screen in a display area of a user screen A second determination unit that determines a deactivation plane area of a view field area that is associated with the area, and performs a transparency process and a deactivation process on an object that is at least partially arranged on the deactivation plane area The computer is caused to function as a processing unit that performs the processing and a generation unit that generates a game image based on the field of view using the image of the object that has been subjected to the transparent processing for output to the user screen. [Selection] Figure 6

Description

本発明は、コンピュータ・プログラムおよびコンピュータ実装方法に関し、より詳細には、仮想空間平面上に配置した各種オブジェクトに対してユーザ操作を容易にするコンピュータ・プログラムおよびコンピュータ実装方法に関するものである。   The present invention relates to a computer program and a computer-implemented method, and more particularly to a computer program and a computer-implemented method that facilitate user operations on various objects arranged on a virtual space plane.

従来のコンピュータ・プログラム、特にゲーム・プログラムには、ゲームの進行上、3次元の仮想空間平面上に複数のオブジェクトを配置し、仮想カメラから映した視界画像を生成して画面に出力するものが多い。一例として、図1は、ユーザ操作により、仮想空間における何の建造物も無い土地(仮想空間平面)に様々なオブジェクトを配置して街づくりを行うような従来技術のゲーム・プログラムの画面例である。このようなゲームでは、ユーザは、自身の好みに応じて、道路や建造物等のオブジェクトを平面上の土地に配置することができる。更にユーザは、ゲームのルールにしたがい、仮想空間平面上に配置したオブジェクトの選択を通じて、移動や変更等を含む所定のユーザ操作を行うことが可能である。   Some conventional computer programs, particularly game programs, arrange a plurality of objects on a three-dimensional virtual space plane, generate a view image projected from a virtual camera and output it to the screen as the game progresses. Many. As an example, FIG. 1 is a screen example of a conventional game program in which various objects are arranged on a land (virtual space plane) where there are no buildings in a virtual space by user operation to create a city. is there. In such a game, the user can place objects such as roads and buildings on the land on the plane according to his / her preference. Furthermore, the user can perform predetermined user operations including movement and change through selection of objects arranged on the virtual space plane in accordance with the rules of the game.

上記のようなゲームでは、タッチ・ディスプレイに表示されるゲーム画像に対し、オブジェクトが配置される位置に対応するタッチ・ディスプレイ上の特定の領域をユーザがタッチすることにより、ユーザによるオブジェクト選択を可能にして、インタラクティブにゲームを進行させるのが一般的である。例えば、ユーザは、タッチ・ディスプレイにおいて、図1(a)のように表示される特定のオブジェクト(例えば、建物オブジェクトa)が表示された部分上を指やスタイラス・ペンでタッチすることにより、当該オブジェクトを選択し、操作可能となる。   In the game as described above, the user can select an object by touching a specific area on the touch display corresponding to the position where the object is placed on the game image displayed on the touch display. Thus, it is common to advance the game interactively. For example, on the touch display, the user touches a part where a specific object (for example, building object a) displayed as shown in FIG. 1A is displayed with a finger or a stylus pen. The object can be selected and operated.

しかしながら、このようなゲームでは、仮想空間に配置される仮想カメラの位置は、ズームインやズームアウトに伴う移動、および水平面に沿った所定の方向への水平移動のみ制御可能とされるものも多い。この場合は、例えば、オブジェクトの後ろに隣接配置された別のオブジェクト(例えば、建物オブジェクトaに隣接する建物オブジェクトb)をユーザが選択する際は、ユーザは、前方に隣接するオブジェクト(建物オブジェクトa)が表示された部分を避けるようにして、タッチ・ディスプレイをタッチしなければならない。前後の建物オブジェクトの重複領域においては、前方の建物オブジェクトが表示されることになるために、後方の建物オブジェクトは隠れてしまうからである。場合によっては、後方の建物オブジェクトが前方の建物オブジェクトに完全に隠れてしまい、タッチ・ディスプレイのタッチによる選択が不可能となることも起こり得る。   However, in such games, the position of the virtual camera arranged in the virtual space can often be controlled only by movement accompanying zoom-in or zoom-out and horizontal movement in a predetermined direction along the horizontal plane. In this case, for example, when the user selects another object (for example, a building object b adjacent to the building object a) arranged adjacently behind the object, the user selects the object adjacent to the front (building object a). ) Must be touched to avoid the part where it is displayed. This is because the front building object is displayed in the overlapping area of the front and rear building objects, and the rear building object is hidden. In some cases, the rear building object may be completely hidden behind the front building object, making it impossible to select by touch on the touch display.

このように建物オブジェクトbをユーザがタッチにより選択したい場合、従来では、図1(b)のように、一旦、建物オブジェクトaをユーザ操作によって別の場所に移動させ、建物オブジェクトbの全体を表示できるようにした上で、ユーザが改めて建物オブジェクトbに対してタッチによる選択をする必要があった。   Thus, when the user wants to select the building object b by touch, conventionally, as shown in FIG. 1B, the building object a is once moved to another place by a user operation, and the entire building object b is displayed. After making it possible, the user has to make another selection by touching the building object b.

他方、このような状況に対する従来技術におけるゲーム・プログラム上の工夫としては、建物オブジェクト毎に一定以上の大きさ(特に高さ)を有するかの判断や、複数のオブジェクトが重複するかの判断を行い、その場合に一定以上の大きさを有する前方の建物オブジェクト(建物オブジェクトa)に対して、透過処理を実施して「ユーザによる選択不可」とするように設定するものがある。しかしながら、この場合は、各建物オブジェクトに様々なパラメータを設ける必要があり、処理が複雑化して処理コストが増大するという課題があった。   On the other hand, as a device in the game program in the prior art for such a situation, it is determined whether each building object has a certain size (especially height) or whether a plurality of objects overlap. In such a case, there is a case where a transparent building process is performed on a front building object (building object a) having a certain size or more so as to be “not selectable by the user”. However, in this case, it is necessary to provide various parameters for each building object, and there is a problem that processing is complicated and processing cost increases.

したがって、タッチ操作等のユーザ操作を容易にするために、オブジェクトに対する効率的な制御を可能にする改良ゲーム・プログラムを提供することは有利なものとなる。   Therefore, it would be advantageous to provide an improved game program that allows efficient control over objects to facilitate user operations such as touch operations.

本発明の目的は、仮想空間平面上に配置した各種オブジェクトに対してユーザ操作を容易にするために、オブジェクトに対するユーザ操作制御および視覚上の表示制御を効率的に行うコンピュータ・プログラムを提供し、これにより、ユーザに対し操作上の煩わしさを与えることなく、各種オブジェクトへのユーザ操作(タッチジェスチャ操作によるオブジェクト選択等)を容易かつ円滑に実現できるコンピュータ・プログラムを提供することである。   An object of the present invention is to provide a computer program for efficiently performing user operation control and visual display control on an object in order to facilitate user operation on various objects arranged on a virtual space plane, Accordingly, it is an object of the present invention to provide a computer program that can easily and smoothly realize a user operation (such as object selection by a touch gesture operation) on various objects without giving the user troublesome operations.

上記の課題を解決するために、仮想空間平面上に配置したオブジェクトに対する操作制御および表示制御をするコンピュータ・プログラムおよびコンピュータ実装方法を提供する。   In order to solve the above-described problems, a computer program and a computer-implemented method for performing operation control and display control on an object arranged on a virtual space plane are provided.

本発明のコンピュータ・プログラムは、ユーザ入力に応じて、仮想空間内における仮想カメラの位置を決定し、仮想空間の視界領域を決定する第1決定部、ユーザ画面の表示領域内の非活性化画面領域と対応付けがされる視界領域の非活性化平面領域を決定する第2決定部、当該非活性化平面領域上に少なくとも一部が配置されたオブジェクトに対し、透過処理および非活性化処理を行う処理部、並びに、ユーザ画面に出力するために、透過処理を行ったオブジェクトの画像を用いて視界領域に基づくゲーム画像を生成する生成部としてコンピュータを機能させる。   A computer program according to the present invention includes: a first determination unit that determines a position of a virtual camera in a virtual space in accordance with a user input and determines a visual field area of the virtual space; a deactivation screen in a display area of a user screen A second determination unit that determines a deactivation plane area of a view field area that is associated with the area, and performs a transparency process and a deactivation process on an object that is at least partially arranged on the deactivation plane area The computer is caused to function as a processing unit that performs the processing and a generation unit that generates a game image based on the field of view using the image of the object that has been subjected to the transparent processing for output to the user screen.

また、本発明のコンピュータ・プログラムでは、上記非活性化画面領域がユーザ画面の表示領域の中心線上にある基準点に基づいて規定されることを特徴とする。更に、本発明のコンピュータ・プログラムでは、仮想空間内の空間平面が格子状に形成され、上記第2決定部において、上記対応付けが、表示領域の基準点に対し、空間平面の1つの格子を基準格子として特定することにより行われることを特徴とする。   In the computer program of the present invention, the inactive screen area is defined based on a reference point on the center line of the display area of the user screen. Furthermore, in the computer program of the present invention, the space plane in the virtual space is formed in a lattice shape, and in the second determination unit, the association is performed with one lattice on the space plane with respect to the reference point of the display area. It is performed by specifying as a reference grid.

加えて、本発明のコンピュータ実装方法は、ユーザ入力に応じて、仮想空間内における仮想カメラの位置を決定し、仮想空間の視界領域を決定するステップ、ユーザ画面の表示領域内の非活性化画面領域と対応付けがされる視界領域内の非活性化平面領域を決定するステップであって、非活性化画面領域が表示領域の中心線上にある基準点に基づいて規定され、仮想空間内の空間平面が格子状に形成され、上記対応付けが、基準点に対し空間平面の1つの格子を基準格子として特定することにより行われる、ステップ、非活性化平面領域上に少なくとも一部が配置されたオブジェクトの画像に対し、透過処理および非活性化処理を行うステップ、並びに、ユーザ画面に出力するために、透過処理を行ったオブジェクトの画像を用いて視界領域に基づくゲーム画像を生成するステップを含む。   In addition, the computer-implemented method of the present invention includes a step of determining the position of the virtual camera in the virtual space and determining a view area in the virtual space in response to a user input, a deactivation screen in the display area of the user screen Determining a non-activated planar area in a viewing area to be associated with an area, wherein the non-activated screen area is defined based on a reference point on a center line of the display area, The plane is formed in a grid shape, and the above association is performed by specifying one grid on the spatial plane as the reference grid with respect to the reference point, at least a part is disposed on the non-activated plane region A step of performing transparency processing and deactivation processing on the image of the object, and a field of view area using the image of the object subjected to the transparency processing for output to the user screen Comprising the step of generating a game image based.

図1は、従来技術によるコンピュータ・プログラムにより生成されるゲーム画面例を示す。FIG. 1 shows an example of a game screen generated by a computer program according to the prior art. 図2は、本発明の実施形態によるコンピュータ・プログラムを実行するためのコンピュータ・システムの概略図である。FIG. 2 is a schematic diagram of a computer system for executing a computer program according to an embodiment of the present invention. 図3は、本発明の実施形態によるコンピュータ・プログラムを実行するためのユーザ端末における概略機能ブロック図である。FIG. 3 is a schematic functional block diagram of a user terminal for executing a computer program according to an embodiment of the present invention. 図4は、本発明の実施形態によるコンピュータ・プログラムを実行するのに用いるオブジェクト・データを格納するための例示のオブジェクト・テーブルを示す。FIG. 4 illustrates an exemplary object table for storing object data used to execute a computer program according to an embodiment of the present invention. 図5は、本発明の実施形態によるコンピュータ・プログラムを用いて実装される、仮想空間平面上に配置されるオブジェクトに対する操作制御および表示制御の基本態様について示す一例の概略図である。FIG. 5 is a schematic diagram of an example showing basic aspects of operation control and display control for an object arranged on a virtual space plane, which is implemented using a computer program according to an embodiment of the present invention. 図6は、本発明の実施形態によるコンピュータ・プログラムを用いて実装される、仮想空間平面上に配置されるオブジェクトに対する操作制御および表示制御の基本態様について示す一例の概略図である。FIG. 6 is a schematic diagram of an example showing basic aspects of operation control and display control for an object arranged on a virtual space plane, which is implemented using a computer program according to an embodiment of the present invention. 図7は、本発明の実施形態によるコンピュータ・プログラムを用いて実装される、仮想空間平面上に配置されるオブジェクトに対する操作制御および表示制御の基本態様について示す一例の概略図である。FIG. 7 is a schematic diagram of an example showing basic aspects of operation control and display control for an object arranged on a virtual space plane, which is implemented using a computer program according to an embodiment of the present invention. 図8は、本発明の実施形態によるコンピュータ・プログラムを用いて実装される、仮想空間内の視界領域における非活性化平面領域とユーザ画面の表示領域内に規定される非活性化画面領域との対応付けについて示す一例の概略図である。FIG. 8 shows a deactivation plane area in the visual field area in the virtual space and a deactivation screen area defined in the display area of the user screen, which are implemented using the computer program according to the embodiment of the present invention. It is the schematic of an example shown about matching. 図9は、本発明の実施形態により、オブジェクトに対する活性化制御および表示制御を行うコンピュータ実装方法における一連の情報処理を示す一例のフロー・チャートFIG. 9 is an exemplary flowchart showing a series of information processing in a computer-implemented method for performing activation control and display control on an object according to an embodiment of the present invention. 図10は、本発明の実施形態によるコンピュータ・プログラムおよびコンピュータ実装方法によって生成されるゲーム画面例を示す。FIG. 10 shows an example of a game screen generated by the computer program and the computer-implemented method according to the embodiment of the present invention.

以下、図2〜図10の図面を参照して、本発明の実施形態によるコンピュータ・プログラムについて説明する。図中、同一の構成要素には同一の符号を付している。
まず、図2を参照して、本発明の実施形態によるコンピュータ・プログラムを実行させるためのシステム(ここでは、ゲーム・システム)の基本構成について説明する。図2は、ゲーム・システムの主要な構成要素のみを示した概略ブロック図である。
Hereinafter, a computer program according to an embodiment of the present invention will be described with reference to FIGS. In the figure, the same components are denoted by the same reference numerals.
First, a basic configuration of a system (here, a game system) for executing a computer program according to an embodiment of the present invention will be described with reference to FIG. FIG. 2 is a schematic block diagram showing only main components of the game system.

図2に示すように、ゲーム・システム100は、ユーザ端末10−1〜10−4(以後、「ユーザ端末10」と総称する。)、およびゲーム・サーバ50を備え、これら要素間はネットワーク30を介して通信を行う。ユーザ端末10は、ゲーム・サーバ50および/またはユーザ端末10で生成されるゲーム画像をブラウザ等のアプリケーションにより表示できる装置であればよく、例えば、スマートフォン、タブレット端末、ゲーム用コンソール、ノートPC、デスクトップPC等を含むが、これらに限定されない。   As shown in FIG. 2, the game system 100 includes user terminals 10-1 to 10-4 (hereinafter collectively referred to as “user terminals 10”) and a game server 50, and a network 30 is provided between these elements. To communicate via. The user terminal 10 may be any device that can display a game image generated by the game server 50 and / or the user terminal 10 using an application such as a browser. For example, a smartphone, a tablet terminal, a game console, a notebook PC, a desktop Although PC etc. are included, it is not limited to these.

図示のように、ユーザ端末10は、端末表示部11、端末入力部12、端末処理部13、端末通信部14および端末記憶部15等を備え、これらはバスを介して電気的に相互に接続される。端末表示部11は、ゲーム・サーバ50から端末通信部14で受信し、端末記憶部15に一時的に格納したゲーム画像を、ブラウザを通じて表示する。端末表示部11は、例えば液晶ディスプレイ(LCD)等によって実現することができ、実施形態においては、特にマルチタッチスクリーンとして構成するのがよい。端末入力部12は、3次元仮想空間に配置される仮想カメラの操作制御をするための命令や、3次元仮想空間に配置された各種オブジェクトに対するユーザ・アクション(オブジェクトの「建設」「選択」「移動」等)をするための命令を入力する。入力手段としては、キーボードや仮想キーボードによる文字入力、マウスによるオブジェクトのクリック、オブジェクト位置に対応するタッチスクリーン上の位置での指によるタッチ入力やスタイラスによる入力、およびその組み合わせとすることができるが、これらに限定されない。   As illustrated, the user terminal 10 includes a terminal display unit 11, a terminal input unit 12, a terminal processing unit 13, a terminal communication unit 14, a terminal storage unit 15, and the like, which are electrically connected to each other via a bus. Is done. The terminal display unit 11 displays a game image received from the game server 50 by the terminal communication unit 14 and temporarily stored in the terminal storage unit 15 through a browser. The terminal display unit 11 can be realized by, for example, a liquid crystal display (LCD) or the like. In the embodiment, the terminal display unit 11 is particularly preferably configured as a multi-touch screen. The terminal input unit 12 includes commands for controlling the operation of a virtual camera arranged in the three-dimensional virtual space, and user actions for various objects arranged in the three-dimensional virtual space (“construction”, “selection”, “object”). Enter a command to make a move. As an input means, it can be a character input by a keyboard or a virtual keyboard, a click of an object by a mouse, a touch input by a finger at a position on the touch screen corresponding to the object position or an input by a stylus, and a combination thereof. It is not limited to these.

端末入力部12で受けた入力命令に基づいて、端末処理部13がユーザ命令を作成し、端末通信部14およびネットワーク30を通じてゲーム・サーバ50と通信を行う。端末記憶部15は、ユーザ端末に関連付けられる各種データ、および画像データの表示に必要なブラウザ等のアプリケーションを格納すると共に、ゲーム・サーバ50から受信する画像データ等の各種データも一時的に格納する。端末処理部13はまた、ゲーム・サーバ50からダウンロードにより受信した各種データに基づいて、端末記憶部15に格納されたゲーム・プログラム・モジュールを端末側で実行するように構成してもよい。   Based on the input command received by the terminal input unit 12, the terminal processing unit 13 creates a user command and communicates with the game server 50 through the terminal communication unit 14 and the network 30. The terminal storage unit 15 stores various data associated with the user terminal and applications such as a browser necessary for displaying image data, and also temporarily stores various data such as image data received from the game server 50. . The terminal processing unit 13 may also be configured to execute the game program module stored in the terminal storage unit 15 on the terminal side based on various data received by download from the game server 50.

一方、ゲーム・サーバ50は、処理部51、メインメモリ52、外部メモリ53、ユーザ・インタフェース54、通信部55およびディスク・ドライブ56等を備え、これらはバスを介して電気的に相互に接続される。処理部51は、外部メモリ53に格納されたプログラム・モジュール、およびディスク・ドライブ56に格納された各種データ等をメインメモリ52にロードして、順次プログラムを実行することによりゲームの進行を制御する。特に、処理部51は、ユーザ端末10での表示用ゲーム画像を生成して、通信部55を介してユーザ端末10に戻すように構成される。ユーザ・インタフェース54は、ゲーム・サーバ50の管理者によってサーバにアクセスされ、各種サーバ機能設定やネットワーク設定を実施する。   On the other hand, the game server 50 includes a processing unit 51, a main memory 52, an external memory 53, a user interface 54, a communication unit 55, a disk drive 56, and the like, which are electrically connected to each other via a bus. The The processing unit 51 controls the progress of the game by loading the program module stored in the external memory 53 and various data stored in the disk drive 56 into the main memory 52 and sequentially executing the program. . In particular, the processing unit 51 is configured to generate a display game image on the user terminal 10 and return it to the user terminal 10 via the communication unit 55. The user interface 54 is accessed by the administrator of the game server 50 and performs various server function settings and network settings.

なお、上記ゲーム・サーバ50に関する情報処理装置としての様々な機能の全部または一部は、ユーザ端末10が担うように構成してもよい。この場合には、ユーザ端末10単体で情報処理装置を構成するか、またはユーザ端末10およびゲーム・サーバ50全体で情報処理装置が構成される。   In addition, you may comprise so that the user terminal 10 may bear all or one part of various functions as an information processing apparatus regarding the said game server 50. FIG. In this case, the information processing apparatus is configured by the user terminal 10 alone, or the information processing apparatus is configured by the user terminal 10 and the game server 50 as a whole.

次に、図3以降を参照して、本発明の実施形態により、オブジェクトに対する制御(特に、活性化制御および表示制御)を行うゲーム・プログラムに関する具体的な情報処理について説明する。   Next, with reference to FIG. 3 and subsequent figures, specific information processing related to a game program that performs control (particularly activation control and display control) on an object according to an embodiment of the present invention will be described.

図3は、本発明の実施形態により、オブジェクトに対する活性化制御および表示制御を行うコンピュータ・プログラムによって実装される主要な機能について示した概略図である。特に図3は、主にユーザ端末10内の端末記憶部15に格納される各種プログラム・モジュール(機能ブロック)に関する例示の機能ブロック図である。なお、図3では、ユーザ端末10側に各機能を実装し、サーバ50からダウンロードした各種データを用いて情報処理を実行するための機能ブロック図を示すが、当該各機能はサーバ50側に実装してもよいことが当業者にとって理解されるべきである。   FIG. 3 is a schematic diagram showing main functions implemented by a computer program that performs activation control and display control on an object according to an embodiment of the present invention. In particular, FIG. 3 is an exemplary functional block diagram relating to various program modules (functional blocks) mainly stored in the terminal storage unit 15 in the user terminal 10. FIG. 3 shows a functional block diagram for implementing each function on the user terminal 10 side and executing information processing using various data downloaded from the server 50. Each function is implemented on the server 50 side. It should be understood by those skilled in the art that this may be done.

ユーザ端末10の入出力デバイスとして、ここではタッチスクリーン11,12、特にユーザによる複数指でのタッチを可能にするマルチタッチスクリーンを想定する。入力部10aでは、タッチスクリーンを通じたタッチジェスチャ操作により、ユーザ入力による命令を受ける。ユーザ命令のためのタッチジェスチャ操作は、例えば、タッチスクリーンに対するタップ、長押し、ピンチ、ストレッチ、スライド、スワイプ、回転等の操作を含むがこれに限定されない。   As the input / output device of the user terminal 10, here, the touch screens 11 and 12, particularly a multi-touch screen that enables a user to touch with a plurality of fingers are assumed. The input unit 10a receives a command by a user input by a touch gesture operation through a touch screen. Touch gesture operations for user commands include, but are not limited to, operations such as tapping, long pressing, pinching, stretching, sliding, swiping, and rotating on the touch screen.

視界領域決定部10bでは、ユーザ入力、即ちタッチジェスチャ操作に応じて、仮想空間内における仮想カメラの位置を操作して決定し、仮想空間の視界領域を決定する。なお、本実施形態では、これに限定されないが、仮想カメラは、ズームイン・ズームアウトに伴う高さ方向の移動、および水平面に沿った所定の方向への水平移動のみを可能とし、仮想空間内を自由に移動させることは想定しない。視界領域決定部10bでは、次いで、視界領域内の視界領域内の平面上に配置された各オブジェクトの情報を含む空間データをユーザ端末10内の記憶部15に一時的に格納する。   The view area determination unit 10b determines the view area of the virtual space by manipulating and determining the position of the virtual camera in the virtual space in response to a user input, that is, a touch gesture operation. In this embodiment, although not limited to this, the virtual camera can only move in the height direction accompanying zoom-in / zoom-out and horizontally move in a predetermined direction along the horizontal plane, and can move in the virtual space. It is not assumed to move freely. Next, the visual field area determination unit 10 b temporarily stores spatial data including information on each object arranged on a plane in the visual field area in the visual field area in the storage unit 15 in the user terminal 10.

表示モード指定部10cでは、スクリーンに表示される視界領域の表示モードがユーザ命令により指定される。例えば、「通常モード」は仮想空間内の視界領域の通常のゲーム画像を表示するためのモードであり、また、「ビュー・モード」は、視界領域の平面上に配置されたオブジェクトに対し、オブジェクトを移動させる等のオブジェクト操作を可能にし、その操作結果をプレビューするためのモードである。   In the display mode designating unit 10c, the display mode of the visual field area displayed on the screen is designated by a user command. For example, the “normal mode” is a mode for displaying a normal game image of the view area in the virtual space, and the “view mode” is an object for an object placed on the plane of the view area. This is a mode for enabling an object operation such as moving an object and previewing the operation result.

表示モード指定部10cでユーザ入力により画面表示モードが「ビュー・モード」に設定されると、仮想空間平面領域決定部10dでは、最初に、ユーザ画面の表示領域に対し、仮想空間内の視界領域の空間平面領域を対応付ける。そして、ユーザ画面の表示領域の内から、ユーザ操作を非活性化するための所定の非活性化画面領域を特定する。次いで、当該特定された非活性化画面領域に関し、仮想空間内の視界領域における平面領域(非活性化平面領域)を対応付けて決定する。非活性化平面領域は、当該平面領域および当該平面領域上に配置されるオブジェクトの画像に対し、透過処理および/またはユーザ操作の非活性化処理を実施することになる領域のことである。   When the screen display mode is set to “view mode” by the user input in the display mode designating unit 10c, the virtual space plane area determining unit 10d firstly compares the display area of the user screen with the view area in the virtual space. The spatial plane area of Then, a predetermined deactivation screen area for deactivating the user operation is specified from the display area of the user screen. Next, regarding the specified deactivation screen area, a plane area (deactivation plane area) in the visual field area in the virtual space is determined in association with each other. The non-activation plane area is an area where a transparency process and / or a deactivation process of a user operation is performed on the plane area and an image of an object arranged on the plane area.

透過処理および非活性化処理部10eでは、最初に、仮想空間平面領域決定部10dで決定した非活性化平面領域上に配置されるオブジェクトを特定する。特定されるオブジェクトは、透過処理および非活性化処理の対象オブジェクトとして決定される。オブジェクトの少なくとも一部分が上記平面領域上に配置されており、即ち非活性化平面領域の境界を跨いで配置されるオブジェクトであっても、対象オブジェクトとして決定するのがよい。次いで、対象オブジェクトに対し、所定の透過率に基づく透過処理、およびユーザ操作を非活性化させる非活性化処理を実施する。
所定の透過率に基づく透過処理としては、例えば、当業者にとって通常用いられるアルファ・ブレンドによる透過処理を採用することができ、この場合、アルファ値を適切に選択することにより透過率を決定される。また、ユーザ操作を非活性化させる非活性化処理では、図4で後述する対象オブジェクトの活性化フラグを「非活性化」に設定する。当該活性化フラグが「非活性化」に設定されると、タッチ(クリック)判定がオフに設定され、何らタッチ・イベントを発生させることはない。つまり、ユーザにより対象オブジェクトに対してタッチジェスチャ操作がなされた場合であっても、タッチスクリーンは何ら反応をしない。
In the transparency processing and deactivation processing unit 10e, first, an object arranged on the deactivation plane region determined by the virtual space plane region determination unit 10d is specified. The identified object is determined as a target object for the transparent process and the deactivation process. At least a part of the object is arranged on the plane area, that is, an object arranged across the boundary of the non-activated plane area may be determined as the target object. Next, a transparency process based on a predetermined transparency and a deactivation process for deactivating a user operation are performed on the target object.
As the transmission processing based on the predetermined transmittance, for example, a transmission processing by an alpha blend that is commonly used by those skilled in the art can be adopted. In this case, the transmittance is determined by appropriately selecting an alpha value. . Further, in the deactivation process for deactivating the user operation, the activation flag of the target object, which will be described later with reference to FIG. 4, is set to “inactivation”. When the activation flag is set to “inactive”, the touch (click) determination is set to off and no touch event is generated. That is, even when the user performs a touch gesture operation on the target object, the touch screen does not react at all.

透過処理および非活性化処理部10eでは、更に、非活性化画面領域に対応付けられる視界領域の非活性化平面領域の平面画像(例えば、地面の画像等)に対しても透過処理を行うように構成してもよい。   In the transmission processing and deactivation processing unit 10e, the transmission processing is also performed on a planar image (for example, an image of the ground) of the non-activation plane area of the visual field area associated with the deactivation screen area. You may comprise.

画像生成部10fでは、視界領域決定部10bで端末記憶部15に一時的に格納される空間データに基づいて、透過処理および非活性化処理部10eで透過処理を行ったオブジェクトの画像および平面領域の平面画像を用いて、視界領域の空間データに基づくゲーム画像を生成する。更に、ゲーム画像において、表示領域内の非活性化画面領域の境界線(または当該非活性化画面領域に対応付けられる視界領域の平面領域の境界線)を固定的に明示するように重畳してもよい。   In the image generation unit 10f, based on the spatial data temporarily stored in the terminal storage unit 15 by the visual field region determination unit 10b, the image and the plane region of the object subjected to the transmission processing and the deactivation processing unit 10e A game image based on the spatial data of the visual field region is generated using the planar image. Furthermore, in the game image, the boundary line of the inactivated screen area in the display area (or the boundary line of the plane area of the visual field area associated with the inactivated screen area) is superimposed so as to be clearly indicated. Also good.

オブジェクト操作部10gでは、画像生成部10fで生成されたゲーム画像を用いて、仮想空間平面上に配置され、非活性化されていないオブジェクトに対し、タッチジェスチャを通じた移動や変更等を含む所定のユーザ操作をユーザに実施させる。最後に出力部10fにおいて、ゲーム画像がユーザ画面(タッチスクリーン)に出力される。   The object operation unit 10g uses a game image generated by the image generation unit 10f, and uses a game image generated by the image generation unit 10f on a virtual space plane. Let the user perform user operations. Finally, in the output unit 10f, the game image is output to the user screen (touch screen).

図3に示した各機能ブロックにおいて用いられる各種データは、それぞれテーブル形式で端末記憶部15に一時的に格納するのがよい。例えば、図4は、オブジェクトのデータを収容する例示のオブジェクト・テーブルである。図示のように、オブジェクト・テーブルには、これに限定されないが、仮想空間平面に配置されたオブジェクト毎に、オブジェクトID、アイコン種別、形状(L,W,H)、仮想空間平面上の配置位置(x,y)、活性化フラグを含むオブジェクト・データが収容される。   Various data used in each functional block shown in FIG. 3 may be temporarily stored in the terminal storage unit 15 in a table format. For example, FIG. 4 is an exemplary object table that contains object data. As shown in the figure, the object table is not limited to this, but for each object arranged on the virtual space plane, the object ID, the icon type, the shape (L, W, H), the arrangement position on the virtual space plane. (X, y), object data including an activation flag is accommodated.

オブジェクトIDはオブジェクトを一意に識別する識別子である。アイコン種別は、仮想空間平面に配置するオブジェクトのアイコンの種別を示し、例えば、AABBは「銀行」オブジェクトを、YYYYは「コンビニ」オブジェクトを示すといった具合である。形状は、オブジェクトの3次元仮想空間内における奥行き(W)、幅(W)、高さ(H)データである。仮想空間平面上の配置位置は、(x,y)座標系での位置データである。後述するように仮想空間平面を格子状に形成して、格子の上に各オブジェクトを配置するようにしてもよく、この場合は、格子番号のようなデータとなることが当業者にとって理解される。活性化フラグは、オブジェクトに対し、ユーザによるタッチ・ディスプレイのタッチ選択のようなタッチジェスチャ操作を可能とするかを設定するフラグであり、例えば「1」は「活性化」を、「0」は「非活性化」を示すデータである。初期状態では「1」にセットされ、上記透過処理および非活性化処理部10eにおいて非活性化対象のオブジェクトと判断された場合は「0」にセットするように構成される。なお、上記の各種プログラム・モジュールおよび各種データやテーブルは、例示のために用いたに過ぎず、当業者にとって、これらに限定されないことが理解される。   The object ID is an identifier that uniquely identifies the object. The icon type indicates the type of icon of the object placed on the virtual space plane. For example, AABB indicates a “bank” object, YYYY indicates a “convenience store” object, and so on. The shape is depth (W), width (W), and height (H) data of the object in the three-dimensional virtual space. The arrangement position on the virtual space plane is position data in the (x, y) coordinate system. As will be described later, the virtual space plane may be formed in a lattice shape, and each object may be arranged on the lattice. In this case, it is understood by those skilled in the art that the data is a lattice number. . The activation flag is a flag for setting whether or not the user can perform a touch gesture operation such as touch selection on the touch display by the user. For example, “1” indicates “activation” and “0” indicates “activation”. Data indicating "inactivation". It is set to “1” in the initial state, and is set to “0” when it is determined as an object to be deactivated in the transparent process and deactivation processing unit 10e. It should be noted that the above-described various program modules and various data and tables are merely used for illustration, and it will be understood by those skilled in the art that the present invention is not limited thereto.

次に図5から図7を参照して、本発明の実施形態によるゲーム・プログラムを用いて実行される、特にオブジェクト透過処理の基本態様に関する一例を示す。図5は、仮想カメラ1からの視界領域における空間平面(xy平面)領域60、および空間平面領域60上に配置された建物オブジェクト80,85,90についての空間イメージを示す。具体的には、仮想空間平面は格子上に形成され、空間平面領域60は格子[x1, y1]〜[x7, y7]で形成されている。8つの格子[x2, y2]〜[x5, y3]上、2つの格子[x4, y4]〜[x5, y4]上、および4つの格子[x6, y5]〜[x7, y6]上に建物オブジェクト80,85,90がそれぞれ配置される。   Next, with reference to FIG. 5 to FIG. 7, an example relating to a basic aspect of object transparency processing executed using the game program according to the embodiment of the present invention will be described. FIG. 5 shows a spatial image of the space plane (xy plane) region 60 in the field of view from the virtual camera 1 and the building objects 80, 85, 90 arranged on the space plane region 60. Specifically, the virtual space plane is formed on a lattice, and the space plane region 60 is formed of lattices [x1, y1] to [x7, y7]. Building on 8 grids [x2, y2] to [x5, y3], 2 grids [x4, y4] to [x5, y4], and 4 grids [x6, y5] to [x7, y6] Objects 80, 85, and 90 are arranged, respectively.

特に、建物オブジェクト85については、空間イメージ上、大きな建物オブジェクト80の背後に一部が隠れている。このため、ユーザが建物オブジェクト85をタッチジェスチャにより選択しようとする場合、建物オブジェクト80を避けるようにして建物オブジェクト85を選択するのは難しく、間違えて建物オブジェクト80の方を選択してしまう恐れがある。   In particular, a part of the building object 85 is hidden behind the large building object 80 in the spatial image. For this reason, when the user tries to select the building object 85 with a touch gesture, it is difficult to select the building object 85 so as to avoid the building object 80, and there is a possibility that the building object 80 will be selected by mistake. is there.

表示モードが「通常モード」に設定される場合は、図5の空間イメージに基づくゲーム画像が生成されて画面表示されるのに対し、「ビュー・モード」に設定される場合には、図6または図7の空間イメージに基づくゲーム画像が生成されて画面表示される。図6および図7では、空間平面領域60は、非活性化平面領域61’および活性化平面領域62、並びにその間のL字状の平面境界線L1から形成される。非活性化対象領域61’では、平面画像を所定の透過率に基づいて(例えば50%)透過処理を実施して半透明にされる。   When the display mode is set to “normal mode”, a game image based on the spatial image of FIG. 5 is generated and displayed on the screen, whereas when set to “view mode”, FIG. Alternatively, a game image based on the spatial image of FIG. 7 is generated and displayed on the screen. In FIG. 6 and FIG. 7, the space plane region 60 is formed by a non-activation plane region 61 ′ and an activation plane region 62, and an L-shaped plane boundary line L <b> 1 therebetween. In the inactivation target area 61 ′, the planar image is made translucent by performing a transmission process based on a predetermined transmittance (for example, 50%).

加えて、図6および図7では、活性化対象領域62上の建物オブジェクト85,90は(何も視覚上の処理を実施することなく)そのままの空間イメージで画面表示されるのに対し、非活性化平面領域61上の建物オブジェクト80の画像には視覚上の表示制御処理を実施する。具体的には、図6では所定の透過率に基づいて(例えば50%)透過処理を実施して、オブジェクト画像を半透明化しており(建物オブジェクト80’)、図7では透過率を100%に設定して、建物オブジェクト80を透明(非表示)にしている。これにより、建物オブジェクト80の背後に配置された建物オブジェクト85はその全体が表示されるようになる。なお、透過処理における透過率は、固定値としても、または境界線からの距離に基づいて動的に値を設定してもよく、任意の値とすることができる。   In addition, in FIGS. 6 and 7, the building objects 85 and 90 on the activation target area 62 are displayed on the screen as they are in the spatial image (without performing any visual processing). A visual display control process is performed on the image of the building object 80 on the activation plane area 61. Specifically, in FIG. 6, the object image is translucent (building object 80 ′) by performing a transmission process based on a predetermined transmittance (for example, 50%), and in FIG. 7, the transmittance is 100%. To make the building object 80 transparent (hidden). As a result, the entire building object 85 arranged behind the building object 80 is displayed. Note that the transmittance in the transmission process may be a fixed value, or may be set dynamically based on the distance from the boundary line, and may be an arbitrary value.

更に、建物オブジェクト80に対するユーザ操作を非活性化(即ち、活性フラグを「0」に設定する)して、ユーザが仮に建物オブジェクト80画像部分をタッチしても建物オブジェクト80を選択できないようにする。これにより、建物オブジェクト85の選択を容易にできる。   Further, the user operation on the building object 80 is deactivated (that is, the activation flag is set to “0”) so that the user cannot select the building object 80 even if the user touches the building object 80 image portion. . Thereby, selection of the building object 85 can be made easy.

このように、本発明の実施形態によるコンピュータ・プログラムを実装することにより、仮想空間平面上に配置した各種オブジェクトに対してユーザ操作を容易にすることができる。より具体的には、オブジェクトに対するユーザ操作制御および視覚上の表示制御を効率的に行うコンピュータ・プログラムを実装することにより、ユーザに対し操作上の煩わしさを与えることなく、各種オブジェクトへのユーザ操作(タッチジェスチャ操作によるオブジェクト選択等)を容易かつ円滑に実現することができる。   As described above, by implementing the computer program according to the embodiment of the present invention, it is possible to facilitate the user operation on various objects arranged on the virtual space plane. More specifically, by implementing a computer program that efficiently performs user operation control and visual display control on objects, user operations on various objects can be performed without giving users troublesome operations. (Object selection by touch gesture operation etc.) can be realized easily and smoothly.

次に図8を参照して、仮想空間内の視界領域における非活性化平面領域とユーザ画面の表示領域内に規定される非活性化画面領域との対応付けの一例について説明する。図8に示すように、ユーザ画面の画面表示領域11(四角い枠)において、破線で示した中心線L3上の中央より下部に画面基準点P1が規定される。当該画面基準点P1からL字状の画面境界線L2が延び、これを境界にして、上部を非活性化画面領域A1、および下部を活性化画面領域A2として形成する。なお、画面境界線L2は、画面表示領域11内部に点線で示した格子の周縁上を沿うことができるように予め角度が調整される。なお、画面基準点P1は、中心線L3上の点に限定されないことは当業者に理解されるべきである。   Next, with reference to FIG. 8, an example of the association between the deactivated plane area in the visual field area in the virtual space and the deactivated screen area defined in the display area of the user screen will be described. As shown in FIG. 8, in the screen display area 11 (square frame) of the user screen, a screen reference point P1 is defined below the center on the center line L3 indicated by a broken line. An L-shaped screen boundary line L2 extends from the screen reference point P1, and the upper part is formed as an inactivated screen area A1 and the lower part is formed as an activated screen area A2. Note that the angle of the screen boundary line L2 is adjusted in advance so that the screen boundary line L2 can extend along the periphery of the lattice indicated by the dotted line inside the screen display region 11. It should be understood by those skilled in the art that the screen reference point P1 is not limited to a point on the center line L3.

画面表示モードが「ビュー・モード」に設定された場合、最初に、画面表示領域11に対して対応付けがされる、3次元仮想空間の視界領域の空間平面領域60の内、画面表示領域11の画面基準点P1の位置に対応する活性化平面領域の基準格子C1を特定する。次いで、予め決められたルールにしたがって、基準格子C1の特定の点から格子に沿って2つの直線をL字状に伸ばすことにより、画面境界線L2に対応した平面境界線L1を構成することができる。このように平面境界線L1を決定することにより、仮想空間の視界領域の空間平面において、図6および図7に示したような非活性化平面領域61’および活性化平面領域62を決定することができる。なお、平面境界線L1および画面境界線L2は、L字状に限定されず、所定のルールにしたがい、他にも階段状のような3本以上の直線からなるものとしてもよく、任意の格子形状にしたがって任意の形状とすることができる。   When the screen display mode is set to “view mode”, first, the screen display area 11 in the spatial plane area 60 of the visual field area of the three-dimensional virtual space that is associated with the screen display area 11. The reference grid C1 of the activation plane region corresponding to the position of the screen reference point P1 is specified. Then, according to a predetermined rule, a plane boundary line L1 corresponding to the screen boundary line L2 can be configured by extending two straight lines along a lattice from a specific point of the reference lattice C1. it can. By determining the plane boundary line L1 in this way, the non-activation plane area 61 ′ and the activation plane area 62 as shown in FIGS. 6 and 7 are determined in the space plane of the visual field area of the virtual space. Can do. Note that the plane boundary line L1 and the screen boundary line L2 are not limited to the L shape, and may be composed of three or more straight lines such as a staircase shape according to a predetermined rule. It can be made into arbitrary shapes according to a shape.

図9は、本発明の実施形態により、オブジェクトに対する活性化制御および表示制御を行うコンピュータ実装方法における一連の情報処理を示す一例のフロー・チャートである。本フロー・チャートは、画面表示モードが「ビュー・モード」に設定されると開始される。   FIG. 9 is a flowchart illustrating an example of a series of information processing in a computer-implemented method for performing activation control and display control on an object according to an embodiment of the present invention. This flowchart is started when the screen display mode is set to “view mode”.

ステップS10では、ユーザ入力に応じて、仮想空間内における仮想カメラの位置を決定する。ステップS20では、決定した仮想カメラの位置に基づいて、図5に示したように仮想空間の視界領域を決定する。次いで、ステップS30では、図8に示したように、ユーザ画面の表示領域11の内から、ユーザ操作を非活性化するための所定の非活性化画面領域を特定する。更にステップS40では、ユーザ画面の表示領域に対し、仮想空間内の視界領域内の空間平面領域60を対応付ける。   In step S10, the position of the virtual camera in the virtual space is determined according to the user input. In step S20, the visual field area of the virtual space is determined based on the determined position of the virtual camera as shown in FIG. Next, in step S30, as shown in FIG. 8, a predetermined deactivation screen area for deactivating the user operation is specified from the display area 11 of the user screen. Furthermore, in step S40, the space plane area 60 in the visual field area in the virtual space is associated with the display area of the user screen.

引き続き、ステップS50では、図8に示したように、画面表示領域11に対して対応付けがされた視界領域の空間平面領域60の内、画面表示領域11の画面基準点P1の位置に対応する活性化平面領域の基準格子C1を特定する。次いで、所定のルールにしたがって基準格子C1から構成される平面境界線L1に基づいて、図6および図7に示した非活性化平面領域61を決定する。   Subsequently, in step S50, as shown in FIG. 8, it corresponds to the position of the screen reference point P1 of the screen display area 11 in the spatial plane area 60 of the visual field area associated with the screen display area 11. The reference grid C1 of the activation plane region is specified. Next, the non-activated planar region 61 shown in FIGS. 6 and 7 is determined based on the planar boundary line L1 formed from the reference lattice C1 according to a predetermined rule.

引き続き、ステップS70では、ステップS60で決定された非活性化平面領域61の上に少なくとも一部が配置されたオブジェクトを特定し、更にステップ80で、当該特定されたオブジェクトの画像に対して、所定の透過率に基づく透過処理、および活性フラグを「非活性」にする非活性化処理を実施する(図6のオブジェクト80’)。加えて、ステップS90で、ステップS60で決定された非活性化平面領域61の平面画像に対しても所定の透過率に基づく透過処理を実施する(図6および図7で示した非活性化平面領域61’)。   Subsequently, in step S70, an object at least a part of which is arranged on the non-activation plane area 61 determined in step S60 is specified, and in step 80, a predetermined object image is determined for the specified object image. And a deactivation process for setting the activation flag to “inactive” (object 80 ′ in FIG. 6). In addition, in step S90, a transmission process based on a predetermined transmittance is also performed on the planar image of the non-activated plane region 61 determined in step S60 (the non-activated plane shown in FIGS. 6 and 7). Region 61 ').

ステップ100では、視界領域の空間データに基づいてゲーム画像を生成する。ここでは、ステップS80およびステップS90でそれぞれ透過処理を実施したオブジェクトの画像および非活性化平面領域61’の平面画像を使用する。更にステップS110では、表示領域内の非活性化画面領域A1の境界線(または非活性化平面領域の境界線)をゲーム画像に固定的かつ明示的に重畳する。   In step 100, a game image is generated based on the spatial data of the visual field area. Here, the image of the object that has been subjected to the transmission process in step S80 and step S90 and the planar image of the inactivated planar region 61 'are used. Further, in step S110, the boundary line of the inactivated screen area A1 in the display area (or the boundary line of the inactivated plane area) is fixedly and explicitly superimposed on the game image.

このようにして構成されたゲーム画像は、ステップS120でユーザ画面に出力される(ゲーム画像例については図10に関して後述する)。ステップS10からステップS120の一連のステップは、ユーザ入力が継続する間、例えばユーザがスライドをスクロールするタッチジェスチャによって画面を操作している間は、繰り返し継続される。なお、図9に関して上記に説明した各ステップは、例示に過ぎず、本発明はこれら全ての実施内容や実施順序には限定されない点が当業者にとって理解されるべきである。   The game image configured in this way is output to the user screen in step S120 (an example of a game image will be described later with reference to FIG. 10). A series of steps from step S10 to step S120 is repeated continuously while the user input continues, for example, while the user operates the screen with a touch gesture that scrolls the slide. It should be understood by those skilled in the art that each of the steps described above with reference to FIG. 9 is merely an example, and the present invention is not limited to all these implementations and implementation order.

最後に図10を参照して、図9のステップS120を通じて出力されるゲーム画面例について説明する。図10(a)は、画面表示モードを「通常モード」に設定した場合の、仮想空間の視界領域についてのゲーム画面例である。空間平面上に配置された、発電所オブジェクトやホテル・オブジェクトをはじめとしたオブジェクトは、全て通常どおり表示される。図10(b)は、図10(a)の状態から画面表示モードを「ビュー・モード」に設定変更した場合の画面例である。画面上、画面境界線L2から下部領域A1に対応する非活性化平面領域が透過表示されると共に、非活性化平面領域上に配置されたホテル・オブジェクト等のオブジェクトが透過表示されていることが分かる。透過表示されたオブジェクトに対し、ユーザ操作は非活性化されており、タッチジェスチャによるユーザ命令は無効となる。   Finally, referring to FIG. 10, an example of a game screen output through step S120 of FIG. 9 will be described. FIG. 10A is an example of a game screen for the visual field area of the virtual space when the screen display mode is set to “normal mode”. All objects such as power plant objects and hotel objects arranged on the space plane are displayed as usual. FIG. 10B is an example of a screen when the screen display mode is changed from the state of FIG. 10A to “view mode”. On the screen, an inactive plane area corresponding to the lower area A1 is transparently displayed from the screen boundary line L2, and an object such as a hotel object arranged on the inactive plane area is transparently displayed. I understand. The user operation is deactivated for the transparently displayed object, and the user command by the touch gesture is invalid.

図10(c)および図10(d)は、図10(b)の「ビュー・モード」から、ユーザが引き続き画面をスライドにより上下にスクロールした場合の画面例である。上下のスクロール操作により、仮想カメラを仮想空間内で所定の方向に水平移動させることができる。図10(c)は、図10(b)から画面境界線L2が固定されたまま、下方向のスクルロール操作により仮想カメを画面の上方向に水平移動させた場合の画面例であり、スクロールの途中、発電所オブジェクトの少なくとも一部分が画面境界線L2上を跨いだ際に、当該発電所オブジェクトが透過表示される。図10(d)は、図10(c)から画面境界線L2が固定されたまま、上方向のスクルロール操作により仮想を下方向に水平移動させた場合の画面例であり、スクロールの途中、発電所オブジェクトおよびホテル・オブジェクトの配置が非活性化平面領域から外れ、活性化平面領域に進入した際に、これらのオブジェクトが透過表示から通常表示に切り替わる。   FIGS. 10C and 10D are screen examples when the user continues to scroll up and down by sliding the screen from the “view mode” in FIG. 10B. The virtual camera can be horizontally moved in a predetermined direction in the virtual space by the vertical scrolling operation. FIG. 10C is a screen example when the virtual turtle is horizontally moved upward in the screen by the scroll roll operation in the downward direction while the screen boundary line L2 is fixed from FIG. 10B. On the way, when at least a part of the power plant object crosses the screen boundary line L2, the power plant object is transparently displayed. FIG. 10D is a screen example when the virtual is horizontally moved downward by an upward scroll roll operation while the screen boundary L2 is fixed from FIG. 10C. When the location of the place object and the hotel object deviates from the non-activated plane area and enters the activated plane area, these objects are switched from the transparent display to the normal display.

このように、本発明の実施形態によるコンピュータ・プログラムおよびコンピュータ実装方法を実装することにより、仮想空間平面上に配置した各種オブジェクトに対してユーザ操作を容易にすることができる。より具体的には、オブジェクトに対するユーザ操作制御および視覚上の表示制御を効率的に行うコンピュータ・プログラムおよびコンピュータ実装方法を実装することにより、ユーザに対し操作上の煩わしさを与えることなく、各種オブジェクトへのユーザ操作(タッチジェスチャ操作によるオブジェクト選択等)を容易かつ円滑に実現することができる。   As described above, by implementing the computer program and the computer mounting method according to the embodiment of the present invention, it is possible to facilitate user operations on various objects arranged on the virtual space plane. More specifically, by implementing a computer program and a computer mounting method for efficiently performing user operation control and visual display control on an object, various objects can be obtained without giving the user troublesome operations. User operations (such as object selection by touch gesture operation) can be realized easily and smoothly.

以上、本発明の実施形態による、仮想空間平面上に配置したオブジェクトに対して制御、特に操作制御および表示制御をするコンピュータ・プログラムおよびコンピュータ実装方法について説明した。当該コンピュータ・プログラムおよびコンピュータ実装方法は、コンピュータ・ゲーム分野に適応されるが、これに限定されず、例えば、CADのような3次元デザイン設計の分野にも適用可能である。   As described above, the computer program and the computer mounting method for performing control, particularly operation control and display control, on the object arranged on the virtual space plane according to the embodiment of the present invention have been described. The computer program and the computer-implemented method are applied to the computer game field, but are not limited thereto, and can be applied to the field of 3D design design such as CAD, for example.

上述した実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。   The above-described embodiments are merely examples for facilitating understanding of the present invention, and are not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.

Claims (4)

ユーザ入力に応じて、仮想空間内における仮想カメラの位置を決定し、仮想空間の視界領域を決定する第1決定部と、
ユーザ画面の表示領域内の非活性化画面領域と対応付けがされる前記視界領域内の非活性化平面領域を決定する第2決定部と、
前記非活性化平面領域上に少なくとも一部が配置されたオブジェクトの画像に対し、透過処理および非活性化処理を行うと共に、前記非活性化平面領域の平面画像に対して透過処理を行う処理部と、
前記ユーザ画面に出力するために、前記透過処理を行ったオブジェクトの画像と前記透過処理を行った平面画像とを用いて前記視界領域に基づくゲーム画像を生成する生成部であって、前記ユーザ画面における前記表示領域内の非活性化画面領域の境界線を前記ゲーム画像に固定的に重畳させる、生成部
としてコンピュータを機能させる、コンピュータ・プログラム。
A first determination unit that determines a position of a virtual camera in the virtual space in accordance with a user input, and determines a visual field area of the virtual space;
A second determination unit for determining a deactivation plane area in the field of view to be associated with a deactivation screen area in a display area of a user screen;
A processing unit that performs transparency processing and deactivation processing on an image of an object at least a part of which is arranged on the deactivation plane area, and performs transmission processing on the plane image of the deactivation plane area. When,
A generating unit configured to generate a game image based on the field-of-view area using an image of the object subjected to the transparency process and a planar image subjected to the transparency process in order to output the user screen; A computer program for causing a computer to function as a generation unit that fixedly superimposes a boundary line of a deactivated screen area in the display area on the game image .
前記非活性化画面領域が前記表示領域の中心線上にある基準点に基づいて規定される、請求項1記載のコンピュータ・プログラム。   The computer program according to claim 1, wherein the inactive screen area is defined based on a reference point on a center line of the display area. 前記仮想空間内の空間平面が格子状に形成され、
前記第2決定部において、前記対応付けが、前記表示領域の基準点に対し、前記空間平面の1つの格子を基準格子として特定することにより行われる、請求項2記載のコンピュータ・プログラム。
A space plane in the virtual space is formed in a lattice shape,
The computer program according to claim 2, wherein in the second determination unit, the association is performed by specifying one lattice on the space plane as a reference lattice with respect to a reference point of the display area.
仮想空間内のオブジェクトを制御するためのコンピュータ実装方法であって、
ユーザ入力に応じて、仮想空間内における仮想カメラの位置を決定し、仮想空間の視界領域を決定するステップと、
ユーザ画面の表示領域内の非活性化画面領域と対応付けがされる前記視界領域内の非活性化平面領域を決定するステップであって、
前記非活性化画面領域が前記表示領域の中心線上にある基準点に基づいて規定され、
前記仮想空間内の空間平面が格子状に形成され、
前記対応付けが、前記基準点に対し、前記空間平面の1つの格子を基準格子として特定することにより行われることを含む、ステップと、
前記非活性化平面領域上に少なくとも一部が配置されたオブジェクトの画像に対し、透過処理および非活性化処理を行うステップと、
前記非活性化平面領域の平面画像に対して透過処理を行うステップと、
前記ユーザ画面に出力するために、前記透過処理を行ったオブジェクトの画像と前記透過処理を行った平面画像とを用いて前記視界領域に基づくゲーム画像を生成するステップであって、前記ユーザ画面における前記表示領域内の非活性化画面領域の境界線を前記ゲーム画像に固定的に重畳させることを含む、ステップ
を含む、方法。
A computer-implemented method for controlling an object in virtual space,
Determining a position of the virtual camera in the virtual space in accordance with a user input, and determining a viewing area of the virtual space;
Determining a deactivation plane area in the viewing area associated with a deactivation screen area in a display area of a user screen,
The deactivation screen area is defined based on a reference point on a center line of the display area;
A space plane in the virtual space is formed in a lattice shape,
The association is performed by identifying one grid of the spatial plane as a reference grid for the reference point;
Performing a transparency process and a deactivation process on an image of an object at least a part of which is disposed on the deactivation plane area;
Performing a transmission process on a planar image of the non-activated planar region;
Generating a game image based on the field-of-view area using an image of the object that has undergone the transparency process and a planar image that has undergone the transparency process in order to output to the user screen, Including fixedly superimposing a border line of a non-activated screen area in the display area on the game image .
JP2014179094A 2014-09-03 2014-09-03 Computer program for controlling objects in virtual space and computer-implemented method Active JP5767378B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014179094A JP5767378B1 (en) 2014-09-03 2014-09-03 Computer program for controlling objects in virtual space and computer-implemented method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014179094A JP5767378B1 (en) 2014-09-03 2014-09-03 Computer program for controlling objects in virtual space and computer-implemented method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015114727A Division JP2016053944A (en) 2015-06-05 2015-06-05 Computer program for controlling object in virtual space and computer implementation method

Publications (2)

Publication Number Publication Date
JP5767378B1 true JP5767378B1 (en) 2015-08-19
JP2016052396A JP2016052396A (en) 2016-04-14

Family

ID=53888046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014179094A Active JP5767378B1 (en) 2014-09-03 2014-09-03 Computer program for controlling objects in virtual space and computer-implemented method

Country Status (1)

Country Link
JP (1) JP5767378B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5838280B1 (en) * 2015-06-25 2016-01-06 株式会社コロプラ Game server and game program.
CN113082701A (en) * 2021-04-15 2021-07-09 网易(杭州)网络有限公司 Game city construction method and electronic equipment

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5838280B1 (en) * 2015-06-25 2016-01-06 株式会社コロプラ Game server and game program.
WO2016208519A1 (en) * 2015-06-25 2016-12-29 株式会社コロプラ Game server and game program
CN113082701A (en) * 2021-04-15 2021-07-09 网易(杭州)网络有限公司 Game city construction method and electronic equipment
CN113082701B (en) * 2021-04-15 2024-04-12 网易(杭州)网络有限公司 Game urban construction method and electronic equipment

Also Published As

Publication number Publication date
JP2016052396A (en) 2016-04-14

Similar Documents

Publication Publication Date Title
JP5606500B2 (en) Parameter setting method and system
GB2451274A (en) A Touchscreen and One or More Conventional Displays
US9870144B2 (en) Graph display apparatus, graph display method and storage medium
JP2014149833A (en) Image display method for multitasking operation, and terminal supporting the same
KR20110041915A (en) Terminal and method for displaying data thereof
RU2504822C2 (en) Information processing device
CN103914258A (en) Mobile terminal and method for operating same
JP2011134278A (en) Information processing apparatus and pointing control method
US9158431B2 (en) Apparatus and method for manipulating the orientation of an object on a display device
JP6189680B2 (en) Interface device, interface method, interface program, and computer-readable recording medium storing the program
KR102205283B1 (en) Electro device executing at least one application and method for controlling thereof
JP2012009007A (en) Display device and control method thereof
CN106464749B (en) Interactive method of user interface
JP2014099155A (en) Method and electronic device for providing virtual keyboard
JP2013143144A (en) Display device and method for selecting item thereof
KR20140122076A (en) Method and apparatus for displaying an object of portable electronic device
KR102094498B1 (en) Method and apparatus for providing multi windows
JP2015043135A (en) Information processor
JP2023552659A (en) Interface display state adjustment method, apparatus, device, storage medium
JP6130583B1 (en) Computer program for controlling objects in virtual space and computer-implemented method
JP2013161407A (en) Information display device
JP5767378B1 (en) Computer program for controlling objects in virtual space and computer-implemented method
JP2014134867A (en) Information processing terminal
JP5767371B1 (en) Game program for controlling display of objects placed on a virtual space plane
JP6130550B2 (en) Computer program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150618

R150 Certificate of patent or registration of utility model

Ref document number: 5767378

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250