JP5980393B1 - Terminal device - Google Patents

Terminal device Download PDF

Info

Publication number
JP5980393B1
JP5980393B1 JP2015172019A JP2015172019A JP5980393B1 JP 5980393 B1 JP5980393 B1 JP 5980393B1 JP 2015172019 A JP2015172019 A JP 2015172019A JP 2015172019 A JP2015172019 A JP 2015172019A JP 5980393 B1 JP5980393 B1 JP 5980393B1
Authority
JP
Japan
Prior art keywords
virtual space
depth direction
movement
background object
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015172019A
Other languages
Japanese (ja)
Other versions
JP2017046899A (en
Inventor
勇雄 中島
勇雄 中島
洋一 平川
洋一 平川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gungho Online Entertainment Inc
Original Assignee
Gungho Online Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gungho Online Entertainment Inc filed Critical Gungho Online Entertainment Inc
Priority to JP2015172019A priority Critical patent/JP5980393B1/en
Application granted granted Critical
Publication of JP5980393B1 publication Critical patent/JP5980393B1/en
Publication of JP2017046899A publication Critical patent/JP2017046899A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】仮想空間内のキャラクタオブジェクトの移動に臨場感を持たせることが可能な端末装置を提供する【解決手段】少なくとも一つの背景オブジェクトが配置された仮想空間内の仮想カメラで撮像した仮想空間画像を所定の表示部111に表示する端末装置100であって、プレイヤによる指示入力を検出する操作部116と、前記操作部116で検出した前記指示入力に基づいて、前記仮想カメラと前記背景オブジェクトとの仮想空間内の奥行き方向における距離を変化させるとともに、前記背景オブジェクトを前記距離に対応した移動量で奥行き方向とは異なる方向に移動して表示するよう制御する制御部112と、を含む端末装置100である。【選択図】図3A terminal device capable of giving a sense of reality to movement of a character object in a virtual space is provided. Virtual space captured by a virtual camera in a virtual space in which at least one background object is arranged A terminal device 100 that displays an image on a predetermined display unit 111, an operation unit 116 that detects an instruction input by a player, and the virtual camera and the background object based on the instruction input detected by the operation unit 116 And a control unit 112 for controlling the background object to move and display in a direction different from the depth direction with a movement amount corresponding to the distance, while changing the distance in the virtual space in the depth direction. Device 100. [Selection] Figure 3

Description

本開示は、所定の三次元仮想空間の画像を提供可能な端末装置に関する。   The present disclosure relates to a terminal device capable of providing an image of a predetermined three-dimensional virtual space.

従来より、三次元仮想空間内におけるキャラクタオブジェクトの移動に臨場感を持たせて表示することが可能な端末装置が知られている。例えば、特許文献1には、三次元仮想空間内を移動可能に設定されたキャラクタオブジェクトが、三次元仮想空間に配置された特定のオブジェクトの内部への出入りを、オブジェクトの表示濃度を変化させて表示することが可能な端末装置が記載されている。   2. Description of the Related Art Conventionally, there is known a terminal device that can display a movement of a character object in a three-dimensional virtual space with a sense of reality. For example, Patent Document 1 discloses that a character object set so as to be movable in a three-dimensional virtual space moves in and out of a specific object arranged in the three-dimensional virtual space by changing the display density of the object. A terminal device that can be displayed is described.

特開2006−263479号公報JP 2006-263479 A

そこで、上記のような技術を踏まえ、本開示では、様々な実施形態により、さらに仮想空間内のキャラクタオブジェクトの移動に臨場感を持たせることが可能な端末装置を提供する。   Accordingly, in light of the above-described technology, the present disclosure provides a terminal device that can give a sense of reality to the movement of a character object in a virtual space according to various embodiments.

本開示の一態様によれば、「少なくとも一つの背景オブジェクトが配置された仮想空間内の仮想カメラで撮像した仮想空間画像を所定の表示部に表示する端末装置であって、プレイヤによる指示入力を検出する操作部と、前記操作部で検出した前記指示入力に基づいて、前記仮想カメラと前記背景オブジェクトとの仮想空間内の奥行き方向における距離を変化させるとともに、前記背景オブジェクトを前記距離に対応した移動量で奥行き方向とは異なる方向に移動して表示するよう制御する制御部と、を含む端末装置」が提供される。   According to one aspect of the present disclosure, “a terminal device that displays a virtual space image captured by a virtual camera in a virtual space in which at least one background object is disposed on a predetermined display unit, and an instruction input by a player is input Based on the operation unit to be detected and the instruction input detected by the operation unit, the distance in the depth direction in the virtual space between the virtual camera and the background object is changed, and the background object corresponds to the distance And a control unit that controls to move and display in a direction different from the depth direction according to the amount of movement.

本開示の一態様によれば、「少なくとも一つの背景オブジェクトが配置された仮想空間内の仮想カメラで撮像した仮想空間画像を所定の表示部に表示するとともに、プレイヤによる指示入力を検出する操作部を含むコンピュータであって、前記コンピュータを、前記操作部で検出した前記指示入力に基づいて前記仮想カメラと前記背景オブジェクトとの仮想空間内の奥行き方向における距離を変化させ、前記背景オブジェクトを前記距離に対応した移動量で奥行き方向とは異なる方向に移動して表示するよう制御する制御部、として機能させるプログラム」が提供される。   According to one aspect of the present disclosure, “an operation unit that displays a virtual space image captured by a virtual camera in a virtual space in which at least one background object is arranged on a predetermined display unit and detects an instruction input by a player” The computer changes the distance in the depth direction in the virtual space between the virtual camera and the background object based on the instruction input detected by the operation unit, and moves the background object to the distance. A program that functions as a control unit that controls to move and display in a direction different from the depth direction with a movement amount corresponding to “is provided.

本開示の一態様によれば、「少なくとも一つの背景オブジェクトが配置された仮想空間内の仮想カメラで撮像した仮想空間画像を表示部に表示する段階と、プレイヤによる指示入力を操作部において検出する段階と、前記操作部で検出した前記指示入力に基づいて前記仮想カメラと前記背景オブジェクトとの仮想空間内の奥行き方向における距離を変化させ、前記背景オブジェクトを前記距離に対応した移動量で奥行き方向とは異なる方向に移動して表示するよう制御部が制御する段階と、を含む方法」が提供される。   According to one aspect of the present disclosure, “a step of displaying a virtual space image captured by a virtual camera in a virtual space in which at least one background object is arranged on the display unit, and an instruction input by the player is detected in the operation unit. And changing the distance in the depth direction in the virtual space between the virtual camera and the background object based on the instruction input detected by the operation unit, and moving the background object in the depth direction with a movement amount corresponding to the distance And a control unit that controls the display to move and display in a different direction.

本開示の様々な実施形態によれば、さらに仮想空間内のキャラクタオブジェクトの移動に臨場感を持たせることが可能な端末装置を提供することができる。   According to various embodiments of the present disclosure, it is possible to provide a terminal device that can give a sense of reality to the movement of the character object in the virtual space.

なお、上記効果は説明の便宜のための例示的なものであるにすぎず、限定的なものではない。上記効果に加えて、または上記効果に代えて、本開示中に記載されたいかなる効果や当業者であれば明らかな効果を奏することも可能である。   In addition, the said effect is only an illustration for the convenience of description, and is not restrictive. In addition to the above effect or instead of the above effect, any effect described in the present disclosure or an effect apparent to those skilled in the art can be achieved.

図1は、本開示の様々な実施形態に係る端末装置100に表示される画面の例である。FIG. 1 is an example of a screen displayed on the terminal device 100 according to various embodiments of the present disclosure. 図2は、本開示の第1の実施形態に係るゲームシステム1の構成を概略的に示す概念図である。FIG. 2 is a conceptual diagram schematically showing the configuration of the game system 1 according to the first embodiment of the present disclosure. 図3は、本開示の第1実施形態に係る端末装置100の構成の例を示すブロック図である。FIG. 3 is a block diagram illustrating an exemplary configuration of the terminal device 100 according to the first embodiment of the present disclosure. 図4は、本開示の第1の実施形態に係る端末装置100において実行される制御フローを示す図である。FIG. 4 is a diagram illustrating a control flow executed in the terminal device 100 according to the first embodiment of the present disclosure. 図5は、本開示の第1の実施形態に係るゲームシステム1において設定される仮想空間10の例である。FIG. 5 is an example of the virtual space 10 set in the game system 1 according to the first embodiment of the present disclosure. 図6は、本開示の第1の実施形態に係る端末装置100の表示部111に表示される画面の例である。FIG. 6 is an example of a screen displayed on the display unit 111 of the terminal device 100 according to the first embodiment of the present disclosure. 図7は、本開示の第1の実施形態に係る仮想空間10における近景オブジェクトの移動を概念的に示す図である。FIG. 7 is a diagram conceptually illustrating the movement of the foreground object in the virtual space 10 according to the first embodiment of the present disclosure. 図8は、本開示の第1の実施形態に係る仮想空間10における近景オブジェクトの移動を概念的に示す図である。FIG. 8 is a diagram conceptually illustrating the movement of the foreground object in the virtual space 10 according to the first embodiment of the present disclosure. 図9は、本開示の第1の実施形態に係る端末装置100の表示部111における近景オブジェクトの移動を概念的に示す図である。FIG. 9 is a diagram conceptually illustrating movement of a foreground object on the display unit 111 of the terminal device 100 according to the first embodiment of the present disclosure. 図10は、本開示の第1の実施形態に係る端末装置100の表示部111における近景オブジェクトの移動を概念的に示す図である。FIG. 10 is a diagram conceptually illustrating the movement of the foreground object on the display unit 111 of the terminal device 100 according to the first embodiment of the present disclosure. 図11は、本開示の第2の実施形態に係るゲームシステム1000において設定される仮想空間1010の例である。FIG. 11 is an example of the virtual space 1010 set in the game system 1000 according to the second embodiment of the present disclosure. 図12は、本開示の第2の実施形態に係る端末装置100の表示部111に表示される画面の例である。FIG. 12 is an example of a screen displayed on the display unit 111 of the terminal device 100 according to the second embodiment of the present disclosure. 図13は、本開示の第2の実施形態に係る端末装置100の表示部111に表示される画面の例である。FIG. 13 is an example of a screen displayed on the display unit 111 of the terminal device 100 according to the second embodiment of the present disclosure. 図14は、本開示の第3の実施形態に係る仮想空間2010における近景オブジェクトの配置を概念的に示す図である。FIG. 14 is a diagram conceptually illustrating the arrangement of foreground objects in the virtual space 2010 according to the third embodiment of the present disclosure. 図15は、本開示の第3の実施形態に係る仮想空間2010における近景オブジェクトの移動を概念的に示す図である。FIG. 15 is a diagram conceptually illustrating movement of a foreground object in the virtual space 2010 according to the third embodiment of the present disclosure. 図16は、本開示の第3の実施形態に係る仮想空間2010における近景オブジェクトの移動を概念的に示す図である。FIG. 16 is a diagram conceptually illustrating the movement of the foreground object in the virtual space 2010 according to the third embodiment of the present disclosure. 図17は、本開示のその他の実施形態に係る仮想空間における近景オブジェクトの移動を概念的に示す図である。FIG. 17 is a diagram conceptually illustrating the movement of the foreground object in the virtual space according to another embodiment of the present disclosure.

添付図面を参照して本開示の様々な実施形態を説明する。なお、図面における共通する構成要素には同一の参照符号が付されている。   Various embodiments of the present disclosure will be described with reference to the accompanying drawings. In addition, the same referential mark is attached | subjected to the common component in drawing.

<本開示に係るゲームシステムのゲームアプリケーションの概要>
本開示の様々な実施形態に係るゲームシステムにおいて実行されるゲームアプリケーションの一例としては、所定の仮想空間内をプレイヤの分身として配置されたプレイヤオブジェクトが移動するシーンを含むゲームアプリケーションが考えられる。
<Outline of game application of game system according to present disclosure>
As an example of a game application executed in a game system according to various embodiments of the present disclosure, a game application including a scene in which a player object arranged as a player's alternation in a predetermined virtual space moves is conceivable.

図1は、本開示の様々な実施形態に係る端末装置100に表示される画面の例である。この例では、端末装置100の表示部111に、仮想空間10内の所定の視点(たとえば、仮想カメラ)から見たシーンを再現した画像を表示する。具体的には、仮想空間10内に配置された近景オブジェクト140と、遠景オブジェクト130が表示部111に表示されている。そして、プレイヤはタッチパネル116−1又はハードキー116−2等の操作部116を介して指示入力を行い、仮想空間10内を移動する。例えば、タッチパネル116−1上で画面下方向に指示体をドラッグ操作することで、近景オブジェクト140が仮想カメラに対して互いに近づくように表示される。   FIG. 1 is an example of a screen displayed on the terminal device 100 according to various embodiments of the present disclosure. In this example, an image reproducing a scene viewed from a predetermined viewpoint (for example, a virtual camera) in the virtual space 10 is displayed on the display unit 111 of the terminal device 100. Specifically, a foreground object 140 and a distant view object 130 arranged in the virtual space 10 are displayed on the display unit 111. Then, the player inputs an instruction via the operation unit 116 such as the touch panel 116-1 or the hard key 116-2, and moves in the virtual space 10. For example, the foreground object 140 is displayed so as to approach each other with respect to the virtual camera by dragging the indicator downward on the touch panel 116-1.

なお、本開示においては、仮想空間10内に配置された仮想カメラをプレイヤオブジェクトの視点と一致させて、当該仮想カメラから仮想空間10内を仮想的に撮像した画像を表示するモードを「一人称モード」という。すなわち、当該一人称モードにおいては、表示部111にプレイヤオブジェクトそのものは実際には表示されない。一方、仮想空間10内を撮像する仮想カメラから奥行き方向に離れた位置にプレイヤオブジェクトを配置して、当該プレイヤオブジェクトを含むように仮想空間10内を仮想的に撮像した画像を表示するモードを「三人称モード」という。すなわち、当該三人称モードにおいては、表示部111にプレイヤオブジェクトも他のオブジェクトと一緒に表示されている。   In the present disclosure, a mode in which a virtual camera arranged in the virtual space 10 is made to coincide with the viewpoint of the player object and an image obtained by virtually capturing the virtual space 10 from the virtual camera is displayed is “first person mode”. " That is, in the first person mode, the player object itself is not actually displayed on the display unit 111. On the other hand, a mode in which a player object is arranged at a position away from the virtual camera that captures the inside of the virtual space 10 in the depth direction and an image obtained by virtually capturing the inside of the virtual space 10 so as to include the player object is displayed. This is called “third-person mode”. That is, in the third person mode, the player object is also displayed on the display unit 111 together with other objects.

また、本開示においては、背景オブジェクトには、近景オブジェクト140と遠景オブジェクト130が含まれる。当該近景オブジェクト140は、プレイヤからの指示入力に追従して仮想カメラとの距離が変化する背景オブジェクトのことである。このような近景オブジェクト140は、仮想カメラと遠景オブジェクト130との間に配置される。典型的には、仮想空間10内に配置される建物、木、車両等のオブジェクトである。一方、遠景オブジェクト130は、プレイヤからの指示入力に関わらず、仮想カメラとの距離がほぼ一定に固定された背景オブジェクトのことである。このような遠景オブジェクト130は、仮想カメラから見て仮想空間内の最も遠方に配置される。典型的には、山や雲、空等のオブジェクトである。   In the present disclosure, the background objects include the foreground object 140 and the distant view object 130. The foreground object 140 is a background object whose distance from the virtual camera changes following an instruction input from the player. Such a foreground object 140 is arranged between the virtual camera and the distant object 130. Typically, the object is a building, tree, vehicle, or the like arranged in the virtual space 10. On the other hand, the distant view object 130 is a background object whose distance from the virtual camera is fixed to be almost constant regardless of an instruction input from the player. Such a distant view object 130 is arranged farthest in the virtual space when viewed from the virtual camera. Typically, objects such as mountains, clouds, and the sky.

また、本開示においては、主に所定のゲームアプリケーションを端末装置で行うためのゲームシステムについて説明するが、本発明の適用可能なシステムはゲームシステムに限られない。仮想空間内を所定のキャラクタオブジェクトが移動するシーンの表示を伴うアプリケーションを実行するためのシステムであればいずれでもよい。   Further, in the present disclosure, a game system for mainly executing a predetermined game application on a terminal device will be described, but a system to which the present invention can be applied is not limited to a game system. Any system may be used as long as it is an application for executing an application involving display of a scene in which a predetermined character object moves in the virtual space.

<第1の実施形態>
1.本開示の第1の実施形態に係るゲームシステム1の構成
図2は、本開示の第1の実施形態に係るゲームシステム1の構成を概略的に示す概念図である。図2を参照すると、ゲームシステム1は、端末装置100と、端末装置100とネットワーク300を通じて通信可能に接続されたサーバー装置200とから構成される。なお、端末装置は、場合によっては、複数の端末装置をゲームシステム1に加えて、互いに連携してゲームアプリケーションを実行することも可能である。
<First Embodiment>
1. Configuration of Game System 1 According to First Embodiment of Present Disclosure FIG. 2 is a conceptual diagram schematically showing the configuration of game system 1 according to the first embodiment of the present disclosure. Referring to FIG. 2, the game system 1 includes a terminal device 100 and a server device 200 that is communicably connected to the terminal device 100 through a network 300. In some cases, the terminal device may add a plurality of terminal devices to the game system 1 and execute a game application in cooperation with each other.

ゲームシステム1においては、端末装置100内に記憶されたゲームプログラムを実行することによってゲームアプリケーションに係る処理が実施される。
このとき、端末装置100は、ゲームアプリケーションの進行に応じて、随時サーバー装置200にアクセスして、ゲームアプリケーションの進行に必要なユーザ情報やゲーム進捗情報、各パラメータ情報に加え、仮想空間10を形成するのに必要な画像データをダウンロードする。
In the game system 1, processing related to the game application is performed by executing a game program stored in the terminal device 100.
At this time, the terminal device 100 accesses the server device 200 as needed in accordance with the progress of the game application, and forms the virtual space 10 in addition to the user information, the game progress information, and each parameter information necessary for the progress of the game application. Download the image data required to do this.

2.端末装置100の構成
図3は、本開示の第1の実施形態に係る端末装置100の構成の例を示すブロック図である。図3を参照すると、端末装置100は、表示部111、制御部112、無線通信処理部113とアンテナ114とから構成される無線通信部、記憶部115、操作部116を含む。
2. Configuration of Terminal Device 100 FIG. 3 is a block diagram illustrating an exemplary configuration of the terminal device 100 according to the first embodiment of the present disclosure. Referring to FIG. 3, the terminal device 100 includes a display unit 111, a control unit 112, a wireless communication unit including a wireless communication processing unit 113 and an antenna 114, a storage unit 115, and an operation unit 116.

このような端末装置100の例としては、例えばスマートフォン、携帯型ゲーム機、フィーチャーフォン、携帯情報端末、PDA、ラップトップパソコンなどに代表される無線通信可能な携帯型の端末装置を挙げることが可能である。また、デスクトップパソコン、スタンドアローン型のゲーム機なども挙げることが可能である。すなわち、端末装置100は、様々な種類の端末装置を利用可能である。また、図3に挙げた端末装置100の各要素は一例であって、適用する端末装置の種類に応じて、いくつかの要素を省略することも可能であるし、他の要素と置き換えることが可能である。例えば、端末装置100は表示部111が端末装置内に設けられているが、表示部111は端末装置100の外部に配置し、当該表示部111と情報通信可能に接続された端末装置であっても良い。   As an example of such a terminal device 100, for example, a portable terminal device capable of wireless communication represented by a smartphone, a portable game machine, a feature phone, a portable information terminal, a PDA, a laptop personal computer, and the like can be cited. It is. A desktop personal computer, a stand-alone game machine, etc. can also be mentioned. That is, the terminal device 100 can use various types of terminal devices. Each element of the terminal device 100 illustrated in FIG. 3 is an example, and some elements may be omitted or replaced with other elements depending on the type of the terminal device to be applied. Is possible. For example, the terminal device 100 is provided with the display unit 111 inside the terminal device, but the display unit 111 is arranged outside the terminal device 100 and is connected to the display unit 111 so as to be capable of information communication. Also good.

表示部111は、制御部112の指示入力に応じて、記憶部115に記憶された画像データを読み出して、本実施形態におけるゲームアプリケーションに関する各種表示を行う。表示部111は、例えば液晶ディスプレイから構成される。   The display unit 111 reads out image data stored in the storage unit 115 in accordance with an instruction input from the control unit 112 and performs various displays related to the game application in the present embodiment. The display unit 111 is composed of a liquid crystal display, for example.

制御部112は、CPU、DSP、ASICなどのプロセッサから構成され、記憶部115に記憶されたプログラムを読み出すことによって、接続された他の構成要素を制御し、各種処理を実行する。また、制御部112は、単一プロセッサで構成することもできるし、複数のプロセッサを組み合わせて構成することもできる。また、制御部112は、例えば画像処理など、特定の処理に最適化されたプロセッサを組み合わせて構成し、処理を分散させることも可能である。   The control unit 112 includes a processor such as a CPU, a DSP, and an ASIC, and reads other programs stored in the storage unit 115 to control other connected components and execute various processes. In addition, the control unit 112 can be configured by a single processor, or can be configured by combining a plurality of processors. In addition, the control unit 112 can be configured by combining processors optimized for specific processing such as image processing, and can distribute processing.

制御部112は、距離検知部112−1、移動量算出部112−2、移動制御部112−3、表示制御部112−4を含む。距離検知部112−1は、プレイヤの指示体による指示入力(接触)がなされたタッチパネル116−1上の座標情報をタッチパネル116−1から受信して、当該指示体をタッチパネル116−1に接触したまま移動させた距離、すなわち接触位置座標の変化量を検知する。   The control unit 112 includes a distance detection unit 112-1, a movement amount calculation unit 112-2, a movement control unit 112-3, and a display control unit 112-4. The distance detection unit 112-1 receives the coordinate information on the touch panel 116-1 on which the instruction input (contact) is made by the player's indicator from the touch panel 116-1, and touches the indicator to the touch panel 116-1. The distance moved as it is, that is, the change amount of the contact position coordinates is detected.

移動量算出部112−2は、距離検知部112−1で検知された指示体の接触位置座標の変化量に基づいて、仮想空間10内に配置されている背景オブジェクト(例えば、近景オブジェクト)の移動量を算出する。具体的には、指示体の接触位置の変化量に基づいて、背景オブジェクトの奥行き方向の移動量を算出する。また、背景オブジェクトの奥行き方向の移動量に応じて、背景オブジェクトを表示部111に対してほぼ水平な方向に移動させる左右方向の移動量を算出する。   The movement amount calculation unit 112-2 is based on the change amount of the contact position coordinates of the indicator detected by the distance detection unit 112-1, and the background object (for example, foreground object) arranged in the virtual space 10. The amount of movement is calculated. Specifically, the amount of movement of the background object in the depth direction is calculated based on the amount of change in the contact position of the indicator. Further, the amount of movement in the left-right direction that moves the background object in a substantially horizontal direction with respect to the display unit 111 is calculated according to the amount of movement of the background object in the depth direction.

移動制御部112−3は、移動量算出部112−2で算出された背景オブジェクトの奥行き方向における移動量と、仮想空間10を上方から見たときに奥行き方向に直交する方向、すなわち表示部111の左右方向の移動量に基づいて、仮想空間10内に配置された背景オブジェクトを移動させる。   The movement control unit 112-3 has a movement amount in the depth direction of the background object calculated by the movement amount calculation unit 112-2 and a direction orthogonal to the depth direction when the virtual space 10 is viewed from above, that is, the display unit 111. The background object arranged in the virtual space 10 is moved based on the movement amount in the left-right direction.

表示制御部112−4は、移動制御部112−3によって移動された背景オブジェクトを含む仮想空間10を仮想カメラによって仮想的に撮像した画像を表示部111に表示することを制御する。   The display control unit 112-4 controls the display unit 111 to display an image obtained by virtually capturing the virtual space 10 including the background object moved by the movement control unit 112-3 with a virtual camera.

制御部112は、第1の実施形態に係るゲームアプリケーションの実行において必要な各要素の制御を、当該ゲームアプリケーションを実行するためのプログラムに基づいて実施する。   The control unit 112 controls each element necessary for executing the game application according to the first embodiment based on a program for executing the game application.

無線通信処理部113は、アンテナ114とともに無線通信部を構成する。無線通信処理部113は、遠隔に設置されたサーバー装置200や他の端末装置との間で情報の送受信をする。具体的には、無線通信処理部113は、本実施形態に係るゲームアプリケーションの実行において必要なユーザ情報やゲーム進捗情報、各パラメータ情報に加え、仮想空間10を形成するのに必要な画像データ等の変調や復調などの処理を行い、アンテナ114を介して送受信する。無線通信処理部113は、W−CDMA(Wideband−Code Division Multiple Access)方式やLTE方式に代表されるような広帯域の無線通信方式に基づいて処理されるが、IEEE802.11に代表されるような無線LANやBluetooth(登録商標)のような狭帯域の無線通信に関する方式に基づいて処理することも可能である。また、無線通信部は、当然公知の有線接続を利用した有線通信部と組み合わせて、または置き換えることも可能である。   The wireless communication processing unit 113 and the antenna 114 constitute a wireless communication unit. The wireless communication processing unit 113 transmits / receives information to / from the server device 200 and other terminal devices installed remotely. Specifically, the wireless communication processing unit 113 includes image data necessary to form the virtual space 10 in addition to user information, game progress information, and parameter information necessary for executing the game application according to the present embodiment. Are transmitted and received via the antenna 114. The wireless communication processing unit 113 performs processing based on a wide-band wireless communication method represented by the W-CDMA (Wideband-Code Division Multiple Access) method and the LTE method, but as represented by IEEE802.11. It is also possible to perform processing based on a method related to wireless communication in a narrow band such as a wireless LAN or Bluetooth (registered trademark). In addition, the wireless communication unit can be combined with or replaced with a wired communication unit using a known wired connection.

記憶部115は、例えば、RAMまたはROMなどの半導体メモリ、HDDなどの磁気ディスク、光磁気ディスク、光ディスクなどの記憶装置、フラッシュメモリ、リムーバブルメディアなどを適宜組み合わせて構成される。記憶部115には、本実施形態に係るゲームアプリケーションを実行するためのプログラムや、プログラムを実行するためのユーザ情報、ゲーム進捗情報、各パラメータ情報、仮想空間10を形成するのに必要な画像データ等が記憶されている。また、制御部112において、各オブジェクトの移動量等を算出するためのパラメータ、係数、テーブル等が適宜記憶されている。   The storage unit 115 is configured by appropriately combining, for example, a semiconductor memory such as a RAM or a ROM, a magnetic disk such as an HDD, a storage device such as a magneto-optical disk or an optical disk, a flash memory, and a removable medium. The storage unit 115 stores a program for executing the game application according to the present embodiment, user information for executing the program, game progress information, parameter information, and image data necessary for forming the virtual space 10. Etc. are stored. Further, the control unit 112 appropriately stores parameters, coefficients, tables, and the like for calculating the movement amount of each object.

操作部116は、タッチパネル116−1や各種ハードキー116−2等を含む。操作部116は、ユーザから各種指示や入力を受け付け、検出された信号を制御部112に送信する。そして、当該信号は本実施形態におけるゲームアプリケーションに関する各種処理に利用される。タッチパネル116−1は、表示部111を被覆するように配置され、表示部111の表示する画像データに対応して、指示体により指示入力(接触)された位置座標の情報を制御部112に出力する。タッチパネル方式としては、抵抗膜方式、静電容量結合方式、超音波表面弾性波方式など、公知の方式を利用することができる。また、指示体としては、指やスタイラスペンなど公知のものを利用することができる。   The operation unit 116 includes a touch panel 116-1, various hard keys 116-2, and the like. The operation unit 116 receives various instructions and inputs from the user, and transmits the detected signal to the control unit 112. And the said signal is utilized for the various processes regarding the game application in this embodiment. The touch panel 116-1 is arranged so as to cover the display unit 111, and outputs information on the position coordinates input (contacted) by the indicator according to the image data displayed on the display unit 111 to the control unit 112. To do. As the touch panel system, a known system such as a resistive film system, a capacitive coupling system, and an ultrasonic surface acoustic wave system can be used. As the indicator, a known one such as a finger or a stylus pen can be used.

3.制御部112による制御フロー
図4は、本開示の第1の実施形態に係る端末装置100において実行される制御フローを示す図である。当該制御フローは、制御部112、特に距離検知部112−1、移動量算出部112−2、移動制御部112−3、表示制御部112−4が、適宜記憶部115、操作部116などの他の要素と協同して、本実施形態に係るゲームアプリケーションの実行のためのプログラムに基づいて処理される。
3. Control Flow by Control Unit 112 FIG. 4 is a diagram illustrating a control flow executed in the terminal device 100 according to the first embodiment of the present disclosure. The control flow is such that the control unit 112, particularly the distance detection unit 112-1, the movement amount calculation unit 112-2, the movement control unit 112-3, the display control unit 112-4, as appropriate, In cooperation with other elements, processing is performed based on a program for executing the game application according to the present embodiment.

ここで、図5は、本開示の第1の実施形態に係るゲームシステム1において設定される仮想空間10の例である。図6は、本開示の第1の実施形態に係る端末装置100の表示部111に表示される画面の例である。図4の制御フローは、図5に示す仮想空間10において仮想カメラ120によって仮想的に撮像された画像を表示部111に表示させた状態で(図6)、プレイヤの指示体による指示入力を検知した場合に実行される。   Here, FIG. 5 is an example of the virtual space 10 set in the game system 1 according to the first embodiment of the present disclosure. FIG. 6 is an example of a screen displayed on the display unit 111 of the terminal device 100 according to the first embodiment of the present disclosure. The control flow of FIG. 4 detects an instruction input by a player's indicator while an image virtually captured by the virtual camera 120 in the virtual space 10 shown in FIG. 5 is displayed on the display unit 111 (FIG. 6). It is executed when

図5を参照すると、所定のオブジェクトが配置された仮想空間10に対して、当該仮想空間の所定の範囲を仮想的に撮像するための仮想カメラ120が仮想的に設置されている。そして、仮想空間10内には、仮想カメラ120に近い方から、オブジェクト141及び142の第1の近景オブジェクトが、次にオブジェクト143及び144の第2の近景オブジェクトが、次にオブジェクト145及び146の第3の近景オブジェクトが配置されている。仮想空間10は仮想三次元空間として構成されているが、本実施形態では、各オブジェクト141〜146は二次元のオブジェクトとして配置されており、第1〜第3の近景オブジェクトはそれぞれが層状に重なり合うように配置されている。そして、仮想カメラ120から奥行き方向C1で最も遠方の位置に遠景オブジェクト130が配置されている。   Referring to FIG. 5, a virtual camera 120 for virtually capturing a predetermined range of the virtual space is virtually installed in the virtual space 10 in which the predetermined object is arranged. In the virtual space 10, the first foreground objects of the objects 141 and 142, the second foreground objects of the objects 143 and 144, and the objects 145 and 146 of the objects 145 and 146 from the side closer to the virtual camera 120 are A third foreground object is arranged. Although the virtual space 10 is configured as a virtual three-dimensional space, in the present embodiment, the objects 141 to 146 are arranged as two-dimensional objects, and the first to third foreground objects overlap each other in layers. Are arranged as follows. A distant view object 130 is arranged at a position farthest away from the virtual camera 120 in the depth direction C1.

なお、本実施形態においては、奥行き方向C1とは、仮想空間10を上方から見た場合に、仮想カメラ120と遠景オブジェクト130とを結ぶ線分において、遠景オブジェクト130に向かう方向のことをいう。そして、手前方向C2とは、同線分において、仮想カメラ120に向かう方向のことをいう。また、本実施形態においては、左方向C3とは、仮想カメラ120で仮想空間10を仮想的に撮像した画像を表示部111に表示させたときに、表示部111に向かって左側になる方向のことをいう。そして、右方向C4とは、同画像を表示部111に表示させたときに、表示部111に向かって右側になる方向のことをいう。すなわち、奥行き方向C1及び手前方向C2に対して、左方向C3及び右方向C4は直交する方向となっている。   In the present embodiment, the depth direction C1 refers to a direction toward the distant object 130 in a line segment connecting the virtual camera 120 and the distant object 130 when the virtual space 10 is viewed from above. The near side direction C2 refers to a direction toward the virtual camera 120 in the same line segment. Further, in the present embodiment, the left direction C3 is a direction in which the left side toward the display unit 111 is displayed when an image obtained by virtually capturing the virtual space 10 with the virtual camera 120 is displayed on the display unit 111. That means. The right direction C4 refers to a direction on the right side of the display unit 111 when the same image is displayed on the display unit 111. That is, the left direction C3 and the right direction C4 are orthogonal to the depth direction C1 and the front direction C2.

また、本開示では、奥行き方向C1及び手前方向C2への各近景オブジェクトの移動の際は、「奥行き方向C1」や「手前方向C2」と特段の記載をしない限り、それらをまとめて「奥行き方向の移動」という。さらに、左方向C3及び右方向C4への各近景オブジェクトの移動の際は、「左方向C3」や「右方向C4」と特段の記載をしない限り、それらをまとめて「左右方向の移動」という。   In addition, in the present disclosure, when moving each foreground object in the depth direction C1 and the front direction C2, unless otherwise specified as “depth direction C1” or “front direction C2,” they are collectively referred to as the “depth direction”. It is called "movement". Further, when moving the foreground objects in the left direction C3 and the right direction C4, they are collectively referred to as “left-right movement” unless otherwise described as “left direction C3” or “right direction C4”. .

図6を参照すると、図5に示された仮想空間10の所定範囲を仮想カメラ120で撮像した画像が表示部111に表示されている。仮想空間10に配置された各オブジェクト141〜146が、それぞれ仮想カメラ120からの視点で表示部111に画像オブジェクトとして表示されている。この際、第1〜第3の近景オブジェクトは、それぞれ層状に重なるように仮想空間10に配置されているので、最も手前方向に配置された第1の近景オブジェクト(オブジェクト141及び142)は全体が視認可能に表示されているが、第2及び第3の近景オブジェクト(オブジェクト143〜146)は、第1及び/又は第2の近景オブジェクトに一部が重なって表示されている。また、第1〜第3の近景オブジェクトのさらに背後に遠景オブジェクト130が表示されている。   Referring to FIG. 6, an image obtained by capturing the predetermined range of the virtual space 10 illustrated in FIG. 5 with the virtual camera 120 is displayed on the display unit 111. The objects 141 to 146 arranged in the virtual space 10 are displayed as image objects on the display unit 111 from the viewpoint from the virtual camera 120, respectively. At this time, the first to third foreground objects are arranged in the virtual space 10 so as to overlap each other, so that the first foreground objects (objects 141 and 142) arranged in the foremost direction are entirely. Although displayed so as to be visible, the second and third foreground objects (objects 143 to 146) are displayed so as to partially overlap the first and / or second foreground objects. In addition, a distant view object 130 is displayed behind the first to third foreground objects.

表示部111において図6に示すとおり表示されているときに、プレイヤの指示体によるタッチパネル116−1への指示入力(接触)を検知することで、表示部111に表示する仮想空間を移動する。具体的には、指示体による座標S0から座標S1までの移動がなされたとき(すなわち、ドラッグ操作)の指示体の接触座標位置の変化量(距離Dt)を検出することで、第1〜第3の近景オブジェクトに含まれる各オブジェクトを所定の移動量で仮想空間10内を移動させる。なお、本実施形態においては、奥行き方向については第1〜第3の近景オブジェクトの全てについて所定の移動量で移動させるが、左右方向については最も仮想カメラ120側に位置する第1の近景オブジェクトのみ移動させる。   When displayed as shown in FIG. 6 on the display unit 111, the virtual space displayed on the display unit 111 is moved by detecting an instruction input (contact) to the touch panel 116-1 by the player's indicator. Specifically, by detecting the change amount (distance Dt) of the contact coordinate position of the indicator when the indicator moves from the coordinate S0 to the coordinate S1 (that is, the drag operation), Each object included in the 3 foreground objects is moved in the virtual space 10 by a predetermined movement amount. In the present embodiment, all the first to third foreground objects are moved by a predetermined movement amount in the depth direction, but only the first foreground object located closest to the virtual camera 120 in the left-right direction is used. Move.

図4に戻り、図5及び図6で示される場合において、タッチパネル116−1でプレイヤの指示体による指示入力(接触)を検知し、制御部112の距離検知部112−1は検知した位置座標をタッチパネル116−1から受信する(S101)。そして、距離検知部112−1は、所定周期でタッチパネル116−1から位置座標を受信し、受信した位置座標の変化量を検知する。そして、検知した変化量が所定の変化量を越えた場合には(S102)、距離検知部112−1はドラッグ操作がなされたと判断する(S103)。なお、当該変化量が所定の変化量未満である場合には、ドラッグ操作がなされてはいないので、本処理を終了する(S102)。   Returning to FIG. 4, in the case shown in FIGS. 5 and 6, the touch panel 116-1 detects an instruction input (contact) by the player's indicator, and the distance detection unit 112-1 of the control unit 112 detects the detected position coordinates. Is received from the touch panel 116-1 (S101). And the distance detection part 112-1 receives a position coordinate from the touch panel 116-1 with a predetermined period, and detects the variation | change_quantity of the received position coordinate. If the detected change amount exceeds the predetermined change amount (S102), the distance detection unit 112-1 determines that a drag operation has been performed (S103). If the change amount is less than the predetermined change amount, the drag operation has not been performed, and the process is terminated (S102).

S103においてドラッグ操作と判断された場合、距離検知部112−1は、S102で検知した指示体の接触位置の変化量を移動量算出部112−2に提供する。図6の例においては、座標S0から現在の接触点である座標S1にかけて、距離Dtのドラッグ操作がなされている。したがって、距離検知部112−1は、距離Dtを変化量として、移動量算出部112−2に提供する。そして、その提供を受けた移動量算出部112−2は、当該変化量に基づいて、第1〜第3の近景オブジェクトの仮想空間10内の奥行き方向における移動量を算出する(S104)。当該移動量は、指示体の接触位置の変化量に追従するようになっていればよく、第1〜第3の近景オブジェクトのいずれにも等しい移動量が割り当てられる。   When it is determined that the drag operation is performed in S103, the distance detection unit 112-1 provides the movement amount calculation unit 112-2 with the change amount of the contact position of the indicator detected in S102. In the example of FIG. 6, a drag operation of a distance Dt is performed from the coordinate S0 to the coordinate S1 that is the current contact point. Therefore, the distance detection unit 112-1 provides the distance calculation unit 112-2 with the distance Dt as a change amount. Then, the movement amount calculation unit 112-2 that receives the provision calculates the movement amount in the depth direction of the first to third foreground objects in the virtual space 10 based on the change amount (S104). The amount of movement only needs to follow the amount of change in the contact position of the indicator, and the same amount of movement is assigned to any of the first to third foreground objects.

次に、移動量算出部112−2は、距離検知部112−1から提供を受けた移動量に基づいて、第1の近景オブジェクトの仮想空間10内の左右方向における移動量を算出する(S105)。具体的には、移動量算出部112−2が指示体の接触位置の移動量から算出した第1の近景オブジェクトの奥行き方向の移動量に基づいて、仮想カメラ120と第1の近景オブジェクト間の距離が変化が、当該距離の変化に対応するように、第1の近景オブジェクトの左右方向の移動量は算出される。一例としては、第1の近景オブジェクトの左右方向の移動量は、
・奥行き方向の移動量がDsで相対的に移動量が小さい(すなわち、仮想カメラ120と第1の近景オブジェクト間の距離が大きい)ときには、移動量Dsに係数0.2をかけた量が、
・奥行き方向の移動量がDsで相対的に移動量が大きい(すなわち、仮想カメラ120と第1の近景オブジェクト間の距離が小さい)ときには、移動量Dsに係数0.6をかけた量が、
移動量算出部112−2によってそれぞれ算出される。なお、特に図示はしないが、当該係数は、奥行き方向の各移動量との対応関係を示すテーブルが記憶部115に記憶されており、当該テーブルを参照することによって決定される。
Next, the movement amount calculation unit 112-2 calculates the movement amount in the left-right direction of the first foreground object in the virtual space 10 based on the movement amount received from the distance detection unit 112-1 (S105). ). Specifically, based on the movement amount in the depth direction of the first foreground object calculated by the movement amount calculation unit 112-2 from the movement amount of the contact position of the indicator, the distance between the virtual camera 120 and the first foreground object is determined. The movement amount in the left-right direction of the first foreground object is calculated so that the change in distance corresponds to the change in distance. As an example, the amount of movement in the left-right direction of the first foreground object is
When the movement amount in the depth direction is Ds 1 and the movement amount is relatively small (that is, the distance between the virtual camera 120 and the first foreground object is large), an amount obtained by multiplying the movement amount Ds 1 by a coefficient of 0.2 But,
When the movement amount in the depth direction is Ds 2 and the movement amount is relatively large (that is, the distance between the virtual camera 120 and the first foreground object is small), an amount obtained by multiplying the movement amount Ds 2 by a coefficient of 0.6 But,
It is calculated by the movement amount calculation unit 112-2. Although not particularly illustrated, the coefficient is determined by referring to the table, which stores a table indicating the correspondence relationship with each movement amount in the depth direction.

次に、移動量算出部112−2は、S104及びS105において算出された奥行き方向の移動量及び左右方向の移動量を移動制御部112−3に提供する。提供を受けた移動制御部112−3は、奥行き方向の移動量及び左右方向の移動量に基づいて、仮想空間10における第1の近景オブジェクトを構成するオブジェクト141及び142の新たな移動先の位置座標を決定する(S106)。   Next, the movement amount calculation unit 112-2 provides the movement control unit 112-3 with the movement amount in the depth direction and the movement amount in the left-right direction calculated in S104 and S105. The provided movement control unit 112-3, based on the movement amount in the depth direction and the movement amount in the left-right direction, positions of new movement destinations of the objects 141 and 142 constituting the first foreground object in the virtual space 10 The coordinates are determined (S106).

移動制御部112−3は、各オブジェクト141及び142について決定した新たな移動先の位置座標に基づいて、仮想空間10内に各オブジェクトを再配置(移動)する(S107)。なお、このとき、仮想カメラ120の方向に第1〜第3の近景オブジェクトがそれぞれ近づいたことに伴い、最も遠方の第3の近景オブジェクトのさらに後方に空間が形成される。したがって、移動制御部112−3によって、当該空間に新たな近景オブジェクトが配置される。   The movement control unit 112-3 rearranges (moves) each object in the virtual space 10 based on the position coordinates of the new movement destination determined for each object 141 and 142 (S107). At this time, as the first to third foreground objects approach each other in the direction of the virtual camera 120, a space is formed further behind the farthest third foreground object. Therefore, a new foreground object is placed in the space by the movement control unit 112-3.

そして、表示制御部112−4は、特に制御フロー内で詳細に説明はしないが、各オブジェクトが移動された新たな仮想空間10を仮想カメラ120で仮想的に撮像した画像を表示部111に表示するように制御する。   The display control unit 112-4 displays, on the display unit 111, an image obtained by virtually capturing the new virtual space 10 in which each object has been moved with the virtual camera 120, although not specifically described in the control flow. Control to do.

次に、距離検知部112−1は、タッチパネル116−1から指示体による接触の位置座標を再度受信したか否かを確認する。このとき新たに位置座標を受信していればさらにドラッグ操作が継続していると判断し、制御部112による処理は再びS102に戻る(S108)。一方、距離検知部112−1が新たに位置座標を受信していなければ、タッチパネルへの接触が終了(S108)、すなわちドラッグ操作が終了したと判断して(S109)、各オブジェクト141〜146の移動処理が終了する。   Next, the distance detection unit 112-1 confirms whether or not the position coordinates of the contact by the indicator have been received from the touch panel 116-1. At this time, if a new position coordinate is received, it is determined that the drag operation is continued, and the process by the control unit 112 returns to S102 again (S108). On the other hand, if the distance detection unit 112-1 has not received a new position coordinate, it is determined that the touch on the touch panel has ended (S108), that is, the drag operation has ended (S109), and each of the objects 141 to 146 is determined. The movement process ends.

4.近景オブジェクトの移動処理について
図7及び図8は、本開示の第1の実施形態に係る仮想空間10における近景オブジェクトの移動を概念的に示す図である。具体的には、図7及び図8は、移動量算出部112−2において算出される奥行き方向の移動量と左右方向の移動量の算出処理を説明するための図である。
4). About Foreground Object Movement Processing FIGS. 7 and 8 are diagrams conceptually illustrating movement of a foreground object in the virtual space 10 according to the first embodiment of the present disclosure. Specifically, FIGS. 7 and 8 are diagrams for explaining processing for calculating the movement amount in the depth direction and the movement amount in the left-right direction calculated by the movement amount calculation unit 112-2.

図7を参照すると、仮想空間10に仮想カメラ120を起点として奥行き方向に距離D1だけ離れて第1の近景オブジェクト(オブジェクト141及び142)が、さらに長い距離である距離D2だけ離れて第2の近景オブジェクト(オブジェクト143及び144)が、さらに最も長い距離である距離D3だけ離れて第3の近景オブジェクト(オブジェクト145及び146)が配置されている。そして、図6で示すように、タッチパネル116−1によって、プレイヤの指示体により、表示部111の下方向に、座標S0から座標S1までのドラッグ操作(距離Dt)が検出されている。   Referring to FIG. 7, the first foreground object (objects 141 and 142) is separated from the virtual space 10 by the distance D <b> 1 in the depth direction starting from the virtual camera 120. The foreground objects (objects 143 and 144) are further separated by the distance D3 which is the longest distance, and the third foreground objects (objects 145 and 146) are arranged. Then, as shown in FIG. 6, a drag operation (distance Dt) from coordinates S0 to coordinates S1 is detected in the downward direction of the display unit 111 by the player's indicator on the touch panel 116-1.

このような場合は、図7において示すように、第1〜第3の近景オブジェクトを構成する各オブジェクト141〜146の奥行き方向の移動量は、距離Dtにあらかじめ対応付けて設定された移動量Dsが算出される。また、表示部111の下方向へのドラッグ操作の場合には、あらかじめ仮想空間内を手前方向C2への移動が対応付けられているため、各オブジェクト141〜146の移動方向は手前方向C2が設定される。   In such a case, as shown in FIG. 7, the movement amount in the depth direction of each of the objects 141 to 146 constituting the first to third foreground objects is the movement amount Ds set in advance in association with the distance Dt. Is calculated. Further, in the case of the drag operation in the downward direction of the display unit 111, since the movement in the front direction C2 is associated with the virtual space in advance, the front direction C2 is set as the movement direction of each of the objects 141 to 146. Is done.

すなわち、仮に奥行き方向の移動のみに着目した場合、各オブジェクト141〜146は、図7に示す位置から手前方向C2に移動量Dsだけそれぞれ移動して配置されることとなる。したがって、図8に示すとおり、仮想カメラ120から第1〜第3の近景オブジェクトまでの距離も移動量Ds分だけ近づいて、それぞれD1からD1’に、D2からD2’に、D3からD3’が設定される。   That is, if attention is paid only to the movement in the depth direction, each of the objects 141 to 146 is arranged to move from the position shown in FIG. 7 by the movement amount Ds in the front direction C2. Therefore, as shown in FIG. 8, the distance from the virtual camera 120 to the first to third foreground objects is also moved by the movement amount Ds, and D1 to D1 ′, D2 to D2 ′, and D3 to D3 ′, respectively. Is set.

次に、第1の近景オブジェクトの左右方向の移動については、第1の近景オブジェクトの奥行き方向の移動量Dsに基づいて左右方向の移動量D4が算出される。本実施形態では、第1の近景オブジェクトと仮想カメラ120との間の距離が遠くなるほど左右方向の移動量が少なく、距離が短くなるほど左右方向の移動量が大きくなるように移動量D4が算出される。一例としては、
・奥行き方向の移動量がDsで相対的に移動量が小さい(すなわち、仮想カメラ120と第1の近景オブジェクト間の距離が大きい)ときには、「移動量Ds×係数0.2」によって、
・奥行き方向の移動量がDsで相対的に移動量が大きい(すなわち、仮想カメラ120と第1の近景オブジェクト間の距離が小さい)ときには、「移動量Ds×係数0.6」によって、
それぞれ移動量D4が算出される。また、第1の近景オブジェクトに含まれるオブジェクト141及び142の移動方向は、仮想カメラ120を基準にして、仮想カメラ120から左側にあるオブジェクトは左方向C3に、仮想カメラ120から右側にあるオブジェクトは右方向C4に設定する。なお、当然、各オブジェクトごとに移動方向を予め設定してくことも可能である。
Next, for the movement of the first foreground object in the left-right direction, the movement amount D4 in the left-right direction is calculated based on the movement amount Ds in the depth direction of the first foreground object. In the present embodiment, the movement amount D4 is calculated so that the movement amount in the left-right direction decreases as the distance between the first foreground object and the virtual camera 120 increases, and the movement amount in the left-right direction increases as the distance decreases. The As an example,
When the movement amount in the depth direction is Ds 1 and the movement amount is relatively small (that is, the distance between the virtual camera 120 and the first foreground object is large), “movement amount Ds 1 × coefficient 0.2”
When the movement amount in the depth direction is Ds 2 and the movement amount is relatively large (that is, the distance between the virtual camera 120 and the first foreground object is small), “movement amount Ds 2 × coefficient 0.6”
A movement amount D4 is calculated for each. The moving directions of the objects 141 and 142 included in the first foreground object are based on the virtual camera 120, the object on the left side from the virtual camera 120 is in the left direction C3, and the object on the right side from the virtual camera 120 is Set in the right direction C4. Of course, it is also possible to set the moving direction in advance for each object.

すなわち、仮に左右方向の移動のみに着目した場合、図8に示すとおり、第1の近景オブジェクトのオブジェクト141及び142は破線で示された位置に通常であれば配置されるべきところ、算出された移動量D4による左右方向への移動に伴い、実線で示すオブジェクト141及び142の位置に配置されることになる。   In other words, if attention is paid only to the movement in the left-right direction, as shown in FIG. 8, the objects 141 and 142 of the first foreground object are calculated where they should normally be placed at the positions indicated by the broken lines. With the movement in the left-right direction by the movement amount D4, the objects 141 and 142 indicated by solid lines are arranged.

なお、図7及び図8に示す近景オブジェクトの移動処理に伴い、第3オブジェクトより遠方でかつ遠景オブジェクト130との間には、新たに第4の近景オブジェクト(オブジェクト147及び148)が配置される。   As the foreground object moving process shown in FIGS. 7 and 8 is performed, a fourth foreground object (objects 147 and 148) is newly arranged farther than the third object and between the far background object 130. .

図9は、本開示の第1の実施形態に係る端末装置100の表示部111における近景オブジェクトの移動を概念的に示す図である。具体的には、図9は、図9(a)に示された画像を表示している状態で、座標S0から座標S1までドラッグ操作がなされた場合に、図7及び図8で示す処理によって、各オブジェクトが仮想空間内を移動して配置される様子を示す。つまり、図9(b)は、座標S0から座標S1にドラッグ操作がなされている途中の画像を、図9(c)は、座標S0から座標S1にドラッグ操作がなされた後の画像を、表示部111に表示した際の例を示す。   FIG. 9 is a diagram conceptually illustrating movement of a foreground object on the display unit 111 of the terminal device 100 according to the first embodiment of the present disclosure. Specifically, FIG. 9 shows the process shown in FIGS. 7 and 8 when a drag operation is performed from the coordinate S0 to the coordinate S1 while the image shown in FIG. 9A is displayed. , Shows how each object is moved and arranged in the virtual space. That is, FIG. 9B shows an image in the middle of the drag operation from the coordinate S0 to the coordinate S1, and FIG. 9C shows an image after the drag operation from the coordinate S0 to the coordinate S1. An example when displayed on the part 111 is shown.

図9(b)によると、座標S0から座標S1にドラッグ操作がなされている途中(すなわち、距離Dtのドラッグ操作が行われた状態)の仮想空間10を仮想カメラ120で撮像した画像が表示部111に表示されている。これによると、距離Dtのドラッグ操作により、第2及び第3の近景オブジェクト(オブジェクト143〜146)は、それぞれ、移動量算出部112−2によって算出された奥行き方向の移動量Dsだけ移動して表示されている。 According to FIG. 9 (b), the course of the drag operation from the coordinate S0 to the coordinate S1 is made (i.e., the drag operation of the distance Dt 1 is performed state) image display of the captured virtual space 10 of the virtual camera 120 Displayed in the section 111. According to this, by the drag operation of the distance Dt 1 , the second and third foreground objects (objects 143 to 146) move by the movement amount Ds 1 in the depth direction calculated by the movement amount calculation unit 112-2, respectively. Is displayed.

一方、第1の近景オブジェクト(オブジェクト141及び142)は、奥行き方向の移動量Dsに加えて、移動量算出部112−2によって算出された左右方向の移動量D4だけ左右方向に移動して表示されている。つまり、仮想カメラ120の右側に配置されたオブジェクト141は、通常であれば奥行き方向の移動量Ds分だけ移動した位置に表示されていたところ、さらに右方向C4に移動量D4だけ移動して表示されている。また、仮想カメラ120の左側に配置されたオブジェクト142は、通常であれば奥行き方向の移動量Ds分だけ移動した位置に表示されていたところ、さらに左方向C3に移動量D4だけ移動して表示されている。 On the other hand, the first near view objects (141 and 142), in addition to the movement amount Ds 1 in the depth direction, by the amount of movement D4 1 in the lateral direction calculated by the movement amount calculating section 112-2 moves in the lateral direction Is displayed. That is, the object 141 arranged on the right side of the virtual camera 120 is normally displayed at a position moved by the movement amount Ds 1 in the depth direction, but further moved by the movement amount D4 1 in the right direction C4. Is displayed. Also, the object 142 arranged on the left side of the virtual camera 120 was being displayed at the position moved by the movement amount Ds 1 minute in the depth direction would normally further moved by the amount of movement D4 1 leftward C3 Is displayed.

なお、図9(b)においては、オブジェクト141及び142は、それぞれ仮想空間10内で左右方向に移動量D4だけ移動した位置に配置されるため、仮想カメラ120で撮像可能な領域から一部がはみ出した状態となる。したがって、図9(b)には、オブジェクト141及び142の全てを示しているが、オブジェクト141及び142の一部は、実際には、表示部111に表示されていない。 In the FIG. 9 (b), the objects 141 and 142 may be placed in the position moved by the amount of movement D4 1 in the lateral direction in each virtual space 10, a part from an imageable region virtual camera 120 Will protrude. Therefore, FIG. 9B shows all of the objects 141 and 142, but some of the objects 141 and 142 are not actually displayed on the display unit 111.

図9(c)には、さらに継続してドラッグ操作が行われ、結果的に座標S0から座標S1にドラッグ操作がなされた状態(すなわち、距離Dtのドラッグ操作が行われた状態)の仮想空間10を、仮想カメラ120で撮像した画像が表示部111に表示されている。これによると、距離Dtのドラッグ操作により、第2及び第3の近景オブジェクト(オブジェクト143〜146)は、それぞれ、移動量算出部112−2によって算出された奥行き方向の移動量Dsだけ移動して表示されている。   In FIG. 9C, a virtual space in a state where the drag operation is further continued and as a result, the drag operation is performed from the coordinates S0 to the coordinates S1 (that is, the drag operation of the distance Dt is performed). 10 is displayed on the display unit 111 by the virtual camera 120. According to this, by the drag operation of the distance Dt, the second and third foreground objects (objects 143 to 146) move by the movement amount Ds in the depth direction calculated by the movement amount calculation unit 112-2, respectively. It is displayed.

一方、第1の近景オブジェクト(オブジェクト141及び142)は、仮想空間10上で、奥行き方向の移動量Dsに加えて、移動量算出部112−2によって算出された左右方向の移動量D4だけ左右方向に移動した位置に配置される。つまり、仮想カメラ120の右側に配置されたオブジェクト141は、通常であれば奥行き方向の移動量Ds分だけ移動した位置に配置されていたところ、さらに右方向C4に移動量D4だけ移動して配置されている。また、仮想カメラ120の左側に配置されたオブジェクト142は、通常であれば奥行き方向の移動量Ds分だけ移動した位置に配置されていたところ、さらに左方向C3に移動量D4だけ移動して配置されている。そのため、図8に示した通り、オブジェクト141及び142は、仮想カメラ120の撮像可能な範囲から完全に外れることになる。これによって、図9(c)に示すとおり、オブジェクト141及び142は表示部111には実際には全く表示されなくなる。   On the other hand, the first foreground object (objects 141 and 142) is moved in the virtual space 10 by the movement amount D4 in the left-right direction calculated by the movement amount calculation unit 112-2 in addition to the movement amount Ds in the depth direction. Arranged at the position moved in the direction. That is, the object 141 arranged on the right side of the virtual camera 120 is normally arranged at a position moved by the movement amount Ds in the depth direction, and is further moved by the movement amount D4 in the right direction C4. Has been. In addition, the object 142 arranged on the left side of the virtual camera 120 is normally arranged at a position moved by the movement amount Ds in the depth direction, but is further moved by the movement amount D4 in the left direction C3. Has been. Therefore, as illustrated in FIG. 8, the objects 141 and 142 are completely out of the image capturing range of the virtual camera 120. As a result, as shown in FIG. 9C, the objects 141 and 142 are not actually displayed on the display unit 111 at all.

なお、図8において説明したとおり、仮想空間10内に新たに第4の近景オブジェクト(オブジェクト147及び148)が配置されている。したがって、図9(c)を参照すると、第3の近景オブジェクト(オブジェクト145及び146)のさらに背後に第4の近景オブジェクト(オブジェクト147及び148)が表示されている。   As described with reference to FIG. 8, fourth foreground objects (objects 147 and 148) are newly arranged in the virtual space 10. Therefore, referring to FIG. 9C, the fourth foreground objects (objects 147 and 148) are displayed behind the third foreground objects (objects 145 and 146).

さらに、遠景オブジェクト130については、プレイヤからの指示入力に関わらず、仮想カメラ120との距離がほぼ一定に固定されている。したがって、遠景オブジェクト130は手前方向C2に移動することなく、常に最背面に表示されている。   Further, with respect to the distant object 130, the distance from the virtual camera 120 is fixed to be almost constant regardless of the instruction input from the player. Therefore, the distant view object 130 is always displayed on the backmost surface without moving in the front direction C2.

図10は、本開示の第1の実施形態に係る端末装置100の表示部111における第1の近景オブジェクトの移動を概念的に示す図である。具体的には、タッチパネル116−1によって検出されたプレイヤの指示体によるドラッグ操作と近景オブジェクトの移動をより詳しく説明するための図である。ここでは説明の便宜のためにオブジェクト142のみを記載している。   FIG. 10 is a diagram conceptually illustrating the movement of the first foreground object on the display unit 111 of the terminal device 100 according to the first embodiment of the present disclosure. Specifically, it is a diagram for explaining in more detail the drag operation by the player's indicator detected by the touch panel 116-1 and the movement of the foreground object. Here, only the object 142 is shown for convenience of explanation.

プレイヤがタッチパネル116−1上で座標S0を始点として座標S1の地点まで距離Dtでドラッグ操作を行った場合、オブジェクト142は、図7及び図8に示すとおり、仮想空間10上を移動量Dsだけ手前方向C2に、移動量D4だけ左方向C3に移動して配置される。   When the player performs a drag operation at a distance Dt from the coordinate S0 as a starting point on the touch panel 116-1 to the point of the coordinate S1, the object 142 moves only on the virtual space 10 by the movement amount Ds as shown in FIGS. In the forward direction C2, it is arranged to move in the left direction C3 by the movement amount D4.

本実施形態においては、実際にはタッチパネル116−1による接触位置の検知及び接触座標の送信は、数msごとに行われている。したがって、近景オブジェクトの処理自体もこの周期に準じて行われるので、ドラッグ操作が座標S0から座標S1に向けて行われたこと検知して一気にオブジェクト142がオブジェクト142−1の表示位置からオブジェクト142−3の表示位置に移動するわけではない。すなわち、座標S0から手前方向に連続的にドラッグ操作がなされるのに追従して、矢印151で示すように、オブジェクト142も徐々にオブジェクト142−1の表示位置から、オブジェクト142−2の表示位置を経て、オブジェクト142−3の表示位置に移動する。   In the present embodiment, the detection of the contact position and the transmission of the contact coordinates by the touch panel 116-1 are actually performed every few ms. Accordingly, since the processing of the foreground object itself is also performed according to this cycle, it is detected that the drag operation is performed from the coordinates S0 to the coordinates S1, and the object 142 is immediately moved from the display position of the object 142-1. It does not move to the display position 3. That is, the object 142 gradually moves from the display position of the object 142-1 to the display position of the object 142-2 as indicated by the arrow 151 following the continuous drag operation from the coordinate S 0 toward the near side. Then, the display moves to the display position of the object 142-3.

なお、本実施形態では、図9(c)においても説明したとおり、移動後のオブジェクト142は仮想カメラ120の撮像範囲から外れるので、距離Dtのドラッグ操作を行った場合には、表示部111にオブジェクト142は表示されなくなる。   In the present embodiment, as described with reference to FIG. 9C, the moved object 142 is out of the imaging range of the virtual camera 120. Therefore, when the drag operation of the distance Dt is performed, the display unit 111 The object 142 is no longer displayed.

以上、第1の実施形態においては、奥行き方向の移動量として算出された移動量Dsに対応した移動量D4で左右方向にさらに第1の近景オブジェクトを移動させている。また、この移動量も、仮想カメラ120からの距離に応じて、当該距離が短くなればなるほど、左右方向の移動量が増大するようになっている。したがって、プレイヤが表示部111を見ながらドラッグ操作を行い、仮想空間を手前方向C2に移動させようとしたときに、実際のオブジェクトの移動量よりも左右方向にダイナミックに移動するので、プレイヤオブジェクトの移動により臨場感を持たせることが可能となる。   As described above, in the first embodiment, the first foreground object is further moved in the left-right direction by the movement amount D4 corresponding to the movement amount Ds calculated as the movement amount in the depth direction. In addition, the amount of movement increases in the left-right direction as the distance becomes shorter in accordance with the distance from the virtual camera 120. Therefore, when the player performs a drag operation while looking at the display unit 111 and attempts to move the virtual space in the front direction C2, the player object moves dynamically in the left-right direction rather than the actual object movement amount. It becomes possible to give a sense of reality by moving.

また、第1の実施形態においては、三次元仮想空間内に配置する各近景オブジェクトを二次元オブジェクトで構成した。したがって、仮想カメラ120から仮想的に撮像した画像を表示部111に表示する際に、制御部による処理量を削減することが可能である。また、本実施形態においては、表示する画像データを随時サーバー装置200から受信する場合があるが、このような場合でも情報量を減らすことができるのでより迅速な処理が可能となる。   Further, in the first embodiment, each foreground object placed in the three-dimensional virtual space is configured with a two-dimensional object. Therefore, when an image virtually captured from the virtual camera 120 is displayed on the display unit 111, it is possible to reduce the amount of processing performed by the control unit. In the present embodiment, image data to be displayed may be received from the server device 200 as needed, but even in such a case, the amount of information can be reduced, so that quicker processing is possible.

<第2の実施形態>
第2の実施形態に係るゲームシステム1000では、第1の実施形態に係るゲームシステム1と同様に、端末装置100とサーバー装置200とから構成される。また、端末装置100の具体的な構成も第1の実施形態と同様である。そして、端末装置100の表示部111に表示される画像の表示モードが、第1の実施形態では一人称モードであったのに対し、第2に実施形態においては三人称モードである点においてのみ相違する。以下、本実施形態に係る近景オブジェクトの移動処理について説明する。なお、本実施形態は、以上で説明する点を除いて第1の実施形態における構成、処理、手順と同様である。したがって、それらの事項の詳細な説明は省略する。
<Second Embodiment>
The game system 1000 according to the second embodiment includes a terminal device 100 and a server device 200, as in the game system 1 according to the first embodiment. Further, the specific configuration of the terminal device 100 is the same as that of the first embodiment. The display mode of the image displayed on the display unit 111 of the terminal device 100 differs from the first embodiment in the first person mode, but the second embodiment is different only in the third person mode. . Hereinafter, the foreground object moving process according to the present embodiment will be described. This embodiment is the same as the configuration, processing, and procedure in the first embodiment except for the points described above. Therefore, detailed description of those matters is omitted.

図11は、本開示の第2の実施形態に係るゲームシステム1000において設定される仮想空間1010の例である。図11を参照すると、所定のオブジェクトが配置された仮想空間1010に対して、当該仮想空間の所定の範囲を仮想的に撮像するための仮想カメラ120が仮想的に設置されている。そして、仮想空間1010内には、仮想カメラ120に近い方から、オブジェクト141及び142の第1の近景オブジェクトが、次にオブジェクト143及び144の第2の近景オブジェクトが、次にオブジェクト145及び146の第3の近景オブジェクトが配置されている。そして、仮想カメラ120から奥行き方向C1で最も遠方の位置に遠景オブジェクト130が配置されている。   FIG. 11 is an example of the virtual space 1010 set in the game system 1000 according to the second embodiment of the present disclosure. Referring to FIG. 11, a virtual camera 120 for virtually capturing a predetermined range of the virtual space is virtually installed in the virtual space 1010 in which the predetermined object is arranged. In the virtual space 1010, the first foreground object of the objects 141 and 142, the second foreground object of the objects 143 and 144, and then the objects 145 and 146 of the objects 145 and 146 from the side closer to the virtual camera 120 are displayed. A third foreground object is arranged. A distant view object 130 is arranged at a position farthest away from the virtual camera 120 in the depth direction C1.

本実施形態においては、仮想カメラ120と第1の近景オブジェクト(オブジェクト141及び142)との間に、さらにプレイヤオブジェクト121が配置されている。   In the present embodiment, a player object 121 is further arranged between the virtual camera 120 and the first foreground object (objects 141 and 142).

図12及び13は、本開示の第2の実施形態に係る端末装置100の表示部111に表示される画面の例である。具体的には、図12は、仮想空間1010を仮想カメラ120から仮想的に撮像した画像を表示部111に表示した図である。本実施形態においては、仮想空間1010内の仮想カメラ120と第1の近景オブジェクトとの間に、プレイヤオブジェクト121が配置されているので、表示部111でも第1の近景オブジェクト(オブジェクト141及び142)の手前側にプレイヤオブジェクト121が表示されている。   12 and 13 are examples of screens displayed on the display unit 111 of the terminal device 100 according to the second embodiment of the present disclosure. Specifically, FIG. 12 is a diagram in which an image obtained by virtually capturing the virtual space 1010 from the virtual camera 120 is displayed on the display unit 111. In the present embodiment, since the player object 121 is arranged between the virtual camera 120 and the first foreground object in the virtual space 1010, the first foreground object (objects 141 and 142) is also displayed on the display unit 111. A player object 121 is displayed on the front side.

そして、図12では、図6に示す例と同様に、距離Dtのドラッグ操作がタッチパネル116−1上でプレイヤの指示体によってなされた場合を示している。当該ドラッグ操作によって、制御部112は、第1の実施形態で説明した手順に従って、各オブジェクト141〜146の奥行き方向の移動量と、第1の近景オブジェクト(オブジェクト141及び142)の左右方向の移動量を算出し、その算出した移動量で仮想空間1010内に各オブジェクトを配置させる。   12 shows a case where the drag operation of the distance Dt is performed by the player's indicator on the touch panel 116-1, as in the example shown in FIG. By the drag operation, the control unit 112 performs the movement amount in the depth direction of each of the objects 141 to 146 and the movement in the left-right direction of the first foreground objects (objects 141 and 142) according to the procedure described in the first embodiment. The amount is calculated, and each object is arranged in the virtual space 1010 with the calculated movement amount.

図13は、上記配置が行われた後に、仮想カメラ120によって仮想空間1010を撮像した画像を表示部111に表示した図である。これによると、表示モードが三人称モードであるので、プレイヤオブジェクト121が表示部111上にも表示されている。そして、第1の実施形態と同様に、第2及び第3の近景オブジェクトは、移動量Dsだけ奥行き方向に移動して表示されている。また、第1の近景オブジェクトは、仮想空間上を、移動量Dsの奥行き方向の移動に加えて、通常表示されるべき位置から左右方向の移動量D4だけ左右方向に移動して配置されているため、仮想カメラ120の撮像範囲から外れている。したがって、第1の近景オブジェクトは、表示部111の表示領域からは外れて、実際には表示部111には表示されなくなる。   FIG. 13 is a diagram in which an image obtained by capturing the virtual space 1010 by the virtual camera 120 is displayed on the display unit 111 after the above arrangement is performed. According to this, since the display mode is the third person mode, the player object 121 is also displayed on the display unit 111. As in the first embodiment, the second and third foreground objects are displayed by moving in the depth direction by the movement amount Ds. Further, the first foreground object is arranged on the virtual space by moving in the left-right direction by the movement amount D4 in the left-right direction from the position to be normally displayed in addition to the movement in the depth direction of the movement amount Ds. Therefore, it is out of the imaging range of the virtual camera 120. Therefore, the first foreground object is out of the display area of the display unit 111 and is not actually displayed on the display unit 111.

以上より、表示モードが三人称モードであっても、第1の実施形態の一人称モードの場合と同様に、奥行き方向の移動量として算出された移動量Dsに対応した移動量D4で左右方向にさらに第1の近景オブジェクトを移動させることができる。また、この移動量も、仮想カメラ120からの距離に応じて、距離が短くなればなるほど、左右方向の移動量が増大することができる。したがって、プレイヤが表示部111を見ながらドラッグ操作を行い、仮想空間を手前方向C2に移動させようとしたときに、実際のオブジェクトの移動量よりも左右方向にダイナミックに移動するので、プレイヤオブジェクトの移動により臨場感を持たせることが可能となる。   As described above, even when the display mode is the third person mode, as in the first person mode of the first embodiment, the movement amount D4 corresponding to the movement amount Ds calculated as the movement amount in the depth direction is further increased in the left-right direction. The first foreground object can be moved. Also, the amount of movement in the left-right direction can be increased as the distance becomes shorter according to the distance from the virtual camera 120. Therefore, when the player performs a drag operation while looking at the display unit 111 and attempts to move the virtual space in the front direction C2, the player object moves dynamically in the left-right direction rather than the actual object movement amount. It becomes possible to give a sense of reality by moving.

また、本実施形態でも、第1の実施形態と同様に、三次元仮想空間内に配置する各近景オブジェクトを二次元オブジェクトで構成した。したがって、仮想カメラ120から仮想的に撮像した画像を表示部111に表示する際に、制御部による処理量を削減することが可能である。また、本実施形態においては、表示する画像データを随時サーバー装置200から受信する場合があるが、このような場合でも情報量を減らすことができるのでより迅速な処理が可能となる。   Also in this embodiment, each foreground object placed in the three-dimensional virtual space is configured with a two-dimensional object, as in the first embodiment. Therefore, when an image virtually captured from the virtual camera 120 is displayed on the display unit 111, it is possible to reduce the amount of processing performed by the control unit. In the present embodiment, image data to be displayed may be received from the server device 200 as needed, but even in such a case, the amount of information can be reduced, so that quicker processing is possible.

<第3の実施形態>
第3の実施形態に係るゲームシステム2000では、第1の実施形態に係るゲームシステム1と同様に、端末装置100とサーバー装置200とから構成される。また、端末装置100の具体的な構成も第1の実施形態と同様である。そして、仮想空間10に配置される近景オブジェクト(オブジェクト141〜146)が第1の実施形態では左右方向に沿って配置されていたのに対し、本実施形態は、仮想空間2010に配置される近景オブジェクトが所定角度手前方向に傾斜して配置されている点で相違する。
<Third Embodiment>
In the game system 2000 according to the third embodiment, the terminal device 100 and the server device 200 are configured similarly to the game system 1 according to the first embodiment. Further, the specific configuration of the terminal device 100 is the same as that of the first embodiment. The foreground objects (objects 141 to 146) arranged in the virtual space 10 are arranged along the left-right direction in the first embodiment, whereas the foreground objects arranged in the virtual space 2010 are arranged in the present embodiment. The difference is that the object is arranged to be inclined in the forward direction by a predetermined angle.

図14は、本開示の第3の実施形態に係る仮想空間2010における近景オブジェクトの配置を概念的に示す図である。具体的には、図14を参照すると、所定のオブジェクトが配置された仮想空間2010に対して、当該仮想空間の所定の範囲を仮想的に撮像するための仮想カメラ120が仮想的に設置されている。そして、仮想空間1010内には、仮想カメラ120に近い方から、オブジェクト141及び142の第1の近景オブジェクトが、次にオブジェクト143及び144の第2の近景オブジェクトが、次にオブジェクト145及び146の第3の近景オブジェクトが配置されている。そして、仮想カメラ120から奥行き方向C1で最も遠方の位置に遠景オブジェクト130が配置されている。つまり、第1〜第3の近景オブジェクトは、第1及び第2の実施形態と同様に、それぞれ層状に配置されている。   FIG. 14 is a diagram conceptually illustrating the arrangement of foreground objects in the virtual space 2010 according to the third embodiment of the present disclosure. Specifically, referring to FIG. 14, a virtual camera 120 for virtually capturing a predetermined range of the virtual space is virtually installed in the virtual space 2010 in which the predetermined object is arranged. Yes. In the virtual space 1010, the first foreground object of the objects 141 and 142, the second foreground object of the objects 143 and 144, and then the objects 145 and 146 of the objects 145 and 146 from the side closer to the virtual camera 120 are displayed. A third foreground object is arranged. A distant view object 130 is arranged at a position farthest away from the virtual camera 120 in the depth direction C1. That is, the first to third foreground objects are arranged in layers as in the first and second embodiments.

このとき、各近景オブジェクト(オブジェクト141〜146)は、仮想空間2010を上方から見た場合において、奥行き方向に対して直交する方向、すなわち左右方向に対して手前方向に所定の角度θで傾斜して配置されている。   At this time, each of the foreground objects (objects 141 to 146) is inclined at a predetermined angle θ in the direction orthogonal to the depth direction, that is, the front direction with respect to the left-right direction when the virtual space 2010 is viewed from above. Are arranged.

図15は、本開示の第3の実施形態に係る仮想空間2010における近景オブジェクトの移動を概念的に示す図である。具体的には、図15は、第1の実施形態と同様に表示部111の手前方向に距離Dtのドラッグ操作を検出した場合における、近景オブジェクト140の移動処理について説明するものである。   FIG. 15 is a diagram conceptually illustrating movement of a foreground object in the virtual space 2010 according to the third embodiment of the present disclosure. Specifically, FIG. 15 illustrates the movement process of the foreground object 140 when a drag operation of the distance Dt is detected in the forward direction of the display unit 111 as in the first embodiment.

本実施形態においては、上記のとおり、近景オブジェクト140が仮想空間2010を上方から見た場合において、奥行き方向に対して直交する方向、すなわち左右方向に対して手前方向に所定の角度θで傾斜して配置されている。したがって、その移動方向も、表示部111の手前方向のドラッグ操作を検出すると、奥行き方向に対して直交する方向、すなわち左右方向に対して手前方向に所定の角度θで傾斜して移動する。   In the present embodiment, as described above, when the foreground object 140 is viewed from above the virtual space 2010, the foreground object 140 is inclined at a predetermined angle θ in the direction perpendicular to the depth direction, that is, the front side with respect to the left-right direction. Are arranged. Therefore, when the drag operation in the front direction of the display unit 111 is detected, the movement direction is also inclined at a predetermined angle θ in the direction orthogonal to the depth direction, that is, the front direction with respect to the left-right direction.

図16は、本開示の第3の実施形態に係る仮想空間2010における近景オブジェクトの移動を概念的に示す図である。具体的には、図16は、仮想空間2010において、近景オブジェクト(オブジェクト141〜146)が、表示部111の手前方向に距離Dtのドラッグ操作を検出した場合に移動する方向を示した図である。   FIG. 16 is a diagram conceptually illustrating the movement of the foreground object in the virtual space 2010 according to the third embodiment of the present disclosure. Specifically, FIG. 16 is a diagram illustrating a direction in which the foreground object (objects 141 to 146) moves in the virtual space 2010 when a drag operation with a distance Dt is detected in the forward direction of the display unit 111. .

図16によると、各オブジェクト141〜146は、左右方向に対して手前方向に所定の角度θで傾斜して配置されている。したがって、第2及び第3の近景オブジェクト(オブジェクト143〜146)は、ぞれぞれ、その傾斜を維持したまま、奥行き方向に移動量Dsだけ移動している。   According to FIG. 16, the objects 141 to 146 are arranged to be inclined at a predetermined angle θ in the front direction with respect to the left-right direction. Accordingly, the second and third foreground objects (objects 143 to 146) are moved by the movement amount Ds in the depth direction while maintaining the inclination thereof.

また、第1の近景オブジェクトは、移動量Dsの奥行き方向の移動に加え、左右方向に対して手前方向に所定の角度θで傾斜した方向に、移動量D4だけ移動する。なお、各オブジェクトの各移動量については、第1及び第2の実施形態の算出処理と同様に算出される。   In addition to the movement in the depth direction of the movement amount Ds, the first foreground object moves by the movement amount D4 in a direction inclined at a predetermined angle θ with respect to the left-right direction. Note that each movement amount of each object is calculated in the same manner as the calculation processing of the first and second embodiments.

したがって、第1の実施形態と同様に、奥行き方向の移動量として算出された移動量Dsに対応した移動量D4で、左右方向に対して手前方向に所定の角度θで傾斜した方向に第1の近景オブジェクトを移動させることができる。また、この移動量も、仮想カメラ120からの距離に応じて、距離が短くなればなるほど、左右方向の移動量が増大することができる。したがって、プレイヤが表示部111を見ながらドラッグ操作を行い、仮想空間を手前方向C2に移動させようとしたときに、実際のオブジェクトの移動量よりも左右方向にダイナミックに移動するので、プレイヤオブジェクトの移動により臨場感を持たせることが可能となる。   Therefore, similarly to the first embodiment, the first movement is performed in a direction inclined at a predetermined angle θ in the forward direction with respect to the left-right direction with the movement amount D4 corresponding to the movement amount Ds calculated as the movement amount in the depth direction. The foreground object can be moved. Also, the amount of movement in the left-right direction can be increased as the distance becomes shorter according to the distance from the virtual camera 120. Therefore, when the player performs a drag operation while looking at the display unit 111 and attempts to move the virtual space in the front direction C2, the player object moves dynamically in the left-right direction rather than the actual object movement amount. It becomes possible to give a sense of reality by moving.

また、本実施形態でも、第1の実施形態と同様に、三次元仮想空間内に配置する各近景オブジェクトを二次元オブジェクトで構成した。したがって、仮想カメラ120から仮想的に撮像した画像を表示部111に表示する際に、制御部による処理量を削減することが可能である。また、本実施形態においては、表示する画像データを随時サーバー装置200から受信する場合があるが、このような場合でも情報量を減らすことができるのでより迅速な処理が可能となる。   Also in this embodiment, each foreground object placed in the three-dimensional virtual space is configured with a two-dimensional object, as in the first embodiment. Therefore, when an image virtually captured from the virtual camera 120 is displayed on the display unit 111, it is possible to reduce the amount of processing performed by the control unit. In the present embodiment, image data to be displayed may be received from the server device 200 as needed, but even in such a case, the amount of information can be reduced, so that quicker processing is possible.

さらに、本実施形態においては、各近景オブジェクトを左右方向に対して所定の角度θだけ手前方向に傾斜させて移動させている。したがって、より現実空間で様々な物体が前方から後方に過ぎ去っていく際の様子を、よりリアルに表現することが可能となる。   Further, in the present embodiment, each foreground object is moved while being tilted forward by a predetermined angle θ with respect to the left-right direction. Therefore, it is possible to more realistically represent the state in which various objects pass away from the front to the rear in the real space.

<その他の実施形態>
第1〜第3の実施形態では、第1の近景オブジェクトのみが左右方向、または左右方向に対して所定の角度θだけ手前方向に傾斜した方向に、移動量D4だけ移動する場合について説明した。しかし、図17に示すとおり、第2及び第3の近景オブジェクトについても、第1の近景オブジェクトと同様に、左右方向、または左右方向に対して所定の角度θだけ手前方向に傾斜した方向に、移動量D5又は移動量D6だけ移動させることも可能である。なお、第1〜第3の実施形態では、移動量D4は「奥行き方向Ds×所定の係数」によって演算していたが、図17に係る場合には、上記に加えて、さらに各層ごと(つまり、第1〜第3の近景オブジェクトごと)に設定された別の係数をかけ合わせることによって算出する。
<Other embodiments>
In the first to third embodiments, the case has been described in which only the first foreground object moves by the movement amount D4 in the left-right direction or a direction inclined forward by a predetermined angle θ with respect to the left-right direction. However, as shown in FIG. 17, for the second and third foreground objects, as in the case of the first foreground object, in the left-right direction or a direction inclined forward by a predetermined angle θ with respect to the left-right direction, It is also possible to move by the movement amount D5 or the movement amount D6. In the first to third embodiments, the movement amount D4 is calculated by “depth direction Ds × predetermined coefficient”. However, in the case of FIG. 17, in addition to the above, for each layer (that is, , For each of the first to third foreground objects) and multiplying by another coefficient.

一例としては、下記のとおりである。
・第1の近景オブジェクト:奥行き方向Ds×所定の係数×1.0(別の係数)
・第2の近景オブジェクト:奥行き方向Ds×所定の係数×0.2(別の係数)
・第3の近景オブジェクト:奥行き方向Ds×所定の係数×0.1(別の係数)
An example is as follows.
First foreground object: depth direction Ds × predetermined coefficient × 1.0 (another coefficient)
Second foreground object: depth direction Ds × predetermined coefficient × 0.2 (another coefficient)
Third foreground object: depth direction Ds × predetermined coefficient × 0.1 (another coefficient)

つまり、仮想カメラ120からの距離が遠い層(近景オブジェクト)ほど左右方向の移動量を小さくし、仮想カメラ120からの距離が近い層(近景オブジェクト)ほど左右方向の移動量を大きくする。このようにすることで、仮想カメラ120からの距離が近い近景オブジェクト(つまりは、より手前に表示される近景オブジェクト)ほど、よりダイナミックに左右方向に移動して表示させることが可能となる。   That is, the amount of movement in the left-right direction decreases as the layer (near view object) far from the virtual camera 120 increases, and the amount of movement in the left-right direction increases as the layer (near view object) nears the distance from the virtual camera 120. By doing in this way, it becomes possible to move and display the foreground object closer to the virtual camera 120 (that is, the foreground object displayed in the foreground) more dynamically in the left-right direction.

また、第1〜第3の実施形態では、タッチパネル116−1で表示部111の手前方向に距離Dtのドラッグ操作を検出した場合にその距離Dtに応じて近景オブジェクトが所定の移動量及び方向で移動する場合について説明した。しかし、タッチパネル116−1によるドラッグ操作の検出に代えて、ハードキー116−2などの他の操作部116によって検出したプレイヤの指示入力に基づいて処理することも可能である。例えば、ハードキー116−2の押下時間に応じて近景オブジェクトを所定の移動量及び方向で移動させることが可能である。   In the first to third embodiments, when a drag operation of the distance Dt is detected in the forward direction of the display unit 111 on the touch panel 116-1, the foreground object is moved with a predetermined movement amount and direction according to the distance Dt. The case of moving was explained. However, instead of detecting the drag operation using the touch panel 116-1, it is also possible to perform processing based on an instruction input from the player detected by another operation unit 116 such as the hard key 116-2. For example, it is possible to move the foreground object by a predetermined movement amount and direction according to the pressing time of the hard key 116-2.

また、第1〜第3の実施形態では、タッチパネル116−1で表示部111の手前方向に距離Dtのドラッグ操作を検出した場合にその距離Dtに応じて近景オブジェクトが所定の移動量及び方向で移動する場合について説明した。しかし、これに加えて、近景オブジェクトが左右方向に移動させられるのに追従して、表示部111に表示される近景オブジェクト(オブジェクト141〜146)の透過率を変えることも可能である。例えば、左右方向への移動量がないときには0%の透過率で、左右方向への移動量が増大するほど透過率も同様に増大させることが可能である。   In the first to third embodiments, when a drag operation of the distance Dt is detected in the forward direction of the display unit 111 on the touch panel 116-1, the foreground object is moved with a predetermined movement amount and direction according to the distance Dt. The case of moving was explained. However, in addition to this, it is also possible to change the transmittance of the foreground objects (objects 141 to 146) displayed on the display unit 111 following the movement of the foreground object in the left-right direction. For example, when there is no movement amount in the left-right direction, the transmittance can be 0%, and the transmittance can be increased as the movement amount in the left-right direction increases.

また、第1〜第3の実施形態では、近景オブジェクトの種別に関係なく、一律に移動量Dsに応じた移動量だけ左右方向に近景オブジェクトが移動されることを説明した。しかし、各オブジェクトごとに各オブジェクトの種別(建物、車両、木など)を示す属性情報が記憶されているような場合には、これら種別ごとに左右方向への移動量を変動させても良い。すなわち、建物の場合には、「移動量Ds×係数0.2」にさらに別の係数(例えば、1.0)をかけ合わせて、木の場合には「移動量Ds×係数0.2」にさらに別の係数(例えば、0.7)を掛け合わせて、建物の方がより速く表示部111の左右方向に流れるように表示させることが可能である。   In the first to third embodiments, it has been described that the foreground object is moved in the left-right direction uniformly by the movement amount according to the movement amount Ds regardless of the type of the foreground object. However, when attribute information indicating the type (building, vehicle, tree, etc.) of each object is stored for each object, the amount of movement in the left-right direction may be varied for each type. That is, in the case of a building, “movement amount Ds × coefficient 0.2” is multiplied by another coefficient (for example, 1.0), and in the case of a tree, “movement amount Ds × coefficient 0.2”. Can be multiplied by another coefficient (for example, 0.7) to display the building so that it flows faster in the left-right direction of the display unit 111.

また、第1〜第3の実施形態では、仮想空間において仮想カメラ120が固定されており、各オブジェクト141〜146が仮想カメラ120の方向に移動してくる例について説明した。しかし、各オブジェクト141〜146の奥行き方向の位置は固定し、仮想カメラ120を奥行き方向に移動させることも可能である。いずれにしても、本開示においては、仮想カメラ120と各オブジェクト141〜146との間の相対的な位置の変化量が算出できれば十分である。   In the first to third embodiments, the example in which the virtual camera 120 is fixed in the virtual space and the objects 141 to 146 move in the direction of the virtual camera 120 has been described. However, the positions of the objects 141 to 146 in the depth direction can be fixed, and the virtual camera 120 can be moved in the depth direction. In any case, in the present disclosure, it is sufficient if the relative change amount of the position between the virtual camera 120 and each of the objects 141 to 146 can be calculated.

また、第1〜第3実施形態では、表示部111の手前方向にドラッグ操作をする例についてのみ説明した。しかし、当然任意の方向にドラッグ操作をすることも可能である。なお、仮想空間内の奥行き方向の移動については、ドラッグ操作が手前方向か上方向かのいずれかによって制御される。仮に上方向になされた場合には、手前方向になされた場合とは逆の方向に各オブジェクト141〜146が移動するように制御すればよい。   In the first to third embodiments, only the example in which the drag operation is performed in the front direction of the display unit 111 has been described. However, it is naturally possible to perform a drag operation in an arbitrary direction. Note that the movement in the depth direction in the virtual space is controlled by either the forward direction or the upward direction of the drag operation. If it is made upward, the objects 141 to 146 may be controlled to move in the direction opposite to the case where it is made forward.

また、第1〜第3の実施形態及びその他の実施形態で本開示に係るゲームシステムについて説明したが、第1〜第3の各実施形態及びその他の実施形態で説明した各要素を適宜組み合わせるか、それらを置き換えてゲームシステムを構成することも可能である。   Moreover, although the game system according to the present disclosure has been described in the first to third embodiments and other embodiments, each element described in the first to third embodiments and other embodiments may be appropriately combined. It is also possible to configure a game system by replacing them.

本明細書で説明される処理及び手順は、実施形態において明示的に説明されたものによってのみならず、ソフトウェア、ハードウェア又はこれらの組み合わせによっても実現可能である。具体的には、本明細書で説明された処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク、光ストレージ等の媒体に、当該処理に相当するロジックを実装することによって実現される。また、本明細書で説明される処理及び手順は、それらの処理・手順をコンピュータプログラムとして実装し、端末装置やサーバー装置を含む各種のコンピュータに実行させることが可能である。   The processes and procedures described in this specification can be realized not only by those explicitly described in the embodiment but also by software, hardware, or a combination thereof. Specifically, the processes and procedures described in this specification are realized by mounting logic corresponding to the processes on a medium such as an integrated circuit, a volatile memory, a nonvolatile memory, a magnetic disk, or an optical storage. Is done. Further, the processes and procedures described in the present specification can be implemented as a computer program and executed by various computers including a terminal device and a server device.

本明細書中で説明される処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理又は手順は、複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は、複数のモジュールによって実行されるものとすることができる。また、本明細書中で説明される各種情報が単一のメモリ部や記憶部に格納される旨説明されたとしても、そのような情報は、単一の装置に備えられた複数のメモリ部又は複数の装置に分散して配置された複数のメモリ部に分散して格納されるものとすることができる。さらに、本明細書において説明されるソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、又は、より多い構成要素に分解することによって実現されるものとすることができる。   Even though the processes and procedures described herein are described as being performed by a single device, software, component, or module, such processes or procedures may include multiple devices, multiple software, It may be executed by multiple components and / or multiple modules. Further, even if it is described that various types of information described in this specification are stored in a single memory unit or storage unit, such information is stored in a plurality of memory units provided in a single device. Alternatively, it can be distributed and stored in a plurality of memory units that are distributed in a plurality of devices. Further, the software and hardware elements described herein may be realized by integrating them into fewer components or by disassembling them into more components.

100 端末装置
200 サーバー装置
300 ネットワーク
10 仮想空間
100 terminal device 200 server device 300 network 10 virtual space

Claims (7)

少なくとも一つの背景オブジェクトがそれぞれ所定の位置座標に配置された仮想空間内の仮想カメラで撮像した仮想空間画像を所定の表示部に表示する端末装置であって、
プレイヤにより入力された、前記背景オブジェクトの前記仮想空間内の前記位置座標を奥行き方向に移動させるための指示入力を検出する操作部と、
前記操作部で検出した前記指示入力により前記背景オブジェクトの位置座標を奥行き方向に移動させることによって、前記仮想カメラと前記背景オブジェクトとの仮想空間内の奥行き方向における距離を変化させるとともに、前記背景オブジェクトの仮想空間内における位置座標を前記距離に対応した移動量で奥行き方向とは異なる方向に移動し、前記移動後の位置座標に配置された前記背景オブジェクトを含む仮想空間を前記仮想カメラで撮像して表示するよう制御する制御部と、
を含み、
前記仮想空間内における位置座標の前記移動量は、前記距離が短くなるほど増加する、端末装置。
A terminal device that displays a virtual space image captured by a virtual camera in a virtual space in which at least one background object is arranged at a predetermined position coordinate on a predetermined display unit,
An operation unit for detecting is further input to the player, an instruction input for moving the position coordinates of the virtual space of the background object in the depth direction,
By moving more position coordinates of the background object in the depth direction on the instruction input detected by the operation unit, along with changing the distance in the depth direction of the virtual space and said virtual camera and said background object, the background The position coordinates in the virtual space of the object are moved in a direction different from the depth direction by a movement amount corresponding to the distance, and the virtual space including the background object arranged at the position coordinates after the movement is imaged by the virtual camera. a control unit for controlling so as to to display,
Only including,
The terminal device , wherein the movement amount of the position coordinates in the virtual space increases as the distance decreases .
前記奥行き方向とは異なる方向は、前記仮想空間を上方から見た場合において前記奥行き方向と直交する方向か、又は前記直交する方向に対して手前方向に所定の角度で傾斜した方向である、請求項に記載の端末装置。 The direction different from the depth direction is a direction orthogonal to the depth direction when the virtual space is viewed from above, or a direction inclined at a predetermined angle in the front direction with respect to the orthogonal direction. Item 2. The terminal device according to Item 1 . 前記操作部は指示体の接触した座標を検出するタッチパネルを含み、
前記制御部は、前記タッチパネルに接触したまま前記指示体を移動させたときの接触座標の変化量に基づいて前記距離を変化させる、請求項1又は2に記載の端末装置。
The operation unit includes a touch panel for detecting coordinates touched by an indicator,
Wherein, based on a change amount of the contact coordinates when moving the pointer remains in contact with the touch panel to change the said distance, the terminal apparatus according to claim 1 or 2.
前記制御部は、背景オブジェクトを前記移動量に対応した透過率で表示するよう制御する、請求項1〜のいずれか一項に記載の端末装置。 The control unit controls to display the background object in transmission ratio corresponding to the amount of movement, terminal device according to any one of claims 1-3. 前記背景オブジェクトは、前記指示入力に基づいて前記仮想カメラとの間の仮想空間内における距離が変化する近景オブジェクトと、前記仮想カメラとの間の仮想空間内の奥行き方向における距離が一定に固定された遠景オブジェクトとを含む、請求項1〜のいずれか一項に記載の端末装置。 In the background object, the distance in the depth direction in the virtual space between the foreground object and the virtual camera in which the distance in the virtual space between the virtual camera and the virtual camera changes based on the instruction input is fixed. and and a distant object, the terminal device according to any one of claims 1-4. 少なくとも一つの背景オブジェクトがそれぞれ所定の位置座標に配置された仮想空間内の仮想カメラで撮像した仮想空間画像を所定の表示部に表示するとともに、プレイヤにより入力された、前記背景オブジェクトの前記仮想空間内の前記位置座標を奥行き方向に移動させるための指示入力を検出する操作部を含むコンピュータを、
前記操作部で検出した前記指示入力により前記背景オブジェクトの位置座標を奥行き方向に移動させることによって、前記仮想カメラと前記背景オブジェクトとの仮想空間内の奥行き方向における距離を変化させるとともに、前記背景オブジェクトの仮想空間内における位置座標を前記距離に対応した移動量で奥行き方向とは異なる方向に移動し、前記移動後の位置座標に配置された前記背景オブジェクトを含む仮想空間を前記仮想カメラで撮像して表示するよう制御する制御部、
として機能させるプログラムであって、
前記仮想空間内における位置座標の前記移動量は、前記距離が短くなるほど増加する、プログラム。
With at least one background object displays a virtual space image captured by the virtual camera in the virtual space, which is disposed in a predetermined position coordinates each predetermined display unit, which is more input into the player, the virtual of the background object A computer including an operation unit for detecting an instruction input for moving the position coordinates in space in the depth direction ;
Wherein by moving in the depth direction more position coordinates of the background object in said instruction input detected by the operation unit, changing the distance in the depth direction of the virtual space and said virtual camera and said background object Rutotomoni, wherein A position coordinate of the background object in the virtual space is moved in a direction different from the depth direction by a movement amount corresponding to the distance, and a virtual space including the background object arranged at the position coordinate after the movement is moved by the virtual camera. A control unit that controls to capture and display,
A program that functions as
A program in which the amount of movement of position coordinates in the virtual space increases as the distance decreases .
少なくとも一つの背景オブジェクトがそれぞれ所定の位置座標に配置された仮想空間内の仮想カメラで撮像した仮想空間画像を表示部に表示する段階と、
プレイヤにより入力された、前記背景オブジェクトの前記仮想空間内の前記位置座標を奥行き方向に移動させるための指示入力を操作部において検出する段階と、
前記操作部で検出した前記指示入力により前記背景オブジェクトの位置座標を奥行き方向に移動させることによって前記仮想カメラと前記背景オブジェクトとの仮想空間内の奥行き方向における距離を変化させ、前記背景オブジェクトの仮想空間内における位置座標を前記距離に対応した移動量で奥行き方向とは異なる方向に移動し、前記移動後の位置座標に配置された前記背景オブジェクトを含む仮想空間を前記仮想カメラで撮像して表示するよう制御部が制御する段階と、
を含み、
前記仮想空間内における位置座標の前記移動量は、前記距離が短くなるほど増加する、方法。
Displaying a virtual space image captured by a virtual camera in a virtual space in which at least one background object is arranged at each predetermined position coordinate on the display unit;
And detecting are more input to the player, an instruction input for moving the position coordinates of the virtual space of the background object in the depth direction in the operation unit,
Distance changing a in the depth direction in the virtual space of the background object and the virtual camera by moving more position coordinates of the background object in the depth direction on the instruction input detected by the operation unit, of the background object The position coordinate in the virtual space is moved in a direction different from the depth direction by a movement amount corresponding to the distance, and the virtual space including the background object arranged at the position coordinate after the movement is imaged by the virtual camera. The control unit controls to display,
Only including,
The method , wherein the amount of movement of position coordinates in the virtual space increases as the distance decreases .
JP2015172019A 2015-09-01 2015-09-01 Terminal device Active JP5980393B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015172019A JP5980393B1 (en) 2015-09-01 2015-09-01 Terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015172019A JP5980393B1 (en) 2015-09-01 2015-09-01 Terminal device

Publications (2)

Publication Number Publication Date
JP5980393B1 true JP5980393B1 (en) 2016-08-31
JP2017046899A JP2017046899A (en) 2017-03-09

Family

ID=56820035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015172019A Active JP5980393B1 (en) 2015-09-01 2015-09-01 Terminal device

Country Status (1)

Country Link
JP (1) JP5980393B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7285996B1 (en) 2022-08-26 2023-06-02 エヌエイチエヌ コーポレーション Screen control method and program

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019003323A1 (en) * 2017-06-27 2019-01-03 サン電子株式会社 Game program
JP2019005564A (en) * 2018-06-06 2019-01-17 サン電子株式会社 Virtual reality program
JP7058198B2 (en) * 2018-08-21 2022-04-21 グリー株式会社 Image display system, image display method and image display program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284791A (en) * 2004-03-30 2005-10-13 Namco Ltd Program, information storage medium, and image generator

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284791A (en) * 2004-03-30 2005-10-13 Namco Ltd Program, information storage medium, and image generator

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7285996B1 (en) 2022-08-26 2023-06-02 エヌエイチエヌ コーポレーション Screen control method and program
JP2024031176A (en) * 2022-08-26 2024-03-07 エヌエイチエヌ コーポレーション Screen control method and program

Also Published As

Publication number Publication date
JP2017046899A (en) 2017-03-09

Similar Documents

Publication Publication Date Title
KR101882410B1 (en) Electronic System With Gesture Calibration Mechanism And Method Of Operation Thereof
KR102491443B1 (en) Display adaptation method and apparatus for application, device, and storage medium
JP6133972B2 (en) 3D graphic user interface
US10969949B2 (en) Information display device, information display method and information display program
US9612675B2 (en) Emulating pressure sensitivity on multi-touch devices
KR101732839B1 (en) Segmentation of content delivery
JP6877149B2 (en) Shooting position recommendation method, computer program and shooting position recommendation system
US10318152B2 (en) Modifying key size on a touch screen based on fingertip location
JP6013642B2 (en) Campaign optimization for experience content datasets
JP5980393B1 (en) Terminal device
US11154779B2 (en) Processing device, program, and method
KR20120125296A (en) Multi-layer user interface with flexible parallel and orthogonal movement
KR20120135232A (en) Multi-layer user interface with flexible parallel movement
CN103914258A (en) Mobile terminal and method for operating same
JP5986261B1 (en) System and method for providing an efficient interface for screen control
JP6360509B2 (en) Information processing program, information processing system, information processing method, and information processing apparatus
KR20140100547A (en) Full 3d interaction on mobile devices
CN113769375B (en) Game control processing method and device, terminal equipment and readable storage medium
JP2022521720A (en) Mini-program creation method, device, terminal and program
JP5260708B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP2024514771A (en) Method for adjusting the position of an operating control, its device, terminal, and computer program
US9665232B2 (en) Information-processing device, storage medium, information-processing method, and information-processing system for enlarging or reducing an image displayed on a display device
CN108491152B (en) Touch screen terminal control method, terminal and medium based on virtual cursor
JP5888793B2 (en) Object control program and object control method
JP5767371B1 (en) Game program for controlling display of objects placed on a virtual space plane

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160223

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160726

R150 Certificate of patent or registration of utility model

Ref document number: 5980393

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250