JP5980393B1 - Terminal device - Google Patents
Terminal device Download PDFInfo
- Publication number
- JP5980393B1 JP5980393B1 JP2015172019A JP2015172019A JP5980393B1 JP 5980393 B1 JP5980393 B1 JP 5980393B1 JP 2015172019 A JP2015172019 A JP 2015172019A JP 2015172019 A JP2015172019 A JP 2015172019A JP 5980393 B1 JP5980393 B1 JP 5980393B1
- Authority
- JP
- Japan
- Prior art keywords
- virtual space
- depth direction
- movement
- background object
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】仮想空間内のキャラクタオブジェクトの移動に臨場感を持たせることが可能な端末装置を提供する【解決手段】少なくとも一つの背景オブジェクトが配置された仮想空間内の仮想カメラで撮像した仮想空間画像を所定の表示部111に表示する端末装置100であって、プレイヤによる指示入力を検出する操作部116と、前記操作部116で検出した前記指示入力に基づいて、前記仮想カメラと前記背景オブジェクトとの仮想空間内の奥行き方向における距離を変化させるとともに、前記背景オブジェクトを前記距離に対応した移動量で奥行き方向とは異なる方向に移動して表示するよう制御する制御部112と、を含む端末装置100である。【選択図】図3A terminal device capable of giving a sense of reality to movement of a character object in a virtual space is provided. Virtual space captured by a virtual camera in a virtual space in which at least one background object is arranged A terminal device 100 that displays an image on a predetermined display unit 111, an operation unit 116 that detects an instruction input by a player, and the virtual camera and the background object based on the instruction input detected by the operation unit 116 And a control unit 112 for controlling the background object to move and display in a direction different from the depth direction with a movement amount corresponding to the distance, while changing the distance in the virtual space in the depth direction. Device 100. [Selection] Figure 3
Description
本開示は、所定の三次元仮想空間の画像を提供可能な端末装置に関する。 The present disclosure relates to a terminal device capable of providing an image of a predetermined three-dimensional virtual space.
従来より、三次元仮想空間内におけるキャラクタオブジェクトの移動に臨場感を持たせて表示することが可能な端末装置が知られている。例えば、特許文献1には、三次元仮想空間内を移動可能に設定されたキャラクタオブジェクトが、三次元仮想空間に配置された特定のオブジェクトの内部への出入りを、オブジェクトの表示濃度を変化させて表示することが可能な端末装置が記載されている。
2. Description of the Related Art Conventionally, there is known a terminal device that can display a movement of a character object in a three-dimensional virtual space with a sense of reality. For example,
そこで、上記のような技術を踏まえ、本開示では、様々な実施形態により、さらに仮想空間内のキャラクタオブジェクトの移動に臨場感を持たせることが可能な端末装置を提供する。 Accordingly, in light of the above-described technology, the present disclosure provides a terminal device that can give a sense of reality to the movement of a character object in a virtual space according to various embodiments.
本開示の一態様によれば、「少なくとも一つの背景オブジェクトが配置された仮想空間内の仮想カメラで撮像した仮想空間画像を所定の表示部に表示する端末装置であって、プレイヤによる指示入力を検出する操作部と、前記操作部で検出した前記指示入力に基づいて、前記仮想カメラと前記背景オブジェクトとの仮想空間内の奥行き方向における距離を変化させるとともに、前記背景オブジェクトを前記距離に対応した移動量で奥行き方向とは異なる方向に移動して表示するよう制御する制御部と、を含む端末装置」が提供される。 According to one aspect of the present disclosure, “a terminal device that displays a virtual space image captured by a virtual camera in a virtual space in which at least one background object is disposed on a predetermined display unit, and an instruction input by a player is input Based on the operation unit to be detected and the instruction input detected by the operation unit, the distance in the depth direction in the virtual space between the virtual camera and the background object is changed, and the background object corresponds to the distance And a control unit that controls to move and display in a direction different from the depth direction according to the amount of movement.
本開示の一態様によれば、「少なくとも一つの背景オブジェクトが配置された仮想空間内の仮想カメラで撮像した仮想空間画像を所定の表示部に表示するとともに、プレイヤによる指示入力を検出する操作部を含むコンピュータであって、前記コンピュータを、前記操作部で検出した前記指示入力に基づいて前記仮想カメラと前記背景オブジェクトとの仮想空間内の奥行き方向における距離を変化させ、前記背景オブジェクトを前記距離に対応した移動量で奥行き方向とは異なる方向に移動して表示するよう制御する制御部、として機能させるプログラム」が提供される。 According to one aspect of the present disclosure, “an operation unit that displays a virtual space image captured by a virtual camera in a virtual space in which at least one background object is arranged on a predetermined display unit and detects an instruction input by a player” The computer changes the distance in the depth direction in the virtual space between the virtual camera and the background object based on the instruction input detected by the operation unit, and moves the background object to the distance. A program that functions as a control unit that controls to move and display in a direction different from the depth direction with a movement amount corresponding to “is provided.
本開示の一態様によれば、「少なくとも一つの背景オブジェクトが配置された仮想空間内の仮想カメラで撮像した仮想空間画像を表示部に表示する段階と、プレイヤによる指示入力を操作部において検出する段階と、前記操作部で検出した前記指示入力に基づいて前記仮想カメラと前記背景オブジェクトとの仮想空間内の奥行き方向における距離を変化させ、前記背景オブジェクトを前記距離に対応した移動量で奥行き方向とは異なる方向に移動して表示するよう制御部が制御する段階と、を含む方法」が提供される。 According to one aspect of the present disclosure, “a step of displaying a virtual space image captured by a virtual camera in a virtual space in which at least one background object is arranged on the display unit, and an instruction input by the player is detected in the operation unit. And changing the distance in the depth direction in the virtual space between the virtual camera and the background object based on the instruction input detected by the operation unit, and moving the background object in the depth direction with a movement amount corresponding to the distance And a control unit that controls the display to move and display in a different direction.
本開示の様々な実施形態によれば、さらに仮想空間内のキャラクタオブジェクトの移動に臨場感を持たせることが可能な端末装置を提供することができる。 According to various embodiments of the present disclosure, it is possible to provide a terminal device that can give a sense of reality to the movement of the character object in the virtual space.
なお、上記効果は説明の便宜のための例示的なものであるにすぎず、限定的なものではない。上記効果に加えて、または上記効果に代えて、本開示中に記載されたいかなる効果や当業者であれば明らかな効果を奏することも可能である。 In addition, the said effect is only an illustration for the convenience of description, and is not restrictive. In addition to the above effect or instead of the above effect, any effect described in the present disclosure or an effect apparent to those skilled in the art can be achieved.
添付図面を参照して本開示の様々な実施形態を説明する。なお、図面における共通する構成要素には同一の参照符号が付されている。 Various embodiments of the present disclosure will be described with reference to the accompanying drawings. In addition, the same referential mark is attached | subjected to the common component in drawing.
<本開示に係るゲームシステムのゲームアプリケーションの概要>
本開示の様々な実施形態に係るゲームシステムにおいて実行されるゲームアプリケーションの一例としては、所定の仮想空間内をプレイヤの分身として配置されたプレイヤオブジェクトが移動するシーンを含むゲームアプリケーションが考えられる。
<Outline of game application of game system according to present disclosure>
As an example of a game application executed in a game system according to various embodiments of the present disclosure, a game application including a scene in which a player object arranged as a player's alternation in a predetermined virtual space moves is conceivable.
図1は、本開示の様々な実施形態に係る端末装置100に表示される画面の例である。この例では、端末装置100の表示部111に、仮想空間10内の所定の視点(たとえば、仮想カメラ)から見たシーンを再現した画像を表示する。具体的には、仮想空間10内に配置された近景オブジェクト140と、遠景オブジェクト130が表示部111に表示されている。そして、プレイヤはタッチパネル116−1又はハードキー116−2等の操作部116を介して指示入力を行い、仮想空間10内を移動する。例えば、タッチパネル116−1上で画面下方向に指示体をドラッグ操作することで、近景オブジェクト140が仮想カメラに対して互いに近づくように表示される。
FIG. 1 is an example of a screen displayed on the
なお、本開示においては、仮想空間10内に配置された仮想カメラをプレイヤオブジェクトの視点と一致させて、当該仮想カメラから仮想空間10内を仮想的に撮像した画像を表示するモードを「一人称モード」という。すなわち、当該一人称モードにおいては、表示部111にプレイヤオブジェクトそのものは実際には表示されない。一方、仮想空間10内を撮像する仮想カメラから奥行き方向に離れた位置にプレイヤオブジェクトを配置して、当該プレイヤオブジェクトを含むように仮想空間10内を仮想的に撮像した画像を表示するモードを「三人称モード」という。すなわち、当該三人称モードにおいては、表示部111にプレイヤオブジェクトも他のオブジェクトと一緒に表示されている。
In the present disclosure, a mode in which a virtual camera arranged in the
また、本開示においては、背景オブジェクトには、近景オブジェクト140と遠景オブジェクト130が含まれる。当該近景オブジェクト140は、プレイヤからの指示入力に追従して仮想カメラとの距離が変化する背景オブジェクトのことである。このような近景オブジェクト140は、仮想カメラと遠景オブジェクト130との間に配置される。典型的には、仮想空間10内に配置される建物、木、車両等のオブジェクトである。一方、遠景オブジェクト130は、プレイヤからの指示入力に関わらず、仮想カメラとの距離がほぼ一定に固定された背景オブジェクトのことである。このような遠景オブジェクト130は、仮想カメラから見て仮想空間内の最も遠方に配置される。典型的には、山や雲、空等のオブジェクトである。
In the present disclosure, the background objects include the
また、本開示においては、主に所定のゲームアプリケーションを端末装置で行うためのゲームシステムについて説明するが、本発明の適用可能なシステムはゲームシステムに限られない。仮想空間内を所定のキャラクタオブジェクトが移動するシーンの表示を伴うアプリケーションを実行するためのシステムであればいずれでもよい。 Further, in the present disclosure, a game system for mainly executing a predetermined game application on a terminal device will be described, but a system to which the present invention can be applied is not limited to a game system. Any system may be used as long as it is an application for executing an application involving display of a scene in which a predetermined character object moves in the virtual space.
<第1の実施形態>
1.本開示の第1の実施形態に係るゲームシステム1の構成
図2は、本開示の第1の実施形態に係るゲームシステム1の構成を概略的に示す概念図である。図2を参照すると、ゲームシステム1は、端末装置100と、端末装置100とネットワーク300を通じて通信可能に接続されたサーバー装置200とから構成される。なお、端末装置は、場合によっては、複数の端末装置をゲームシステム1に加えて、互いに連携してゲームアプリケーションを実行することも可能である。
<First Embodiment>
1. Configuration of
ゲームシステム1においては、端末装置100内に記憶されたゲームプログラムを実行することによってゲームアプリケーションに係る処理が実施される。
このとき、端末装置100は、ゲームアプリケーションの進行に応じて、随時サーバー装置200にアクセスして、ゲームアプリケーションの進行に必要なユーザ情報やゲーム進捗情報、各パラメータ情報に加え、仮想空間10を形成するのに必要な画像データをダウンロードする。
In the
At this time, the
2.端末装置100の構成
図3は、本開示の第1の実施形態に係る端末装置100の構成の例を示すブロック図である。図3を参照すると、端末装置100は、表示部111、制御部112、無線通信処理部113とアンテナ114とから構成される無線通信部、記憶部115、操作部116を含む。
2. Configuration of
このような端末装置100の例としては、例えばスマートフォン、携帯型ゲーム機、フィーチャーフォン、携帯情報端末、PDA、ラップトップパソコンなどに代表される無線通信可能な携帯型の端末装置を挙げることが可能である。また、デスクトップパソコン、スタンドアローン型のゲーム機なども挙げることが可能である。すなわち、端末装置100は、様々な種類の端末装置を利用可能である。また、図3に挙げた端末装置100の各要素は一例であって、適用する端末装置の種類に応じて、いくつかの要素を省略することも可能であるし、他の要素と置き換えることが可能である。例えば、端末装置100は表示部111が端末装置内に設けられているが、表示部111は端末装置100の外部に配置し、当該表示部111と情報通信可能に接続された端末装置であっても良い。
As an example of such a
表示部111は、制御部112の指示入力に応じて、記憶部115に記憶された画像データを読み出して、本実施形態におけるゲームアプリケーションに関する各種表示を行う。表示部111は、例えば液晶ディスプレイから構成される。
The
制御部112は、CPU、DSP、ASICなどのプロセッサから構成され、記憶部115に記憶されたプログラムを読み出すことによって、接続された他の構成要素を制御し、各種処理を実行する。また、制御部112は、単一プロセッサで構成することもできるし、複数のプロセッサを組み合わせて構成することもできる。また、制御部112は、例えば画像処理など、特定の処理に最適化されたプロセッサを組み合わせて構成し、処理を分散させることも可能である。
The
制御部112は、距離検知部112−1、移動量算出部112−2、移動制御部112−3、表示制御部112−4を含む。距離検知部112−1は、プレイヤの指示体による指示入力(接触)がなされたタッチパネル116−1上の座標情報をタッチパネル116−1から受信して、当該指示体をタッチパネル116−1に接触したまま移動させた距離、すなわち接触位置座標の変化量を検知する。
The
移動量算出部112−2は、距離検知部112−1で検知された指示体の接触位置座標の変化量に基づいて、仮想空間10内に配置されている背景オブジェクト(例えば、近景オブジェクト)の移動量を算出する。具体的には、指示体の接触位置の変化量に基づいて、背景オブジェクトの奥行き方向の移動量を算出する。また、背景オブジェクトの奥行き方向の移動量に応じて、背景オブジェクトを表示部111に対してほぼ水平な方向に移動させる左右方向の移動量を算出する。
The movement amount calculation unit 112-2 is based on the change amount of the contact position coordinates of the indicator detected by the distance detection unit 112-1, and the background object (for example, foreground object) arranged in the
移動制御部112−3は、移動量算出部112−2で算出された背景オブジェクトの奥行き方向における移動量と、仮想空間10を上方から見たときに奥行き方向に直交する方向、すなわち表示部111の左右方向の移動量に基づいて、仮想空間10内に配置された背景オブジェクトを移動させる。
The movement control unit 112-3 has a movement amount in the depth direction of the background object calculated by the movement amount calculation unit 112-2 and a direction orthogonal to the depth direction when the
表示制御部112−4は、移動制御部112−3によって移動された背景オブジェクトを含む仮想空間10を仮想カメラによって仮想的に撮像した画像を表示部111に表示することを制御する。
The display control unit 112-4 controls the
制御部112は、第1の実施形態に係るゲームアプリケーションの実行において必要な各要素の制御を、当該ゲームアプリケーションを実行するためのプログラムに基づいて実施する。
The
無線通信処理部113は、アンテナ114とともに無線通信部を構成する。無線通信処理部113は、遠隔に設置されたサーバー装置200や他の端末装置との間で情報の送受信をする。具体的には、無線通信処理部113は、本実施形態に係るゲームアプリケーションの実行において必要なユーザ情報やゲーム進捗情報、各パラメータ情報に加え、仮想空間10を形成するのに必要な画像データ等の変調や復調などの処理を行い、アンテナ114を介して送受信する。無線通信処理部113は、W−CDMA(Wideband−Code Division Multiple Access)方式やLTE方式に代表されるような広帯域の無線通信方式に基づいて処理されるが、IEEE802.11に代表されるような無線LANやBluetooth(登録商標)のような狭帯域の無線通信に関する方式に基づいて処理することも可能である。また、無線通信部は、当然公知の有線接続を利用した有線通信部と組み合わせて、または置き換えることも可能である。
The wireless
記憶部115は、例えば、RAMまたはROMなどの半導体メモリ、HDDなどの磁気ディスク、光磁気ディスク、光ディスクなどの記憶装置、フラッシュメモリ、リムーバブルメディアなどを適宜組み合わせて構成される。記憶部115には、本実施形態に係るゲームアプリケーションを実行するためのプログラムや、プログラムを実行するためのユーザ情報、ゲーム進捗情報、各パラメータ情報、仮想空間10を形成するのに必要な画像データ等が記憶されている。また、制御部112において、各オブジェクトの移動量等を算出するためのパラメータ、係数、テーブル等が適宜記憶されている。
The
操作部116は、タッチパネル116−1や各種ハードキー116−2等を含む。操作部116は、ユーザから各種指示や入力を受け付け、検出された信号を制御部112に送信する。そして、当該信号は本実施形態におけるゲームアプリケーションに関する各種処理に利用される。タッチパネル116−1は、表示部111を被覆するように配置され、表示部111の表示する画像データに対応して、指示体により指示入力(接触)された位置座標の情報を制御部112に出力する。タッチパネル方式としては、抵抗膜方式、静電容量結合方式、超音波表面弾性波方式など、公知の方式を利用することができる。また、指示体としては、指やスタイラスペンなど公知のものを利用することができる。
The
3.制御部112による制御フロー
図4は、本開示の第1の実施形態に係る端末装置100において実行される制御フローを示す図である。当該制御フローは、制御部112、特に距離検知部112−1、移動量算出部112−2、移動制御部112−3、表示制御部112−4が、適宜記憶部115、操作部116などの他の要素と協同して、本実施形態に係るゲームアプリケーションの実行のためのプログラムに基づいて処理される。
3. Control Flow by
ここで、図5は、本開示の第1の実施形態に係るゲームシステム1において設定される仮想空間10の例である。図6は、本開示の第1の実施形態に係る端末装置100の表示部111に表示される画面の例である。図4の制御フローは、図5に示す仮想空間10において仮想カメラ120によって仮想的に撮像された画像を表示部111に表示させた状態で(図6)、プレイヤの指示体による指示入力を検知した場合に実行される。
Here, FIG. 5 is an example of the
図5を参照すると、所定のオブジェクトが配置された仮想空間10に対して、当該仮想空間の所定の範囲を仮想的に撮像するための仮想カメラ120が仮想的に設置されている。そして、仮想空間10内には、仮想カメラ120に近い方から、オブジェクト141及び142の第1の近景オブジェクトが、次にオブジェクト143及び144の第2の近景オブジェクトが、次にオブジェクト145及び146の第3の近景オブジェクトが配置されている。仮想空間10は仮想三次元空間として構成されているが、本実施形態では、各オブジェクト141〜146は二次元のオブジェクトとして配置されており、第1〜第3の近景オブジェクトはそれぞれが層状に重なり合うように配置されている。そして、仮想カメラ120から奥行き方向C1で最も遠方の位置に遠景オブジェクト130が配置されている。
Referring to FIG. 5, a
なお、本実施形態においては、奥行き方向C1とは、仮想空間10を上方から見た場合に、仮想カメラ120と遠景オブジェクト130とを結ぶ線分において、遠景オブジェクト130に向かう方向のことをいう。そして、手前方向C2とは、同線分において、仮想カメラ120に向かう方向のことをいう。また、本実施形態においては、左方向C3とは、仮想カメラ120で仮想空間10を仮想的に撮像した画像を表示部111に表示させたときに、表示部111に向かって左側になる方向のことをいう。そして、右方向C4とは、同画像を表示部111に表示させたときに、表示部111に向かって右側になる方向のことをいう。すなわち、奥行き方向C1及び手前方向C2に対して、左方向C3及び右方向C4は直交する方向となっている。
In the present embodiment, the depth direction C1 refers to a direction toward the
また、本開示では、奥行き方向C1及び手前方向C2への各近景オブジェクトの移動の際は、「奥行き方向C1」や「手前方向C2」と特段の記載をしない限り、それらをまとめて「奥行き方向の移動」という。さらに、左方向C3及び右方向C4への各近景オブジェクトの移動の際は、「左方向C3」や「右方向C4」と特段の記載をしない限り、それらをまとめて「左右方向の移動」という。 In addition, in the present disclosure, when moving each foreground object in the depth direction C1 and the front direction C2, unless otherwise specified as “depth direction C1” or “front direction C2,” they are collectively referred to as the “depth direction”. It is called "movement". Further, when moving the foreground objects in the left direction C3 and the right direction C4, they are collectively referred to as “left-right movement” unless otherwise described as “left direction C3” or “right direction C4”. .
図6を参照すると、図5に示された仮想空間10の所定範囲を仮想カメラ120で撮像した画像が表示部111に表示されている。仮想空間10に配置された各オブジェクト141〜146が、それぞれ仮想カメラ120からの視点で表示部111に画像オブジェクトとして表示されている。この際、第1〜第3の近景オブジェクトは、それぞれ層状に重なるように仮想空間10に配置されているので、最も手前方向に配置された第1の近景オブジェクト(オブジェクト141及び142)は全体が視認可能に表示されているが、第2及び第3の近景オブジェクト(オブジェクト143〜146)は、第1及び/又は第2の近景オブジェクトに一部が重なって表示されている。また、第1〜第3の近景オブジェクトのさらに背後に遠景オブジェクト130が表示されている。
Referring to FIG. 6, an image obtained by capturing the predetermined range of the
表示部111において図6に示すとおり表示されているときに、プレイヤの指示体によるタッチパネル116−1への指示入力(接触)を検知することで、表示部111に表示する仮想空間を移動する。具体的には、指示体による座標S0から座標S1までの移動がなされたとき(すなわち、ドラッグ操作)の指示体の接触座標位置の変化量(距離Dt)を検出することで、第1〜第3の近景オブジェクトに含まれる各オブジェクトを所定の移動量で仮想空間10内を移動させる。なお、本実施形態においては、奥行き方向については第1〜第3の近景オブジェクトの全てについて所定の移動量で移動させるが、左右方向については最も仮想カメラ120側に位置する第1の近景オブジェクトのみ移動させる。
When displayed as shown in FIG. 6 on the
図4に戻り、図5及び図6で示される場合において、タッチパネル116−1でプレイヤの指示体による指示入力(接触)を検知し、制御部112の距離検知部112−1は検知した位置座標をタッチパネル116−1から受信する(S101)。そして、距離検知部112−1は、所定周期でタッチパネル116−1から位置座標を受信し、受信した位置座標の変化量を検知する。そして、検知した変化量が所定の変化量を越えた場合には(S102)、距離検知部112−1はドラッグ操作がなされたと判断する(S103)。なお、当該変化量が所定の変化量未満である場合には、ドラッグ操作がなされてはいないので、本処理を終了する(S102)。
Returning to FIG. 4, in the case shown in FIGS. 5 and 6, the touch panel 116-1 detects an instruction input (contact) by the player's indicator, and the distance detection unit 112-1 of the
S103においてドラッグ操作と判断された場合、距離検知部112−1は、S102で検知した指示体の接触位置の変化量を移動量算出部112−2に提供する。図6の例においては、座標S0から現在の接触点である座標S1にかけて、距離Dtのドラッグ操作がなされている。したがって、距離検知部112−1は、距離Dtを変化量として、移動量算出部112−2に提供する。そして、その提供を受けた移動量算出部112−2は、当該変化量に基づいて、第1〜第3の近景オブジェクトの仮想空間10内の奥行き方向における移動量を算出する(S104)。当該移動量は、指示体の接触位置の変化量に追従するようになっていればよく、第1〜第3の近景オブジェクトのいずれにも等しい移動量が割り当てられる。
When it is determined that the drag operation is performed in S103, the distance detection unit 112-1 provides the movement amount calculation unit 112-2 with the change amount of the contact position of the indicator detected in S102. In the example of FIG. 6, a drag operation of a distance Dt is performed from the coordinate S0 to the coordinate S1 that is the current contact point. Therefore, the distance detection unit 112-1 provides the distance calculation unit 112-2 with the distance Dt as a change amount. Then, the movement amount calculation unit 112-2 that receives the provision calculates the movement amount in the depth direction of the first to third foreground objects in the
次に、移動量算出部112−2は、距離検知部112−1から提供を受けた移動量に基づいて、第1の近景オブジェクトの仮想空間10内の左右方向における移動量を算出する(S105)。具体的には、移動量算出部112−2が指示体の接触位置の移動量から算出した第1の近景オブジェクトの奥行き方向の移動量に基づいて、仮想カメラ120と第1の近景オブジェクト間の距離が変化が、当該距離の変化に対応するように、第1の近景オブジェクトの左右方向の移動量は算出される。一例としては、第1の近景オブジェクトの左右方向の移動量は、
・奥行き方向の移動量がDs1で相対的に移動量が小さい(すなわち、仮想カメラ120と第1の近景オブジェクト間の距離が大きい)ときには、移動量Ds1に係数0.2をかけた量が、
・奥行き方向の移動量がDs2で相対的に移動量が大きい(すなわち、仮想カメラ120と第1の近景オブジェクト間の距離が小さい)ときには、移動量Ds2に係数0.6をかけた量が、
移動量算出部112−2によってそれぞれ算出される。なお、特に図示はしないが、当該係数は、奥行き方向の各移動量との対応関係を示すテーブルが記憶部115に記憶されており、当該テーブルを参照することによって決定される。
Next, the movement amount calculation unit 112-2 calculates the movement amount in the left-right direction of the first foreground object in the
When the movement amount in the depth direction is Ds 1 and the movement amount is relatively small (that is, the distance between the
When the movement amount in the depth direction is Ds 2 and the movement amount is relatively large (that is, the distance between the
It is calculated by the movement amount calculation unit 112-2. Although not particularly illustrated, the coefficient is determined by referring to the table, which stores a table indicating the correspondence relationship with each movement amount in the depth direction.
次に、移動量算出部112−2は、S104及びS105において算出された奥行き方向の移動量及び左右方向の移動量を移動制御部112−3に提供する。提供を受けた移動制御部112−3は、奥行き方向の移動量及び左右方向の移動量に基づいて、仮想空間10における第1の近景オブジェクトを構成するオブジェクト141及び142の新たな移動先の位置座標を決定する(S106)。
Next, the movement amount calculation unit 112-2 provides the movement control unit 112-3 with the movement amount in the depth direction and the movement amount in the left-right direction calculated in S104 and S105. The provided movement control unit 112-3, based on the movement amount in the depth direction and the movement amount in the left-right direction, positions of new movement destinations of the
移動制御部112−3は、各オブジェクト141及び142について決定した新たな移動先の位置座標に基づいて、仮想空間10内に各オブジェクトを再配置(移動)する(S107)。なお、このとき、仮想カメラ120の方向に第1〜第3の近景オブジェクトがそれぞれ近づいたことに伴い、最も遠方の第3の近景オブジェクトのさらに後方に空間が形成される。したがって、移動制御部112−3によって、当該空間に新たな近景オブジェクトが配置される。
The movement control unit 112-3 rearranges (moves) each object in the
そして、表示制御部112−4は、特に制御フロー内で詳細に説明はしないが、各オブジェクトが移動された新たな仮想空間10を仮想カメラ120で仮想的に撮像した画像を表示部111に表示するように制御する。
The display control unit 112-4 displays, on the
次に、距離検知部112−1は、タッチパネル116−1から指示体による接触の位置座標を再度受信したか否かを確認する。このとき新たに位置座標を受信していればさらにドラッグ操作が継続していると判断し、制御部112による処理は再びS102に戻る(S108)。一方、距離検知部112−1が新たに位置座標を受信していなければ、タッチパネルへの接触が終了(S108)、すなわちドラッグ操作が終了したと判断して(S109)、各オブジェクト141〜146の移動処理が終了する。
Next, the distance detection unit 112-1 confirms whether or not the position coordinates of the contact by the indicator have been received from the touch panel 116-1. At this time, if a new position coordinate is received, it is determined that the drag operation is continued, and the process by the
4.近景オブジェクトの移動処理について
図7及び図8は、本開示の第1の実施形態に係る仮想空間10における近景オブジェクトの移動を概念的に示す図である。具体的には、図7及び図8は、移動量算出部112−2において算出される奥行き方向の移動量と左右方向の移動量の算出処理を説明するための図である。
4). About Foreground Object Movement Processing FIGS. 7 and 8 are diagrams conceptually illustrating movement of a foreground object in the
図7を参照すると、仮想空間10に仮想カメラ120を起点として奥行き方向に距離D1だけ離れて第1の近景オブジェクト(オブジェクト141及び142)が、さらに長い距離である距離D2だけ離れて第2の近景オブジェクト(オブジェクト143及び144)が、さらに最も長い距離である距離D3だけ離れて第3の近景オブジェクト(オブジェクト145及び146)が配置されている。そして、図6で示すように、タッチパネル116−1によって、プレイヤの指示体により、表示部111の下方向に、座標S0から座標S1までのドラッグ操作(距離Dt)が検出されている。
Referring to FIG. 7, the first foreground object (
このような場合は、図7において示すように、第1〜第3の近景オブジェクトを構成する各オブジェクト141〜146の奥行き方向の移動量は、距離Dtにあらかじめ対応付けて設定された移動量Dsが算出される。また、表示部111の下方向へのドラッグ操作の場合には、あらかじめ仮想空間内を手前方向C2への移動が対応付けられているため、各オブジェクト141〜146の移動方向は手前方向C2が設定される。
In such a case, as shown in FIG. 7, the movement amount in the depth direction of each of the
すなわち、仮に奥行き方向の移動のみに着目した場合、各オブジェクト141〜146は、図7に示す位置から手前方向C2に移動量Dsだけそれぞれ移動して配置されることとなる。したがって、図8に示すとおり、仮想カメラ120から第1〜第3の近景オブジェクトまでの距離も移動量Ds分だけ近づいて、それぞれD1からD1’に、D2からD2’に、D3からD3’が設定される。
That is, if attention is paid only to the movement in the depth direction, each of the
次に、第1の近景オブジェクトの左右方向の移動については、第1の近景オブジェクトの奥行き方向の移動量Dsに基づいて左右方向の移動量D4が算出される。本実施形態では、第1の近景オブジェクトと仮想カメラ120との間の距離が遠くなるほど左右方向の移動量が少なく、距離が短くなるほど左右方向の移動量が大きくなるように移動量D4が算出される。一例としては、
・奥行き方向の移動量がDs1で相対的に移動量が小さい(すなわち、仮想カメラ120と第1の近景オブジェクト間の距離が大きい)ときには、「移動量Ds1×係数0.2」によって、
・奥行き方向の移動量がDs2で相対的に移動量が大きい(すなわち、仮想カメラ120と第1の近景オブジェクト間の距離が小さい)ときには、「移動量Ds2×係数0.6」によって、
それぞれ移動量D4が算出される。また、第1の近景オブジェクトに含まれるオブジェクト141及び142の移動方向は、仮想カメラ120を基準にして、仮想カメラ120から左側にあるオブジェクトは左方向C3に、仮想カメラ120から右側にあるオブジェクトは右方向C4に設定する。なお、当然、各オブジェクトごとに移動方向を予め設定してくことも可能である。
Next, for the movement of the first foreground object in the left-right direction, the movement amount D4 in the left-right direction is calculated based on the movement amount Ds in the depth direction of the first foreground object. In the present embodiment, the movement amount D4 is calculated so that the movement amount in the left-right direction decreases as the distance between the first foreground object and the
When the movement amount in the depth direction is Ds 1 and the movement amount is relatively small (that is, the distance between the
When the movement amount in the depth direction is Ds 2 and the movement amount is relatively large (that is, the distance between the
A movement amount D4 is calculated for each. The moving directions of the
すなわち、仮に左右方向の移動のみに着目した場合、図8に示すとおり、第1の近景オブジェクトのオブジェクト141及び142は破線で示された位置に通常であれば配置されるべきところ、算出された移動量D4による左右方向への移動に伴い、実線で示すオブジェクト141及び142の位置に配置されることになる。
In other words, if attention is paid only to the movement in the left-right direction, as shown in FIG. 8, the
なお、図7及び図8に示す近景オブジェクトの移動処理に伴い、第3オブジェクトより遠方でかつ遠景オブジェクト130との間には、新たに第4の近景オブジェクト(オブジェクト147及び148)が配置される。
As the foreground object moving process shown in FIGS. 7 and 8 is performed, a fourth foreground object (
図9は、本開示の第1の実施形態に係る端末装置100の表示部111における近景オブジェクトの移動を概念的に示す図である。具体的には、図9は、図9(a)に示された画像を表示している状態で、座標S0から座標S1までドラッグ操作がなされた場合に、図7及び図8で示す処理によって、各オブジェクトが仮想空間内を移動して配置される様子を示す。つまり、図9(b)は、座標S0から座標S1にドラッグ操作がなされている途中の画像を、図9(c)は、座標S0から座標S1にドラッグ操作がなされた後の画像を、表示部111に表示した際の例を示す。
FIG. 9 is a diagram conceptually illustrating movement of a foreground object on the
図9(b)によると、座標S0から座標S1にドラッグ操作がなされている途中(すなわち、距離Dt1のドラッグ操作が行われた状態)の仮想空間10を仮想カメラ120で撮像した画像が表示部111に表示されている。これによると、距離Dt1のドラッグ操作により、第2及び第3の近景オブジェクト(オブジェクト143〜146)は、それぞれ、移動量算出部112−2によって算出された奥行き方向の移動量Ds1だけ移動して表示されている。
According to FIG. 9 (b), the course of the drag operation from the coordinate S0 to the coordinate S1 is made (i.e., the drag operation of the distance Dt 1 is performed state) image display of the captured
一方、第1の近景オブジェクト(オブジェクト141及び142)は、奥行き方向の移動量Ds1に加えて、移動量算出部112−2によって算出された左右方向の移動量D41だけ左右方向に移動して表示されている。つまり、仮想カメラ120の右側に配置されたオブジェクト141は、通常であれば奥行き方向の移動量Ds1分だけ移動した位置に表示されていたところ、さらに右方向C4に移動量D41だけ移動して表示されている。また、仮想カメラ120の左側に配置されたオブジェクト142は、通常であれば奥行き方向の移動量Ds1分だけ移動した位置に表示されていたところ、さらに左方向C3に移動量D41だけ移動して表示されている。
On the other hand, the first near view objects (141 and 142), in addition to the movement amount Ds 1 in the depth direction, by the amount of movement D4 1 in the lateral direction calculated by the movement amount calculating section 112-2 moves in the lateral direction Is displayed. That is, the
なお、図9(b)においては、オブジェクト141及び142は、それぞれ仮想空間10内で左右方向に移動量D41だけ移動した位置に配置されるため、仮想カメラ120で撮像可能な領域から一部がはみ出した状態となる。したがって、図9(b)には、オブジェクト141及び142の全てを示しているが、オブジェクト141及び142の一部は、実際には、表示部111に表示されていない。
In the FIG. 9 (b), the
図9(c)には、さらに継続してドラッグ操作が行われ、結果的に座標S0から座標S1にドラッグ操作がなされた状態(すなわち、距離Dtのドラッグ操作が行われた状態)の仮想空間10を、仮想カメラ120で撮像した画像が表示部111に表示されている。これによると、距離Dtのドラッグ操作により、第2及び第3の近景オブジェクト(オブジェクト143〜146)は、それぞれ、移動量算出部112−2によって算出された奥行き方向の移動量Dsだけ移動して表示されている。
In FIG. 9C, a virtual space in a state where the drag operation is further continued and as a result, the drag operation is performed from the coordinates S0 to the coordinates S1 (that is, the drag operation of the distance Dt is performed). 10 is displayed on the
一方、第1の近景オブジェクト(オブジェクト141及び142)は、仮想空間10上で、奥行き方向の移動量Dsに加えて、移動量算出部112−2によって算出された左右方向の移動量D4だけ左右方向に移動した位置に配置される。つまり、仮想カメラ120の右側に配置されたオブジェクト141は、通常であれば奥行き方向の移動量Ds分だけ移動した位置に配置されていたところ、さらに右方向C4に移動量D4だけ移動して配置されている。また、仮想カメラ120の左側に配置されたオブジェクト142は、通常であれば奥行き方向の移動量Ds分だけ移動した位置に配置されていたところ、さらに左方向C3に移動量D4だけ移動して配置されている。そのため、図8に示した通り、オブジェクト141及び142は、仮想カメラ120の撮像可能な範囲から完全に外れることになる。これによって、図9(c)に示すとおり、オブジェクト141及び142は表示部111には実際には全く表示されなくなる。
On the other hand, the first foreground object (
なお、図8において説明したとおり、仮想空間10内に新たに第4の近景オブジェクト(オブジェクト147及び148)が配置されている。したがって、図9(c)を参照すると、第3の近景オブジェクト(オブジェクト145及び146)のさらに背後に第4の近景オブジェクト(オブジェクト147及び148)が表示されている。
As described with reference to FIG. 8, fourth foreground objects (
さらに、遠景オブジェクト130については、プレイヤからの指示入力に関わらず、仮想カメラ120との距離がほぼ一定に固定されている。したがって、遠景オブジェクト130は手前方向C2に移動することなく、常に最背面に表示されている。
Further, with respect to the
図10は、本開示の第1の実施形態に係る端末装置100の表示部111における第1の近景オブジェクトの移動を概念的に示す図である。具体的には、タッチパネル116−1によって検出されたプレイヤの指示体によるドラッグ操作と近景オブジェクトの移動をより詳しく説明するための図である。ここでは説明の便宜のためにオブジェクト142のみを記載している。
FIG. 10 is a diagram conceptually illustrating the movement of the first foreground object on the
プレイヤがタッチパネル116−1上で座標S0を始点として座標S1の地点まで距離Dtでドラッグ操作を行った場合、オブジェクト142は、図7及び図8に示すとおり、仮想空間10上を移動量Dsだけ手前方向C2に、移動量D4だけ左方向C3に移動して配置される。
When the player performs a drag operation at a distance Dt from the coordinate S0 as a starting point on the touch panel 116-1 to the point of the coordinate S1, the
本実施形態においては、実際にはタッチパネル116−1による接触位置の検知及び接触座標の送信は、数msごとに行われている。したがって、近景オブジェクトの処理自体もこの周期に準じて行われるので、ドラッグ操作が座標S0から座標S1に向けて行われたこと検知して一気にオブジェクト142がオブジェクト142−1の表示位置からオブジェクト142−3の表示位置に移動するわけではない。すなわち、座標S0から手前方向に連続的にドラッグ操作がなされるのに追従して、矢印151で示すように、オブジェクト142も徐々にオブジェクト142−1の表示位置から、オブジェクト142−2の表示位置を経て、オブジェクト142−3の表示位置に移動する。
In the present embodiment, the detection of the contact position and the transmission of the contact coordinates by the touch panel 116-1 are actually performed every few ms. Accordingly, since the processing of the foreground object itself is also performed according to this cycle, it is detected that the drag operation is performed from the coordinates S0 to the coordinates S1, and the
なお、本実施形態では、図9(c)においても説明したとおり、移動後のオブジェクト142は仮想カメラ120の撮像範囲から外れるので、距離Dtのドラッグ操作を行った場合には、表示部111にオブジェクト142は表示されなくなる。
In the present embodiment, as described with reference to FIG. 9C, the moved
以上、第1の実施形態においては、奥行き方向の移動量として算出された移動量Dsに対応した移動量D4で左右方向にさらに第1の近景オブジェクトを移動させている。また、この移動量も、仮想カメラ120からの距離に応じて、当該距離が短くなればなるほど、左右方向の移動量が増大するようになっている。したがって、プレイヤが表示部111を見ながらドラッグ操作を行い、仮想空間を手前方向C2に移動させようとしたときに、実際のオブジェクトの移動量よりも左右方向にダイナミックに移動するので、プレイヤオブジェクトの移動により臨場感を持たせることが可能となる。
As described above, in the first embodiment, the first foreground object is further moved in the left-right direction by the movement amount D4 corresponding to the movement amount Ds calculated as the movement amount in the depth direction. In addition, the amount of movement increases in the left-right direction as the distance becomes shorter in accordance with the distance from the
また、第1の実施形態においては、三次元仮想空間内に配置する各近景オブジェクトを二次元オブジェクトで構成した。したがって、仮想カメラ120から仮想的に撮像した画像を表示部111に表示する際に、制御部による処理量を削減することが可能である。また、本実施形態においては、表示する画像データを随時サーバー装置200から受信する場合があるが、このような場合でも情報量を減らすことができるのでより迅速な処理が可能となる。
Further, in the first embodiment, each foreground object placed in the three-dimensional virtual space is configured with a two-dimensional object. Therefore, when an image virtually captured from the
<第2の実施形態>
第2の実施形態に係るゲームシステム1000では、第1の実施形態に係るゲームシステム1と同様に、端末装置100とサーバー装置200とから構成される。また、端末装置100の具体的な構成も第1の実施形態と同様である。そして、端末装置100の表示部111に表示される画像の表示モードが、第1の実施形態では一人称モードであったのに対し、第2に実施形態においては三人称モードである点においてのみ相違する。以下、本実施形態に係る近景オブジェクトの移動処理について説明する。なお、本実施形態は、以上で説明する点を除いて第1の実施形態における構成、処理、手順と同様である。したがって、それらの事項の詳細な説明は省略する。
<Second Embodiment>
The
図11は、本開示の第2の実施形態に係るゲームシステム1000において設定される仮想空間1010の例である。図11を参照すると、所定のオブジェクトが配置された仮想空間1010に対して、当該仮想空間の所定の範囲を仮想的に撮像するための仮想カメラ120が仮想的に設置されている。そして、仮想空間1010内には、仮想カメラ120に近い方から、オブジェクト141及び142の第1の近景オブジェクトが、次にオブジェクト143及び144の第2の近景オブジェクトが、次にオブジェクト145及び146の第3の近景オブジェクトが配置されている。そして、仮想カメラ120から奥行き方向C1で最も遠方の位置に遠景オブジェクト130が配置されている。
FIG. 11 is an example of the
本実施形態においては、仮想カメラ120と第1の近景オブジェクト(オブジェクト141及び142)との間に、さらにプレイヤオブジェクト121が配置されている。
In the present embodiment, a
図12及び13は、本開示の第2の実施形態に係る端末装置100の表示部111に表示される画面の例である。具体的には、図12は、仮想空間1010を仮想カメラ120から仮想的に撮像した画像を表示部111に表示した図である。本実施形態においては、仮想空間1010内の仮想カメラ120と第1の近景オブジェクトとの間に、プレイヤオブジェクト121が配置されているので、表示部111でも第1の近景オブジェクト(オブジェクト141及び142)の手前側にプレイヤオブジェクト121が表示されている。
12 and 13 are examples of screens displayed on the
そして、図12では、図6に示す例と同様に、距離Dtのドラッグ操作がタッチパネル116−1上でプレイヤの指示体によってなされた場合を示している。当該ドラッグ操作によって、制御部112は、第1の実施形態で説明した手順に従って、各オブジェクト141〜146の奥行き方向の移動量と、第1の近景オブジェクト(オブジェクト141及び142)の左右方向の移動量を算出し、その算出した移動量で仮想空間1010内に各オブジェクトを配置させる。
12 shows a case where the drag operation of the distance Dt is performed by the player's indicator on the touch panel 116-1, as in the example shown in FIG. By the drag operation, the
図13は、上記配置が行われた後に、仮想カメラ120によって仮想空間1010を撮像した画像を表示部111に表示した図である。これによると、表示モードが三人称モードであるので、プレイヤオブジェクト121が表示部111上にも表示されている。そして、第1の実施形態と同様に、第2及び第3の近景オブジェクトは、移動量Dsだけ奥行き方向に移動して表示されている。また、第1の近景オブジェクトは、仮想空間上を、移動量Dsの奥行き方向の移動に加えて、通常表示されるべき位置から左右方向の移動量D4だけ左右方向に移動して配置されているため、仮想カメラ120の撮像範囲から外れている。したがって、第1の近景オブジェクトは、表示部111の表示領域からは外れて、実際には表示部111には表示されなくなる。
FIG. 13 is a diagram in which an image obtained by capturing the
以上より、表示モードが三人称モードであっても、第1の実施形態の一人称モードの場合と同様に、奥行き方向の移動量として算出された移動量Dsに対応した移動量D4で左右方向にさらに第1の近景オブジェクトを移動させることができる。また、この移動量も、仮想カメラ120からの距離に応じて、距離が短くなればなるほど、左右方向の移動量が増大することができる。したがって、プレイヤが表示部111を見ながらドラッグ操作を行い、仮想空間を手前方向C2に移動させようとしたときに、実際のオブジェクトの移動量よりも左右方向にダイナミックに移動するので、プレイヤオブジェクトの移動により臨場感を持たせることが可能となる。
As described above, even when the display mode is the third person mode, as in the first person mode of the first embodiment, the movement amount D4 corresponding to the movement amount Ds calculated as the movement amount in the depth direction is further increased in the left-right direction. The first foreground object can be moved. Also, the amount of movement in the left-right direction can be increased as the distance becomes shorter according to the distance from the
また、本実施形態でも、第1の実施形態と同様に、三次元仮想空間内に配置する各近景オブジェクトを二次元オブジェクトで構成した。したがって、仮想カメラ120から仮想的に撮像した画像を表示部111に表示する際に、制御部による処理量を削減することが可能である。また、本実施形態においては、表示する画像データを随時サーバー装置200から受信する場合があるが、このような場合でも情報量を減らすことができるのでより迅速な処理が可能となる。
Also in this embodiment, each foreground object placed in the three-dimensional virtual space is configured with a two-dimensional object, as in the first embodiment. Therefore, when an image virtually captured from the
<第3の実施形態>
第3の実施形態に係るゲームシステム2000では、第1の実施形態に係るゲームシステム1と同様に、端末装置100とサーバー装置200とから構成される。また、端末装置100の具体的な構成も第1の実施形態と同様である。そして、仮想空間10に配置される近景オブジェクト(オブジェクト141〜146)が第1の実施形態では左右方向に沿って配置されていたのに対し、本実施形態は、仮想空間2010に配置される近景オブジェクトが所定角度手前方向に傾斜して配置されている点で相違する。
<Third Embodiment>
In the game system 2000 according to the third embodiment, the
図14は、本開示の第3の実施形態に係る仮想空間2010における近景オブジェクトの配置を概念的に示す図である。具体的には、図14を参照すると、所定のオブジェクトが配置された仮想空間2010に対して、当該仮想空間の所定の範囲を仮想的に撮像するための仮想カメラ120が仮想的に設置されている。そして、仮想空間1010内には、仮想カメラ120に近い方から、オブジェクト141及び142の第1の近景オブジェクトが、次にオブジェクト143及び144の第2の近景オブジェクトが、次にオブジェクト145及び146の第3の近景オブジェクトが配置されている。そして、仮想カメラ120から奥行き方向C1で最も遠方の位置に遠景オブジェクト130が配置されている。つまり、第1〜第3の近景オブジェクトは、第1及び第2の実施形態と同様に、それぞれ層状に配置されている。
FIG. 14 is a diagram conceptually illustrating the arrangement of foreground objects in the
このとき、各近景オブジェクト(オブジェクト141〜146)は、仮想空間2010を上方から見た場合において、奥行き方向に対して直交する方向、すなわち左右方向に対して手前方向に所定の角度θで傾斜して配置されている。
At this time, each of the foreground objects (
図15は、本開示の第3の実施形態に係る仮想空間2010における近景オブジェクトの移動を概念的に示す図である。具体的には、図15は、第1の実施形態と同様に表示部111の手前方向に距離Dtのドラッグ操作を検出した場合における、近景オブジェクト140の移動処理について説明するものである。
FIG. 15 is a diagram conceptually illustrating movement of a foreground object in the
本実施形態においては、上記のとおり、近景オブジェクト140が仮想空間2010を上方から見た場合において、奥行き方向に対して直交する方向、すなわち左右方向に対して手前方向に所定の角度θで傾斜して配置されている。したがって、その移動方向も、表示部111の手前方向のドラッグ操作を検出すると、奥行き方向に対して直交する方向、すなわち左右方向に対して手前方向に所定の角度θで傾斜して移動する。
In the present embodiment, as described above, when the
図16は、本開示の第3の実施形態に係る仮想空間2010における近景オブジェクトの移動を概念的に示す図である。具体的には、図16は、仮想空間2010において、近景オブジェクト(オブジェクト141〜146)が、表示部111の手前方向に距離Dtのドラッグ操作を検出した場合に移動する方向を示した図である。
FIG. 16 is a diagram conceptually illustrating the movement of the foreground object in the
図16によると、各オブジェクト141〜146は、左右方向に対して手前方向に所定の角度θで傾斜して配置されている。したがって、第2及び第3の近景オブジェクト(オブジェクト143〜146)は、ぞれぞれ、その傾斜を維持したまま、奥行き方向に移動量Dsだけ移動している。
According to FIG. 16, the
また、第1の近景オブジェクトは、移動量Dsの奥行き方向の移動に加え、左右方向に対して手前方向に所定の角度θで傾斜した方向に、移動量D4だけ移動する。なお、各オブジェクトの各移動量については、第1及び第2の実施形態の算出処理と同様に算出される。 In addition to the movement in the depth direction of the movement amount Ds, the first foreground object moves by the movement amount D4 in a direction inclined at a predetermined angle θ with respect to the left-right direction. Note that each movement amount of each object is calculated in the same manner as the calculation processing of the first and second embodiments.
したがって、第1の実施形態と同様に、奥行き方向の移動量として算出された移動量Dsに対応した移動量D4で、左右方向に対して手前方向に所定の角度θで傾斜した方向に第1の近景オブジェクトを移動させることができる。また、この移動量も、仮想カメラ120からの距離に応じて、距離が短くなればなるほど、左右方向の移動量が増大することができる。したがって、プレイヤが表示部111を見ながらドラッグ操作を行い、仮想空間を手前方向C2に移動させようとしたときに、実際のオブジェクトの移動量よりも左右方向にダイナミックに移動するので、プレイヤオブジェクトの移動により臨場感を持たせることが可能となる。
Therefore, similarly to the first embodiment, the first movement is performed in a direction inclined at a predetermined angle θ in the forward direction with respect to the left-right direction with the movement amount D4 corresponding to the movement amount Ds calculated as the movement amount in the depth direction. The foreground object can be moved. Also, the amount of movement in the left-right direction can be increased as the distance becomes shorter according to the distance from the
また、本実施形態でも、第1の実施形態と同様に、三次元仮想空間内に配置する各近景オブジェクトを二次元オブジェクトで構成した。したがって、仮想カメラ120から仮想的に撮像した画像を表示部111に表示する際に、制御部による処理量を削減することが可能である。また、本実施形態においては、表示する画像データを随時サーバー装置200から受信する場合があるが、このような場合でも情報量を減らすことができるのでより迅速な処理が可能となる。
Also in this embodiment, each foreground object placed in the three-dimensional virtual space is configured with a two-dimensional object, as in the first embodiment. Therefore, when an image virtually captured from the
さらに、本実施形態においては、各近景オブジェクトを左右方向に対して所定の角度θだけ手前方向に傾斜させて移動させている。したがって、より現実空間で様々な物体が前方から後方に過ぎ去っていく際の様子を、よりリアルに表現することが可能となる。 Further, in the present embodiment, each foreground object is moved while being tilted forward by a predetermined angle θ with respect to the left-right direction. Therefore, it is possible to more realistically represent the state in which various objects pass away from the front to the rear in the real space.
<その他の実施形態>
第1〜第3の実施形態では、第1の近景オブジェクトのみが左右方向、または左右方向に対して所定の角度θだけ手前方向に傾斜した方向に、移動量D4だけ移動する場合について説明した。しかし、図17に示すとおり、第2及び第3の近景オブジェクトについても、第1の近景オブジェクトと同様に、左右方向、または左右方向に対して所定の角度θだけ手前方向に傾斜した方向に、移動量D5又は移動量D6だけ移動させることも可能である。なお、第1〜第3の実施形態では、移動量D4は「奥行き方向Ds×所定の係数」によって演算していたが、図17に係る場合には、上記に加えて、さらに各層ごと(つまり、第1〜第3の近景オブジェクトごと)に設定された別の係数をかけ合わせることによって算出する。
<Other embodiments>
In the first to third embodiments, the case has been described in which only the first foreground object moves by the movement amount D4 in the left-right direction or a direction inclined forward by a predetermined angle θ with respect to the left-right direction. However, as shown in FIG. 17, for the second and third foreground objects, as in the case of the first foreground object, in the left-right direction or a direction inclined forward by a predetermined angle θ with respect to the left-right direction, It is also possible to move by the movement amount D5 or the movement amount D6. In the first to third embodiments, the movement amount D4 is calculated by “depth direction Ds × predetermined coefficient”. However, in the case of FIG. 17, in addition to the above, for each layer (that is, , For each of the first to third foreground objects) and multiplying by another coefficient.
一例としては、下記のとおりである。
・第1の近景オブジェクト:奥行き方向Ds×所定の係数×1.0(別の係数)
・第2の近景オブジェクト:奥行き方向Ds×所定の係数×0.2(別の係数)
・第3の近景オブジェクト:奥行き方向Ds×所定の係数×0.1(別の係数)
An example is as follows.
First foreground object: depth direction Ds × predetermined coefficient × 1.0 (another coefficient)
Second foreground object: depth direction Ds × predetermined coefficient × 0.2 (another coefficient)
Third foreground object: depth direction Ds × predetermined coefficient × 0.1 (another coefficient)
つまり、仮想カメラ120からの距離が遠い層(近景オブジェクト)ほど左右方向の移動量を小さくし、仮想カメラ120からの距離が近い層(近景オブジェクト)ほど左右方向の移動量を大きくする。このようにすることで、仮想カメラ120からの距離が近い近景オブジェクト(つまりは、より手前に表示される近景オブジェクト)ほど、よりダイナミックに左右方向に移動して表示させることが可能となる。
That is, the amount of movement in the left-right direction decreases as the layer (near view object) far from the
また、第1〜第3の実施形態では、タッチパネル116−1で表示部111の手前方向に距離Dtのドラッグ操作を検出した場合にその距離Dtに応じて近景オブジェクトが所定の移動量及び方向で移動する場合について説明した。しかし、タッチパネル116−1によるドラッグ操作の検出に代えて、ハードキー116−2などの他の操作部116によって検出したプレイヤの指示入力に基づいて処理することも可能である。例えば、ハードキー116−2の押下時間に応じて近景オブジェクトを所定の移動量及び方向で移動させることが可能である。
In the first to third embodiments, when a drag operation of the distance Dt is detected in the forward direction of the
また、第1〜第3の実施形態では、タッチパネル116−1で表示部111の手前方向に距離Dtのドラッグ操作を検出した場合にその距離Dtに応じて近景オブジェクトが所定の移動量及び方向で移動する場合について説明した。しかし、これに加えて、近景オブジェクトが左右方向に移動させられるのに追従して、表示部111に表示される近景オブジェクト(オブジェクト141〜146)の透過率を変えることも可能である。例えば、左右方向への移動量がないときには0%の透過率で、左右方向への移動量が増大するほど透過率も同様に増大させることが可能である。
In the first to third embodiments, when a drag operation of the distance Dt is detected in the forward direction of the
また、第1〜第3の実施形態では、近景オブジェクトの種別に関係なく、一律に移動量Dsに応じた移動量だけ左右方向に近景オブジェクトが移動されることを説明した。しかし、各オブジェクトごとに各オブジェクトの種別(建物、車両、木など)を示す属性情報が記憶されているような場合には、これら種別ごとに左右方向への移動量を変動させても良い。すなわち、建物の場合には、「移動量Ds×係数0.2」にさらに別の係数(例えば、1.0)をかけ合わせて、木の場合には「移動量Ds×係数0.2」にさらに別の係数(例えば、0.7)を掛け合わせて、建物の方がより速く表示部111の左右方向に流れるように表示させることが可能である。
In the first to third embodiments, it has been described that the foreground object is moved in the left-right direction uniformly by the movement amount according to the movement amount Ds regardless of the type of the foreground object. However, when attribute information indicating the type (building, vehicle, tree, etc.) of each object is stored for each object, the amount of movement in the left-right direction may be varied for each type. That is, in the case of a building, “movement amount Ds × coefficient 0.2” is multiplied by another coefficient (for example, 1.0), and in the case of a tree, “movement amount Ds × coefficient 0.2”. Can be multiplied by another coefficient (for example, 0.7) to display the building so that it flows faster in the left-right direction of the
また、第1〜第3の実施形態では、仮想空間において仮想カメラ120が固定されており、各オブジェクト141〜146が仮想カメラ120の方向に移動してくる例について説明した。しかし、各オブジェクト141〜146の奥行き方向の位置は固定し、仮想カメラ120を奥行き方向に移動させることも可能である。いずれにしても、本開示においては、仮想カメラ120と各オブジェクト141〜146との間の相対的な位置の変化量が算出できれば十分である。
In the first to third embodiments, the example in which the
また、第1〜第3実施形態では、表示部111の手前方向にドラッグ操作をする例についてのみ説明した。しかし、当然任意の方向にドラッグ操作をすることも可能である。なお、仮想空間内の奥行き方向の移動については、ドラッグ操作が手前方向か上方向かのいずれかによって制御される。仮に上方向になされた場合には、手前方向になされた場合とは逆の方向に各オブジェクト141〜146が移動するように制御すればよい。
In the first to third embodiments, only the example in which the drag operation is performed in the front direction of the
また、第1〜第3の実施形態及びその他の実施形態で本開示に係るゲームシステムについて説明したが、第1〜第3の各実施形態及びその他の実施形態で説明した各要素を適宜組み合わせるか、それらを置き換えてゲームシステムを構成することも可能である。 Moreover, although the game system according to the present disclosure has been described in the first to third embodiments and other embodiments, each element described in the first to third embodiments and other embodiments may be appropriately combined. It is also possible to configure a game system by replacing them.
本明細書で説明される処理及び手順は、実施形態において明示的に説明されたものによってのみならず、ソフトウェア、ハードウェア又はこれらの組み合わせによっても実現可能である。具体的には、本明細書で説明された処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク、光ストレージ等の媒体に、当該処理に相当するロジックを実装することによって実現される。また、本明細書で説明される処理及び手順は、それらの処理・手順をコンピュータプログラムとして実装し、端末装置やサーバー装置を含む各種のコンピュータに実行させることが可能である。 The processes and procedures described in this specification can be realized not only by those explicitly described in the embodiment but also by software, hardware, or a combination thereof. Specifically, the processes and procedures described in this specification are realized by mounting logic corresponding to the processes on a medium such as an integrated circuit, a volatile memory, a nonvolatile memory, a magnetic disk, or an optical storage. Is done. Further, the processes and procedures described in the present specification can be implemented as a computer program and executed by various computers including a terminal device and a server device.
本明細書中で説明される処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理又は手順は、複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は、複数のモジュールによって実行されるものとすることができる。また、本明細書中で説明される各種情報が単一のメモリ部や記憶部に格納される旨説明されたとしても、そのような情報は、単一の装置に備えられた複数のメモリ部又は複数の装置に分散して配置された複数のメモリ部に分散して格納されるものとすることができる。さらに、本明細書において説明されるソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、又は、より多い構成要素に分解することによって実現されるものとすることができる。 Even though the processes and procedures described herein are described as being performed by a single device, software, component, or module, such processes or procedures may include multiple devices, multiple software, It may be executed by multiple components and / or multiple modules. Further, even if it is described that various types of information described in this specification are stored in a single memory unit or storage unit, such information is stored in a plurality of memory units provided in a single device. Alternatively, it can be distributed and stored in a plurality of memory units that are distributed in a plurality of devices. Further, the software and hardware elements described herein may be realized by integrating them into fewer components or by disassembling them into more components.
100 端末装置
200 サーバー装置
300 ネットワーク
10 仮想空間
100
Claims (7)
プレイヤにより入力された、前記背景オブジェクトの前記仮想空間内の前記位置座標を奥行き方向に移動させるための指示入力を検出する操作部と、
前記操作部で検出した前記指示入力により前記背景オブジェクトの位置座標を奥行き方向に移動させることによって、前記仮想カメラと前記背景オブジェクトとの仮想空間内の奥行き方向における距離を変化させるとともに、前記背景オブジェクトの仮想空間内における位置座標を前記距離に対応した移動量で奥行き方向とは異なる方向に移動し、前記移動後の位置座標に配置された前記背景オブジェクトを含む仮想空間を前記仮想カメラで撮像して表示するよう制御する制御部と、
を含み、
前記仮想空間内における位置座標の前記移動量は、前記距離が短くなるほど増加する、端末装置。 A terminal device that displays a virtual space image captured by a virtual camera in a virtual space in which at least one background object is arranged at a predetermined position coordinate on a predetermined display unit,
An operation unit for detecting is further input to the player, an instruction input for moving the position coordinates of the virtual space of the background object in the depth direction,
By moving more position coordinates of the background object in the depth direction on the instruction input detected by the operation unit, along with changing the distance in the depth direction of the virtual space and said virtual camera and said background object, the background The position coordinates in the virtual space of the object are moved in a direction different from the depth direction by a movement amount corresponding to the distance, and the virtual space including the background object arranged at the position coordinates after the movement is imaged by the virtual camera. a control unit for controlling so as to to display,
Only including,
The terminal device , wherein the movement amount of the position coordinates in the virtual space increases as the distance decreases .
前記制御部は、前記タッチパネルに接触したまま前記指示体を移動させたときの接触座標の変化量に基づいて前記距離を変化させる、請求項1又は2に記載の端末装置。 The operation unit includes a touch panel for detecting coordinates touched by an indicator,
Wherein, based on a change amount of the contact coordinates when moving the pointer remains in contact with the touch panel to change the said distance, the terminal apparatus according to claim 1 or 2.
前記操作部で検出した前記指示入力により前記背景オブジェクトの位置座標を奥行き方向に移動させることによって、前記仮想カメラと前記背景オブジェクトとの仮想空間内の奥行き方向における距離を変化させるとともに、前記背景オブジェクトの仮想空間内における位置座標を前記距離に対応した移動量で奥行き方向とは異なる方向に移動し、前記移動後の位置座標に配置された前記背景オブジェクトを含む仮想空間を前記仮想カメラで撮像して表示するよう制御する制御部、
として機能させるプログラムであって、
前記仮想空間内における位置座標の前記移動量は、前記距離が短くなるほど増加する、プログラム。 With at least one background object displays a virtual space image captured by the virtual camera in the virtual space, which is disposed in a predetermined position coordinates each predetermined display unit, which is more input into the player, the virtual of the background object A computer including an operation unit for detecting an instruction input for moving the position coordinates in space in the depth direction ;
Wherein by moving in the depth direction more position coordinates of the background object in said instruction input detected by the operation unit, changing the distance in the depth direction of the virtual space and said virtual camera and said background object Rutotomoni, wherein A position coordinate of the background object in the virtual space is moved in a direction different from the depth direction by a movement amount corresponding to the distance, and a virtual space including the background object arranged at the position coordinate after the movement is moved by the virtual camera. A control unit that controls to capture and display,
A program that functions as
A program in which the amount of movement of position coordinates in the virtual space increases as the distance decreases .
プレイヤにより入力された、前記背景オブジェクトの前記仮想空間内の前記位置座標を奥行き方向に移動させるための指示入力を操作部において検出する段階と、
前記操作部で検出した前記指示入力により前記背景オブジェクトの位置座標を奥行き方向に移動させることによって前記仮想カメラと前記背景オブジェクトとの仮想空間内の奥行き方向における距離を変化させ、前記背景オブジェクトの仮想空間内における位置座標を前記距離に対応した移動量で奥行き方向とは異なる方向に移動し、前記移動後の位置座標に配置された前記背景オブジェクトを含む仮想空間を前記仮想カメラで撮像して表示するよう制御部が制御する段階と、
を含み、
前記仮想空間内における位置座標の前記移動量は、前記距離が短くなるほど増加する、方法。 Displaying a virtual space image captured by a virtual camera in a virtual space in which at least one background object is arranged at each predetermined position coordinate on the display unit;
And detecting are more input to the player, an instruction input for moving the position coordinates of the virtual space of the background object in the depth direction in the operation unit,
Distance changing a in the depth direction in the virtual space of the background object and the virtual camera by moving more position coordinates of the background object in the depth direction on the instruction input detected by the operation unit, of the background object The position coordinate in the virtual space is moved in a direction different from the depth direction by a movement amount corresponding to the distance, and the virtual space including the background object arranged at the position coordinate after the movement is imaged by the virtual camera. The control unit controls to display,
Only including,
The method , wherein the amount of movement of position coordinates in the virtual space increases as the distance decreases .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015172019A JP5980393B1 (en) | 2015-09-01 | 2015-09-01 | Terminal device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015172019A JP5980393B1 (en) | 2015-09-01 | 2015-09-01 | Terminal device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5980393B1 true JP5980393B1 (en) | 2016-08-31 |
JP2017046899A JP2017046899A (en) | 2017-03-09 |
Family
ID=56820035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015172019A Active JP5980393B1 (en) | 2015-09-01 | 2015-09-01 | Terminal device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5980393B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7285996B1 (en) | 2022-08-26 | 2023-06-02 | エヌエイチエヌ コーポレーション | Screen control method and program |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019003323A1 (en) * | 2017-06-27 | 2019-01-03 | サン電子株式会社 | Game program |
JP2019005564A (en) * | 2018-06-06 | 2019-01-17 | サン電子株式会社 | Virtual reality program |
JP7058198B2 (en) * | 2018-08-21 | 2022-04-21 | グリー株式会社 | Image display system, image display method and image display program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005284791A (en) * | 2004-03-30 | 2005-10-13 | Namco Ltd | Program, information storage medium, and image generator |
-
2015
- 2015-09-01 JP JP2015172019A patent/JP5980393B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005284791A (en) * | 2004-03-30 | 2005-10-13 | Namco Ltd | Program, information storage medium, and image generator |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7285996B1 (en) | 2022-08-26 | 2023-06-02 | エヌエイチエヌ コーポレーション | Screen control method and program |
JP2024031176A (en) * | 2022-08-26 | 2024-03-07 | エヌエイチエヌ コーポレーション | Screen control method and program |
Also Published As
Publication number | Publication date |
---|---|
JP2017046899A (en) | 2017-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101882410B1 (en) | Electronic System With Gesture Calibration Mechanism And Method Of Operation Thereof | |
KR102491443B1 (en) | Display adaptation method and apparatus for application, device, and storage medium | |
JP6133972B2 (en) | 3D graphic user interface | |
US10969949B2 (en) | Information display device, information display method and information display program | |
US9612675B2 (en) | Emulating pressure sensitivity on multi-touch devices | |
KR101732839B1 (en) | Segmentation of content delivery | |
JP6877149B2 (en) | Shooting position recommendation method, computer program and shooting position recommendation system | |
US10318152B2 (en) | Modifying key size on a touch screen based on fingertip location | |
JP6013642B2 (en) | Campaign optimization for experience content datasets | |
JP5980393B1 (en) | Terminal device | |
US11154779B2 (en) | Processing device, program, and method | |
KR20120125296A (en) | Multi-layer user interface with flexible parallel and orthogonal movement | |
KR20120135232A (en) | Multi-layer user interface with flexible parallel movement | |
CN103914258A (en) | Mobile terminal and method for operating same | |
JP5986261B1 (en) | System and method for providing an efficient interface for screen control | |
JP6360509B2 (en) | Information processing program, information processing system, information processing method, and information processing apparatus | |
KR20140100547A (en) | Full 3d interaction on mobile devices | |
CN113769375B (en) | Game control processing method and device, terminal equipment and readable storage medium | |
JP2022521720A (en) | Mini-program creation method, device, terminal and program | |
JP5260708B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
JP2024514771A (en) | Method for adjusting the position of an operating control, its device, terminal, and computer program | |
US9665232B2 (en) | Information-processing device, storage medium, information-processing method, and information-processing system for enlarging or reducing an image displayed on a display device | |
CN108491152B (en) | Touch screen terminal control method, terminal and medium based on virtual cursor | |
JP5888793B2 (en) | Object control program and object control method | |
JP5767371B1 (en) | Game program for controlling display of objects placed on a virtual space plane |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160223 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20160530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160719 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160726 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5980393 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |