JP2020062376A - Information processor and program - Google Patents
Information processor and program Download PDFInfo
- Publication number
- JP2020062376A JP2020062376A JP2019133189A JP2019133189A JP2020062376A JP 2020062376 A JP2020062376 A JP 2020062376A JP 2019133189 A JP2019133189 A JP 2019133189A JP 2019133189 A JP2019133189 A JP 2019133189A JP 2020062376 A JP2020062376 A JP 2020062376A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- screen
- operation area
- dimensional space
- virtual camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing device and a program.
ユーザーがタッチパネルを用いて画面上の操作エリアに対するタッチ操作を行うことによって、仮想3次元空間内においてオブジェクトを移動させる情報処理装置が知られている(たとえば、特許文献1)。 There is known an information processing device that moves an object in a virtual three-dimensional space by a user performing a touch operation on an operation area on the screen using a touch panel (for example, Patent Document 1).
仮想3次元空間内のオブジェクトを斜めから見下ろした俯瞰的なゲーム画像を画面に表示することによって、ユーザーのタッチ操作により操作エリアで指示された画面上の指示方向と、オブジェクトが移動する画面上の移動方向が一致しない場合があった。この場合には、ユーザーの意図した方向にキャラクターが移動しないことになるため、ユーザーにとって画面を見ながらオブジェクトを操作することが困難となる。
本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、ユーザーが画面を見ながらオブジェクトを簡単に操作できるようにすることにある。
By displaying on the screen a bird's-eye view game image in which an object in the virtual three-dimensional space is looked down diagonally, the pointing direction on the screen instructed by the user's touch operation and the on-screen moving object In some cases, the directions of movement did not match. In this case, the character does not move in the direction intended by the user, which makes it difficult for the user to operate the object while looking at the screen.
The present invention has been made in view of such circumstances, and an object thereof is to allow a user to easily operate an object while looking at a screen.
上記課題を解決するための本発明の主たる発明は、
仮想3次元空間においてオブジェクトが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、前記移動平面上の前記オブジェクトを見たときのゲーム画像を生成するゲーム画像生成部と、
仮想3次元空間において前記移動平面と平行になるように配置された仮想操作オブジェクトを、前記仮想カメラから見たときの操作エリアを生成する操作エリア生成部と、
前記ゲーム画像と前記操作エリアを同一の画面上に配置させる表示制御部と、
前記ゲーム画像と前記操作エリアが配置された画面に対するユーザーのタッチ操作を検出するタッチパネルと、
前記タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向を決定し、その決定された前記操作エリアで指示された画面上の指示方向を、仮想3次元空間における前記移動平面上の指示方向に変換し、その変換された前記移動平面上の指示方向に前記オブジェクトが移動するように制御するオブジェクト制御部と、
を備えたことを特徴とする情報処理装置である。
本発明の他の特徴については、本明細書及び添付図面の記載により明らかにする。
The main invention of the present invention for solving the above problems is
A game image generation unit that generates a game image when the object on the moving plane is viewed from a virtual camera arranged so as to obliquely look down the moving plane on which the object moves in the virtual three-dimensional space;
An operation area generation unit that generates an operation area when a virtual operation object is arranged in parallel with the moving plane in a virtual three-dimensional space when viewed from the virtual camera;
A display control unit that arranges the game image and the operation area on the same screen;
A touch panel that detects a user's touch operation on the screen on which the game image and the operation area are arranged;
Based on the detection signal from the touch panel, the pointing direction on the screen instructed in the operation area is determined by the touch operation of the user, and the pointing direction on the screen instructed in the determined operation area is virtualized. An object control unit that converts into a designated direction on the moving plane in a three-dimensional space and controls the object to move in the transformed designated direction on the moving plane;
An information processing apparatus comprising:
Other features of the present invention will become apparent from the description of this specification and the accompanying drawings.
本明細書及び添付図面の記載により、少なくとも以下の事項が明らかとなる。
即ち、仮想3次元空間においてオブジェクトが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、前記移動平面上の前記オブジェクトを見たときのゲーム画像を生成するゲーム画像生成部と、
仮想3次元空間において前記移動平面と平行になるように配置された仮想操作オブジェクトを、前記仮想カメラから見たときの操作エリアを生成する操作エリア生成部と、
前記ゲーム画像と前記操作エリアを同一の画面上に配置させる表示制御部と、
前記ゲーム画像と前記操作エリアが配置された画面に対するユーザーのタッチ操作を検出するタッチパネルと、
前記タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向を決定し、その決定された前記操作エリアで指示された画面上の指示方向を、仮想3次元空間における前記移動平面上の指示方向に変換し、その変換された前記移動平面上の指示方向に前記オブジェクトが移動するように制御するオブジェクト制御部と、
を備えたことを特徴とする情報処理装置である。
このような情報処理装置によれば、仮想3次元空間においてオブジェクトの移動平面と仮想操作オブジェクトの操作平面が平行になるように配置することで、仮想3次元空間を斜めから見下ろしたときに仮想カメラから見えるゲーム画像と操作エリアが同一の画面上に配置されたとしても、ユーザーのタッチ操作により操作エリアで指示された画面上の指示方向とオブジェクトが移動する画面上の移動方向が一致するようになる。これにより、ユーザーが画面を見ながらオブジェクトを簡単に操作できるようになる。
At least the following matters will be made clear by the present specification and the description of the accompanying drawings.
That is, a game image generation unit that generates a game image when the object on the moving plane is viewed from a virtual camera arranged so as to obliquely look down the moving plane on which the object moves in the virtual three-dimensional space,
An operation area generation unit that generates an operation area when a virtual operation object is arranged in parallel with the moving plane in a virtual three-dimensional space when viewed from the virtual camera;
A display control unit that arranges the game image and the operation area on the same screen;
A touch panel that detects a user's touch operation on the screen on which the game image and the operation area are arranged;
Based on the detection signal from the touch panel, the pointing direction on the screen instructed in the operation area is determined by the touch operation of the user, and the pointing direction on the screen instructed in the determined operation area is virtualized. An object control unit that converts into a designated direction on the moving plane in a three-dimensional space and controls the object to move in the transformed designated direction on the moving plane;
An information processing apparatus comprising:
According to such an information processing apparatus, by arranging the moving plane of the object and the operation plane of the virtual operation object to be parallel to each other in the virtual three-dimensional space, the virtual camera when the virtual three-dimensional space is looked down obliquely. Even if the game image seen from above and the operation area are placed on the same screen, the pointing direction on the screen instructed by the user's touch operation and the moving direction on the screen where the object moves will match. Become. This allows the user to easily operate the object while looking at the screen.
また、かかる情報処理装置であって、
仮想3次元空間における仮想カメラの配置を制御する仮想カメラ制御部を備え、
ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向が維持されたことによって、仮想3次元空間における前記移動平面上の指示方向に前記オブジェクトが移動し続けている状態で、仮想カメラの配置が変更された場合に、
前記操作エリア生成部は、変更後の仮想カメラから前記仮想操作オブジェクトを見たときの操作エリアを生成し、
前記表示制御部は、仮想カメラの視方向が変更される前における前記移動平面上の指示方向を、生成された前記操作エリアでユーザーのタッチ操作により指示されるべき画面上の指示方向に変換し、その変換された前記画面上の指示方向に合うように、その生成された前記操作エリアを画面上に配置することとしても良い。
このような情報処理装置によれば、ユーザーのタッチ操作の継続中に仮想カメラの配置が変更されたとしても、これまでの移動方向を維持しつつオブジェクトを移動させることができる。
Further, in the information processing device,
A virtual camera control unit for controlling the placement of the virtual cameras in the virtual three-dimensional space,
The virtual camera is displayed in a state where the object continues to move in the pointing direction on the moving plane in the virtual three-dimensional space because the pointing direction on the screen instructed by the user's touch operation is maintained. If the placement of is changed,
The operation area generation unit generates an operation area when the virtual operation object is viewed from the changed virtual camera,
The display control unit converts the pointing direction on the moving plane before the viewing direction of the virtual camera is changed into the pointing direction on the screen to be instructed by the user's touch operation in the generated operation area. The generated operation area may be arranged on the screen so as to match the converted instruction direction on the screen.
According to such an information processing device, even if the arrangement of the virtual camera is changed while the user's touch operation is continued, it is possible to move the object while maintaining the moving direction so far.
また、かかる情報処理装置であって、
仮想3次元空間における仮想カメラの配置を制御する仮想カメラ制御部を備え、
前記オブジェクト制御部は、仮想カメラの視方向が変更される前、及び、仮想カメラの視方向が変更された後のいずれにおいても、前記タッチパネルからの検出信号に基づいて、ユーザーのスライド操作により前記操作エリアで指示された画面上のスライド距離を決定し、その決定されたスライド距離が所定距離以上である場合に、仮想3次元空間においてオブジェクトが高速で移動するように制御することとしても良い。
このような情報処理装置によれば、仮想3次元空間においてオブジェクトを高速で移動させるために、仮想カメラの視方向が変更された後でも、仮想カメラの視方向が変更される前と同じスライド距離だけスライド操作を行えばよいので、仮想カメラの視方向が変更されたことによる混乱を抑制することができる。
Further, in the information processing device,
A virtual camera control unit for controlling the placement of the virtual cameras in the virtual three-dimensional space,
The object control unit performs the slide operation by the user based on the detection signal from the touch panel before the view direction of the virtual camera is changed and after the view direction of the virtual camera is changed. It is also possible to determine the slide distance on the screen designated in the operation area and control the object to move at high speed in the virtual three-dimensional space when the determined slide distance is a predetermined distance or more.
According to such an information processing device, in order to move the object at high speed in the virtual three-dimensional space, even after the viewing direction of the virtual camera is changed, the same slide distance as before the viewing direction of the virtual camera is changed. Since only the slide operation needs to be performed, it is possible to suppress confusion due to the change of the viewing direction of the virtual camera.
また、かかる情報処理装置であって、
前記オブジェクト制御部は、ユーザーのスライド操作により前記操作エリアで指示された画面上のスライド距離が維持されたことによって、仮想3次元空間における前記移動平面上の指示方向に前記オブジェクトが高速で移動し続けている状態で、仮想カメラの視方向が変更された場合に、仮想カメラの視方向が変更された後において、ユーザーのスライド操作により前記操作エリアで指示された画面上のスライド距離が引き続き維持されたことを条件として、仮想3次元空間においてオブジェクトの高速移動をさらに続けるように制御することとしても良い。
このような情報処理装置によれば、オブジェクトが高速移動しているときに仮想カメラの視方向が変更されたことによって、急にオブジェクトが低速移動することのないように制御できるため、仮想カメラの視方向が変更されたことによる混乱を抑制することができる。
Further, in the information processing device,
The object control unit moves the object at a high speed in a designated direction on the moving plane in the virtual three-dimensional space by maintaining the slide distance on the screen designated in the manipulation area by the user's slide manipulation. If the viewing direction of the virtual camera is changed while continuing, after the viewing direction of the virtual camera is changed, the slide distance on the screen instructed in the operation area by the user's slide operation is continuously maintained. On the condition that the object has been moved, the object may be controlled so that the high-speed movement of the object is further continued in the virtual three-dimensional space.
According to such an information processing device, it is possible to control so that the object does not suddenly move at low speed due to the change of the view direction of the virtual camera while the object moves at high speed. It is possible to suppress confusion due to a change in the viewing direction.
次に、コンピューターを、
仮想3次元空間においてオブジェクトが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、前記移動平面上の前記オブジェクトを見たときのゲーム画像を生成するゲーム画像生成手段、
仮想3次元空間において前記移動平面と平行になるように配置された仮想操作オブジェクトを、前記仮想カメラから見たときの操作エリアを生成する操作エリア生成手段、
前記ゲーム画像と前記操作エリアを同一の画面上に配置させる表示制御手段、
タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向を決定し、その決定された前記操作エリアで指示された画面上の指示方向を、仮想3次元空間における前記移動平面上の指示方向に変換し、その変換された前記移動平面上の指示方向に前記オブジェクトが移動するように制御するオブジェクト制御手段、
として機能させるためのプログラムである。
このようなプログラムによれば、ユーザーが画面を見ながらオブジェクトを簡単に操作できるようになる。
Next, the computer
Game image generation means for generating a game image when the object on the moving plane is viewed from a virtual camera arranged so as to obliquely look down the moving plane on which the object moves in the virtual three-dimensional space,
An operation area generation unit that generates an operation area when a virtual operation object arranged in parallel with the moving plane in a virtual three-dimensional space is viewed from the virtual camera,
Display control means for arranging the game image and the operation area on the same screen,
Based on a detection signal from the touch panel, a user's touch operation determines a pointing direction on the screen instructed in the operation area, and the pointing direction on the screen instructed in the determined operation area is set to a virtual 3 Object control means for converting into a designated direction on the moving plane in the dimensional space and controlling the object to move in the transformed designated direction on the moving plane;
It is a program to function as.
With such a program, the user can easily operate the object while looking at the screen.
===実施形態===
以下では、本発明の実施形態に係る情報処理装置、プログラム及び情報処理システムについて詳細に説明する。なお、本発明はタッチパネルでプレイ可能なゲームを採用する情報処理装置、プログラム、及び情報処理システム等に広く適用できる。
=== Embodiment ===
Hereinafter, the information processing device, the program, and the information processing system according to the embodiment of the present invention will be described in detail. The present invention can be widely applied to an information processing device, a program, an information processing system, etc. that employs a game playable on a touch panel.
<<システム構成>>
図1は、本実施形態に係る情報処理システム1の一例を示す構成図である。図1に示すように、本実施形態に係る情報処理システム1は、1台以上のクライアント端末10とサーバー装置20とがネットワークNを介して接続されている。
<< system configuration >>
FIG. 1 is a configuration diagram showing an example of an
クライアント端末10は、ユーザーが操作するスマートフォン、タブレット、PCなどの端末装置や、家庭用や業務用のゲーム専用機器などの端末装置である。サーバー装置20は、クライアント端末10でユーザーにより行われるゲームの管理や制御、ゲーム内での課金処理等を行う。ネットワークNは、インターネット等であって、移動無線基地局などを含む。
The
<<ハードウェア構成>>
<クライアント端末>
図2は、本実施形態に係るコンピューター50の一例を示すハードウェア構成図である。本実施形態に係るクライアント端末10は、例えば図2に示すハードウェア構成のコンピューター50により実現される。なお、コンピューター50は情報処理装置の一例である。
<< Hardware configuration >>
<Client terminal>
FIG. 2 is a hardware configuration diagram showing an example of the
コンピューター50は、図2に示すように、CPU51と、RAM52と、ROM53と、通信インタフェース54と、入力装置55と、表示装置56と、外部インタフェース57と、HDD58などを備えており、それぞれがバスラインBによって相互に接続されている。
As shown in FIG. 2, the
CPU51は、ROM53やHDD58などの記憶装置からプログラムやデータをRAM52上に読み出し、読み出したプログラムやデータに基づく各種処理を実行することによって、コンピューター全体の制御や機能を実現する演算装置である。
The
RAM52は、プログラムやデータを一時保持するための揮発性の半導体メモリ(記憶装置)の一例であり、CPU51が各種処理を実行する際のワークエリアとしても利用される。
The
ROM53は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)の一例である。ROM53には、コンピューター50の起動時に実行されるBIOS、OS設定、及びネットワーク設定などのプログラムやデータが格納されている。
The
通信インタフェース54は、コンピューター50をネットワークNに接続するためのインタフェースである。これにより、コンピューター50は通信インタフェース54を介してデータ通信を行うことができる。
The
入力装置55は、ユーザーが各種信号を入力するのに用いる装置である。入力装置55は、例えば、タッチパネル、操作キーやボタン、キーボードやマウスなどの操作装置である。
The
本実施形態におけるクライアント端末10は、少なくともタッチパネルを有している。タッチパネルは、表示装置56の上に積層される静電容量式のパネルによって構成されている。このタッチパネルでは、ユーザーの指やタッチペン等によるタッチ操作が行われると、格子状に配列されている透明電極が静電容量の変化を検出してその検出信号を出力する。本実施形態においては、静電容量の変化が生じた透明電極の範囲から決まる重心位置が、画面上でのタッチ位置(指示位置)として特定される。
The
表示装置56は、タッチパネルを用いてゲームプレイを行うユーザーに対して各種情報を画面表示するための装置である。表示装置56は、例えば、液晶や有機ELなどのディスプレイである。
The
外部インタフェース57は、外部装置とデータ通信可能に接続するためのインタフェースである。これにより、コンピューター50は外部インタフェース57を介して記録媒体の読み取り及び/又は書き込みを行うことができる。外部装置は、例えば、フレキシブルディスク、CD、DVD、SDメモリカード、USBメモリなどの記録媒体である。
The
HDD58は、プログラムやデータを格納している不揮発性の記憶装置の一例である。格納されるプログラムやデータには、コンピューター全体を制御する基本ソフトウェアであるOS、及びOS上において各種機能を提供するアプリケーションなどがある。
The
なお、HDD58に替えて、記憶媒体としてフラッシュメモリを用いるドライブ装置(例えばソリッドステートドライブ:SSD)を利用してもよい。
Instead of the
本実施形態に係るクライアント端末10は、上述したハードウェア構成のコンピューター50においてプログラムを実行することにより、後述するような各種処理を実現することができる。
The
<<ソフトウェア構成>>
<クライアント端末>
図3は、本実施形態に係るクライアント端末10の一例を示す機能ブロック図である。本実施形態に係るクライアント端末10は、例えば図3に示す機能ブロックにより実現される。
<< software configuration >>
<Client terminal>
FIG. 3 is a functional block diagram showing an example of the
本実施形態に係るクライアント端末10は、プログラムを実行することにより、制御部100と、記憶部120と、通信部140と、操作受付部150と、画面表示部160を実現する。
The
制御部100は、クライアント端末10における各種処理を実行する機能を有する。この制御部100は、ゲーム進行部101と、オブジェクト制御部102と、仮想カメラ制御部103と、ゲーム画像生成部104と、操作エリア生成部105と、表示制御部106を含む。
The
ゲーム進行部101は、クライアント端末10がユーザーから受け付けたゲーム操作に基づき、クライアント端末10でプレイ可能な各種ゲーム(例えば、アクションゲーム等)の進行を制御する。
The
オブジェクト制御部102は、仮想3次元空間(仮想ゲーム空間)に配置されるオブジェクトの挙動を制御する。本実施形態におけるオブジェクト制御部102は、ユーザーのタッチ操作によって指示された画面上の指示方向を、仮想3次元空間における移動平面上の指示方向に変換し、その変換された移動平面上の指示方向にオブジェクトが移動するように制御する。
The
このオブジェクト制御部102は、タッチ位置決定部及び操作入力判定部としての機能を含む。タッチ位置決定部は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上のタッチ位置を決定する。具体的には、格子状に配列されている透明電極のうち静電容量の変化が生じた透明電極の位置に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置(タッチ位置)を決定する。そして、操作入力判定部は、タッチパネルを用いてゲームプレイを行うユーザーによって入力されたゲーム操作の種類を判定する。例えば、ユーザーのタッチ位置が操作エリアに位置するか否かによってタッチ操作が入力されたか否かを判定したり、ユーザーのタッチ位置が操作エリアから所定方向へスライド移動したか否かによってスライド操作が入力されたか否かを判定したりする。
The
仮想カメラ制御部103は、仮想3次元空間における仮想カメラの配置を制御する。本実施形態における仮想カメラ制御部103は、ユーザーの操作に応じて、仮想3次元空間における仮想カメラの配置(例えば、視点位置、視方向、画角等)を変更することにより、仮想カメラから見える仮想3次元空間の様子が変化するように制御する。
The virtual
ゲーム画像生成部104は、仮想3次元空間に配置されたオブジェクトを仮想カメラから見たときのゲーム画像を2次元画像として生成する。本実施形態におけるゲーム画像生成部104は、仮想3次元空間においてオブジェクトが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、その移動平面上のオブジェクトを見たときのゲーム画像を生成する。具体的には、ゲーム画像生成部104は、ワールド座標系で表現される3次元座標に配置されたオブジェクトを、仮想カメラを基準とするビュー座標系への座標変換を行なう。そして、ビュー座標系に配置されたオブジェクトに対して透視変換等を行なって、その仮想カメラから見たときの仮想3次元空間の様子を2次元画像として生成する。また、ゲーム画像生成部104は、光源処理などの補間処理や、オブジェクトにテクスチャをマッピングするための処理等も行なう。
The game
操作エリア生成部105は、仮想3次元空間に配置された仮想操作オブジェクトを仮想カメラから見たときの操作エリアを2次元画像として生成する。本実施形態における操作エリア生成部105は、仮想3次元空間においてオブジェクトが移動する移動平面と平行になるように配置された仮想操作オブジェクトを、仮想カメラから見たときの操作エリアを生成する。なお、この操作エリア生成部105は、ゲーム画像生成部104と同様にして具体的な描画処理を行なう。
The operation
表示制御部106は、仮想3次元空間に配置される各種オブジェクトの2次元画像が含まれるゲーム画面をフレーム毎(例えば、1/60秒毎)に構成して画面表示部160に出力する制御を行う。本実施形態における表示制御部106は、ゲーム画像生成部104によって生成されたゲーム画像と、操作エリア生成部105によって生成された操作エリアを同一の画面上に配置させることによってゲーム画面を構成する。
The
記憶部120は、インストールされたアプリケーション(ゲームアプリ等)やクライアント端末10において必要となる各種情報を記憶する。通信部140は、サーバー装置20との通信を行う。画面表示部160は、表示制御部106の制御に従いゲーム画面を取得してクライアント端末10にて画面表示を行う。
The
<<画面構成>>
本実施形態におけるクライアント端末10の画面構成例について説明する。ここでは、比較例について説明した後に、本発明に係る実施例について説明する。
<< Screen configuration >>
A screen configuration example of the
<比較例>
図4は、比較例におけるゲーム画像を生成するときのワールド座標系、ビュー座標系、及びスクリーン座標系の関係を示す図である。以下では、仮想3次元空間の基準を原点Owとする3次元座標(Xw、Yw、Zw)をワールド座標系と表現し、仮想カメラを原点Ocとする3次元座標(Xc、Yc、Zc)をビュー座標系と表現し、クライアント端末10の画面に対応するスクリーン面(投影面)の中心を原点Osとする2次元座標(Xs、Ys)をスクリーン座標系と表現する。
<Comparative example>
FIG. 4 is a diagram showing the relationship between the world coordinate system, the view coordinate system, and the screen coordinate system when a game image is generated in the comparative example. Below, the three-dimensional coordinates (Xw, Yw, Zw) with the origin Ow as the reference of the virtual three-dimensional space are expressed as a world coordinate system, and the three-dimensional coordinates (Xc, Yc, Zc) with the virtual camera as the origin Oc are expressed. A two-dimensional coordinate (Xs, Ys) having a center of a screen surface (projection surface) corresponding to the screen of the
仮想カメラは、ワールド座標系のYw軸方向の高さからZw軸方向に対する俯角θでXw−Zw平面を斜めから見下ろすように配置されている。このように仮想3次元空間に仮想カメラを配置することによって、ワールド座標系に関連付けてビュー座標系が設定されることになる。 The virtual camera is arranged so as to obliquely look down the Xw-Zw plane at a depression angle θ with respect to the Zw-axis direction from the height in the Yw-axis direction of the world coordinate system. By arranging the virtual camera in the virtual three-dimensional space in this way, the view coordinate system is set in association with the world coordinate system.
ビュー座標系のZc軸方向は、クライアント端末10の画面に対応するスクリーン面(スクリーン座標系の原点Os)に垂直に下した方向であり、仮想カメラの視方向と一致している。ビュー座標系のXc−Yc平面は、スクリーン面と平行であり、ビュー座標系の原点Ocからスクリーン座標系原点Osまでの距離は仮想カメラの焦点距離と一致している。
The Zc axis direction of the view coordinate system is a direction perpendicular to the screen surface (origin Os of the screen coordinate system) corresponding to the screen of the
オブジェクトの一例としてのキャラクターAは、ワールド座標系のXw−Zw平面に配置されている。ワールド座標系のXw−Zw平面は、仮想3次元空間においてキャラクターAが移動する移動平面と一致している。このキャラクターAは、ワールド座標系のXw−Zw平面上での座標位置を時間経過に伴って変化させることにより、移動平面を移動することができるようになっている。 The character A as an example of an object is arranged on the Xw-Zw plane of the world coordinate system. The Xw-Zw plane of the world coordinate system coincides with the moving plane on which the character A moves in the virtual three-dimensional space. The character A can move on the moving plane by changing the coordinate position on the Xw-Zw plane of the world coordinate system with the passage of time.
ゲーム画像生成部104は、仮想3次元空間においてキャラクターAが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、その移動平面上のキャラクターAを見たときのゲーム画像を生成する。
The game
具体的には、図4に示す仮想カメラとキャラクターAの位置関係から算出される座標変換行列等を用いることにより、ワールド座標系(Xw、Yw、Zw)に配置させたキャラクターAをビュー座標系(Xc、Yc、Zc)へ座標変換を行う。さらに、透視投影手法等を用いることにより、ビュー座標系(Xc、Yc、Zc)に配置されたキャラクターAをスクリーン座標系(Xs、Ys)へ座標変換を行う。このように幾何学的な算出を行なって座標変換を繰り返すことにより、仮想3次元空間のキャラクターAを2次元画像(ゲーム画像)として生成することができる。 Specifically, by using a coordinate conversion matrix calculated from the positional relationship between the virtual camera and the character A shown in FIG. 4, the character A arranged in the world coordinate system (Xw, Yw, Zw) is viewed in the view coordinate system. Coordinate conversion is performed to (Xc, Yc, Zc). Further, by using the perspective projection method or the like, the character A arranged in the view coordinate system (Xc, Yc, Zc) is subjected to coordinate conversion into the screen coordinate system (Xs, Ys). By thus performing geometrical calculation and repeating coordinate conversion, the character A in the virtual three-dimensional space can be generated as a two-dimensional image (game image).
図5は、比較例における操作エリアを生成するときのワールド座標系、ビュー座標系、及びスクリーン座標系の関係を示す図である。以下では、図4と同様に、3次元座標(Xw、Yw、Zw)をワールド座標系と表現し、3次元座標(Xc、Yc、Zc)をビュー座標系と表現し、2次元座標(Xs、Ys)をスクリーン座標系と表現する。 FIG. 5 is a diagram showing the relationship between the world coordinate system, the view coordinate system, and the screen coordinate system when the operation area is generated in the comparative example. Hereinafter, as in FIG. 4, the three-dimensional coordinates (Xw, Yw, Zw) are expressed as the world coordinate system, the three-dimensional coordinates (Xc, Yc, Zc) are expressed as the view coordinate system, and the two-dimensional coordinates (Xs , Ys) is expressed as a screen coordinate system.
仮想カメラは、ワールド座標系のXw−Zw平面を真上から見下ろすように配置されている(つまり、Yw軸方向の高さからZw軸方向に対する俯角θ=90°となるように、仮想カメラが配置されている。)。このように仮想3次元空間に仮想カメラを配置することによって、ワールド座標系に関連付けてビュー座標系が設定されることになる。 The virtual camera is arranged so as to look down on the Xw-Zw plane of the world coordinate system from directly above (that is, the virtual camera has a depression angle θ = 90 ° from the height in the Yw axis direction to the Zw axis direction). It is arranged.). By arranging the virtual camera in the virtual three-dimensional space in this way, the view coordinate system is set in association with the world coordinate system.
ビュー座標系のZc軸方向は、クライアント端末10の画面に対応するスクリーン面(スクリーン座標系の原点Os)に垂直に下した方向であり、仮想カメラの視方向と一致している。ビュー座標系のXc−Yc平面は、スクリーン面と平行であり、ビュー座標系の原点Ocからスクリーン座標系原点Osまでの距離は仮想カメラの焦点距離と一致している。
The Zc axis direction of the view coordinate system is a direction perpendicular to the screen surface (origin Os of the screen coordinate system) corresponding to the screen of the
仮想操作オブジェクトの一例としての仮想操作パッドPは、円形の平面を有しており、ワールド座標系のXw−Zw平面に配置されている。ワールド座標系のXw−Zw平面は、クライアント端末10の画面に対応するスクリーン面と平行であると共に、ビュー座標系のXc−Yc平面と平行である。つまり、仮想3次元空間においてキャラクターAが移動する移動平面も、そのスクリーン面と平行であり、ビュー座標系のXc−Yc平面と平行である。
The virtual operation pad P as an example of the virtual operation object has a circular plane and is arranged on the Xw-Zw plane of the world coordinate system. The Xw-Zw plane of the world coordinate system is parallel to the screen surface corresponding to the screen of the
操作エリア生成部105は、仮想3次元空間においてキャラクターAの移動平面と平行になるように配置された仮想操作パッドPを、真上から見下ろすように配置された仮想カメラから見たときの操作エリアを生成する。
The operation
具体的には、図5に示す仮想カメラと仮想操作パッドPの位置関係から算出される座標変換行列等を用いることにより、ワールド座標系(Xw、Yw、Zw)に配置させた仮想操作パッドPをビュー座標系(Xc、Yc、Zc)へ座標変換を行う。さらに、透視投影手法等を用いることにより、ビュー座標系(Xc、Yc、Zc)に配置された仮想操作パッドPをスクリーン座標系(Xs、Ys)へ座標変換を行う。このように幾何学的な算出を行なって座標変換を繰り返すことにより、仮想3次元空間の仮想操作パッドPを2次元画像(操作エリア)として生成することができる。 Specifically, the virtual operation pad P arranged in the world coordinate system (Xw, Yw, Zw) is used by using the coordinate conversion matrix calculated from the positional relationship between the virtual camera and the virtual operation pad P shown in FIG. To the view coordinate system (Xc, Yc, Zc). Further, by using the perspective projection method or the like, the coordinate conversion of the virtual operation pad P arranged in the view coordinate system (Xc, Yc, Zc) is performed into the screen coordinate system (Xs, Ys). By thus performing geometrical calculation and repeating coordinate conversion, the virtual operation pad P in the virtual three-dimensional space can be generated as a two-dimensional image (operation area).
図6Aは、比較例におけるクライアント端末10の画面構成例を示す図である。図6Bは、仮想3次元空間におけるキャラクターの移動方向を示す図である。本実施形態におけるクライアント端末10は、図6Aに示すように、画面上に積層されたタッチパネル500を有している。表示制御部106は、図4に示す仮想カメラの配置に基づきゲーム画像生成部104によって生成されたゲーム画像501と、図5に示す仮想カメラの配置に基づき操作エリア生成部105によって生成された操作エリア502が同一の画面上に配置されるように制御する。これにより、ユーザーは画面に接触させた指をスライドさせて操作エリア502に対するスライド操作を行うことによってキャラクターAを移動させることができる。
FIG. 6A is a diagram showing a screen configuration example of the
ここでは、図6Aに示すように、ユーザーのタッチ操作により操作エリア502で指示された画面上の指示方向が45°であるときに、キャラクターAが移動する画面上の移動方向は30°となっている。ところが実際には、図6Bに示すように、ユーザーのタッチ操作により操作エリア502で指示された画面上の指示方向が45°であるときには、仮想3次元空間における移動平面(つまり、ワールド座標系のXw−Zw平面)上でのキャラクターAの移動方向は45°となっている。
Here, as shown in FIG. 6A, when the pointing direction on the screen instructed in the
このように比較例では、ユーザーのタッチ操作により操作エリア502で指示された画面上の指示方向(45°)と、キャラクターAが移動する仮想3次元空間における移動平面上の移動方向(45°)が一致しているにもかかわらず、仮想カメラの配置設定の影響を受けて、ユーザーのタッチ操作により操作エリアで指示された画面上の指示方向(45°)と、キャラクターAが移動する画面上の移動方向(30°)が一致しないことになる。このことにより、ユーザーの意図した方向にキャラクターAが移動しないことになるため、ユーザーにとって画面を見ながらキャラクターAを操作することが困難となってしまう。
Thus, in the comparative example, the pointing direction on the screen (45 °) designated by the user's touch operation in the
<実施例>
図7は、本発明に係る実施例における操作エリアを生成するときのワールド座標系、ビュー座標系、及びスクリーン座標系の関係を示す図である。以下では、図4と同様に、3次元座標(Xw、Yw、Zw)をワールド座標系と表現し、3次元座標(Xc、Yc、Zc)をビュー座標系と表現し、2次元座標(Xs、Ys)をスクリーン座標系と表現する。
<Example>
FIG. 7 is a diagram showing the relationship between the world coordinate system, the view coordinate system, and the screen coordinate system when the operation area is generated in the embodiment according to the present invention. Hereinafter, as in FIG. 4, the three-dimensional coordinates (Xw, Yw, Zw) are expressed as the world coordinate system, the three-dimensional coordinates (Xc, Yc, Zc) are expressed as the view coordinate system, and the two-dimensional coordinates (Xs , Ys) is expressed as a screen coordinate system.
図7に示す本発明に係る仮想カメラの配置設定は、ここでは、図5に示す比較例における仮想カメラの配置設定とは異なっていて、図4に示す比較例における仮想カメラの配置設定と同じになっている。 The virtual camera layout setting according to the present invention shown in FIG. 7 is different from the virtual camera layout setting in the comparative example shown in FIG. 5, and is the same as the virtual camera layout setting in the comparative example shown in FIG. It has become.
すなわち、仮想カメラは、図4に示す仮想カメラの配置と同様に、ワールド座標系のYw軸方向の高さからZw軸方向に対する俯角θでXw−Zw平面を斜めから見下ろすように配置されている。このように仮想3次元空間に仮想カメラを配置することによって、ワールド座標系に関連付けてビュー座標系が設定されることになる。 That is, similar to the arrangement of the virtual cameras shown in FIG. 4, the virtual cameras are arranged so as to obliquely look down the Xw-Zw plane at the depression angle θ from the height in the Yw axis direction of the world coordinate system to the Zw axis direction. . By arranging the virtual camera in the virtual three-dimensional space in this way, the view coordinate system is set in association with the world coordinate system.
ビュー座標系のZc軸方向は、クライアント端末10の画面に対応するスクリーン面(スクリーン座標系の原点Os)に垂直に下した方向であり、仮想カメラの視方向と一致している。ビュー座標系のXc−Yc平面は、スクリーン面と平行であり、ビュー座標系の原点Ocからスクリーン座標系原点Osまでの距離は仮想カメラの焦点距離と一致している。
The Zc axis direction of the view coordinate system is a direction perpendicular to the screen surface (origin Os of the screen coordinate system) corresponding to the screen of the
仮想操作パッドPは、図5に示す仮想操作パッドPと同様であり、円形の平面を有していて、ワールド座標系のXw−Zw平面に配置されている。ワールド座標系のXw−Zw平面は、図4に示すキャラクターAが移動する移動平面と一致している。 The virtual operation pad P is similar to the virtual operation pad P shown in FIG. 5, has a circular plane, and is arranged on the Xw-Zw plane of the world coordinate system. The Xw-Zw plane of the world coordinate system coincides with the moving plane on which the character A shown in FIG. 4 moves.
操作エリア生成部105は、仮想3次元空間においてキャラクターAが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、仮想3次元空間においてキャラクターAの移動平面と平行になるように配置された仮想操作パッドPを見たときの操作エリアを生成する。
The operation
具体的には、図7に示す仮想カメラと仮想操作パッドPの位置関係から算出される座標変換行列等を用いることにより、ワールド座標系(Xw、Yw、Zw)に配置させた仮想操作パッドPをビュー座標系(Xc、Yc、Zc)へ座標変換を行う。さらに、透視投影手法等を用いることにより、ビュー座標系(Xc、Yc、Zc)に配置された仮想操作パッドPをスクリーン座標系(Xs、Ys)へ座標変換を行う。このように幾何学的な算出を行なって座標変換を繰り返すことにより、仮想3次元空間の仮想操作パッドPを2次元画像(操作エリア)として生成することができる。 Specifically, the virtual operation pad P arranged in the world coordinate system (Xw, Yw, Zw) is used by using the coordinate conversion matrix calculated from the positional relationship between the virtual camera and the virtual operation pad P shown in FIG. To the view coordinate system (Xc, Yc, Zc). Further, by using the perspective projection method or the like, the coordinate conversion of the virtual operation pad P arranged in the view coordinate system (Xc, Yc, Zc) is performed into the screen coordinate system (Xs, Ys). By thus performing geometrical calculation and repeating coordinate conversion, the virtual operation pad P in the virtual three-dimensional space can be generated as a two-dimensional image (operation area).
図8は、本発明に係るクライアント端末10の画面構成例を示す図である。表示制御部106は、図4に示す仮想カメラの配置に基づきゲーム画像生成部104によって生成されたゲーム画像501と、図7に示す仮想カメラの配置に基づき操作エリア生成部105によって生成された操作エリア502が同一の画面上に配置されるように制御する。これにより、ユーザーは画面に接触させた指をスライドさせて操作エリア502に対するスライド操作を行うことによって、そのスライド方向へキャラクターAを移動させることができる。
FIG. 8 is a diagram showing a screen configuration example of the
ここでは、図7に示す仮想カメラの配置設定の影響を受け、図6Aに示すような円形ではなく、図8に示す操作エリア502は楕円形で表示されている。そして、図8に示すように、ユーザーのタッチ操作により操作エリア502で指示された画面上の指示方向が30°であるときに、キャラクターAが移動する画面上の移動方向も30°となっている。ところが実際には、図6Bに示すように、ユーザーのタッチ操作により操作エリア502で指示された画面上の指示方向が30°であっても、仮想3次元空間における移動平面(つまり、ワールド座標系のXw−Zw平面)上でのキャラクターAの移動方向は45°となっている。
Here, the
このように本発明に係る実施例では、ユーザーのタッチ操作により操作エリア502で指示された画面上の指示方向(30°)と、キャラクターAが移動する仮想3次元空間における移動平面上の移動方向(45°)が異なるが、仮想カメラの配置設定の影響を受けて、操作エリアの形状が変形(円形から楕円形に変形)することで、ユーザーのタッチ操作により操作エリアで指示された画面上の指示方向(30°)を、キャラクターAが移動する画面上の移動方向(30°)と一致させることが可能となる。このことにより、本発明に係る実施例では比較例とは異なり、ユーザーの意図した方向にキャラクターAが移動することになるため、ユーザーにとって画面を見ながらキャラクターAを違和感なく直感的に操作することが可能となる。
As described above, in the embodiment according to the present invention, the pointing direction (30 °) on the screen designated in the
<<キャラクター移動>>
本実施形態におけるクライアント端末10のキャラクター移動に関する動作例について、図9及び図10を用いて説明する。図9は、本実施形態におけるクライアント端末10のキャラクター移動に関する動作例について説明するフローチャートである。図10は、指示方向の変換について説明する図である。以下では、ユーザーがタッチパネルを用いて図8に示す画面上の操作エリア502に対するタッチ操作を行ったときに、仮想3次元空間内においてキャラクターAを移動させるためにクライアント端末10が行う制御手順について具体的に説明する。
<< Character movement >>
An operation example relating to character movement of the
クライアント端末10は、図9に示すように、ユーザーがタッチパネルを用いて図8に示す画面上の操作エリア502に対するタッチ操作を行ったことにより、そのタッチ操作によって操作エリア502の任意の位置を指定しているか否かを判定する(ステップS11)。
As shown in FIG. 9, the
具体的には、オブジェクト制御部102は、タッチパネルからの検出信号を取得することができたときに、ユーザーのタッチ操作により指示される画面上の指示位置を決定することができる。そのため、オブジェクト制御部102は、ユーザーのタッチ操作により指示される画面上の指示位置を決定することができると、その決定された画面上の指示位置が操作エリア502に位置するか否かを判定する。
Specifically, the
次に、クライアント端末10は、タッチパネルを用いたユーザーのタッチ操作によって操作エリア502の任意の位置を指定していないと判定された場合に(ステップS11:NO)、ユーザーによって操作エリア502に対するタッチ操作が行われるまで待機する。その一方で、タッチパネルを用いたユーザーのタッチ操作によって操作エリア502の任意の位置を指定していると判定された場合には(ステップS11:YES)、仮想3次元空間内においてキャラクターAを移動させるためのスライド操作が行われたか否かを判定する(ステップS12)。
Next, in the
具体的には、オブジェクト制御部102は、ユーザーが操作エリア502に接触させた指をそのまま或る方向へ連続移動させるタッチ操作(スライド操作)を行ったことで、タッチパネルからの検出信号を連続的に取得することができたときに、そのスライド操作により連続的に変化する操作エリア502での指示位置を次々に決定することができる。そのため、オブジェクト制御部102は、ユーザーのスライド操作により連続的に変化する操作エリア502での指示位置を次々に決定することができると、ユーザーによって操作エリア502の中心に接触させた指をそのまま任意の方向へ連続移動させるタッチ操作(スライド操作)が行われたか否かを判定する。
Specifically, the
次に、クライアント端末10は、仮想3次元空間内においてキャラクターAを移動させるためのスライド操作が行われなかったと判定された場合に(ステップS12:NO)、この処理を終了する一方で、仮想3次元空間内においてキャラクターAを移動させるためのスライド操作が行われたと判定された場合には(ステップS12:YES)、そのスライド操作によって操作エリア502で指示された画面上の指示方向を決定する(ステップS13)。
Next, when it is determined that the slide operation for moving the character A in the virtual three-dimensional space has not been performed (step S12: NO), the
具体的には、オブジェクト制御部102は、ユーザーが操作エリア502の中心に接触させた指を或る地点まで連続移動させたことにより、タッチパネルからの検出信号に基づきスクリーン座標系における始点位置Ps1と終点位置Ps2の座標を決定する。そして、その決定されたスクリーン座標系における始点位置Ps1と終点位置Ps2の座標に基づいて、スクリーン座標系のXs軸に対する指示角度を決定する。ここでは、図10の左図に示すように、ユーザーのスライド操作により図8に示す画面上の操作エリア502で指示方向が入力されたときに、スクリーン座標系のXs軸に対する指示角度が30°であったものとする。なおこの際、スクリーン座標系における始点位置Ps1はスクリーン座標系の原点Osに一致しているものとする。
Specifically, the
次に、クライアント端末10は、このようにしてユーザーのスライド操作によって操作エリア502で指示された画面上の指示方向が決定されると、その決定された操作エリア502で指示された画面上の指示方向を、仮想3次元空間においてキャラクターAが移動する移動平面上の指示方向に変換する(ステップS14)。
Next, when the pointing direction on the screen instructed in the
具体的には、オブジェクト制御部102は、図7に示す仮想カメラと仮想操作パッドPの位置関係から算出される逆透視変換行列等を用いることにより、その決定されたスクリーン座標系における始点位置Ps1と終点位置Ps2の座標を、ビュー座標系における始点位置Pc1と終点位置Pc2の座標に変換する。さらに、図7に示す仮想カメラと仮想操作パッドPの位置関係から算出される逆座標変換行列等を用いることにより、ビュー座標系における始点位置Pc1と終点位置Pc2の座標を、ワールド座標系における始点位置Pw1と終点位置Pw2の座標に変換する。このような座標変換により、図10に示すように、スクリーン座標系のXs−Ys平面における操作エリア502での指示方向が、ワールド座標系のXw−Zw平面(つまり、仮想3次元空間においてキャラクターAが移動する移動平面)における仮想操作パッドPでの指示方向に変換されたことになる。ここでは、座標変換前では、図10の左図に示すように、スクリーン座標系のXs軸に対する指示角度が30°であったものが、座標変換後には、図10の右図に示すように、ワールド座標系のXw軸に対する指示角度が45°になったものとする。
Specifically, the
次に、クライアント端末10は、ユーザーのスライド操作によって操作エリア502で指示された画面上の指示方向が仮想3次元空間における移動平面上の指示方向に変換されると、仮想3次元空間においてキャラクターAがその変換された指示方向に移動するように制御する(ステップS15)。
Next, when the pointing direction on the screen designated in the
具体的には、オブジェクト制御部102は、座標変換行列を用いてワールド座標系のXw−Zw平面に配置されるキャラクターAの座標をその変換後の指示方向に平行移動させることによって、仮想3次元空間においてキャラクターAをその変換された指示方向に移動させる。
Specifically, the
これにより、図8に示す画面上に、仮想3次元空間を斜めから見下ろしたときに仮想カメラから見えるゲーム画像501と操作エリア502が同時に配置されたとしても、ユーザーのスライド操作により操作エリア502で指示された画面上の指示方向と、キャラクターAが移動する画面上の移動方向が一致するようになる。そのため、ユーザーが画面を見ながらキャラクターAを簡単に操作できるようになる。
As a result, even if the
<<仮想カメラの配置変更>>
ここでは、仮想3次元空間においてキャラクターの移動中に仮想カメラの配置変更がなされた場合の画面構成例について、図11を用いて説明する。図11は、仮想カメラの配置変更に伴う指示方向の変換について説明する図である。
<< Virtual camera layout change >>
Here, an example of the screen configuration when the placement of the virtual camera is changed while the character is moving in the virtual three-dimensional space will be described with reference to FIG. 11. FIG. 11 is a diagram for explaining the conversion of the pointing direction due to the layout change of the virtual camera.
本実施形態におけるクライアント端末10では、ユーザーが図8に示す画面上の操作エリア502に接触させた指をそのまま或る方向へ連続移動させるタッチ操作(スライド操作)を行った際に、ユーザーがその接触させた指を画面から離さずにそのままの状態にすることで、操作エリア502で指示された画面上の指示方向が維持され、仮想3次元空間においてキャラクターAがその指示方向に移動し続けるようにすることも可能である。そして、このように仮想3次元空間においてキャラクターAが移動し続けている最中に、ユーザーの操作によって仮想3次元空間における仮想カメラの配置を変更することも可能である。
In the
ところが、仮想3次元空間においてキャラクターAが移動し続けている最中に、仮想カメラの配置が変更されてしまうと、これまでユーザーが操作エリア502で指示していた画面上の指示方向も連動して変更されることになる。そのため、ユーザーがその接触させた指を画面から離さずにそのままの状態にしているにもかかわらず、仮想3次元空間においてキャラクターAが変更後の指示方向に勝手に移動し始めることになってしまう。
However, if the placement of the virtual camera is changed while the character A continues to move in the virtual three-dimensional space, the pointing direction on the screen, which the user has previously pointed to in the
具体的に説明すると、ユーザーがスライド操作を行った際、その接触させた指を画面から離さずにそのままの状態にすることで、図11Aの左図に示すように、スクリーン座標系のXs−Ys平面における操作エリア502での指示方向が30°のまま維持されたとする。そして、上述した図9に示すステップS14の処理によって指示方向の変換が行われると、図11Aの右図に示すように、ワールド座標系のXw−Zw平面における仮想操作パッドPでの指示方向は45°のまま維持されるものとする。この場合、仮想3次元空間の移動平面においてキャラクターAはその45°の指示方向に移動し続けていることになる。
More specifically, when the user performs a slide operation, the contacted finger is kept as it is without being removed from the screen, and as shown in the left diagram of FIG. 11A, Xs- of the screen coordinate system is displayed. It is assumed that the pointing direction in the
その後、仮想3次元空間においてキャラクターAがその45°の指示方向に移動し続けている最中に、例えば仮想カメラの視方向がユーザーの操作に従って変更された結果、図11Bの左図に示すような楕円形に操作エリア502が変形したものとする。この場合、ユーザーがその接触させた指を画面から離さずにそのままの状態にしているので、図11Bの左図に示す操作エリア502での指示方向は、図11Aの左図に示す操作エリア502での指示方向と同じ30°のまま維持されることになる。そのため、上述した図9に示すステップS14の処理によって指示方向の変換が行われると、図11Bの右図に示す仮想操作パッドPでの指示方向は、図11Aの右図に示す仮想操作パッドPでの指示方向と同じ45°ではなく、それよりも大きな角度(ここでは60°とする)になってしまう。すなわち、このように仮想カメラの配置が変更されると、ユーザーがその接触させた指を画面から離さずにそのままの状態にしているにもかかわらず、仮想3次元空間の移動平面において45°の指示方向に移動し続けていたキャラクターAが、60°の指示方向に移動し始めることになる。
After that, while the character A continues to move in the 45 ° pointing direction in the virtual three-dimensional space, for example, the viewing direction of the virtual camera is changed according to the user's operation. As a result, as shown in the left diagram of FIG. 11B. It is assumed that the
そこで、本実施形態におけるクライアント端末10では、ユーザーがスライド操作を行った際、その接触させた指を画面から離さずにそのままの状態にしているときに、仮想カメラの配置が変更されたとしても、仮想3次元空間の移動平面においてキャラクターAがこれまで通りの指示方向に移動し続けるようにした。以下、具体的に説明する。
Therefore, in the
先ず、操作エリア生成部105は、配置変更後の仮想カメラから、仮想3次元空間の移動平面に配置された仮想操作パッドPを見たときの操作エリア(図11Bの左図に示す操作エリア502)を生成する。
First, the operation
具体的には、配置変更後の仮想カメラと仮想操作パッドPの位置関係から算出される座標変換行列等を用いることにより、ワールド座標系(Xw、Yw、Zw)に配置させた仮想操作パッドPをビュー座標系(Xc、Yc、Zc)へ座標変換を行う。さらに、透視投影手法等を用いることにより、ビュー座標系(Xc、Yc、Zc)に配置された仮想操作パッドPをスクリーン座標系(Xs、Ys)へ座標変換を行う。このように幾何学的な算出を行なって座標変換を繰り返すことにより、仮想3次元空間の仮想操作パッドPを2次元画像(図11Bの左図に示す操作エリア502)として生成することができる。
Specifically, the virtual operation pad P placed in the world coordinate system (Xw, Yw, Zw) is used by using a coordinate transformation matrix or the like calculated from the positional relationship between the virtual camera and the virtual operation pad P after the placement change. To the view coordinate system (Xc, Yc, Zc). Further, by using the perspective projection method or the like, the coordinate conversion of the virtual operation pad P arranged in the view coordinate system (Xc, Yc, Zc) is performed into the screen coordinate system (Xs, Ys). By thus performing geometrical calculation and repeating coordinate conversion, the virtual operation pad P in the virtual three-dimensional space can be generated as a two-dimensional image (the
次に、表示制御部106は、図11Cの右図に示す仮想カメラの配置変更前における仮想操作パッドP(図11Aの右図に示す仮想操作パッドPと同じ)での指示方向を、その生成された操作エリア(図11Bの左図に示す操作エリア502)でユーザーのスライド操作により指示されるべき画面上の指示方向に変換する。
Next, the
具体的には、配置変更後の仮想カメラと仮想操作パッドPの位置関係から算出される座標変換行列等を用いることにより、図11Cの右図に示すワールド座標系における始点位置Pw1と終点位置Pw2の座標を、ビュー座標系における始点位置Pc1と終点位置Pc2の座標に変換する。さらに、ビュー座標系における始点位置Pc1と終点位置Pc2の座標を、スクリーン座標系における始点位置Ps1と終点位置Ps3の座標に変換する。 Specifically, by using the coordinate conversion matrix calculated from the positional relationship between the virtual camera and the virtual operation pad P after the layout change, the start point position Pw1 and the end point position Pw2 in the world coordinate system shown in the right diagram of FIG. 11C are used. Is converted into coordinates of a start point position Pc1 and an end point position Pc2 in the view coordinate system. Further, the coordinates of the starting point position Pc1 and the ending point position Pc2 in the view coordinate system are converted into the coordinates of the starting point position Ps1 and the ending point position Ps3 in the screen coordinate system.
このような座標変換により、図11Cに示すように、ワールド座標系のXw−Zw平面(つまり、仮想3次元空間においてキャラクターAが移動する移動平面)における仮想操作パッドPでの指示方向が、スクリーン座標系のXs−Ys平面における操作エリア502で指示されるべき指示方向に変換されたことになる。ここでは、座標変換前では、図11Cの右図に示すように、ワールド座標系のXw軸に対する指示角度が45°であったものが、座標変換後には、スクリーン座標系のXs軸に対する指示角度が15°になったものとする。すなわち、ユーザーのスライド操作により画面上の操作エリア502で指示される指示方向が15°であるならば、仮想3次元空間の移動平面においてキャラクターAがこれまで通り45°の指示方向に移動し続けるようになる。
By such coordinate conversion, as shown in FIG. 11C, the pointing direction on the virtual operation pad P on the Xw-Zw plane of the world coordinate system (that is, the moving plane on which the character A moves in the virtual three-dimensional space) changes to the screen. This means that the direction has been converted to the direction to be specified in the
次に、図11Cの左図に示すように、ユーザーが接触させた指は画面から離さずにそのままの状態であるので、操作エリア502で指示されている指示方向の実際の終点位置は、PS3の座標位置ではなく、PS2の座標位置のままになっている。そのため、表示制御部106は、図11Dに示すように、ユーザーのスライド操作により画面上の操作エリア502で指示される指示方向がそのまま15°となるように維持するべく、その15°の指示方向の終点位置がPS3の座標位置からPS2の座標位置となり、かつ、始点位置がPS1の座標位置からPS4の座標位置となるようにシフトさせる。すなわち、表示制御部106は、座標変換行列を用いてスクリーン座標系にて操作エリア502の座標変換を行うことにより、仮想カメラの配置変更の前後において画面上の指示方向の終点位置(PS2の座標位置)を一致させつつ、その変換された操作エリア502で指示されるべき画面上の指示方向(15°)に合わせるように、その生成された操作エリア502(図11Cの左図に示す操作エリア502)を画面上に配置する。
Next, as shown in the left diagram of FIG. 11C, since the finger touched by the user remains as it is without releasing from the screen, the actual end point position in the pointing direction designated in the
これにより、ユーザーのタッチ操作の継続中に仮想カメラの配置が変更されたとしても、これまでの移動方向を維持しつつキャラクターAを移動させることができる。 As a result, even if the placement of the virtual camera is changed while the user's touch operation is continued, the character A can be moved while maintaining the previous moving direction.
<<スライド操作によるスライド距離>>
ここでは、スライド操作によるスライド距離に応じたキャラクターの移動速度について、図12を用いて説明する。図12は、操作エリアに対するスライド操作の具体例について説明する図である。
<< Sliding distance by sliding operation >>
Here, the moving speed of the character according to the slide distance by the slide operation will be described with reference to FIG. FIG. 12 is a diagram illustrating a specific example of the slide operation on the operation area.
本実施形態におけるクライアント端末10では、ユーザーが図8に示す画面上の操作エリア502に接触させた指をそのまま或る方向へ連続移動させるタッチ操作(スライド操作)を行った際に、その接触させた指を連続移動させた距離(スライド距離)に応じて、仮想3次元空間におけるキャラクターAの移動速度を変更することも可能である。
In the
ところが、仮想カメラの配置が変更されてしまうと、変更前後での仮想カメラの配置設定に応じて画面上の操作エリア502が変形することになるため、スライド操作時に必要となるスライド距離の大きさが異なることになる。
However, if the arrangement of the virtual cameras is changed, the
具体的に説明すると、仮想カメラの配置設定を変更する前では、ユーザーが図8に示す画面上の操作エリア502に対してスライド操作を行うときに、図12Aの左図に示すスライド距離L1だけスライド操作を行うことにより、仮想3次元空間においてキャラクターAを高速で移動させることができるものとする。その一方、仮想カメラの配置設定を変更した後では、図12Aの右図に示すように、仮想カメラの視方向の変更によって楕円の面積が小さくなるように操作エリア502が変形したとすると、仮想3次元空間においてキャラクターAを高速で移動させるためには、スライド距離L1よりも短いスライド距離L2だけスライド操作を行うことが必要となる。つまり、仮想カメラの配置変更前後において、ユーザーがスライド操作で入力すべきスライド距離の大きさが異なることになってしまう。
More specifically, before changing the placement setting of the virtual camera, when the user performs a slide operation on the
そこで、本実施形態におけるクライアント端末10では、仮想カメラの配置が変更される前、及び、仮想カメラの配置が変更された後のいずれにおいても、ユーザーがスライド操作で入力したスライド距離が所定距離以上であれば、仮想3次元空間においてキャラクターAを高速で移動させるようにした。
Therefore, in the
具体的には、仮想カメラ制御部103がユーザーの操作に従って仮想カメラの配置を変更した場合(例えば、仮想カメラの視方向を変更した場合)、オブジェクト制御部102は、仮想カメラの視方向が変更される前、及び、仮想カメラの視方向が変更された後のいずれにおいても、タッチパネルからの検出信号に基づいて、ユーザーのスライド操作により操作エリア502で指示された画面上のスライド距離を決定すると、その決定されたスライド距離が所定距離以上である場合には、仮想3次元空間においてキャラクターAが高速で移動するように制御する。
Specifically, when the virtual
例えば、図12Bに示すように、仮想カメラの配置が変更される前(図12Bの左図)、及び、仮想カメラの配置が変更された後(図12の右図)のいずれにおいても、ユーザーがスライド操作で入力したスライド距離が距離S以上であれば、仮想3次元空間においてキャラクターAを高速で移動させるようにする。 For example, as shown in FIG. 12B, before the placement of the virtual cameras is changed (left in FIG. 12B) and after the placement of the virtual cameras is changed (right in FIG. 12), the user If the slide distance input by the slide operation is the distance S or more, the character A is moved at high speed in the virtual three-dimensional space.
これにより、仮想3次元空間においてキャラクターAを高速で移動させるために、仮想カメラの視方向が変更された後でも、仮想カメラの視方向が変更される前と同じスライド距離だけスライド操作を行えばよいので、仮想カメラの視方向が変更されたことによる混乱を抑制することができる。 As a result, in order to move the character A at high speed in the virtual three-dimensional space, even after the view direction of the virtual camera is changed, if the slide operation is performed by the same slide distance as before the change of the view direction of the virtual camera. Since it is good, it is possible to suppress confusion due to a change in the viewing direction of the virtual camera.
<仮想カメラの配置変更>
また、仮想3次元空間においてキャラクターAが高速で移動し続けている最中に、仮想カメラの配置が変更されると、図12Aに示すように、キャラクターAの高速移動のために必要なスライド距離も連動して変更されることになる。そのため、仮想カメラの配置変更後、ユーザーがその接触させた指を画面から離さずにそのままの状態にしているにもかかわらず、キャラクターAの高速移動のために必要なスライド距離が不足してしまい、仮想3次元空間においてキャラクターAが高速移動を勝手に止めてしまう場合もある。
<Virtual camera layout change>
Further, when the arrangement of the virtual camera is changed while the character A continues to move at high speed in the virtual three-dimensional space, as shown in FIG. 12A, the slide distance required for the character A to move at high speed. Will also change accordingly. Therefore, after the virtual camera is rearranged, the sliding distance required for the high-speed movement of the character A is insufficient, even though the user keeps the finger touching the screen without removing it. In some cases, the character A may stop moving at high speed in the virtual three-dimensional space.
そこで、本実施形態におけるクライアント端末10では、仮想3次元空間においてキャラクターAが高速で移動し続けている状態においては、仮想カメラの配置が変更されたとしても、キャラクターAの高速移動をさらに続けるようにすることも可能である。
Therefore, in the
具体的には、オブジェクト制御部102は、ユーザーのスライド操作により操作エリア502で指示された画面上のスライド距離が維持されたことによって、仮想3次元空間における移動平面上の指示方向にキャラクターAが高速で移動し続けている状態において、仮想カメラ制御部103によって仮想カメラの視方向が変更された場合に、仮想カメラの視方向が変更された後において、ユーザーのスライド操作により操作エリア502で指示された画面上のスライド距離が引き続き維持されたことを条件として、仮想3次元空間においてキャラクターAの高速移動をさらに続けるように制御する。
Specifically, the
これにより、キャラクターAが高速移動しているときに仮想カメラの視方向が変更されたことによって、急にキャラクターAが低速移動することのないように制御できるため、仮想カメラの視方向が変更されたことによる混乱を抑制することができる。 As a result, it is possible to control the character A so that the character A does not suddenly move at low speed due to the change of the virtual camera view direction while the character A is moving at high speed. It is possible to suppress confusion due to things.
===その他の実施形態===
前述の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物も含まれる。特に、以下に述べる実施形態であっても、本発明に含まれるものである。
=== Other Embodiments ===
The above-described embodiments are for facilitating the understanding of the present invention and are not for limiting the interpretation of the present invention. The present invention can be modified and improved without departing from the spirit thereof, and the present invention includes equivalents thereof. In particular, the embodiments described below are also included in the present invention.
<スライド操作>
前述の実施形態では、ユーザーがスライド操作を行うことによってキャラクターの移動方向を指示できる場合を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、ユーザーがスライド操作を行うことによって攻撃方向やスキル発動方向を指示できるようにしてもよい。
<Slide operation>
In the above-described embodiment, the case where the user can instruct the moving direction of the character by performing the slide operation has been described as an example, but the present invention is not limited to this. For example, the user may instruct the attack direction or the skill activation direction by performing a slide operation.
また、前述の実施形態では、ユーザーがスライド操作で入力したスライド距離に応じてキャラクターの移動速度を変化させる場合(キャラクターの移動速度を低速から高速へ切り替える場合)を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、ユーザーがスライド操作で入力したスライド距離に応じて攻撃種類やスキル種類を変化させてもよい(攻撃種類を武器Aから武器Bへ切り替えてもよいし、発動可能なスキル種類をスキルAからスキルBに切り替えてもよい)。 In the above embodiment, the case where the moving speed of the character is changed according to the slide distance input by the user through the slide operation (when the moving speed of the character is switched from low speed to high speed) has been described as an example. The present invention is not limited to this. For example, the attack type and the skill type may be changed according to the slide distance input by the user through the slide operation (the attack type may be switched from the weapon A to the weapon B, and the skill type that can be activated from the skill A may be changed). You may switch to skill B).
<仮想カメラの配置変更>
前述の実施形態では、仮想カメラの俯角θが徐々に小さくなるように仮想カメラの視方向を変更して行った結果、楕円形状で画面表示される操作エリアが潰れて見える場合があり得る。このように楕円形状の操作エリアが見えにくくなってしまうと、タッチ操作ができなくなる。そのため、仮想カメラの俯角θが所定範囲内で変化するように、仮想カメラの配置変更を制限することも可能である。また、仮想カメラの高さが徐々に低くなるように仮想カメラの位置を変更して行った結果、楕円形状で画面表示される操作エリアが潰れて見える場合もあり得る。この場合にも、仮想カメラの高さが所定範囲内で変化するように、仮想カメラの配置変更を制限することも可能である。
<Virtual camera layout change>
In the above-described embodiment, as a result of changing the viewing direction of the virtual camera so that the depression angle θ of the virtual camera becomes gradually smaller, the operation area displayed on the screen in an elliptical shape may appear crushed. If the elliptical operation area becomes difficult to see, the touch operation cannot be performed. Therefore, it is also possible to limit the layout change of the virtual camera so that the depression angle θ of the virtual camera changes within a predetermined range. In addition, as a result of changing the position of the virtual camera so that the height of the virtual camera gradually decreases, the operation area displayed on the screen in an elliptical shape may appear to be crushed. Also in this case, it is possible to limit the layout change of the virtual camera so that the height of the virtual camera changes within a predetermined range.
また、前述の実施形態では、ユーザーの操作に従って仮想カメラの視方向が変更される場合を例に挙げて説明したが、ユーザーの操作ではなく、ゲームの進行状況等に応じて自動的に仮想カメラの視方向が変更されるように制御することも可能である。 Further, in the above-described embodiment, the case where the viewing direction of the virtual camera is changed according to the user's operation has been described as an example, but the virtual camera is not automatically operated according to the user's operation but according to the progress of the game. It is also possible to control so that the viewing direction of is changed.
<操作エリア>
前述の実施形態では、ゲーム画像501と操作エリア502を同一の画面上に配置した画面構成を例に挙げて説明したが、画面上で操作エリア502が見えないように画面構成することも可能である。
<Operation area>
In the above embodiment, the screen configuration in which the
また、前述の実施形態では、画面上で操作エリア502の配置を固定した画面構成であってもよいし、ユーザーが最初のタッチ操作で指示した任意の指示位置を基準位置とし、その基準位置に操作エリア502を配置した画面構成であってもよい。
Further, in the above-described embodiment, a screen configuration in which the arrangement of the
<指示方向の変換>
前述の実施形態では、座標変換や透視投影手法等を利用して、操作エリア502で指示された画面上の指示方向を、仮想3次元空間においてキャラクターAが移動する移動平面上の指示方向に変換する場合を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、操作エリア502と仮想操作パッドPとの面積比から変換後の指示角度を求めることにより、指示方向を変換することも可能である。
<Conversion of designated direction>
In the above-mentioned embodiment, the designated direction on the screen designated in the
1 情報処理システム
10 クライアント端末
20 サーバー装置
50 コンピューター
51 CPU
52 RAM
53 ROM
54 通信インタフェース
55 入力装置
56 表示装置
57 外部インタフェース
58 HDD
100 制御部
101 ゲーム進行部
102 オブジェクト制御部
103 仮想カメラ制御部
104 ゲーム画像生成部
105 操作エリア生成部
106 表示制御部
120 記憶部
140 通信部
150 操作受付部
160 画面表示部
500 タッチパネル
501 ゲーム画像
502 操作エリア
B バスライン
N ネットワーク
1
52 RAM
53 ROM
54
100
Claims (5)
仮想3次元空間において前記移動平面と平行になるように配置された仮想操作オブジェクトを、前記仮想カメラから見たときの操作エリアを生成する操作エリア生成部と、
前記ゲーム画像と前記操作エリアを同一の画面上に配置させる表示制御部と、
前記ゲーム画像と前記操作エリアが配置された画面に対するユーザーのタッチ操作を検出するタッチパネルと、
前記タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向を決定し、その決定された前記操作エリアで指示された画面上の指示方向を、仮想3次元空間における前記移動平面上の指示方向に変換し、その変換された前記移動平面上の指示方向に前記オブジェクトが移動するように制御するオブジェクト制御部と、
を備えたことを特徴とする情報処理装置。 A game image generation unit that generates a game image when the object on the moving plane is viewed from a virtual camera arranged so as to obliquely look down the moving plane on which the object moves in the virtual three-dimensional space;
An operation area generation unit that generates an operation area when a virtual operation object is arranged in parallel with the moving plane in a virtual three-dimensional space when viewed from the virtual camera;
A display control unit that arranges the game image and the operation area on the same screen;
A touch panel that detects a user's touch operation on the screen on which the game image and the operation area are arranged;
Based on the detection signal from the touch panel, the pointing direction on the screen instructed in the operation area is determined by the touch operation of the user, and the pointing direction on the screen instructed in the determined operation area is virtualized. An object control unit that converts into a designated direction on the moving plane in a three-dimensional space and controls the object to move in the transformed designated direction on the moving plane;
An information processing apparatus comprising:
仮想3次元空間における仮想カメラの配置を制御する仮想カメラ制御部と、
を備え、
ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向が維持されたことによって、仮想3次元空間における前記移動平面上の指示方向に前記オブジェクトが移動し続けている状態で、仮想カメラの配置が変更された場合に、
前記操作エリア生成部は、変更後の仮想カメラから前記仮想操作オブジェクトを見たときの操作エリアを生成し、
前記表示制御部は、仮想カメラの視方向が変更される前における前記移動平面上の指示方向を、生成された前記操作エリアでユーザーのタッチ操作により指示されるべき画面上の指示方向に変換し、その変換された前記画面上の指示方向に合うように、その生成された前記操作エリアを画面上に配置する、
ことを特徴とする情報処理装置。 The information processing apparatus according to claim 1, wherein
A virtual camera controller that controls the placement of virtual cameras in a virtual three-dimensional space;
Equipped with
The virtual camera is displayed in a state where the object continues to move in the pointing direction on the moving plane in the virtual three-dimensional space because the pointing direction on the screen instructed by the user's touch operation is maintained. If the placement of is changed,
The operation area generation unit generates an operation area when the virtual operation object is viewed from the changed virtual camera,
The display control unit converts the pointing direction on the moving plane before the viewing direction of the virtual camera is changed into the pointing direction on the screen to be instructed by the user's touch operation in the generated operation area. , Arranging the generated operation area on the screen so as to match the converted pointing direction on the screen,
An information processing device characterized by the above.
仮想3次元空間における仮想カメラの配置を制御する仮想カメラ制御部と、
を備え、
前記オブジェクト制御部は、仮想カメラの視方向が変更される前、及び、仮想カメラの視方向が変更された後のいずれにおいても、前記タッチパネルからの検出信号に基づいて、ユーザーのスライド操作により前記操作エリアで指示された画面上のスライド距離を決定し、その決定されたスライド距離が所定距離以上である場合に、仮想3次元空間においてオブジェクトが高速で移動するように制御する、
ことを特徴とする情報処理装置。 The information processing apparatus according to claim 1, wherein
A virtual camera controller that controls the placement of virtual cameras in a virtual three-dimensional space;
Equipped with
The object control unit performs the slide operation by the user based on the detection signal from the touch panel before the view direction of the virtual camera is changed and after the view direction of the virtual camera is changed. A slide distance on the screen designated by the operation area is determined, and when the determined slide distance is equal to or greater than a predetermined distance, the object is controlled to move at high speed in the virtual three-dimensional space,
An information processing device characterized by the above.
前記オブジェクト制御部は、ユーザーのスライド操作により前記操作エリアで指示された画面上のスライド距離が維持されたことによって、仮想3次元空間における前記移動平面上の指示方向に前記オブジェクトが高速で移動し続けている状態で、仮想カメラの視方向が変更された場合に、仮想カメラの視方向が変更された後において、ユーザーのスライド操作により前記操作エリアで指示された画面上のスライド距離が引き続き維持されたことを条件として、仮想3次元空間においてオブジェクトの高速移動をさらに続けるように制御する、
ことを特徴とする情報処理装置。 The information processing apparatus according to claim 3, wherein
The object control unit moves the object at a high speed in a designated direction on the moving plane in the virtual three-dimensional space by maintaining the slide distance on the screen designated in the manipulation area by the user's slide manipulation. If the viewing direction of the virtual camera is changed while continuing, after the viewing direction of the virtual camera is changed, the slide distance on the screen instructed in the operation area by the user's slide operation is continuously maintained. On condition that the object has been performed, control is performed to further continue the high-speed movement of the object in the virtual three-dimensional space,
An information processing device characterized by the above.
仮想3次元空間においてオブジェクトが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、前記移動平面上の前記オブジェクトを見たときのゲーム画像を生成するゲーム画像生成手段、
仮想3次元空間において前記移動平面と平行になるように配置された仮想操作オブジェクトを、前記仮想カメラから見たときの操作エリアを生成する操作エリア生成手段、
前記ゲーム画像と前記操作エリアを同一の画面上に配置させる表示制御手段、
タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向を決定し、その決定された前記操作エリアで指示された画面上の指示方向を、仮想3次元空間における前記移動平面上の指示方向に変換し、その変換された前記移動平面上の指示方向に前記オブジェクトが移動するように制御するオブジェクト制御手段、
として機能させるためのプログラム。
Computer
Game image generation means for generating a game image when the object on the moving plane is viewed from a virtual camera arranged so as to obliquely look down the moving plane on which the object moves in the virtual three-dimensional space,
An operation area generation unit that generates an operation area when a virtual operation object arranged in parallel with the moving plane in a virtual three-dimensional space is viewed from the virtual camera,
Display control means for arranging the game image and the operation area on the same screen,
Based on a detection signal from the touch panel, a user's touch operation determines a pointing direction on the screen instructed in the operation area, and the pointing direction on the screen instructed in the determined operation area is set to a virtual 3 Object control means for converting into a designated direction on the moving plane in the dimensional space and controlling the object to move in the transformed designated direction on the moving plane;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019133189A JP2020062376A (en) | 2019-07-18 | 2019-07-18 | Information processor and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019133189A JP2020062376A (en) | 2019-07-18 | 2019-07-18 | Information processor and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018195454A Division JP6569794B1 (en) | 2018-10-16 | 2018-10-16 | Information processing apparatus and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020062376A true JP2020062376A (en) | 2020-04-23 |
Family
ID=70388021
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019133189A Pending JP2020062376A (en) | 2019-07-18 | 2019-07-18 | Information processor and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020062376A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111603770A (en) * | 2020-05-21 | 2020-09-01 | 腾讯科技(深圳)有限公司 | Virtual environment picture display method, device, equipment and medium |
-
2019
- 2019-07-18 JP JP2019133189A patent/JP2020062376A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111603770A (en) * | 2020-05-21 | 2020-09-01 | 腾讯科技(深圳)有限公司 | Virtual environment picture display method, device, equipment and medium |
CN111603770B (en) * | 2020-05-21 | 2023-05-05 | 腾讯科技(深圳)有限公司 | Virtual environment picture display method, device, equipment and medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11752432B2 (en) | Information processing device and method of causing computer to perform game program | |
US10503218B2 (en) | Information processing device and information processing method to control display of image based on inclination information | |
US8830184B2 (en) | Image displaying device, image displaying method, and program for displaying images | |
US20180067572A1 (en) | Method of controlling virtual object or view point on two dimensional interactive display | |
US20210232307A1 (en) | Control apparatus, control method, and storage medium | |
WO2020080346A1 (en) | Information processing device and program | |
US10891028B2 (en) | Information processing device and information processing method | |
EP2801967B1 (en) | Electronic device for providing information to a user | |
US11099723B2 (en) | Interaction method for user interfaces | |
JP2014099155A (en) | Method and electronic device for providing virtual keyboard | |
JP2006092321A (en) | Electronic equipment and touchpad device | |
JP6969516B2 (en) | Programs and information processing equipment | |
JP6394190B2 (en) | System and method enabling gesture control based on occlusion pattern detection | |
US20160191875A1 (en) | Image projection apparatus, and system employing interactive input-output capability | |
TWI442305B (en) | A operation method and a system of the multi-touch | |
JP2020062376A (en) | Information processor and program | |
JP6501533B2 (en) | Interface program for icon selection | |
JP5767371B1 (en) | Game program for controlling display of objects placed on a virtual space plane | |
KR101528485B1 (en) | System and method for virtual reality service based in smart device | |
JP2019202128A (en) | Information processor and program | |
JP5773818B2 (en) | Display control apparatus, display control method, and computer program | |
JP2016130888A (en) | Computer program for icon selection, portable terminal, and computer mounting method | |
JP6521146B1 (en) | Information processing apparatus and program | |
JP7473832B1 (en) | Electronic devices and programs | |
CN116661656B (en) | Picture interaction method and shooting display system |