JP2020062376A - Information processor and program - Google Patents

Information processor and program Download PDF

Info

Publication number
JP2020062376A
JP2020062376A JP2019133189A JP2019133189A JP2020062376A JP 2020062376 A JP2020062376 A JP 2020062376A JP 2019133189 A JP2019133189 A JP 2019133189A JP 2019133189 A JP2019133189 A JP 2019133189A JP 2020062376 A JP2020062376 A JP 2020062376A
Authority
JP
Japan
Prior art keywords
virtual
screen
operation area
dimensional space
virtual camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019133189A
Other languages
Japanese (ja)
Inventor
龍一郎 佐伯
Ryuichiro Saeki
龍一郎 佐伯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Games Co Ltd filed Critical Sega Games Co Ltd
Priority to JP2019133189A priority Critical patent/JP2020062376A/en
Publication of JP2020062376A publication Critical patent/JP2020062376A/en
Pending legal-status Critical Current

Links

Images

Abstract

To allow a user to easily operate an object while watching a screen.SOLUTION: An information processor comprises: a game image generation part for generating a game image when an object on a moving plane is watched from a virtual camera disposed so as to obliquely look down the moving plane in which the object travels in a virtual three-dimensional space; an operation area generation part for generating an operation area when viewing a virtual operation object disposed so as to be in parallel with the moving plane in the virtual three-dimensional space from the virtual camera; a display control part for disposing the game image and the operation area on a same screen; and an object control part for determining an instruction direction on a screen instructed in the operation area by a user's touch operation based on a detection signal from a touch panel, converting an instruction direction on a screen instructed in the determined operation area into an instruction direction on the moving plane in the virtual three-dimensional space, and performing control such that the object travels in the converted instruction direction on the moving plane.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置及びプログラムに関する。   The present invention relates to an information processing device and a program.

ユーザーがタッチパネルを用いて画面上の操作エリアに対するタッチ操作を行うことによって、仮想3次元空間内においてオブジェクトを移動させる情報処理装置が知られている(たとえば、特許文献1)。   There is known an information processing device that moves an object in a virtual three-dimensional space by a user performing a touch operation on an operation area on the screen using a touch panel (for example, Patent Document 1).

特許第3734820号公報Japanese Patent No. 3734820

仮想3次元空間内のオブジェクトを斜めから見下ろした俯瞰的なゲーム画像を画面に表示することによって、ユーザーのタッチ操作により操作エリアで指示された画面上の指示方向と、オブジェクトが移動する画面上の移動方向が一致しない場合があった。この場合には、ユーザーの意図した方向にキャラクターが移動しないことになるため、ユーザーにとって画面を見ながらオブジェクトを操作することが困難となる。
本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、ユーザーが画面を見ながらオブジェクトを簡単に操作できるようにすることにある。
By displaying on the screen a bird's-eye view game image in which an object in the virtual three-dimensional space is looked down diagonally, the pointing direction on the screen instructed by the user's touch operation and the on-screen moving object In some cases, the directions of movement did not match. In this case, the character does not move in the direction intended by the user, which makes it difficult for the user to operate the object while looking at the screen.
The present invention has been made in view of such circumstances, and an object thereof is to allow a user to easily operate an object while looking at a screen.

上記課題を解決するための本発明の主たる発明は、
仮想3次元空間においてオブジェクトが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、前記移動平面上の前記オブジェクトを見たときのゲーム画像を生成するゲーム画像生成部と、
仮想3次元空間において前記移動平面と平行になるように配置された仮想操作オブジェクトを、前記仮想カメラから見たときの操作エリアを生成する操作エリア生成部と、
前記ゲーム画像と前記操作エリアを同一の画面上に配置させる表示制御部と、
前記ゲーム画像と前記操作エリアが配置された画面に対するユーザーのタッチ操作を検出するタッチパネルと、
前記タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向を決定し、その決定された前記操作エリアで指示された画面上の指示方向を、仮想3次元空間における前記移動平面上の指示方向に変換し、その変換された前記移動平面上の指示方向に前記オブジェクトが移動するように制御するオブジェクト制御部と、
を備えたことを特徴とする情報処理装置である。
本発明の他の特徴については、本明細書及び添付図面の記載により明らかにする。
The main invention of the present invention for solving the above problems is
A game image generation unit that generates a game image when the object on the moving plane is viewed from a virtual camera arranged so as to obliquely look down the moving plane on which the object moves in the virtual three-dimensional space;
An operation area generation unit that generates an operation area when a virtual operation object is arranged in parallel with the moving plane in a virtual three-dimensional space when viewed from the virtual camera;
A display control unit that arranges the game image and the operation area on the same screen;
A touch panel that detects a user's touch operation on the screen on which the game image and the operation area are arranged;
Based on the detection signal from the touch panel, the pointing direction on the screen instructed in the operation area is determined by the touch operation of the user, and the pointing direction on the screen instructed in the determined operation area is virtualized. An object control unit that converts into a designated direction on the moving plane in a three-dimensional space and controls the object to move in the transformed designated direction on the moving plane;
An information processing apparatus comprising:
Other features of the present invention will become apparent from the description of this specification and the accompanying drawings.

情報処理システム1の一例を示す構成図である。It is a block diagram which shows an example of the information processing system 1. コンピューターの一例を示すハードウェア構成図である。It is a hardware block diagram which shows an example of a computer. クライアント端末10の一例を示す機能ブロック図である。3 is a functional block diagram showing an example of a client terminal 10. FIG. 比較例におけるゲーム画像を生成するときのワールド座標系、ビュー座標系、及びスクリーン座標系の関係を示す図である。It is a figure which shows the relationship of a world coordinate system, a view coordinate system, and a screen coordinate system at the time of generating a game image in a comparative example. 比較例における操作エリアを生成するときのワールド座標系、ビュー座標系、及びスクリーン座標系の関係を示す図である。It is a figure which shows the relationship of a world coordinate system, a view coordinate system, and a screen coordinate system when generating the operation area in a comparative example. 図6Aは、比較例におけるクライアント端末10の画面構成例を示す図である。図6Bは、仮想3次元空間におけるキャラクターの移動方向を示す図である。FIG. 6A is a diagram showing a screen configuration example of the client terminal 10 in the comparative example. FIG. 6B is a diagram showing the moving direction of the character in the virtual three-dimensional space. 本発明に係る実施例における操作エリアを生成するときのワールド座標系、ビュー座標系、及びスクリーン座標系の関係を示す図である。It is a figure which shows the relationship of a world coordinate system, a view coordinate system, and a screen coordinate system when generating the operation area in the Example which concerns on this invention. 本発明に係るクライアント端末10の画面構成例を示す図である。It is a figure which shows the example of a screen structure of the client terminal 10 which concerns on this invention. 本実施形態におけるクライアント端末10のキャラクター移動に関する動作例について説明するフローチャートである。It is a flow chart explaining an example of operation about character movement of client terminal 10 in this embodiment. 指示方向の変換について説明する図である。It is a figure explaining conversion of a pointing direction. 仮想カメラの配置変更に伴う指示方向の変換について説明する図である。It is a figure explaining conversion of the pointing direction accompanying the change of arrangement of a virtual camera. 操作エリアに対するスライド操作の具体例について説明する図である。It is a figure explaining the specific example of the slide operation with respect to the operation area.

本明細書及び添付図面の記載により、少なくとも以下の事項が明らかとなる。
即ち、仮想3次元空間においてオブジェクトが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、前記移動平面上の前記オブジェクトを見たときのゲーム画像を生成するゲーム画像生成部と、
仮想3次元空間において前記移動平面と平行になるように配置された仮想操作オブジェクトを、前記仮想カメラから見たときの操作エリアを生成する操作エリア生成部と、
前記ゲーム画像と前記操作エリアを同一の画面上に配置させる表示制御部と、
前記ゲーム画像と前記操作エリアが配置された画面に対するユーザーのタッチ操作を検出するタッチパネルと、
前記タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向を決定し、その決定された前記操作エリアで指示された画面上の指示方向を、仮想3次元空間における前記移動平面上の指示方向に変換し、その変換された前記移動平面上の指示方向に前記オブジェクトが移動するように制御するオブジェクト制御部と、
を備えたことを特徴とする情報処理装置である。
このような情報処理装置によれば、仮想3次元空間においてオブジェクトの移動平面と仮想操作オブジェクトの操作平面が平行になるように配置することで、仮想3次元空間を斜めから見下ろしたときに仮想カメラから見えるゲーム画像と操作エリアが同一の画面上に配置されたとしても、ユーザーのタッチ操作により操作エリアで指示された画面上の指示方向とオブジェクトが移動する画面上の移動方向が一致するようになる。これにより、ユーザーが画面を見ながらオブジェクトを簡単に操作できるようになる。
At least the following matters will be made clear by the present specification and the description of the accompanying drawings.
That is, a game image generation unit that generates a game image when the object on the moving plane is viewed from a virtual camera arranged so as to obliquely look down the moving plane on which the object moves in the virtual three-dimensional space,
An operation area generation unit that generates an operation area when a virtual operation object is arranged in parallel with the moving plane in a virtual three-dimensional space when viewed from the virtual camera;
A display control unit that arranges the game image and the operation area on the same screen;
A touch panel that detects a user's touch operation on the screen on which the game image and the operation area are arranged;
Based on the detection signal from the touch panel, the pointing direction on the screen instructed in the operation area is determined by the touch operation of the user, and the pointing direction on the screen instructed in the determined operation area is virtualized. An object control unit that converts into a designated direction on the moving plane in a three-dimensional space and controls the object to move in the transformed designated direction on the moving plane;
An information processing apparatus comprising:
According to such an information processing apparatus, by arranging the moving plane of the object and the operation plane of the virtual operation object to be parallel to each other in the virtual three-dimensional space, the virtual camera when the virtual three-dimensional space is looked down obliquely. Even if the game image seen from above and the operation area are placed on the same screen, the pointing direction on the screen instructed by the user's touch operation and the moving direction on the screen where the object moves will match. Become. This allows the user to easily operate the object while looking at the screen.

また、かかる情報処理装置であって、
仮想3次元空間における仮想カメラの配置を制御する仮想カメラ制御部を備え、
ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向が維持されたことによって、仮想3次元空間における前記移動平面上の指示方向に前記オブジェクトが移動し続けている状態で、仮想カメラの配置が変更された場合に、
前記操作エリア生成部は、変更後の仮想カメラから前記仮想操作オブジェクトを見たときの操作エリアを生成し、
前記表示制御部は、仮想カメラの視方向が変更される前における前記移動平面上の指示方向を、生成された前記操作エリアでユーザーのタッチ操作により指示されるべき画面上の指示方向に変換し、その変換された前記画面上の指示方向に合うように、その生成された前記操作エリアを画面上に配置することとしても良い。
このような情報処理装置によれば、ユーザーのタッチ操作の継続中に仮想カメラの配置が変更されたとしても、これまでの移動方向を維持しつつオブジェクトを移動させることができる。
Further, in the information processing device,
A virtual camera control unit for controlling the placement of the virtual cameras in the virtual three-dimensional space,
The virtual camera is displayed in a state where the object continues to move in the pointing direction on the moving plane in the virtual three-dimensional space because the pointing direction on the screen instructed by the user's touch operation is maintained. If the placement of is changed,
The operation area generation unit generates an operation area when the virtual operation object is viewed from the changed virtual camera,
The display control unit converts the pointing direction on the moving plane before the viewing direction of the virtual camera is changed into the pointing direction on the screen to be instructed by the user's touch operation in the generated operation area. The generated operation area may be arranged on the screen so as to match the converted instruction direction on the screen.
According to such an information processing device, even if the arrangement of the virtual camera is changed while the user's touch operation is continued, it is possible to move the object while maintaining the moving direction so far.

また、かかる情報処理装置であって、
仮想3次元空間における仮想カメラの配置を制御する仮想カメラ制御部を備え、
前記オブジェクト制御部は、仮想カメラの視方向が変更される前、及び、仮想カメラの視方向が変更された後のいずれにおいても、前記タッチパネルからの検出信号に基づいて、ユーザーのスライド操作により前記操作エリアで指示された画面上のスライド距離を決定し、その決定されたスライド距離が所定距離以上である場合に、仮想3次元空間においてオブジェクトが高速で移動するように制御することとしても良い。
このような情報処理装置によれば、仮想3次元空間においてオブジェクトを高速で移動させるために、仮想カメラの視方向が変更された後でも、仮想カメラの視方向が変更される前と同じスライド距離だけスライド操作を行えばよいので、仮想カメラの視方向が変更されたことによる混乱を抑制することができる。
Further, in the information processing device,
A virtual camera control unit for controlling the placement of the virtual cameras in the virtual three-dimensional space,
The object control unit performs the slide operation by the user based on the detection signal from the touch panel before the view direction of the virtual camera is changed and after the view direction of the virtual camera is changed. It is also possible to determine the slide distance on the screen designated in the operation area and control the object to move at high speed in the virtual three-dimensional space when the determined slide distance is a predetermined distance or more.
According to such an information processing device, in order to move the object at high speed in the virtual three-dimensional space, even after the viewing direction of the virtual camera is changed, the same slide distance as before the viewing direction of the virtual camera is changed. Since only the slide operation needs to be performed, it is possible to suppress confusion due to the change of the viewing direction of the virtual camera.

また、かかる情報処理装置であって、
前記オブジェクト制御部は、ユーザーのスライド操作により前記操作エリアで指示された画面上のスライド距離が維持されたことによって、仮想3次元空間における前記移動平面上の指示方向に前記オブジェクトが高速で移動し続けている状態で、仮想カメラの視方向が変更された場合に、仮想カメラの視方向が変更された後において、ユーザーのスライド操作により前記操作エリアで指示された画面上のスライド距離が引き続き維持されたことを条件として、仮想3次元空間においてオブジェクトの高速移動をさらに続けるように制御することとしても良い。
このような情報処理装置によれば、オブジェクトが高速移動しているときに仮想カメラの視方向が変更されたことによって、急にオブジェクトが低速移動することのないように制御できるため、仮想カメラの視方向が変更されたことによる混乱を抑制することができる。
Further, in the information processing device,
The object control unit moves the object at a high speed in a designated direction on the moving plane in the virtual three-dimensional space by maintaining the slide distance on the screen designated in the manipulation area by the user's slide manipulation. If the viewing direction of the virtual camera is changed while continuing, after the viewing direction of the virtual camera is changed, the slide distance on the screen instructed in the operation area by the user's slide operation is continuously maintained. On the condition that the object has been moved, the object may be controlled so that the high-speed movement of the object is further continued in the virtual three-dimensional space.
According to such an information processing device, it is possible to control so that the object does not suddenly move at low speed due to the change of the view direction of the virtual camera while the object moves at high speed. It is possible to suppress confusion due to a change in the viewing direction.

次に、コンピューターを、
仮想3次元空間においてオブジェクトが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、前記移動平面上の前記オブジェクトを見たときのゲーム画像を生成するゲーム画像生成手段、
仮想3次元空間において前記移動平面と平行になるように配置された仮想操作オブジェクトを、前記仮想カメラから見たときの操作エリアを生成する操作エリア生成手段、
前記ゲーム画像と前記操作エリアを同一の画面上に配置させる表示制御手段、
タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向を決定し、その決定された前記操作エリアで指示された画面上の指示方向を、仮想3次元空間における前記移動平面上の指示方向に変換し、その変換された前記移動平面上の指示方向に前記オブジェクトが移動するように制御するオブジェクト制御手段、
として機能させるためのプログラムである。
このようなプログラムによれば、ユーザーが画面を見ながらオブジェクトを簡単に操作できるようになる。
Next, the computer
Game image generation means for generating a game image when the object on the moving plane is viewed from a virtual camera arranged so as to obliquely look down the moving plane on which the object moves in the virtual three-dimensional space,
An operation area generation unit that generates an operation area when a virtual operation object arranged in parallel with the moving plane in a virtual three-dimensional space is viewed from the virtual camera,
Display control means for arranging the game image and the operation area on the same screen,
Based on a detection signal from the touch panel, a user's touch operation determines a pointing direction on the screen instructed in the operation area, and the pointing direction on the screen instructed in the determined operation area is set to a virtual 3 Object control means for converting into a designated direction on the moving plane in the dimensional space and controlling the object to move in the transformed designated direction on the moving plane;
It is a program to function as.
With such a program, the user can easily operate the object while looking at the screen.

===実施形態===
以下では、本発明の実施形態に係る情報処理装置、プログラム及び情報処理システムについて詳細に説明する。なお、本発明はタッチパネルでプレイ可能なゲームを採用する情報処理装置、プログラム、及び情報処理システム等に広く適用できる。
=== Embodiment ===
Hereinafter, the information processing device, the program, and the information processing system according to the embodiment of the present invention will be described in detail. The present invention can be widely applied to an information processing device, a program, an information processing system, etc. that employs a game playable on a touch panel.

<<システム構成>>
図1は、本実施形態に係る情報処理システム1の一例を示す構成図である。図1に示すように、本実施形態に係る情報処理システム1は、1台以上のクライアント端末10とサーバー装置20とがネットワークNを介して接続されている。
<< system configuration >>
FIG. 1 is a configuration diagram showing an example of an information processing system 1 according to the present embodiment. As shown in FIG. 1, in the information processing system 1 according to the present embodiment, one or more client terminals 10 and a server device 20 are connected via a network N.

クライアント端末10は、ユーザーが操作するスマートフォン、タブレット、PCなどの端末装置や、家庭用や業務用のゲーム専用機器などの端末装置である。サーバー装置20は、クライアント端末10でユーザーにより行われるゲームの管理や制御、ゲーム内での課金処理等を行う。ネットワークNは、インターネット等であって、移動無線基地局などを含む。   The client terminal 10 is a terminal device such as a smartphone, a tablet, or a PC operated by a user, or a terminal device such as a game dedicated device for home or business use. The server device 20 manages and controls the game played by the user on the client terminal 10 and performs billing processing within the game. The network N is the Internet or the like and includes mobile radio base stations and the like.

<<ハードウェア構成>>
<クライアント端末>
図2は、本実施形態に係るコンピューター50の一例を示すハードウェア構成図である。本実施形態に係るクライアント端末10は、例えば図2に示すハードウェア構成のコンピューター50により実現される。なお、コンピューター50は情報処理装置の一例である。
<< Hardware configuration >>
<Client terminal>
FIG. 2 is a hardware configuration diagram showing an example of the computer 50 according to the present embodiment. The client terminal 10 according to the present embodiment is realized by, for example, the computer 50 having the hardware configuration shown in FIG. The computer 50 is an example of an information processing device.

コンピューター50は、図2に示すように、CPU51と、RAM52と、ROM53と、通信インタフェース54と、入力装置55と、表示装置56と、外部インタフェース57と、HDD58などを備えており、それぞれがバスラインBによって相互に接続されている。   As shown in FIG. 2, the computer 50 includes a CPU 51, a RAM 52, a ROM 53, a communication interface 54, an input device 55, a display device 56, an external interface 57, an HDD 58, etc., each of which is a bus. They are connected to each other by a line B.

CPU51は、ROM53やHDD58などの記憶装置からプログラムやデータをRAM52上に読み出し、読み出したプログラムやデータに基づく各種処理を実行することによって、コンピューター全体の制御や機能を実現する演算装置である。   The CPU 51 is an arithmetic unit that realizes control and functions of the entire computer by reading programs and data from a storage device such as the ROM 53 and the HDD 58 onto the RAM 52 and executing various processes based on the read programs and data.

RAM52は、プログラムやデータを一時保持するための揮発性の半導体メモリ(記憶装置)の一例であり、CPU51が各種処理を実行する際のワークエリアとしても利用される。   The RAM 52 is an example of a volatile semiconductor memory (storage device) for temporarily storing programs and data, and is also used as a work area when the CPU 51 executes various processes.

ROM53は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)の一例である。ROM53には、コンピューター50の起動時に実行されるBIOS、OS設定、及びネットワーク設定などのプログラムやデータが格納されている。   The ROM 53 is an example of a non-volatile semiconductor memory (storage device) that can retain programs and data even when the power is turned off. The ROM 53 stores programs and data such as a BIOS executed when the computer 50 is started up, OS settings, and network settings.

通信インタフェース54は、コンピューター50をネットワークNに接続するためのインタフェースである。これにより、コンピューター50は通信インタフェース54を介してデータ通信を行うことができる。   The communication interface 54 is an interface for connecting the computer 50 to the network N. This allows the computer 50 to perform data communication via the communication interface 54.

入力装置55は、ユーザーが各種信号を入力するのに用いる装置である。入力装置55は、例えば、タッチパネル、操作キーやボタン、キーボードやマウスなどの操作装置である。   The input device 55 is a device used by the user to input various signals. The input device 55 is an operation device such as a touch panel, operation keys or buttons, a keyboard or a mouse.

本実施形態におけるクライアント端末10は、少なくともタッチパネルを有している。タッチパネルは、表示装置56の上に積層される静電容量式のパネルによって構成されている。このタッチパネルでは、ユーザーの指やタッチペン等によるタッチ操作が行われると、格子状に配列されている透明電極が静電容量の変化を検出してその検出信号を出力する。本実施形態においては、静電容量の変化が生じた透明電極の範囲から決まる重心位置が、画面上でのタッチ位置(指示位置)として特定される。   The client terminal 10 in this embodiment has at least a touch panel. The touch panel is composed of a capacitance type panel laminated on the display device 56. In this touch panel, when a touch operation by a user's finger or a touch pen is performed, transparent electrodes arranged in a grid detect a change in capacitance and output a detection signal thereof. In the present embodiment, the position of the center of gravity determined by the range of the transparent electrode in which the capacitance has changed is specified as the touch position (pointing position) on the screen.

表示装置56は、タッチパネルを用いてゲームプレイを行うユーザーに対して各種情報を画面表示するための装置である。表示装置56は、例えば、液晶や有機ELなどのディスプレイである。   The display device 56 is a device for displaying various information on the screen for a user who plays a game using a touch panel. The display device 56 is, for example, a display such as liquid crystal or organic EL.

外部インタフェース57は、外部装置とデータ通信可能に接続するためのインタフェースである。これにより、コンピューター50は外部インタフェース57を介して記録媒体の読み取り及び/又は書き込みを行うことができる。外部装置は、例えば、フレキシブルディスク、CD、DVD、SDメモリカード、USBメモリなどの記録媒体である。   The external interface 57 is an interface for connecting to an external device so that data communication is possible. As a result, the computer 50 can read and / or write the recording medium via the external interface 57. The external device is a recording medium such as a flexible disk, a CD, a DVD, an SD memory card, or a USB memory.

HDD58は、プログラムやデータを格納している不揮発性の記憶装置の一例である。格納されるプログラムやデータには、コンピューター全体を制御する基本ソフトウェアであるOS、及びOS上において各種機能を提供するアプリケーションなどがある。   The HDD 58 is an example of a non-volatile storage device that stores programs and data. The stored programs and data include an OS that is basic software that controls the entire computer, and applications that provide various functions on the OS.

なお、HDD58に替えて、記憶媒体としてフラッシュメモリを用いるドライブ装置(例えばソリッドステートドライブ:SSD)を利用してもよい。   Instead of the HDD 58, a drive device (eg, solid state drive: SSD) that uses a flash memory as a storage medium may be used.

本実施形態に係るクライアント端末10は、上述したハードウェア構成のコンピューター50においてプログラムを実行することにより、後述するような各種処理を実現することができる。   The client terminal 10 according to the present embodiment can realize various processes described below by executing the program in the computer 50 having the above-described hardware configuration.

<<ソフトウェア構成>>
<クライアント端末>
図3は、本実施形態に係るクライアント端末10の一例を示す機能ブロック図である。本実施形態に係るクライアント端末10は、例えば図3に示す機能ブロックにより実現される。
<< software configuration >>
<Client terminal>
FIG. 3 is a functional block diagram showing an example of the client terminal 10 according to the present embodiment. The client terminal 10 according to the present embodiment is realized by the functional blocks shown in FIG. 3, for example.

本実施形態に係るクライアント端末10は、プログラムを実行することにより、制御部100と、記憶部120と、通信部140と、操作受付部150と、画面表示部160を実現する。   The client terminal 10 according to the present embodiment realizes the control unit 100, the storage unit 120, the communication unit 140, the operation receiving unit 150, and the screen display unit 160 by executing the program.

制御部100は、クライアント端末10における各種処理を実行する機能を有する。この制御部100は、ゲーム進行部101と、オブジェクト制御部102と、仮想カメラ制御部103と、ゲーム画像生成部104と、操作エリア生成部105と、表示制御部106を含む。   The control unit 100 has a function of executing various processes in the client terminal 10. The control unit 100 includes a game progression unit 101, an object control unit 102, a virtual camera control unit 103, a game image generation unit 104, an operation area generation unit 105, and a display control unit 106.

ゲーム進行部101は、クライアント端末10がユーザーから受け付けたゲーム操作に基づき、クライアント端末10でプレイ可能な各種ゲーム(例えば、アクションゲーム等)の進行を制御する。   The game progression unit 101 controls the progress of various games (eg, action games) playable on the client terminal 10 based on the game operation received by the client terminal 10 from the user.

オブジェクト制御部102は、仮想3次元空間(仮想ゲーム空間)に配置されるオブジェクトの挙動を制御する。本実施形態におけるオブジェクト制御部102は、ユーザーのタッチ操作によって指示された画面上の指示方向を、仮想3次元空間における移動平面上の指示方向に変換し、その変換された移動平面上の指示方向にオブジェクトが移動するように制御する。   The object control unit 102 controls the behavior of objects arranged in a virtual three-dimensional space (virtual game space). The object control unit 102 according to the present exemplary embodiment converts the designated direction on the screen designated by the user's touch operation into the designated direction on the moving plane in the virtual three-dimensional space, and the transformed designated direction on the moving plane. Control the object to move to.

このオブジェクト制御部102は、タッチ位置決定部及び操作入力判定部としての機能を含む。タッチ位置決定部は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上のタッチ位置を決定する。具体的には、格子状に配列されている透明電極のうち静電容量の変化が生じた透明電極の位置に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置(タッチ位置)を決定する。そして、操作入力判定部は、タッチパネルを用いてゲームプレイを行うユーザーによって入力されたゲーム操作の種類を判定する。例えば、ユーザーのタッチ位置が操作エリアに位置するか否かによってタッチ操作が入力されたか否かを判定したり、ユーザーのタッチ位置が操作エリアから所定方向へスライド移動したか否かによってスライド操作が入力されたか否かを判定したりする。   The object control unit 102 includes functions as a touch position determination unit and an operation input determination unit. The touch position determination unit determines the touch position on the screen instructed by the touch operation of the user based on the detection signal from the touch panel. Specifically, based on the positions of the transparent electrodes where the capacitance changes among the transparent electrodes arranged in a grid pattern, the designated position (touch position) on the screen designated by the user's touch operation is determined. decide. Then, the operation input determination unit determines the type of game operation input by the user who plays the game using the touch panel. For example, it is determined whether or not the touch operation is input depending on whether or not the touch position of the user is located in the operation area, or the slide operation is performed depending on whether or not the touch position of the user is slid in the predetermined direction from the operation area. Whether or not it is input is determined.

仮想カメラ制御部103は、仮想3次元空間における仮想カメラの配置を制御する。本実施形態における仮想カメラ制御部103は、ユーザーの操作に応じて、仮想3次元空間における仮想カメラの配置(例えば、視点位置、視方向、画角等)を変更することにより、仮想カメラから見える仮想3次元空間の様子が変化するように制御する。   The virtual camera control unit 103 controls the placement of virtual cameras in a virtual three-dimensional space. The virtual camera control unit 103 according to the present embodiment changes the placement of the virtual cameras in the virtual three-dimensional space (for example, the viewpoint position, the viewing direction, the angle of view, etc.) according to the user's operation, so that the virtual cameras can be seen Control is performed so that the state of the virtual three-dimensional space changes.

ゲーム画像生成部104は、仮想3次元空間に配置されたオブジェクトを仮想カメラから見たときのゲーム画像を2次元画像として生成する。本実施形態におけるゲーム画像生成部104は、仮想3次元空間においてオブジェクトが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、その移動平面上のオブジェクトを見たときのゲーム画像を生成する。具体的には、ゲーム画像生成部104は、ワールド座標系で表現される3次元座標に配置されたオブジェクトを、仮想カメラを基準とするビュー座標系への座標変換を行なう。そして、ビュー座標系に配置されたオブジェクトに対して透視変換等を行なって、その仮想カメラから見たときの仮想3次元空間の様子を2次元画像として生成する。また、ゲーム画像生成部104は、光源処理などの補間処理や、オブジェクトにテクスチャをマッピングするための処理等も行なう。   The game image generation unit 104 generates a game image when an object arranged in the virtual three-dimensional space is viewed from the virtual camera as a two-dimensional image. The game image generation unit 104 in the present embodiment generates a game image when the object on the moving plane is viewed from a virtual camera arranged so as to obliquely look down on the moving plane on which the object moves in the virtual three-dimensional space. To do. Specifically, the game image generation unit 104 performs coordinate conversion of the object arranged in the three-dimensional coordinates represented by the world coordinate system into the view coordinate system with the virtual camera as a reference. Then, perspective transformation or the like is performed on the object arranged in the view coordinate system to generate a state of the virtual three-dimensional space as viewed from the virtual camera as a two-dimensional image. The game image generation unit 104 also performs interpolation processing such as light source processing and processing for mapping a texture on an object.

操作エリア生成部105は、仮想3次元空間に配置された仮想操作オブジェクトを仮想カメラから見たときの操作エリアを2次元画像として生成する。本実施形態における操作エリア生成部105は、仮想3次元空間においてオブジェクトが移動する移動平面と平行になるように配置された仮想操作オブジェクトを、仮想カメラから見たときの操作エリアを生成する。なお、この操作エリア生成部105は、ゲーム画像生成部104と同様にして具体的な描画処理を行なう。   The operation area generation unit 105 generates, as a two-dimensional image, an operation area when the virtual operation object arranged in the virtual three-dimensional space is viewed from the virtual camera. The operation area generation unit 105 in the present embodiment generates an operation area when a virtual operation object, which is arranged so as to be parallel to a moving plane on which the object moves in the virtual three-dimensional space, is viewed from the virtual camera. The operation area generation unit 105 performs a specific drawing process in the same manner as the game image generation unit 104.

表示制御部106は、仮想3次元空間に配置される各種オブジェクトの2次元画像が含まれるゲーム画面をフレーム毎(例えば、1/60秒毎)に構成して画面表示部160に出力する制御を行う。本実施形態における表示制御部106は、ゲーム画像生成部104によって生成されたゲーム画像と、操作エリア生成部105によって生成された操作エリアを同一の画面上に配置させることによってゲーム画面を構成する。   The display control unit 106 configures a game screen including two-dimensional images of various objects arranged in the virtual three-dimensional space for each frame (for example, every 1/60 seconds), and outputs the screen to the screen display unit 160. To do. The display control unit 106 in the present embodiment configures a game screen by arranging the game image generated by the game image generation unit 104 and the operation area generated by the operation area generation unit 105 on the same screen.

記憶部120は、インストールされたアプリケーション(ゲームアプリ等)やクライアント端末10において必要となる各種情報を記憶する。通信部140は、サーバー装置20との通信を行う。画面表示部160は、表示制御部106の制御に従いゲーム画面を取得してクライアント端末10にて画面表示を行う。   The storage unit 120 stores installed applications (game applications and the like) and various information necessary for the client terminal 10. The communication unit 140 communicates with the server device 20. The screen display unit 160 acquires the game screen according to the control of the display control unit 106 and displays the screen on the client terminal 10.

<<画面構成>>
本実施形態におけるクライアント端末10の画面構成例について説明する。ここでは、比較例について説明した後に、本発明に係る実施例について説明する。
<< Screen configuration >>
A screen configuration example of the client terminal 10 in the present embodiment will be described. Here, after a comparative example is described, an example according to the present invention will be described.

<比較例>
図4は、比較例におけるゲーム画像を生成するときのワールド座標系、ビュー座標系、及びスクリーン座標系の関係を示す図である。以下では、仮想3次元空間の基準を原点Owとする3次元座標(Xw、Yw、Zw)をワールド座標系と表現し、仮想カメラを原点Ocとする3次元座標(Xc、Yc、Zc)をビュー座標系と表現し、クライアント端末10の画面に対応するスクリーン面(投影面)の中心を原点Osとする2次元座標(Xs、Ys)をスクリーン座標系と表現する。
<Comparative example>
FIG. 4 is a diagram showing the relationship between the world coordinate system, the view coordinate system, and the screen coordinate system when a game image is generated in the comparative example. Below, the three-dimensional coordinates (Xw, Yw, Zw) with the origin Ow as the reference of the virtual three-dimensional space are expressed as a world coordinate system, and the three-dimensional coordinates (Xc, Yc, Zc) with the virtual camera as the origin Oc are expressed. A two-dimensional coordinate (Xs, Ys) having a center of a screen surface (projection surface) corresponding to the screen of the client terminal 10 as an origin Os is expressed as a screen coordinate system.

仮想カメラは、ワールド座標系のYw軸方向の高さからZw軸方向に対する俯角θでXw−Zw平面を斜めから見下ろすように配置されている。このように仮想3次元空間に仮想カメラを配置することによって、ワールド座標系に関連付けてビュー座標系が設定されることになる。   The virtual camera is arranged so as to obliquely look down the Xw-Zw plane at a depression angle θ with respect to the Zw-axis direction from the height in the Yw-axis direction of the world coordinate system. By arranging the virtual camera in the virtual three-dimensional space in this way, the view coordinate system is set in association with the world coordinate system.

ビュー座標系のZc軸方向は、クライアント端末10の画面に対応するスクリーン面(スクリーン座標系の原点Os)に垂直に下した方向であり、仮想カメラの視方向と一致している。ビュー座標系のXc−Yc平面は、スクリーン面と平行であり、ビュー座標系の原点Ocからスクリーン座標系原点Osまでの距離は仮想カメラの焦点距離と一致している。   The Zc axis direction of the view coordinate system is a direction perpendicular to the screen surface (origin Os of the screen coordinate system) corresponding to the screen of the client terminal 10, and coincides with the viewing direction of the virtual camera. The Xc-Yc plane of the view coordinate system is parallel to the screen surface, and the distance from the view coordinate system origin Oc to the screen coordinate system origin Os coincides with the focal length of the virtual camera.

オブジェクトの一例としてのキャラクターAは、ワールド座標系のXw−Zw平面に配置されている。ワールド座標系のXw−Zw平面は、仮想3次元空間においてキャラクターAが移動する移動平面と一致している。このキャラクターAは、ワールド座標系のXw−Zw平面上での座標位置を時間経過に伴って変化させることにより、移動平面を移動することができるようになっている。   The character A as an example of an object is arranged on the Xw-Zw plane of the world coordinate system. The Xw-Zw plane of the world coordinate system coincides with the moving plane on which the character A moves in the virtual three-dimensional space. The character A can move on the moving plane by changing the coordinate position on the Xw-Zw plane of the world coordinate system with the passage of time.

ゲーム画像生成部104は、仮想3次元空間においてキャラクターAが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、その移動平面上のキャラクターAを見たときのゲーム画像を生成する。   The game image generation unit 104 generates a game image when the character A on the moving plane is viewed from a virtual camera arranged so as to obliquely look down the moving plane on which the character A moves in the virtual three-dimensional space.

具体的には、図4に示す仮想カメラとキャラクターAの位置関係から算出される座標変換行列等を用いることにより、ワールド座標系(Xw、Yw、Zw)に配置させたキャラクターAをビュー座標系(Xc、Yc、Zc)へ座標変換を行う。さらに、透視投影手法等を用いることにより、ビュー座標系(Xc、Yc、Zc)に配置されたキャラクターAをスクリーン座標系(Xs、Ys)へ座標変換を行う。このように幾何学的な算出を行なって座標変換を繰り返すことにより、仮想3次元空間のキャラクターAを2次元画像(ゲーム画像)として生成することができる。   Specifically, by using a coordinate conversion matrix calculated from the positional relationship between the virtual camera and the character A shown in FIG. 4, the character A arranged in the world coordinate system (Xw, Yw, Zw) is viewed in the view coordinate system. Coordinate conversion is performed to (Xc, Yc, Zc). Further, by using the perspective projection method or the like, the character A arranged in the view coordinate system (Xc, Yc, Zc) is subjected to coordinate conversion into the screen coordinate system (Xs, Ys). By thus performing geometrical calculation and repeating coordinate conversion, the character A in the virtual three-dimensional space can be generated as a two-dimensional image (game image).

図5は、比較例における操作エリアを生成するときのワールド座標系、ビュー座標系、及びスクリーン座標系の関係を示す図である。以下では、図4と同様に、3次元座標(Xw、Yw、Zw)をワールド座標系と表現し、3次元座標(Xc、Yc、Zc)をビュー座標系と表現し、2次元座標(Xs、Ys)をスクリーン座標系と表現する。   FIG. 5 is a diagram showing the relationship between the world coordinate system, the view coordinate system, and the screen coordinate system when the operation area is generated in the comparative example. Hereinafter, as in FIG. 4, the three-dimensional coordinates (Xw, Yw, Zw) are expressed as the world coordinate system, the three-dimensional coordinates (Xc, Yc, Zc) are expressed as the view coordinate system, and the two-dimensional coordinates (Xs , Ys) is expressed as a screen coordinate system.

仮想カメラは、ワールド座標系のXw−Zw平面を真上から見下ろすように配置されている(つまり、Yw軸方向の高さからZw軸方向に対する俯角θ=90°となるように、仮想カメラが配置されている。)。このように仮想3次元空間に仮想カメラを配置することによって、ワールド座標系に関連付けてビュー座標系が設定されることになる。   The virtual camera is arranged so as to look down on the Xw-Zw plane of the world coordinate system from directly above (that is, the virtual camera has a depression angle θ = 90 ° from the height in the Yw axis direction to the Zw axis direction). It is arranged.). By arranging the virtual camera in the virtual three-dimensional space in this way, the view coordinate system is set in association with the world coordinate system.

ビュー座標系のZc軸方向は、クライアント端末10の画面に対応するスクリーン面(スクリーン座標系の原点Os)に垂直に下した方向であり、仮想カメラの視方向と一致している。ビュー座標系のXc−Yc平面は、スクリーン面と平行であり、ビュー座標系の原点Ocからスクリーン座標系原点Osまでの距離は仮想カメラの焦点距離と一致している。   The Zc axis direction of the view coordinate system is a direction perpendicular to the screen surface (origin Os of the screen coordinate system) corresponding to the screen of the client terminal 10, and coincides with the viewing direction of the virtual camera. The Xc-Yc plane of the view coordinate system is parallel to the screen surface, and the distance from the view coordinate system origin Oc to the screen coordinate system origin Os coincides with the focal length of the virtual camera.

仮想操作オブジェクトの一例としての仮想操作パッドPは、円形の平面を有しており、ワールド座標系のXw−Zw平面に配置されている。ワールド座標系のXw−Zw平面は、クライアント端末10の画面に対応するスクリーン面と平行であると共に、ビュー座標系のXc−Yc平面と平行である。つまり、仮想3次元空間においてキャラクターAが移動する移動平面も、そのスクリーン面と平行であり、ビュー座標系のXc−Yc平面と平行である。   The virtual operation pad P as an example of the virtual operation object has a circular plane and is arranged on the Xw-Zw plane of the world coordinate system. The Xw-Zw plane of the world coordinate system is parallel to the screen surface corresponding to the screen of the client terminal 10 and the Xc-Yc plane of the view coordinate system. That is, the moving plane on which the character A moves in the virtual three-dimensional space is also parallel to the screen surface thereof and the Xc-Yc plane of the view coordinate system.

操作エリア生成部105は、仮想3次元空間においてキャラクターAの移動平面と平行になるように配置された仮想操作パッドPを、真上から見下ろすように配置された仮想カメラから見たときの操作エリアを生成する。   The operation area generation unit 105 is an operation area when the virtual operation pad P arranged in parallel with the moving plane of the character A in the virtual three-dimensional space is viewed from a virtual camera arranged so as to look down from directly above. To generate.

具体的には、図5に示す仮想カメラと仮想操作パッドPの位置関係から算出される座標変換行列等を用いることにより、ワールド座標系(Xw、Yw、Zw)に配置させた仮想操作パッドPをビュー座標系(Xc、Yc、Zc)へ座標変換を行う。さらに、透視投影手法等を用いることにより、ビュー座標系(Xc、Yc、Zc)に配置された仮想操作パッドPをスクリーン座標系(Xs、Ys)へ座標変換を行う。このように幾何学的な算出を行なって座標変換を繰り返すことにより、仮想3次元空間の仮想操作パッドPを2次元画像(操作エリア)として生成することができる。   Specifically, the virtual operation pad P arranged in the world coordinate system (Xw, Yw, Zw) is used by using the coordinate conversion matrix calculated from the positional relationship between the virtual camera and the virtual operation pad P shown in FIG. To the view coordinate system (Xc, Yc, Zc). Further, by using the perspective projection method or the like, the coordinate conversion of the virtual operation pad P arranged in the view coordinate system (Xc, Yc, Zc) is performed into the screen coordinate system (Xs, Ys). By thus performing geometrical calculation and repeating coordinate conversion, the virtual operation pad P in the virtual three-dimensional space can be generated as a two-dimensional image (operation area).

図6Aは、比較例におけるクライアント端末10の画面構成例を示す図である。図6Bは、仮想3次元空間におけるキャラクターの移動方向を示す図である。本実施形態におけるクライアント端末10は、図6Aに示すように、画面上に積層されたタッチパネル500を有している。表示制御部106は、図4に示す仮想カメラの配置に基づきゲーム画像生成部104によって生成されたゲーム画像501と、図5に示す仮想カメラの配置に基づき操作エリア生成部105によって生成された操作エリア502が同一の画面上に配置されるように制御する。これにより、ユーザーは画面に接触させた指をスライドさせて操作エリア502に対するスライド操作を行うことによってキャラクターAを移動させることができる。   FIG. 6A is a diagram showing a screen configuration example of the client terminal 10 in the comparative example. FIG. 6B is a diagram showing the moving direction of the character in the virtual three-dimensional space. As shown in FIG. 6A, the client terminal 10 in this embodiment has a touch panel 500 stacked on the screen. The display control unit 106 generates the game image 501 generated by the game image generation unit 104 based on the virtual camera arrangement shown in FIG. 4, and the operation generated by the operation area generation unit 105 based on the virtual camera arrangement shown in FIG. The area 502 is controlled so as to be arranged on the same screen. Thus, the user can move the character A by sliding the finger touching the screen to perform the slide operation on the operation area 502.

ここでは、図6Aに示すように、ユーザーのタッチ操作により操作エリア502で指示された画面上の指示方向が45°であるときに、キャラクターAが移動する画面上の移動方向は30°となっている。ところが実際には、図6Bに示すように、ユーザーのタッチ操作により操作エリア502で指示された画面上の指示方向が45°であるときには、仮想3次元空間における移動平面(つまり、ワールド座標系のXw−Zw平面)上でのキャラクターAの移動方向は45°となっている。   Here, as shown in FIG. 6A, when the pointing direction on the screen instructed in the operation area 502 by the user's touch operation is 45 °, the moving direction on the screen where the character A moves is 30 °. ing. However, actually, as shown in FIG. 6B, when the pointing direction on the screen designated in the operation area 502 by the user's touch operation is 45 °, the moving plane in the virtual three-dimensional space (that is, in the world coordinate system). The moving direction of the character A on the (Xw-Zw plane) is 45 °.

このように比較例では、ユーザーのタッチ操作により操作エリア502で指示された画面上の指示方向(45°)と、キャラクターAが移動する仮想3次元空間における移動平面上の移動方向(45°)が一致しているにもかかわらず、仮想カメラの配置設定の影響を受けて、ユーザーのタッチ操作により操作エリアで指示された画面上の指示方向(45°)と、キャラクターAが移動する画面上の移動方向(30°)が一致しないことになる。このことにより、ユーザーの意図した方向にキャラクターAが移動しないことになるため、ユーザーにとって画面を見ながらキャラクターAを操作することが困難となってしまう。   Thus, in the comparative example, the pointing direction on the screen (45 °) designated by the user's touch operation in the operation area 502 and the moving direction on the moving plane in the virtual three-dimensional space in which the character A moves (45 °). Despite the fact that they match, the virtual camera placement settings affect the pointing direction (45 °) on the screen instructed in the operation area by the user's touch operation and the screen on which the character A moves. The moving directions (30 °) do not match. As a result, the character A does not move in the direction intended by the user, which makes it difficult for the user to operate the character A while looking at the screen.

<実施例>
図7は、本発明に係る実施例における操作エリアを生成するときのワールド座標系、ビュー座標系、及びスクリーン座標系の関係を示す図である。以下では、図4と同様に、3次元座標(Xw、Yw、Zw)をワールド座標系と表現し、3次元座標(Xc、Yc、Zc)をビュー座標系と表現し、2次元座標(Xs、Ys)をスクリーン座標系と表現する。
<Example>
FIG. 7 is a diagram showing the relationship between the world coordinate system, the view coordinate system, and the screen coordinate system when the operation area is generated in the embodiment according to the present invention. Hereinafter, as in FIG. 4, the three-dimensional coordinates (Xw, Yw, Zw) are expressed as the world coordinate system, the three-dimensional coordinates (Xc, Yc, Zc) are expressed as the view coordinate system, and the two-dimensional coordinates (Xs , Ys) is expressed as a screen coordinate system.

図7に示す本発明に係る仮想カメラの配置設定は、ここでは、図5に示す比較例における仮想カメラの配置設定とは異なっていて、図4に示す比較例における仮想カメラの配置設定と同じになっている。   The virtual camera layout setting according to the present invention shown in FIG. 7 is different from the virtual camera layout setting in the comparative example shown in FIG. 5, and is the same as the virtual camera layout setting in the comparative example shown in FIG. It has become.

すなわち、仮想カメラは、図4に示す仮想カメラの配置と同様に、ワールド座標系のYw軸方向の高さからZw軸方向に対する俯角θでXw−Zw平面を斜めから見下ろすように配置されている。このように仮想3次元空間に仮想カメラを配置することによって、ワールド座標系に関連付けてビュー座標系が設定されることになる。   That is, similar to the arrangement of the virtual cameras shown in FIG. 4, the virtual cameras are arranged so as to obliquely look down the Xw-Zw plane at the depression angle θ from the height in the Yw axis direction of the world coordinate system to the Zw axis direction. . By arranging the virtual camera in the virtual three-dimensional space in this way, the view coordinate system is set in association with the world coordinate system.

ビュー座標系のZc軸方向は、クライアント端末10の画面に対応するスクリーン面(スクリーン座標系の原点Os)に垂直に下した方向であり、仮想カメラの視方向と一致している。ビュー座標系のXc−Yc平面は、スクリーン面と平行であり、ビュー座標系の原点Ocからスクリーン座標系原点Osまでの距離は仮想カメラの焦点距離と一致している。   The Zc axis direction of the view coordinate system is a direction perpendicular to the screen surface (origin Os of the screen coordinate system) corresponding to the screen of the client terminal 10, and coincides with the viewing direction of the virtual camera. The Xc-Yc plane of the view coordinate system is parallel to the screen surface, and the distance from the view coordinate system origin Oc to the screen coordinate system origin Os coincides with the focal length of the virtual camera.

仮想操作パッドPは、図5に示す仮想操作パッドPと同様であり、円形の平面を有していて、ワールド座標系のXw−Zw平面に配置されている。ワールド座標系のXw−Zw平面は、図4に示すキャラクターAが移動する移動平面と一致している。   The virtual operation pad P is similar to the virtual operation pad P shown in FIG. 5, has a circular plane, and is arranged on the Xw-Zw plane of the world coordinate system. The Xw-Zw plane of the world coordinate system coincides with the moving plane on which the character A shown in FIG. 4 moves.

操作エリア生成部105は、仮想3次元空間においてキャラクターAが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、仮想3次元空間においてキャラクターAの移動平面と平行になるように配置された仮想操作パッドPを見たときの操作エリアを生成する。   The operation area generation unit 105 is arranged so as to be parallel to the moving plane of the character A in the virtual three-dimensional space from the virtual camera arranged so as to obliquely look down the moving plane in which the character A moves in the virtual three-dimensional space. The operation area when the virtual operation pad P is viewed is generated.

具体的には、図7に示す仮想カメラと仮想操作パッドPの位置関係から算出される座標変換行列等を用いることにより、ワールド座標系(Xw、Yw、Zw)に配置させた仮想操作パッドPをビュー座標系(Xc、Yc、Zc)へ座標変換を行う。さらに、透視投影手法等を用いることにより、ビュー座標系(Xc、Yc、Zc)に配置された仮想操作パッドPをスクリーン座標系(Xs、Ys)へ座標変換を行う。このように幾何学的な算出を行なって座標変換を繰り返すことにより、仮想3次元空間の仮想操作パッドPを2次元画像(操作エリア)として生成することができる。   Specifically, the virtual operation pad P arranged in the world coordinate system (Xw, Yw, Zw) is used by using the coordinate conversion matrix calculated from the positional relationship between the virtual camera and the virtual operation pad P shown in FIG. To the view coordinate system (Xc, Yc, Zc). Further, by using the perspective projection method or the like, the coordinate conversion of the virtual operation pad P arranged in the view coordinate system (Xc, Yc, Zc) is performed into the screen coordinate system (Xs, Ys). By thus performing geometrical calculation and repeating coordinate conversion, the virtual operation pad P in the virtual three-dimensional space can be generated as a two-dimensional image (operation area).

図8は、本発明に係るクライアント端末10の画面構成例を示す図である。表示制御部106は、図4に示す仮想カメラの配置に基づきゲーム画像生成部104によって生成されたゲーム画像501と、図7に示す仮想カメラの配置に基づき操作エリア生成部105によって生成された操作エリア502が同一の画面上に配置されるように制御する。これにより、ユーザーは画面に接触させた指をスライドさせて操作エリア502に対するスライド操作を行うことによって、そのスライド方向へキャラクターAを移動させることができる。   FIG. 8 is a diagram showing a screen configuration example of the client terminal 10 according to the present invention. The display control unit 106 generates the game image 501 generated by the game image generation unit 104 based on the virtual camera arrangement shown in FIG. 4, and the operation generated by the operation area generation unit 105 based on the virtual camera arrangement shown in FIG. The area 502 is controlled so as to be arranged on the same screen. Thus, the user can move the character A in the sliding direction by sliding the finger touching the screen to perform the slide operation on the operation area 502.

ここでは、図7に示す仮想カメラの配置設定の影響を受け、図6Aに示すような円形ではなく、図8に示す操作エリア502は楕円形で表示されている。そして、図8に示すように、ユーザーのタッチ操作により操作エリア502で指示された画面上の指示方向が30°であるときに、キャラクターAが移動する画面上の移動方向も30°となっている。ところが実際には、図6Bに示すように、ユーザーのタッチ操作により操作エリア502で指示された画面上の指示方向が30°であっても、仮想3次元空間における移動平面(つまり、ワールド座標系のXw−Zw平面)上でのキャラクターAの移動方向は45°となっている。   Here, the operation area 502 shown in FIG. 8 is displayed in an elliptical shape instead of the circular shape shown in FIG. 6A due to the influence of the virtual camera arrangement setting shown in FIG. 7. Then, as shown in FIG. 8, when the pointing direction on the screen instructed in the operation area 502 by the user's touch operation is 30 °, the moving direction on the screen where the character A moves is also 30 °. There is. However, in reality, as shown in FIG. 6B, even if the pointing direction on the screen designated in the operation area 502 by the user's touch operation is 30 °, the moving plane in the virtual three-dimensional space (that is, the world coordinate system). The movement direction of the character A on the (Xw-Zw plane) is 45 °.

このように本発明に係る実施例では、ユーザーのタッチ操作により操作エリア502で指示された画面上の指示方向(30°)と、キャラクターAが移動する仮想3次元空間における移動平面上の移動方向(45°)が異なるが、仮想カメラの配置設定の影響を受けて、操作エリアの形状が変形(円形から楕円形に変形)することで、ユーザーのタッチ操作により操作エリアで指示された画面上の指示方向(30°)を、キャラクターAが移動する画面上の移動方向(30°)と一致させることが可能となる。このことにより、本発明に係る実施例では比較例とは異なり、ユーザーの意図した方向にキャラクターAが移動することになるため、ユーザーにとって画面を見ながらキャラクターAを違和感なく直感的に操作することが可能となる。   As described above, in the embodiment according to the present invention, the pointing direction (30 °) on the screen designated in the operation area 502 by the touch operation by the user and the moving direction on the moving plane in the virtual three-dimensional space in which the character A moves. (45 °) is different, but the shape of the operation area is deformed (deformed from a circle to an ellipse) under the influence of the placement setting of the virtual camera, so that the touch operation on the screen indicated by the user It is possible to match the direction (30 °) instructed with the moving direction (30 °) on the screen where the character A moves. As a result, unlike the comparative example, in the example according to the present invention, the character A moves in the direction intended by the user. Therefore, the user can intuitively operate the character A while looking at the screen. Is possible.

<<キャラクター移動>>
本実施形態におけるクライアント端末10のキャラクター移動に関する動作例について、図9及び図10を用いて説明する。図9は、本実施形態におけるクライアント端末10のキャラクター移動に関する動作例について説明するフローチャートである。図10は、指示方向の変換について説明する図である。以下では、ユーザーがタッチパネルを用いて図8に示す画面上の操作エリア502に対するタッチ操作を行ったときに、仮想3次元空間内においてキャラクターAを移動させるためにクライアント端末10が行う制御手順について具体的に説明する。
<< Character movement >>
An operation example relating to character movement of the client terminal 10 according to the present exemplary embodiment will be described with reference to FIGS. 9 and 10. FIG. 9 is a flowchart illustrating an operation example regarding character movement of the client terminal 10 according to the present exemplary embodiment. FIG. 10 is a diagram illustrating conversion of the designated direction. Hereinafter, a control procedure performed by the client terminal 10 to move the character A in the virtual three-dimensional space when the user performs a touch operation on the operation area 502 on the screen illustrated in FIG. 8 using the touch panel will be described in detail. To explain.

クライアント端末10は、図9に示すように、ユーザーがタッチパネルを用いて図8に示す画面上の操作エリア502に対するタッチ操作を行ったことにより、そのタッチ操作によって操作エリア502の任意の位置を指定しているか否かを判定する(ステップS11)。   As shown in FIG. 9, the client terminal 10 designates an arbitrary position in the operation area 502 by the touch operation performed by the user using the touch panel on the operation area 502 on the screen shown in FIG. It is determined whether or not (step S11).

具体的には、オブジェクト制御部102は、タッチパネルからの検出信号を取得することができたときに、ユーザーのタッチ操作により指示される画面上の指示位置を決定することができる。そのため、オブジェクト制御部102は、ユーザーのタッチ操作により指示される画面上の指示位置を決定することができると、その決定された画面上の指示位置が操作エリア502に位置するか否かを判定する。   Specifically, the object control unit 102 can determine the designated position on the screen designated by the touch operation of the user when the detection signal from the touch panel can be acquired. Therefore, when the object control unit 102 can determine the designated position on the screen instructed by the user's touch operation, the object control unit 102 determines whether or not the determined designated position on the screen is located in the operation area 502. To do.

次に、クライアント端末10は、タッチパネルを用いたユーザーのタッチ操作によって操作エリア502の任意の位置を指定していないと判定された場合に(ステップS11:NO)、ユーザーによって操作エリア502に対するタッチ操作が行われるまで待機する。その一方で、タッチパネルを用いたユーザーのタッチ操作によって操作エリア502の任意の位置を指定していると判定された場合には(ステップS11:YES)、仮想3次元空間内においてキャラクターAを移動させるためのスライド操作が行われたか否かを判定する(ステップS12)。   Next, in the client terminal 10, when it is determined that the arbitrary position of the operation area 502 is not specified by the user's touch operation using the touch panel (step S11: NO), the user performs a touch operation on the operation area 502. Wait until is done. On the other hand, when it is determined that the arbitrary position of the operation area 502 is designated by the user's touch operation using the touch panel (step S11: YES), the character A is moved in the virtual three-dimensional space. It is determined whether or not a slide operation for performing is performed (step S12).

具体的には、オブジェクト制御部102は、ユーザーが操作エリア502に接触させた指をそのまま或る方向へ連続移動させるタッチ操作(スライド操作)を行ったことで、タッチパネルからの検出信号を連続的に取得することができたときに、そのスライド操作により連続的に変化する操作エリア502での指示位置を次々に決定することができる。そのため、オブジェクト制御部102は、ユーザーのスライド操作により連続的に変化する操作エリア502での指示位置を次々に決定することができると、ユーザーによって操作エリア502の中心に接触させた指をそのまま任意の方向へ連続移動させるタッチ操作(スライド操作)が行われたか否かを判定する。   Specifically, the object control unit 102 continuously performs detection signals from the touch panel by performing a touch operation (slide operation) in which the user continuously moves a finger in contact with the operation area 502 in a certain direction. When it is possible to acquire the designated position in the operation area 502, the designated position in the operation area 502 that changes continuously by the slide operation can be determined one after another. Therefore, when the object control unit 102 can successively determine the designated position in the operation area 502 that continuously changes by the user's slide operation, the finger touched by the user at the center of the operation area 502 can be arbitrarily changed. It is determined whether or not a touch operation (slide operation) of continuously moving in the direction of is performed.

次に、クライアント端末10は、仮想3次元空間内においてキャラクターAを移動させるためのスライド操作が行われなかったと判定された場合に(ステップS12:NO)、この処理を終了する一方で、仮想3次元空間内においてキャラクターAを移動させるためのスライド操作が行われたと判定された場合には(ステップS12:YES)、そのスライド操作によって操作エリア502で指示された画面上の指示方向を決定する(ステップS13)。   Next, when it is determined that the slide operation for moving the character A in the virtual three-dimensional space has not been performed (step S12: NO), the client terminal 10 ends this process while the virtual three When it is determined that the slide operation for moving the character A is performed in the three-dimensional space (step S12: YES), the on-screen instruction direction instructed in the operation area 502 by the slide operation is determined ( Step S13).

具体的には、オブジェクト制御部102は、ユーザーが操作エリア502の中心に接触させた指を或る地点まで連続移動させたことにより、タッチパネルからの検出信号に基づきスクリーン座標系における始点位置Ps1と終点位置Ps2の座標を決定する。そして、その決定されたスクリーン座標系における始点位置Ps1と終点位置Ps2の座標に基づいて、スクリーン座標系のXs軸に対する指示角度を決定する。ここでは、図10の左図に示すように、ユーザーのスライド操作により図8に示す画面上の操作エリア502で指示方向が入力されたときに、スクリーン座標系のXs軸に対する指示角度が30°であったものとする。なおこの際、スクリーン座標系における始点位置Ps1はスクリーン座標系の原点Osに一致しているものとする。   Specifically, the object control unit 102 continuously moves the finger touching the center of the operation area 502 to a certain point, so that the object control unit 102 determines the start point position Ps1 in the screen coordinate system based on the detection signal from the touch panel. The coordinates of the end point position Ps2 are determined. Then, based on the coordinates of the start point position Ps1 and the end point position Ps2 in the determined screen coordinate system, the designated angle with respect to the Xs axis of the screen coordinate system is determined. Here, as shown in the left diagram of FIG. 10, when the pointing direction is input in the operation area 502 on the screen shown in FIG. 8 by the user's slide operation, the pointing angle with respect to the Xs axis of the screen coordinate system is 30 °. It was assumed that At this time, the starting point position Ps1 in the screen coordinate system is assumed to coincide with the origin Os of the screen coordinate system.

次に、クライアント端末10は、このようにしてユーザーのスライド操作によって操作エリア502で指示された画面上の指示方向が決定されると、その決定された操作エリア502で指示された画面上の指示方向を、仮想3次元空間においてキャラクターAが移動する移動平面上の指示方向に変換する(ステップS14)。   Next, when the pointing direction on the screen instructed in the operation area 502 is determined by the user's slide operation in this manner, the client terminal 10 instructs the screen instructed in the determined operation area 502. The direction is converted into the designated direction on the moving plane on which the character A moves in the virtual three-dimensional space (step S14).

具体的には、オブジェクト制御部102は、図7に示す仮想カメラと仮想操作パッドPの位置関係から算出される逆透視変換行列等を用いることにより、その決定されたスクリーン座標系における始点位置Ps1と終点位置Ps2の座標を、ビュー座標系における始点位置Pc1と終点位置Pc2の座標に変換する。さらに、図7に示す仮想カメラと仮想操作パッドPの位置関係から算出される逆座標変換行列等を用いることにより、ビュー座標系における始点位置Pc1と終点位置Pc2の座標を、ワールド座標系における始点位置Pw1と終点位置Pw2の座標に変換する。このような座標変換により、図10に示すように、スクリーン座標系のXs−Ys平面における操作エリア502での指示方向が、ワールド座標系のXw−Zw平面(つまり、仮想3次元空間においてキャラクターAが移動する移動平面)における仮想操作パッドPでの指示方向に変換されたことになる。ここでは、座標変換前では、図10の左図に示すように、スクリーン座標系のXs軸に対する指示角度が30°であったものが、座標変換後には、図10の右図に示すように、ワールド座標系のXw軸に対する指示角度が45°になったものとする。   Specifically, the object control unit 102 uses an inverse perspective transformation matrix or the like calculated from the positional relationship between the virtual camera and the virtual operation pad P shown in FIG. 7, to thereby determine the start point position Ps1 in the determined screen coordinate system. And the coordinates of the end point position Ps2 are converted into the coordinates of the start point position Pc1 and the end point position Pc2 in the view coordinate system. Furthermore, the coordinates of the start point position Pc1 and the end point position Pc2 in the view coordinate system are set to the start point in the world coordinate system by using the inverse coordinate transformation matrix calculated from the positional relationship between the virtual camera and the virtual operation pad P shown in FIG. The coordinates are converted into the coordinates of the position Pw1 and the end point position Pw2. By such coordinate conversion, as shown in FIG. 10, the pointing direction in the operation area 502 on the Xs-Ys plane of the screen coordinate system is changed to the Xw-Zw plane of the world coordinate system (that is, the character A in the virtual three-dimensional space). This means that the direction has been changed to the direction designated by the virtual operation pad P on the moving plane). Here, before the coordinate conversion, the designated angle with respect to the Xs axis of the screen coordinate system was 30 ° as shown in the left diagram of FIG. 10, but after the coordinate conversion, as shown in the right diagram of FIG. , The designated angle with respect to the Xw axis of the world coordinate system is 45 °.

次に、クライアント端末10は、ユーザーのスライド操作によって操作エリア502で指示された画面上の指示方向が仮想3次元空間における移動平面上の指示方向に変換されると、仮想3次元空間においてキャラクターAがその変換された指示方向に移動するように制御する(ステップS15)。   Next, when the pointing direction on the screen designated in the operation area 502 by the user's slide operation is converted into the pointing direction on the moving plane in the virtual three-dimensional space, the client terminal 10 causes the character A in the virtual three-dimensional space. Is controlled to move in the converted designated direction (step S15).

具体的には、オブジェクト制御部102は、座標変換行列を用いてワールド座標系のXw−Zw平面に配置されるキャラクターAの座標をその変換後の指示方向に平行移動させることによって、仮想3次元空間においてキャラクターAをその変換された指示方向に移動させる。   Specifically, the object control unit 102 uses the coordinate conversion matrix to translate the coordinates of the character A arranged on the Xw-Zw plane of the world coordinate system in the designated direction after the conversion, thereby performing virtual three-dimensional processing. In the space, the character A is moved in the converted designated direction.

これにより、図8に示す画面上に、仮想3次元空間を斜めから見下ろしたときに仮想カメラから見えるゲーム画像501と操作エリア502が同時に配置されたとしても、ユーザーのスライド操作により操作エリア502で指示された画面上の指示方向と、キャラクターAが移動する画面上の移動方向が一致するようになる。そのため、ユーザーが画面を見ながらキャラクターAを簡単に操作できるようになる。   As a result, even if the game image 501 and the operation area 502 viewed from the virtual camera are simultaneously arranged on the screen shown in FIG. 8 when the virtual three-dimensional space is obliquely looked down, the user can slide the operation area 502 in the operation area 502. The instructed direction on the screen and the moving direction on the screen in which the character A moves will match. Therefore, the user can easily operate the character A while looking at the screen.

<<仮想カメラの配置変更>>
ここでは、仮想3次元空間においてキャラクターの移動中に仮想カメラの配置変更がなされた場合の画面構成例について、図11を用いて説明する。図11は、仮想カメラの配置変更に伴う指示方向の変換について説明する図である。
<< Virtual camera layout change >>
Here, an example of the screen configuration when the placement of the virtual camera is changed while the character is moving in the virtual three-dimensional space will be described with reference to FIG. 11. FIG. 11 is a diagram for explaining the conversion of the pointing direction due to the layout change of the virtual camera.

本実施形態におけるクライアント端末10では、ユーザーが図8に示す画面上の操作エリア502に接触させた指をそのまま或る方向へ連続移動させるタッチ操作(スライド操作)を行った際に、ユーザーがその接触させた指を画面から離さずにそのままの状態にすることで、操作エリア502で指示された画面上の指示方向が維持され、仮想3次元空間においてキャラクターAがその指示方向に移動し続けるようにすることも可能である。そして、このように仮想3次元空間においてキャラクターAが移動し続けている最中に、ユーザーの操作によって仮想3次元空間における仮想カメラの配置を変更することも可能である。   In the client terminal 10 according to the present exemplary embodiment, when the user performs a touch operation (slide operation) of continuously moving the finger touching the operation area 502 on the screen shown in FIG. By keeping the touched finger as it is without releasing it from the screen, the designated direction on the screen designated by the operation area 502 is maintained, and the character A keeps moving in the designated direction in the virtual three-dimensional space. It is also possible to Then, while the character A continues to move in the virtual three-dimensional space as described above, it is possible to change the arrangement of the virtual cameras in the virtual three-dimensional space by the operation of the user.

ところが、仮想3次元空間においてキャラクターAが移動し続けている最中に、仮想カメラの配置が変更されてしまうと、これまでユーザーが操作エリア502で指示していた画面上の指示方向も連動して変更されることになる。そのため、ユーザーがその接触させた指を画面から離さずにそのままの状態にしているにもかかわらず、仮想3次元空間においてキャラクターAが変更後の指示方向に勝手に移動し始めることになってしまう。   However, if the placement of the virtual camera is changed while the character A continues to move in the virtual three-dimensional space, the pointing direction on the screen, which the user has previously pointed to in the operation area 502, is also linked. Will be changed. Therefore, although the user keeps the touched finger in the same state without releasing the finger from the screen, the character A will start to move in the designated direction after the change in the virtual three-dimensional space. .

具体的に説明すると、ユーザーがスライド操作を行った際、その接触させた指を画面から離さずにそのままの状態にすることで、図11Aの左図に示すように、スクリーン座標系のXs−Ys平面における操作エリア502での指示方向が30°のまま維持されたとする。そして、上述した図9に示すステップS14の処理によって指示方向の変換が行われると、図11Aの右図に示すように、ワールド座標系のXw−Zw平面における仮想操作パッドPでの指示方向は45°のまま維持されるものとする。この場合、仮想3次元空間の移動平面においてキャラクターAはその45°の指示方向に移動し続けていることになる。   More specifically, when the user performs a slide operation, the contacted finger is kept as it is without being removed from the screen, and as shown in the left diagram of FIG. 11A, Xs- of the screen coordinate system is displayed. It is assumed that the pointing direction in the operation area 502 on the Ys plane is maintained at 30 °. Then, when the designated direction is converted by the process of step S14 shown in FIG. 9 described above, the designated direction on the virtual operation pad P on the Xw-Zw plane of the world coordinate system is changed as shown in the right diagram of FIG. 11A. It shall be maintained at 45 °. In this case, the character A continues to move in the indicated direction of 45 ° on the moving plane of the virtual three-dimensional space.

その後、仮想3次元空間においてキャラクターAがその45°の指示方向に移動し続けている最中に、例えば仮想カメラの視方向がユーザーの操作に従って変更された結果、図11Bの左図に示すような楕円形に操作エリア502が変形したものとする。この場合、ユーザーがその接触させた指を画面から離さずにそのままの状態にしているので、図11Bの左図に示す操作エリア502での指示方向は、図11Aの左図に示す操作エリア502での指示方向と同じ30°のまま維持されることになる。そのため、上述した図9に示すステップS14の処理によって指示方向の変換が行われると、図11Bの右図に示す仮想操作パッドPでの指示方向は、図11Aの右図に示す仮想操作パッドPでの指示方向と同じ45°ではなく、それよりも大きな角度(ここでは60°とする)になってしまう。すなわち、このように仮想カメラの配置が変更されると、ユーザーがその接触させた指を画面から離さずにそのままの状態にしているにもかかわらず、仮想3次元空間の移動平面において45°の指示方向に移動し続けていたキャラクターAが、60°の指示方向に移動し始めることになる。   After that, while the character A continues to move in the 45 ° pointing direction in the virtual three-dimensional space, for example, the viewing direction of the virtual camera is changed according to the user's operation. As a result, as shown in the left diagram of FIG. 11B. It is assumed that the operation area 502 is deformed into an elliptical shape. In this case, since the user keeps the touched finger as it is without releasing it from the screen, the pointing direction in the operation area 502 shown in the left diagram of FIG. 11B is the operation area 502 shown in the left diagram of FIG. 11A. It will be maintained at 30 °, which is the same as the direction indicated by. Therefore, when the designated direction is converted by the process of step S14 shown in FIG. 9 described above, the designated direction on the virtual operation pad P shown in the right diagram of FIG. 11B becomes the virtual operation pad P shown in the right diagram of FIG. 11A. The angle is not 45 °, which is the same as the instructed direction at, but is larger than that (here, 60 °). That is, when the arrangement of the virtual camera is changed in this way, the user can keep the contacted finger from the screen as it is, but at a 45 ° angle in the moving plane of the virtual three-dimensional space. The character A who has continued to move in the indicated direction starts to move in the indicated direction of 60 °.

そこで、本実施形態におけるクライアント端末10では、ユーザーがスライド操作を行った際、その接触させた指を画面から離さずにそのままの状態にしているときに、仮想カメラの配置が変更されたとしても、仮想3次元空間の移動平面においてキャラクターAがこれまで通りの指示方向に移動し続けるようにした。以下、具体的に説明する。   Therefore, in the client terminal 10 according to the present embodiment, even if the virtual camera arrangement is changed when the user performs the slide operation and keeps the touched finger as it is without releasing the screen. , A in the moving plane of the virtual three-dimensional space is allowed to continue moving in the designated direction as before. The details will be described below.

先ず、操作エリア生成部105は、配置変更後の仮想カメラから、仮想3次元空間の移動平面に配置された仮想操作パッドPを見たときの操作エリア(図11Bの左図に示す操作エリア502)を生成する。   First, the operation area generation unit 105 operates the operation area when the virtual operation pad P arranged on the moving plane of the virtual three-dimensional space is seen from the virtual camera after the arrangement change (the operation area 502 shown in the left diagram of FIG. 11B). ) Is generated.

具体的には、配置変更後の仮想カメラと仮想操作パッドPの位置関係から算出される座標変換行列等を用いることにより、ワールド座標系(Xw、Yw、Zw)に配置させた仮想操作パッドPをビュー座標系(Xc、Yc、Zc)へ座標変換を行う。さらに、透視投影手法等を用いることにより、ビュー座標系(Xc、Yc、Zc)に配置された仮想操作パッドPをスクリーン座標系(Xs、Ys)へ座標変換を行う。このように幾何学的な算出を行なって座標変換を繰り返すことにより、仮想3次元空間の仮想操作パッドPを2次元画像(図11Bの左図に示す操作エリア502)として生成することができる。   Specifically, the virtual operation pad P placed in the world coordinate system (Xw, Yw, Zw) is used by using a coordinate transformation matrix or the like calculated from the positional relationship between the virtual camera and the virtual operation pad P after the placement change. To the view coordinate system (Xc, Yc, Zc). Further, by using the perspective projection method or the like, the coordinate conversion of the virtual operation pad P arranged in the view coordinate system (Xc, Yc, Zc) is performed into the screen coordinate system (Xs, Ys). By thus performing geometrical calculation and repeating coordinate conversion, the virtual operation pad P in the virtual three-dimensional space can be generated as a two-dimensional image (the operation area 502 shown in the left diagram of FIG. 11B).

次に、表示制御部106は、図11Cの右図に示す仮想カメラの配置変更前における仮想操作パッドP(図11Aの右図に示す仮想操作パッドPと同じ)での指示方向を、その生成された操作エリア(図11Bの左図に示す操作エリア502)でユーザーのスライド操作により指示されるべき画面上の指示方向に変換する。   Next, the display control unit 106 generates an instruction direction on the virtual operation pad P (the same as the virtual operation pad P shown in the right diagram of FIG. 11A) before changing the placement of the virtual cameras shown in the right diagram of FIG. 11C. In the operated operation area (operation area 502 shown on the left side of FIG. 11B), the direction is changed to an instruction direction on the screen to be instructed by the user's slide operation.

具体的には、配置変更後の仮想カメラと仮想操作パッドPの位置関係から算出される座標変換行列等を用いることにより、図11Cの右図に示すワールド座標系における始点位置Pw1と終点位置Pw2の座標を、ビュー座標系における始点位置Pc1と終点位置Pc2の座標に変換する。さらに、ビュー座標系における始点位置Pc1と終点位置Pc2の座標を、スクリーン座標系における始点位置Ps1と終点位置Ps3の座標に変換する。   Specifically, by using the coordinate conversion matrix calculated from the positional relationship between the virtual camera and the virtual operation pad P after the layout change, the start point position Pw1 and the end point position Pw2 in the world coordinate system shown in the right diagram of FIG. 11C are used. Is converted into coordinates of a start point position Pc1 and an end point position Pc2 in the view coordinate system. Further, the coordinates of the starting point position Pc1 and the ending point position Pc2 in the view coordinate system are converted into the coordinates of the starting point position Ps1 and the ending point position Ps3 in the screen coordinate system.

このような座標変換により、図11Cに示すように、ワールド座標系のXw−Zw平面(つまり、仮想3次元空間においてキャラクターAが移動する移動平面)における仮想操作パッドPでの指示方向が、スクリーン座標系のXs−Ys平面における操作エリア502で指示されるべき指示方向に変換されたことになる。ここでは、座標変換前では、図11Cの右図に示すように、ワールド座標系のXw軸に対する指示角度が45°であったものが、座標変換後には、スクリーン座標系のXs軸に対する指示角度が15°になったものとする。すなわち、ユーザーのスライド操作により画面上の操作エリア502で指示される指示方向が15°であるならば、仮想3次元空間の移動平面においてキャラクターAがこれまで通り45°の指示方向に移動し続けるようになる。   By such coordinate conversion, as shown in FIG. 11C, the pointing direction on the virtual operation pad P on the Xw-Zw plane of the world coordinate system (that is, the moving plane on which the character A moves in the virtual three-dimensional space) changes to the screen. This means that the direction has been converted to the direction to be specified in the operation area 502 on the Xs-Ys plane of the coordinate system. Here, before the coordinate conversion, the indicated angle with respect to the Xw axis of the world coordinate system was 45 ° as shown in the right diagram of FIG. 11C, but after the coordinate conversion, the indicated angle with respect to the Xs axis of the screen coordinate system. Is assumed to be 15 °. That is, if the pointing direction designated in the operation area 502 on the screen by the user's slide operation is 15 °, the character A continues to move in the pointing direction of 45 ° in the moving plane of the virtual three-dimensional space as before. Like

次に、図11Cの左図に示すように、ユーザーが接触させた指は画面から離さずにそのままの状態であるので、操作エリア502で指示されている指示方向の実際の終点位置は、PS3の座標位置ではなく、PS2の座標位置のままになっている。そのため、表示制御部106は、図11Dに示すように、ユーザーのスライド操作により画面上の操作エリア502で指示される指示方向がそのまま15°となるように維持するべく、その15°の指示方向の終点位置がPS3の座標位置からPS2の座標位置となり、かつ、始点位置がPS1の座標位置からPS4の座標位置となるようにシフトさせる。すなわち、表示制御部106は、座標変換行列を用いてスクリーン座標系にて操作エリア502の座標変換を行うことにより、仮想カメラの配置変更の前後において画面上の指示方向の終点位置(PS2の座標位置)を一致させつつ、その変換された操作エリア502で指示されるべき画面上の指示方向(15°)に合わせるように、その生成された操作エリア502(図11Cの左図に示す操作エリア502)を画面上に配置する。   Next, as shown in the left diagram of FIG. 11C, since the finger touched by the user remains as it is without releasing from the screen, the actual end point position in the pointing direction designated in the operation area 502 is PS3. The coordinate position of PS2 is not changed to the coordinate position of PS2. Therefore, as shown in FIG. 11D, the display control unit 106 keeps the designated direction instructed in the operation area 502 on the screen by the user's slide operation to be 15 ° as it is, so that the designated direction of 15 ° is maintained. The end point position of is shifted from the coordinate position of PS3 to the coordinate position of PS2, and the start point position is shifted from the coordinate position of PS1 to the coordinate position of PS4. That is, the display control unit 106 performs coordinate transformation of the operation area 502 in the screen coordinate system using the coordinate transformation matrix, so that the end point position (coordinates of PS2 of the designated direction on the screen before and after the placement change of the virtual camera is performed. The generated operation area 502 (the operation area shown in the left diagram of FIG. 11C) is made to match the position) and to match the instructed direction (15 °) on the screen to be instructed in the converted operation area 502. 502) is arranged on the screen.

これにより、ユーザーのタッチ操作の継続中に仮想カメラの配置が変更されたとしても、これまでの移動方向を維持しつつキャラクターAを移動させることができる。   As a result, even if the placement of the virtual camera is changed while the user's touch operation is continued, the character A can be moved while maintaining the previous moving direction.

<<スライド操作によるスライド距離>>
ここでは、スライド操作によるスライド距離に応じたキャラクターの移動速度について、図12を用いて説明する。図12は、操作エリアに対するスライド操作の具体例について説明する図である。
<< Sliding distance by sliding operation >>
Here, the moving speed of the character according to the slide distance by the slide operation will be described with reference to FIG. FIG. 12 is a diagram illustrating a specific example of the slide operation on the operation area.

本実施形態におけるクライアント端末10では、ユーザーが図8に示す画面上の操作エリア502に接触させた指をそのまま或る方向へ連続移動させるタッチ操作(スライド操作)を行った際に、その接触させた指を連続移動させた距離(スライド距離)に応じて、仮想3次元空間におけるキャラクターAの移動速度を変更することも可能である。   In the client terminal 10 according to the present exemplary embodiment, when a user performs a touch operation (slide operation) in which a finger touching the operation area 502 on the screen illustrated in FIG. 8 is continuously moved in a certain direction, the touch operation is performed. It is also possible to change the moving speed of the character A in the virtual three-dimensional space according to the distance (slide distance) with which the finger is continuously moved.

ところが、仮想カメラの配置が変更されてしまうと、変更前後での仮想カメラの配置設定に応じて画面上の操作エリア502が変形することになるため、スライド操作時に必要となるスライド距離の大きさが異なることになる。   However, if the arrangement of the virtual cameras is changed, the operation area 502 on the screen is deformed according to the arrangement settings of the virtual cameras before and after the change. Therefore, the size of the slide distance required for the slide operation is large. Will be different.

具体的に説明すると、仮想カメラの配置設定を変更する前では、ユーザーが図8に示す画面上の操作エリア502に対してスライド操作を行うときに、図12Aの左図に示すスライド距離L1だけスライド操作を行うことにより、仮想3次元空間においてキャラクターAを高速で移動させることができるものとする。その一方、仮想カメラの配置設定を変更した後では、図12Aの右図に示すように、仮想カメラの視方向の変更によって楕円の面積が小さくなるように操作エリア502が変形したとすると、仮想3次元空間においてキャラクターAを高速で移動させるためには、スライド距離L1よりも短いスライド距離L2だけスライド操作を行うことが必要となる。つまり、仮想カメラの配置変更前後において、ユーザーがスライド操作で入力すべきスライド距離の大きさが異なることになってしまう。   More specifically, before changing the placement setting of the virtual camera, when the user performs a slide operation on the operation area 502 on the screen shown in FIG. 8, only the slide distance L1 shown in the left diagram of FIG. 12A is displayed. By performing the slide operation, the character A can be moved at high speed in the virtual three-dimensional space. On the other hand, after changing the placement setting of the virtual camera, if the operation area 502 is deformed so that the area of the ellipse is reduced by changing the viewing direction of the virtual camera, as shown in the right diagram of FIG. In order to move the character A at high speed in the three-dimensional space, it is necessary to perform the slide operation for the slide distance L2 shorter than the slide distance L1. That is, the size of the slide distance that the user should input by the slide operation is different before and after the layout change of the virtual camera.

そこで、本実施形態におけるクライアント端末10では、仮想カメラの配置が変更される前、及び、仮想カメラの配置が変更された後のいずれにおいても、ユーザーがスライド操作で入力したスライド距離が所定距離以上であれば、仮想3次元空間においてキャラクターAを高速で移動させるようにした。   Therefore, in the client terminal 10 according to the present embodiment, the slide distance input by the user through the slide operation is equal to or greater than the predetermined distance before the virtual camera arrangement is changed and after the virtual camera arrangement is changed. Then, the character A is moved at high speed in the virtual three-dimensional space.

具体的には、仮想カメラ制御部103がユーザーの操作に従って仮想カメラの配置を変更した場合(例えば、仮想カメラの視方向を変更した場合)、オブジェクト制御部102は、仮想カメラの視方向が変更される前、及び、仮想カメラの視方向が変更された後のいずれにおいても、タッチパネルからの検出信号に基づいて、ユーザーのスライド操作により操作エリア502で指示された画面上のスライド距離を決定すると、その決定されたスライド距離が所定距離以上である場合には、仮想3次元空間においてキャラクターAが高速で移動するように制御する。   Specifically, when the virtual camera control unit 103 changes the placement of the virtual cameras according to the user's operation (for example, when the viewing direction of the virtual camera is changed), the object control unit 102 changes the viewing direction of the virtual camera. Both before and after the viewing direction of the virtual camera is changed, the slide distance on the screen instructed in the operation area 502 by the user's slide operation is determined based on the detection signal from the touch panel. If the determined slide distance is greater than or equal to the predetermined distance, the character A is controlled to move at high speed in the virtual three-dimensional space.

例えば、図12Bに示すように、仮想カメラの配置が変更される前(図12Bの左図)、及び、仮想カメラの配置が変更された後(図12の右図)のいずれにおいても、ユーザーがスライド操作で入力したスライド距離が距離S以上であれば、仮想3次元空間においてキャラクターAを高速で移動させるようにする。   For example, as shown in FIG. 12B, before the placement of the virtual cameras is changed (left in FIG. 12B) and after the placement of the virtual cameras is changed (right in FIG. 12), the user If the slide distance input by the slide operation is the distance S or more, the character A is moved at high speed in the virtual three-dimensional space.

これにより、仮想3次元空間においてキャラクターAを高速で移動させるために、仮想カメラの視方向が変更された後でも、仮想カメラの視方向が変更される前と同じスライド距離だけスライド操作を行えばよいので、仮想カメラの視方向が変更されたことによる混乱を抑制することができる。   As a result, in order to move the character A at high speed in the virtual three-dimensional space, even after the view direction of the virtual camera is changed, if the slide operation is performed by the same slide distance as before the change of the view direction of the virtual camera. Since it is good, it is possible to suppress confusion due to a change in the viewing direction of the virtual camera.

<仮想カメラの配置変更>
また、仮想3次元空間においてキャラクターAが高速で移動し続けている最中に、仮想カメラの配置が変更されると、図12Aに示すように、キャラクターAの高速移動のために必要なスライド距離も連動して変更されることになる。そのため、仮想カメラの配置変更後、ユーザーがその接触させた指を画面から離さずにそのままの状態にしているにもかかわらず、キャラクターAの高速移動のために必要なスライド距離が不足してしまい、仮想3次元空間においてキャラクターAが高速移動を勝手に止めてしまう場合もある。
<Virtual camera layout change>
Further, when the arrangement of the virtual camera is changed while the character A continues to move at high speed in the virtual three-dimensional space, as shown in FIG. 12A, the slide distance required for the character A to move at high speed. Will also change accordingly. Therefore, after the virtual camera is rearranged, the sliding distance required for the high-speed movement of the character A is insufficient, even though the user keeps the finger touching the screen without removing it. In some cases, the character A may stop moving at high speed in the virtual three-dimensional space.

そこで、本実施形態におけるクライアント端末10では、仮想3次元空間においてキャラクターAが高速で移動し続けている状態においては、仮想カメラの配置が変更されたとしても、キャラクターAの高速移動をさらに続けるようにすることも可能である。   Therefore, in the client terminal 10 according to the present embodiment, when the character A continues to move at high speed in the virtual three-dimensional space, even if the placement of the virtual camera is changed, the character A continues to move at high speed. It is also possible to

具体的には、オブジェクト制御部102は、ユーザーのスライド操作により操作エリア502で指示された画面上のスライド距離が維持されたことによって、仮想3次元空間における移動平面上の指示方向にキャラクターAが高速で移動し続けている状態において、仮想カメラ制御部103によって仮想カメラの視方向が変更された場合に、仮想カメラの視方向が変更された後において、ユーザーのスライド操作により操作エリア502で指示された画面上のスライド距離が引き続き維持されたことを条件として、仮想3次元空間においてキャラクターAの高速移動をさらに続けるように制御する。   Specifically, the object control unit 102 causes the character A to move in the instruction direction on the moving plane in the virtual three-dimensional space by maintaining the slide distance on the screen instructed in the operation area 502 by the user's slide operation. When the virtual camera control unit 103 changes the viewing direction of the virtual camera in the state of continuing to move at high speed, after the viewing direction of the virtual camera is changed, the user operates the operation area 502 to instruct. On condition that the above-described slide distance on the screen is continuously maintained, the high-speed movement of the character A is further controlled in the virtual three-dimensional space.

これにより、キャラクターAが高速移動しているときに仮想カメラの視方向が変更されたことによって、急にキャラクターAが低速移動することのないように制御できるため、仮想カメラの視方向が変更されたことによる混乱を抑制することができる。   As a result, it is possible to control the character A so that the character A does not suddenly move at low speed due to the change of the virtual camera view direction while the character A is moving at high speed. It is possible to suppress confusion due to things.

===その他の実施形態===
前述の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物も含まれる。特に、以下に述べる実施形態であっても、本発明に含まれるものである。
=== Other Embodiments ===
The above-described embodiments are for facilitating the understanding of the present invention and are not for limiting the interpretation of the present invention. The present invention can be modified and improved without departing from the spirit thereof, and the present invention includes equivalents thereof. In particular, the embodiments described below are also included in the present invention.

<スライド操作>
前述の実施形態では、ユーザーがスライド操作を行うことによってキャラクターの移動方向を指示できる場合を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、ユーザーがスライド操作を行うことによって攻撃方向やスキル発動方向を指示できるようにしてもよい。
<Slide operation>
In the above-described embodiment, the case where the user can instruct the moving direction of the character by performing the slide operation has been described as an example, but the present invention is not limited to this. For example, the user may instruct the attack direction or the skill activation direction by performing a slide operation.

また、前述の実施形態では、ユーザーがスライド操作で入力したスライド距離に応じてキャラクターの移動速度を変化させる場合(キャラクターの移動速度を低速から高速へ切り替える場合)を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、ユーザーがスライド操作で入力したスライド距離に応じて攻撃種類やスキル種類を変化させてもよい(攻撃種類を武器Aから武器Bへ切り替えてもよいし、発動可能なスキル種類をスキルAからスキルBに切り替えてもよい)。   In the above embodiment, the case where the moving speed of the character is changed according to the slide distance input by the user through the slide operation (when the moving speed of the character is switched from low speed to high speed) has been described as an example. The present invention is not limited to this. For example, the attack type and the skill type may be changed according to the slide distance input by the user through the slide operation (the attack type may be switched from the weapon A to the weapon B, and the skill type that can be activated from the skill A may be changed). You may switch to skill B).

<仮想カメラの配置変更>
前述の実施形態では、仮想カメラの俯角θが徐々に小さくなるように仮想カメラの視方向を変更して行った結果、楕円形状で画面表示される操作エリアが潰れて見える場合があり得る。このように楕円形状の操作エリアが見えにくくなってしまうと、タッチ操作ができなくなる。そのため、仮想カメラの俯角θが所定範囲内で変化するように、仮想カメラの配置変更を制限することも可能である。また、仮想カメラの高さが徐々に低くなるように仮想カメラの位置を変更して行った結果、楕円形状で画面表示される操作エリアが潰れて見える場合もあり得る。この場合にも、仮想カメラの高さが所定範囲内で変化するように、仮想カメラの配置変更を制限することも可能である。
<Virtual camera layout change>
In the above-described embodiment, as a result of changing the viewing direction of the virtual camera so that the depression angle θ of the virtual camera becomes gradually smaller, the operation area displayed on the screen in an elliptical shape may appear crushed. If the elliptical operation area becomes difficult to see, the touch operation cannot be performed. Therefore, it is also possible to limit the layout change of the virtual camera so that the depression angle θ of the virtual camera changes within a predetermined range. In addition, as a result of changing the position of the virtual camera so that the height of the virtual camera gradually decreases, the operation area displayed on the screen in an elliptical shape may appear to be crushed. Also in this case, it is possible to limit the layout change of the virtual camera so that the height of the virtual camera changes within a predetermined range.

また、前述の実施形態では、ユーザーの操作に従って仮想カメラの視方向が変更される場合を例に挙げて説明したが、ユーザーの操作ではなく、ゲームの進行状況等に応じて自動的に仮想カメラの視方向が変更されるように制御することも可能である。   Further, in the above-described embodiment, the case where the viewing direction of the virtual camera is changed according to the user's operation has been described as an example, but the virtual camera is not automatically operated according to the user's operation but according to the progress of the game. It is also possible to control so that the viewing direction of is changed.

<操作エリア>
前述の実施形態では、ゲーム画像501と操作エリア502を同一の画面上に配置した画面構成を例に挙げて説明したが、画面上で操作エリア502が見えないように画面構成することも可能である。
<Operation area>
In the above embodiment, the screen configuration in which the game image 501 and the operation area 502 are arranged on the same screen has been described as an example, but it is also possible to configure the screen so that the operation area 502 cannot be seen on the screen. is there.

また、前述の実施形態では、画面上で操作エリア502の配置を固定した画面構成であってもよいし、ユーザーが最初のタッチ操作で指示した任意の指示位置を基準位置とし、その基準位置に操作エリア502を配置した画面構成であってもよい。   Further, in the above-described embodiment, a screen configuration in which the arrangement of the operation area 502 is fixed on the screen may be used, or an arbitrary designated position designated by the user with the first touch operation is set as a reference position, and the reference position is set as the reference position. A screen configuration in which the operation area 502 is arranged may be used.

<指示方向の変換>
前述の実施形態では、座標変換や透視投影手法等を利用して、操作エリア502で指示された画面上の指示方向を、仮想3次元空間においてキャラクターAが移動する移動平面上の指示方向に変換する場合を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、操作エリア502と仮想操作パッドPとの面積比から変換後の指示角度を求めることにより、指示方向を変換することも可能である。
<Conversion of designated direction>
In the above-mentioned embodiment, the designated direction on the screen designated in the operation area 502 is transformed into the designated direction on the moving plane in which the character A moves in the virtual three-dimensional space by using coordinate transformation, perspective projection method and the like. However, the present invention is not limited to this. For example, the pointing direction can be converted by obtaining the converted pointing angle from the area ratio between the operation area 502 and the virtual operation pad P.

1 情報処理システム
10 クライアント端末
20 サーバー装置
50 コンピューター
51 CPU
52 RAM
53 ROM
54 通信インタフェース
55 入力装置
56 表示装置
57 外部インタフェース
58 HDD
100 制御部
101 ゲーム進行部
102 オブジェクト制御部
103 仮想カメラ制御部
104 ゲーム画像生成部
105 操作エリア生成部
106 表示制御部
120 記憶部
140 通信部
150 操作受付部
160 画面表示部
500 タッチパネル
501 ゲーム画像
502 操作エリア
B バスライン
N ネットワーク
1 Information Processing System 10 Client Terminal 20 Server Device 50 Computer 51 CPU
52 RAM
53 ROM
54 Communication Interface 55 Input Device 56 Display Device 57 External Interface 58 HDD
100 control unit 101 game progression unit 102 object control unit 103 virtual camera control unit 104 game image generation unit 105 operation area generation unit 106 display control unit 120 storage unit 140 communication unit 150 operation reception unit 160 screen display unit 500 touch panel 501 game image 502 Operating area B Bus line N network

Claims (5)

仮想3次元空間においてオブジェクトが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、前記移動平面上の前記オブジェクトを見たときのゲーム画像を生成するゲーム画像生成部と、
仮想3次元空間において前記移動平面と平行になるように配置された仮想操作オブジェクトを、前記仮想カメラから見たときの操作エリアを生成する操作エリア生成部と、
前記ゲーム画像と前記操作エリアを同一の画面上に配置させる表示制御部と、
前記ゲーム画像と前記操作エリアが配置された画面に対するユーザーのタッチ操作を検出するタッチパネルと、
前記タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向を決定し、その決定された前記操作エリアで指示された画面上の指示方向を、仮想3次元空間における前記移動平面上の指示方向に変換し、その変換された前記移動平面上の指示方向に前記オブジェクトが移動するように制御するオブジェクト制御部と、
を備えたことを特徴とする情報処理装置。
A game image generation unit that generates a game image when the object on the moving plane is viewed from a virtual camera arranged so as to obliquely look down the moving plane on which the object moves in the virtual three-dimensional space;
An operation area generation unit that generates an operation area when a virtual operation object is arranged in parallel with the moving plane in a virtual three-dimensional space when viewed from the virtual camera;
A display control unit that arranges the game image and the operation area on the same screen;
A touch panel that detects a user's touch operation on the screen on which the game image and the operation area are arranged;
Based on the detection signal from the touch panel, the pointing direction on the screen instructed in the operation area is determined by the touch operation of the user, and the pointing direction on the screen instructed in the determined operation area is virtualized. An object control unit that converts into a designated direction on the moving plane in a three-dimensional space and controls the object to move in the transformed designated direction on the moving plane;
An information processing apparatus comprising:
請求項1に記載の情報処理装置であって、
仮想3次元空間における仮想カメラの配置を制御する仮想カメラ制御部と、
を備え、
ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向が維持されたことによって、仮想3次元空間における前記移動平面上の指示方向に前記オブジェクトが移動し続けている状態で、仮想カメラの配置が変更された場合に、
前記操作エリア生成部は、変更後の仮想カメラから前記仮想操作オブジェクトを見たときの操作エリアを生成し、
前記表示制御部は、仮想カメラの視方向が変更される前における前記移動平面上の指示方向を、生成された前記操作エリアでユーザーのタッチ操作により指示されるべき画面上の指示方向に変換し、その変換された前記画面上の指示方向に合うように、その生成された前記操作エリアを画面上に配置する、
ことを特徴とする情報処理装置。
The information processing apparatus according to claim 1, wherein
A virtual camera controller that controls the placement of virtual cameras in a virtual three-dimensional space;
Equipped with
The virtual camera is displayed in a state where the object continues to move in the pointing direction on the moving plane in the virtual three-dimensional space because the pointing direction on the screen instructed by the user's touch operation is maintained. If the placement of is changed,
The operation area generation unit generates an operation area when the virtual operation object is viewed from the changed virtual camera,
The display control unit converts the pointing direction on the moving plane before the viewing direction of the virtual camera is changed into the pointing direction on the screen to be instructed by the user's touch operation in the generated operation area. , Arranging the generated operation area on the screen so as to match the converted pointing direction on the screen,
An information processing device characterized by the above.
請求項1に記載の情報処理装置であって、
仮想3次元空間における仮想カメラの配置を制御する仮想カメラ制御部と、
を備え、
前記オブジェクト制御部は、仮想カメラの視方向が変更される前、及び、仮想カメラの視方向が変更された後のいずれにおいても、前記タッチパネルからの検出信号に基づいて、ユーザーのスライド操作により前記操作エリアで指示された画面上のスライド距離を決定し、その決定されたスライド距離が所定距離以上である場合に、仮想3次元空間においてオブジェクトが高速で移動するように制御する、
ことを特徴とする情報処理装置。
The information processing apparatus according to claim 1, wherein
A virtual camera controller that controls the placement of virtual cameras in a virtual three-dimensional space;
Equipped with
The object control unit performs the slide operation by the user based on the detection signal from the touch panel before the view direction of the virtual camera is changed and after the view direction of the virtual camera is changed. A slide distance on the screen designated by the operation area is determined, and when the determined slide distance is equal to or greater than a predetermined distance, the object is controlled to move at high speed in the virtual three-dimensional space,
An information processing device characterized by the above.
請求項3に記載の情報処理装置であって、
前記オブジェクト制御部は、ユーザーのスライド操作により前記操作エリアで指示された画面上のスライド距離が維持されたことによって、仮想3次元空間における前記移動平面上の指示方向に前記オブジェクトが高速で移動し続けている状態で、仮想カメラの視方向が変更された場合に、仮想カメラの視方向が変更された後において、ユーザーのスライド操作により前記操作エリアで指示された画面上のスライド距離が引き続き維持されたことを条件として、仮想3次元空間においてオブジェクトの高速移動をさらに続けるように制御する、
ことを特徴とする情報処理装置。
The information processing apparatus according to claim 3, wherein
The object control unit moves the object at a high speed in a designated direction on the moving plane in the virtual three-dimensional space by maintaining the slide distance on the screen designated in the manipulation area by the user's slide manipulation. If the viewing direction of the virtual camera is changed while continuing, after the viewing direction of the virtual camera is changed, the slide distance on the screen instructed in the operation area by the user's slide operation is continuously maintained. On condition that the object has been performed, control is performed to further continue the high-speed movement of the object in the virtual three-dimensional space,
An information processing device characterized by the above.
コンピューターを、
仮想3次元空間においてオブジェクトが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、前記移動平面上の前記オブジェクトを見たときのゲーム画像を生成するゲーム画像生成手段、
仮想3次元空間において前記移動平面と平行になるように配置された仮想操作オブジェクトを、前記仮想カメラから見たときの操作エリアを生成する操作エリア生成手段、
前記ゲーム画像と前記操作エリアを同一の画面上に配置させる表示制御手段、
タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向を決定し、その決定された前記操作エリアで指示された画面上の指示方向を、仮想3次元空間における前記移動平面上の指示方向に変換し、その変換された前記移動平面上の指示方向に前記オブジェクトが移動するように制御するオブジェクト制御手段、
として機能させるためのプログラム。
Computer
Game image generation means for generating a game image when the object on the moving plane is viewed from a virtual camera arranged so as to obliquely look down the moving plane on which the object moves in the virtual three-dimensional space,
An operation area generation unit that generates an operation area when a virtual operation object arranged in parallel with the moving plane in a virtual three-dimensional space is viewed from the virtual camera,
Display control means for arranging the game image and the operation area on the same screen,
Based on a detection signal from the touch panel, a user's touch operation determines a pointing direction on the screen instructed in the operation area, and the pointing direction on the screen instructed in the determined operation area is set to a virtual 3 Object control means for converting into a designated direction on the moving plane in the dimensional space and controlling the object to move in the transformed designated direction on the moving plane;
Program to function as.
JP2019133189A 2019-07-18 2019-07-18 Information processor and program Pending JP2020062376A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019133189A JP2020062376A (en) 2019-07-18 2019-07-18 Information processor and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019133189A JP2020062376A (en) 2019-07-18 2019-07-18 Information processor and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018195454A Division JP6569794B1 (en) 2018-10-16 2018-10-16 Information processing apparatus and program

Publications (1)

Publication Number Publication Date
JP2020062376A true JP2020062376A (en) 2020-04-23

Family

ID=70388021

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019133189A Pending JP2020062376A (en) 2019-07-18 2019-07-18 Information processor and program

Country Status (1)

Country Link
JP (1) JP2020062376A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111603770A (en) * 2020-05-21 2020-09-01 腾讯科技(深圳)有限公司 Virtual environment picture display method, device, equipment and medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111603770A (en) * 2020-05-21 2020-09-01 腾讯科技(深圳)有限公司 Virtual environment picture display method, device, equipment and medium
CN111603770B (en) * 2020-05-21 2023-05-05 腾讯科技(深圳)有限公司 Virtual environment picture display method, device, equipment and medium

Similar Documents

Publication Publication Date Title
US11752432B2 (en) Information processing device and method of causing computer to perform game program
US10503218B2 (en) Information processing device and information processing method to control display of image based on inclination information
US8830184B2 (en) Image displaying device, image displaying method, and program for displaying images
US20180067572A1 (en) Method of controlling virtual object or view point on two dimensional interactive display
US20210232307A1 (en) Control apparatus, control method, and storage medium
WO2020080346A1 (en) Information processing device and program
US10891028B2 (en) Information processing device and information processing method
EP2801967B1 (en) Electronic device for providing information to a user
US11099723B2 (en) Interaction method for user interfaces
JP2014099155A (en) Method and electronic device for providing virtual keyboard
JP2006092321A (en) Electronic equipment and touchpad device
JP6969516B2 (en) Programs and information processing equipment
JP6394190B2 (en) System and method enabling gesture control based on occlusion pattern detection
US20160191875A1 (en) Image projection apparatus, and system employing interactive input-output capability
TWI442305B (en) A operation method and a system of the multi-touch
JP2020062376A (en) Information processor and program
JP6501533B2 (en) Interface program for icon selection
JP5767371B1 (en) Game program for controlling display of objects placed on a virtual space plane
KR101528485B1 (en) System and method for virtual reality service based in smart device
JP2019202128A (en) Information processor and program
JP5773818B2 (en) Display control apparatus, display control method, and computer program
JP2016130888A (en) Computer program for icon selection, portable terminal, and computer mounting method
JP6521146B1 (en) Information processing apparatus and program
JP7473832B1 (en) Electronic devices and programs
CN116661656B (en) Picture interaction method and shooting display system