JP5876600B1 - Information processing program and information processing method - Google Patents

Information processing program and information processing method Download PDF

Info

Publication number
JP5876600B1
JP5876600B1 JP2015036983A JP2015036983A JP5876600B1 JP 5876600 B1 JP5876600 B1 JP 5876600B1 JP 2015036983 A JP2015036983 A JP 2015036983A JP 2015036983 A JP2015036983 A JP 2015036983A JP 5876600 B1 JP5876600 B1 JP 5876600B1
Authority
JP
Japan
Prior art keywords
rotation
display
amount
information processing
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015036983A
Other languages
Japanese (ja)
Other versions
JP2016158639A (en
Inventor
唯人 木村
唯人 木村
祥二 河野
祥二 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cygames Inc
Original Assignee
Cygames Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cygames Inc filed Critical Cygames Inc
Priority to JP2015036983A priority Critical patent/JP5876600B1/en
Application granted granted Critical
Publication of JP5876600B1 publication Critical patent/JP5876600B1/en
Publication of JP2016158639A publication Critical patent/JP2016158639A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】3Dゲームにとって好適な仮想的なコントローラを実現可能な技術を確立することが可能となる短時間で簡単な操作でタイムシフト録画の指示を可能とすること。【解決手段】回転コントローラRCは、所定のタッチ操作に応じてローカル座標系における回転方向、回転量、及び回転速度が変化する、仮想の球体の回転体を示すオブジェクトである。キャラクタCは、同一のタッチ操作に応じて、仮想空間のグローバル座標系における移動方向、移動量、及び移動速度が変化する。【選択図】図1It is possible to establish a technology capable of realizing a virtual controller suitable for a 3D game, and to perform a time-shift recording instruction with a simple operation in a short time. A rotation controller RC is an object indicating a virtual spherical rotating body in which a rotation direction, a rotation amount, and a rotation speed in a local coordinate system change according to a predetermined touch operation. In the character C, the movement direction, the movement amount, and the movement speed in the global coordinate system of the virtual space change according to the same touch operation. [Selection] Figure 1

Description

本発明は、情報処理プログラム、及び情報処理方法に関する。   The present invention relates to an information processing program and an information processing method.

従来、据置型のゲーム装置では、操作器具として、実物体のコントローラがゲーム装置本体とは別途設けられていた。
このような実物体のコントローラは、スマートフォン等の携帯端末で実行されるゲームの操作用途としては不適である。このため、携帯端末で実行されるゲームの操作用に、当該携帯端末のタッチパネルに表示される仮想的なコントローラが用いられている(例えば特許文献1参照)。
Conventionally, in a stationary game apparatus, a controller for a real object is provided separately from the game apparatus main body as an operation tool.
Such a controller for a real object is not suitable as an operation application for a game executed on a mobile terminal such as a smartphone. For this reason, the virtual controller displayed on the touch panel of the said portable terminal is used for operation of the game performed with a portable terminal (for example, refer patent document 1).

2014−45965号公報2014-45965 gazette

しかしながら、近年、仮想的な3次元空間内に配置された3次元形状のオブジェクトを用いたゲーム(以下、「3Dゲーム」と呼ぶ)の普及が著しい。このような3Dゲームにとって好適な仮想的なコントローラが要求されている。
当該要求に応えるためには少なくとも、仮想的なコントローラは3次元形状であることが必要である。ところが、特許文献1を含め従来の技術で実現される仮想的なコントローラは、あくまでも2次元平面上の画像により表されたものであるため、当該要求に応えることはできない。
However, in recent years, games using three-dimensional objects arranged in a virtual three-dimensional space (hereinafter referred to as “3D games”) have become very popular. There is a demand for a virtual controller suitable for such a 3D game.
In order to meet this requirement, at least the virtual controller needs to have a three-dimensional shape. However, since the virtual controller realized by the conventional technique including Patent Document 1 is only represented by an image on a two-dimensional plane, it cannot meet the request.

本発明は、このような状況に鑑みてなされたものであり、3Dゲームにとって好適な仮想的なコントローラを実現可能とすることを目的とする。   The present invention has been made in view of such circumstances, and an object thereof is to realize a virtual controller suitable for a 3D game.

上記目的を達成するため、本発明の一態様の情報処理プログラムは、
画像を表示媒体に表示させる制御を実行するコンピュータに、
所定の指示に応じてローカル座標系における回転に関する1種以上の量が変化する仮想の3次元形状の回転体を示す第1オブジェクトと、当該所定の指示に応じて1種以上の量が変化する第2オブジェクトとを含む画像を、前記表示媒体に表示させる表示制御ステップと、
前記所定の指示の操作として、前記表示媒体への物体の接触又は近接の操作を検出する検出ステップと、
検出された前記操作に基づいて、前記第1オブジェクトの回転に関する前記1種以上の量を決定すると共に、前記第2オブジェクトの前記1種以上の量を決定する決定ステップと、
を含む制御処理を実行させる。
In order to achieve the above object, an information processing program according to one aspect of the present invention is provided.
To a computer that executes control to display an image on a display medium,
A first object indicating a virtual three-dimensional rotating body in which one or more types relating to rotation in the local coordinate system change according to a predetermined instruction, and one or more types change in accordance with the predetermined instruction. A display control step of displaying an image including a second object on the display medium;
A detection step of detecting a contact or proximity operation of an object to the display medium as the operation of the predetermined instruction;
A determination step of determining the one or more amounts related to the rotation of the first object based on the detected operation and determining the one or more amounts of the second object;
The control process including is executed.

本発明の一態様の上記情報処理プログラムに対応する情報処理方法も、本発明の一態様の情報処理方法として提供される。   An information processing method corresponding to the information processing program of one embodiment of the present invention is also provided as an information processing method of one embodiment of the present invention.

本発明によれば、3Dゲームにとって好適な仮想的なコントローラが実現可能となる。   According to the present invention, a virtual controller suitable for a 3D game can be realized.

本発明の一実施形態に係るプレイヤー端末のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the player terminal which concerns on one Embodiment of this invention. 図1のプレイヤー端末に表示される3Dゲームの実行画面の一例を示している。3 shows an example of a 3D game execution screen displayed on the player terminal of FIG. 1. 図1のプレイヤー端末の機能的構成の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of a functional structure of the player terminal of FIG. 図1のプレイヤー端末が実行するゲーム表示処理の流れの一例を説明するフローチャートである。It is a flowchart explaining an example of the flow of the game display process which the player terminal of FIG. 1 performs. 本発明が適用されるオブジェクトの各種具体例を示す図である。It is a figure which shows the various specific examples of the object to which this invention is applied.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

なお、以下において、単に「画像」と呼ぶ場合には、「動画像」と「静止画像」との両方を含むものとする。
また、「動画像」には、次の第1処理乃至第3処理の夫々により表示される画像を含むものとする。
第1処理とは、平面画像(2D画像)におけるオブジェクト(例えばゲームキャラクタ)の夫々の動作に対して、複数枚からなる一連の静止画像を時間経過と共に連続的に切り替えて表示させる処理をいう。具体的には例えば、2次元アニメーション、いわゆるパラパラ漫画的な処理が第1処理に該当する。
第2処理とは、立体画像(3Dモデルの画像)におけるオブジェクト(例えばゲームキャラクタ)の夫々の動作に対応するモーションを設定しておき、時間経過と共に当該モーションを変化させて表示させる処理をいう。具体的には例えば、3次元アニメーションが第2処理に該当する。
第3処理とは、オブジェクト(例えばゲームキャラクタ)の夫々の動作に対応した映像(即ち動画)を準備しておき、時間経過と共に当該映像を流していく処理をいう。
In the following description, when simply referred to as “image”, both “moving image” and “still image” are included.
The “moving image” includes an image displayed by each of the following first to third processes.
The first process refers to a process in which a series of still images composed of a plurality of images are continuously switched over time and displayed for each motion of an object (for example, a game character) in a planar image (2D image). Specifically, for example, two-dimensional animation, so-called flip-flopping processing, corresponds to the first processing.
The second process refers to a process in which motions corresponding to respective actions of an object (for example, a game character) in a stereoscopic image (3D model image) are set, and the motions are changed and displayed over time. Specifically, for example, a three-dimensional animation corresponds to the second process.
The third process refers to a process in which videos (that is, moving images) corresponding to respective actions of an object (for example, a game character) are prepared and the video is played over time.

図1は、本発明の一実施形態に係るプレイヤー端末1のハードウェア構成を示すブロック図である。   FIG. 1 is a block diagram showing a hardware configuration of a player terminal 1 according to an embodiment of the present invention.

プレイヤー端末1は、スマートフォン等で構成される。
プレイヤー端末1は、CPU(Central Processing Unit)21と、ROM(Read Only Memory)22と、RAM(Random Access Memory)23と、バス24と、入出力インターフェース25と、タッチ操作入力部26と、表示部27と、入力部28と、記憶部29と、通信部30と、ドライブ31と、を備えている。
The player terminal 1 is composed of a smartphone or the like.
The player terminal 1 includes a CPU (Central Processing Unit) 21, a ROM (Read Only Memory) 22, a RAM (Random Access Memory) 23, a bus 24, an input / output interface 25, a touch operation input unit 26, a display Unit 27, input unit 28, storage unit 29, communication unit 30, and drive 31.

CPU21は、ROM22に記録されているプログラム、又は、記憶部29からRAM23にロードされたプログラムに従って各種の処理を実行する。
RAM23には、CPU21が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 21 executes various processes according to a program recorded in the ROM 22 or a program loaded from the storage unit 29 to the RAM 23.
The RAM 23 appropriately stores data necessary for the CPU 21 to execute various processes.

CPU21、ROM22及びRAM23は、バス24を介して相互に接続されている。このバス24にはまた、入出力インターフェース25も接続されている。入出力インターフェース25には、タッチ操作入力部26、表示部27、入力部28、記憶部29、通信部30及びドライブ31が接続されている。   The CPU 21, ROM 22, and RAM 23 are connected to each other via a bus 24. An input / output interface 25 is also connected to the bus 24. A touch operation input unit 26, a display unit 27, an input unit 28, a storage unit 29, a communication unit 30, and a drive 31 are connected to the input / output interface 25.

タッチ操作入力部26は、例えば表示部27に積層される静電容量式又は抵抗膜式(感圧式)の位置入力センサにより構成され、タッチ操作がなされた位置の座標を検出する。
ここで、タッチ操作とは、タッチ操作入力部26に対する物体の接触又は近接の操作をいう。タッチ操作入力部26に対して接触又は近接する物体は、例えばプレイヤーの指やタッチペン等である。なお、以下、タッチ操作がなされた位置を「タッチ位置」と呼び、タッチ位置の座標を「タッチ座標」と呼ぶ。
表示部27は、液晶等のディスプレイにより構成され、ゲームに関する画像等、各種画像を表示する。
このように、本実施形態では、タッチ操作入力部26と表示部27とにより、タッチパネルが構成されている。
なお、本明細書で「表示媒体」と呼ぶ場合、単に表示部27を意味せず、タッチ操作入力部26と表示部27とから構成される「タッチパネル」を意味する。
The touch operation input unit 26 includes, for example, a capacitance type or resistance film type (pressure sensitive) position input sensor stacked on the display unit 27, and detects the coordinates of the position where the touch operation is performed.
Here, the touch operation refers to an operation of touching or approaching an object with respect to the touch operation input unit 26. The object that contacts or approaches the touch operation input unit 26 is, for example, a player's finger or a touch pen. Hereinafter, the position where the touch operation is performed is referred to as “touch position”, and the coordinates of the touch position are referred to as “touch coordinates”.
The display unit 27 includes a display such as a liquid crystal display, and displays various images such as an image related to a game.
Thus, in this embodiment, the touch operation input unit 26 and the display unit 27 constitute a touch panel.
In addition, when calling it a "display medium" in this specification, the display part 27 is not simply meant but the "touch panel" comprised from the touch operation input part 26 and the display part 27 is meant.

ここで、タッチパネルにおけるタッチ操作の種類としては、例えば、スワイプとフリックが存在する。
ただし、スワイプもフリックも、表示媒体への物体の接触又は近接が開始された第1状態から、表示媒体への接触又は近接が維持されて物体の位置が変化する第2状態(タッチ位置が変化する第2状態)を経て、表示媒体への物体の接触又は近接が解除される第3状態(物体が表示媒体から離間する第3状態)まで至る一連の操作である点は変わらない。そこで、本明細書では、このような一連の操作をまとめて「スワイプ」と呼ぶことにする。
換言すると、本明細書でいう「スワイプ」は、一般的に呼ばれるスワイプの他、上述のフリック等も含まれる広義な概念である。
Here, swipes and flicks exist as types of touch operations on the touch panel, for example.
However, both the swipe and the flick are the second state in which the contact or proximity of the display medium is maintained and the position of the object is changed from the first state in which the contact or proximity of the object to the display medium is started (the touch position is changed). The second state) is a series of operations from the third state where the contact or proximity of the object to the display medium is released to the third state (the third state where the object is separated from the display medium). Therefore, in this specification, such a series of operations will be collectively referred to as “swipe”.
In other words, the “swipe” in the present specification is a broad concept including the above-described flicks in addition to the commonly called swipe.

入力部28は、各種ハードウェア釦等で構成され、プレイヤーの指示操作に応じて各種情報を入力する。
記憶部29は、DRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部30は、図示せぬインターネットを含むネットワークを介して他の装置(図示せぬサーバや図示せぬ他のプレイヤー端末)との間で行う通信を制御する。
The input unit 28 is configured with various hardware buttons and the like, and inputs various information according to the player's instruction operation.
The storage unit 29 is configured by a DRAM (Dynamic Random Access Memory) or the like and stores various data.
The communication unit 30 controls communication performed with another device (a server (not shown) or another player terminal (not shown)) via a network including the Internet (not shown).

ドライブ31は、必要に応じて設けられる。ドライブ31には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア32が適宜装着される。ドライブ31によってリムーバブルメディア32から読み出されたプログラムは、必要に応じて記憶部29にインストールされる。また、リムーバブルメディア32は、記憶部29に記憶されている各種データも、記憶部29と同様に記憶することができる。   The drive 31 is provided as necessary. A removable medium 32 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 31. The program read from the removable medium 32 by the drive 31 is installed in the storage unit 29 as necessary. The removable medium 32 can also store various data stored in the storage unit 29 in the same manner as the storage unit 29.

このような図1のプレイヤー端末1の各種ハードウェアと各種ソフトウェアとの協働により、プレイヤー端末1で3Dゲームの実行が可能になる。
例えば本実施形態では、図2に示すような画像がタッチパネル(表示媒体)に表示される3Dゲームが、プレイヤー端末1で実行可能になる。
即ち、図2は、図1のプレイヤー端末1に表示される3Dゲームの実行画面41の一例を示している。
The 3D game can be executed on the player terminal 1 by the cooperation of the various hardware and various software of the player terminal 1 shown in FIG.
For example, in the present embodiment, a 3D game in which an image as shown in FIG. 2 is displayed on the touch panel (display medium) can be executed on the player terminal 1.
That is, FIG. 2 shows an example of a 3D game execution screen 41 displayed on the player terminal 1 of FIG.

図2に示す3Dゲームでは、所定のグローバル座標系で構築される仮想的な3次元空間(以下、単に「仮想空間」と呼ぶ)が、ゲーム空間として用いられている。
本実施形態では、3Dゲームには様々な3次元形状のオブジェクトが用いられるが、各オブジェクトは、夫々個別のローカル座標系が設定されており、各ローカル座標系の座標がグローバル座標に変換されて仮想空間に配置されている。
この仮想空間内において、仮想の3次元形状のキャラクタCが移動する。即ち、当該3Dゲームにおける操作対象のオブジェクトが、キャラクタCである。
In the 3D game shown in FIG. 2, a virtual three-dimensional space (hereinafter simply referred to as “virtual space”) constructed in a predetermined global coordinate system is used as the game space.
In this embodiment, various three-dimensional objects are used in the 3D game, but each object has an individual local coordinate system, and the coordinates of each local coordinate system are converted to global coordinates. Arranged in virtual space.
In this virtual space, a virtual three-dimensional character C moves. That is, the operation target object in the 3D game is the character C.

本実施形態では、このキャラクタCの移動(仮想空間内のグローバル座標系における座標変化)を操作するための仮想的なコントローラとして、回転コントローラRCが採用されている。
回転コントローラRCは、仮想の球体状のオブジェクトであり、図2に示すように、仮想空間内に表示される。
回転コントローラRCにおいては、プレイヤーからの所定の指示に応じて、ローカル座標系における回転に関する1種以上の量が変化する。ここで、変化対象の量は、回転に関するものであれば特に限定されないが、本実施形態では、回転量、回転方向、及び回転速度が採用されている。
また、回転コントローラRCに対するプレイヤーからの所定の指示の手法も、タッチ操作であれば特に限定されないが、本実施形態ではスワイプが採用されている。
In the present embodiment, a rotation controller RC is employed as a virtual controller for operating the movement of the character C (coordinate change in the global coordinate system in the virtual space).
The rotation controller RC is a virtual spherical object, and is displayed in a virtual space as shown in FIG.
In the rotation controller RC, one or more types relating to rotation in the local coordinate system change according to a predetermined instruction from the player. Here, the amount of change target is not particularly limited as long as it relates to rotation, but in this embodiment, the rotation amount, the rotation direction, and the rotation speed are adopted.
Also, a method of giving a predetermined instruction from the player to the rotation controller RC is not particularly limited as long as it is a touch operation, but swipe is adopted in this embodiment.

なお、図2に示すボタンB1乃至B4は、キャラクタCに対して、回転コントローラRCによる指示以外の指示を与えるためのソフトウェアボタンである。本実施形態では、ボタンB1乃至B4に対するプレイヤーからの所定の指示の手法としては、タップ(指等の押下操作)が採用されている。   The buttons B1 to B4 shown in FIG. 2 are software buttons for giving an instruction other than the instruction from the rotation controller RC to the character C. In the present embodiment, a tap (pressing operation of a finger or the like) is adopted as a predetermined instruction method from the player for the buttons B1 to B4.

ここで図示はしないが、未だタッチ操作がなされていない初期状態においては、回転コントローラRCはプレイヤーが視認可能な状態になされていないものとする。
この初期状態において、タッチパネルにおけるボタンB1乃至B4が表示されている以外の領域に対してタッチ操作がなされると、そのタッチ位置を平面上の中心或いは重心として回転コントローラRCが表示される。即ち、プレイヤーにとっては、タッチ位置に対応する仮想空間内の位置に、回転コントローラRCがあたかも出現したように視認される。
Although not shown here, it is assumed that the rotation controller RC is not visible to the player in the initial state where the touch operation has not yet been performed.
In this initial state, when a touch operation is performed on an area other than where the buttons B1 to B4 on the touch panel are displayed, the rotation controller RC is displayed with the touch position as the center or the center of gravity on the plane. That is, for the player, it is visually recognized as if the rotation controller RC appeared at a position in the virtual space corresponding to the touch position.

ここで、タッチ操作の後タッチ位置が略変化せずにに解除されると、即ちプレイヤーの指等が位置をほぼ変えずにタッチパネルから離間されると、タップとして認識される。この場合、回転コントローラRCは静止状態のまま表示され続ける。   Here, when the touch position is released without substantially changing after the touch operation, that is, when the finger or the like of the player is separated from the touch panel without changing the position, it is recognized as a tap. In this case, the rotation controller RC continues to be displayed in a stationary state.

一方、プレイヤーの指等がタッチパネルから離れないでタッチ操作が解除されないままにタッチ位置が変化すると、最初のタッチ操作はスワイプの第1状態として取り扱われて、タッチ位置が変化するスワイプの第2状態が検出される。
この場合、回転コントローラRCは自転を開始する。その自転の方向は、所定の時間間隔において夫々検出されるタッチ位置の変化方向、即ちスワイプの方向となる。このスワイプの方向は、キャラクタCに対する移動方向の指示としても与えられ、当該指示に従ってキャラクタCが方向転換して移動する。
即ち、プレイヤーによるスワイプの方向(タッチ位置の変化方向)に回転コントローラRCが自転すると共に、当該回転コントローラRCと連動するように、仮想空間内において当該スワイプの方向にキャラクタCが移動する。
On the other hand, if the touch position changes without the player's finger or the like moving away from the touch panel and the touch operation is not released, the first touch operation is handled as the first swipe state, and the second swipe state where the touch position changes Is detected.
In this case, the rotation controller RC starts to rotate. The direction of the rotation is the change direction of the touch position detected at each predetermined time interval, that is, the swipe direction. The direction of the swipe is also given as an instruction of the moving direction for the character C, and the character C changes its direction and moves according to the instruction.
That is, the rotation controller RC rotates in the direction of the swipe by the player (touch position changing direction), and the character C moves in the direction of the swipe in the virtual space so as to interlock with the rotation controller RC.

さらに、本実施形態では、所定の時間間隔において夫々検出されるタッチ位置の変化量(スワイプの量)に応じて、回転コントローラRCの自転量が変化すると共に、当該回転コントローラRCと連動するように、キャラクタCの移動量も変化する。
また、所定の時間間隔において夫々検出されるタッチ位置の変化速度(スワイプの速度)に応じて、回転コントローラRCの自転速度が変化すると共に、当該回転コントローラRCと連動するように、キャラクタの移動速度も変化する。
Furthermore, in the present embodiment, the amount of rotation of the rotation controller RC changes according to the amount of change (swipe amount) of the touch position detected at each predetermined time interval, and the rotation controller RC is linked with the rotation controller RC. The amount of movement of the character C also changes.
Further, the rotation speed of the rotation controller RC changes in accordance with the change speed (swipe speed) of the touch position detected at each predetermined time interval, and the character movement speed so as to be interlocked with the rotation controller RC. Also changes.

ここで、キャラクタCについては、指示操作(スワイプ)によって、グローバル座標系における量(移動方向、移動量、移動速度等)が少なくとも変化する。ここで、「少なくとも」と記載したのは、キャラクタCについては、グローバル座標系における量の変化と共に、ローカル座標系の量(例えば姿勢や角度等)が変化する場合もあるからである。ただし、以下便宜上、キャラクタCの移動とは、グローバル座標系における座標変化を意味するものとして説明する。
これに対して、回転コントローラRCについては、自転と記載しているように、回転コントローラRCに対する指示操作(スワイプ)によって、ローカル座標系における量(回転方向、回転量、回転速度等)が変化する。
つまり、図2の例では、回転コントローラRCは、キャラクタCを操作するための疑似的なトラックボールとして用いられている。即ち、プレイヤーは、あたかも現実のトラックボールを自転操作するかのように、スワイプをすることで、当該回転コントローラをその中心まわりに回転、つまり自転させ、その自転に連動するようにキャラクタCを仮想空間内で移動させることができる。
Here, for the character C, the amount (movement direction, movement amount, movement speed, etc.) in the global coordinate system changes at least by an instruction operation (swipe). Here, “at least” is described for character C because the amount of the local coordinate system (for example, posture, angle, etc.) may change with the change of the amount in the global coordinate system. However, for the sake of convenience, the following description will be made assuming that the movement of the character C means a coordinate change in the global coordinate system.
On the other hand, as for the rotation controller RC, as described as autorotation, the amount (rotation direction, rotation amount, rotation speed, etc.) in the local coordinate system is changed by an instruction operation (swipe) to the rotation controller RC. .
That is, in the example of FIG. 2, the rotation controller RC is used as a pseudo trackball for operating the character C. That is, the player rotates the rotation controller around its center, that is, rotates by rotating the virtual controller as if it were rotating the actual trackball, and the character C is virtually linked to the rotation. It can be moved in space.

ここで、現実世界ではプレイヤーは弾くようにトラックボールから手を離す操作をよく行う。現実のトラックボールは、プレイヤーの手が離されても、ある程度惰性で自転を継続する。その際、プレイヤーの手の動きが速い程、トラックボールの自転速度も速くなる。ただし、現実世界では摩擦があるため、トラックボールの自転速度は徐々に減速していき、最終的にはその自転は停止する。   Here, in the real world, the player often performs the operation of releasing the hand from the trackball as if playing. The actual trackball continues to rotate with some inertia even if the player's hand is released. At this time, the faster the player's hand moves, the faster the trackball rotates. However, since there is friction in the real world, the rotation speed of the trackball gradually decreases, and eventually the rotation stops.

本実施形態では、このような現実のトラックボールの動きを模擬すべく、タッチ位置が変化しているスワイプの第2状態から、プレイヤーの指等がタッチパネルから離間するスワイプの第3状態(スワイプの終了)に移行すると、当該第3状態は、現実のトラックボールからプレイヤーの手が離された状態と等価なものとして取り扱われる。
即ち、スワイプの終了の検出時点以前の所定時点において検出されたタッチ位置の変化速度に基づいて、回転コントローラRCの自転速度が決定される。そして、決定された自転速度で、回転コントローラRCが自転する。その後、回転コントローラRCの自転速度は徐々に減少していき、最終的にはその自転は停止する。
In the present embodiment, in order to simulate the actual movement of the trackball, the swipe second state where the player's finger or the like is separated from the touch panel is changed from the swipe second state where the touch position is changed (swipe of the swipe). When the process proceeds to (END), the third state is treated as equivalent to a state in which the player's hand is released from the actual trackball.
That is, the rotation speed of the rotation controller RC is determined based on the change speed of the touch position detected at a predetermined time before the detection time of the end of the swipe. Then, the rotation controller RC rotates at the determined rotation speed. Thereafter, the rotation speed of the rotation controller RC gradually decreases, and finally the rotation stops.

なお、スワイプの第3状態(スワイプの終了)の検出に伴うキャラクタCの移動指示については、3Dゲームの内容に応じて任意の設計が可能である。
例えば、スワイプの第3状態(スワイプの終了)の検出時点、キャラクタCの移動指示は解除されたものとして、キャラクタCは仮想空間内で停止状態になるようにしてもよい。
また例えば、スワイプの第3状態(スワイプの終了)の検出時点ではキャラクタCの移動指示は解除されずに、回転コントローラRCの自転が終了する等の所定タイミングまで移動指示が継続するようにしてもよい。
In addition, about the movement instruction | indication of the character C accompanying the detection of the 3rd state (end of a swipe) of swipe, arbitrary designs are possible according to the content of 3D game.
For example, the character C may be stopped in the virtual space on the assumption that the movement instruction of the character C is canceled at the time of detection of the third state of swipe (end of swipe).
Further, for example, at the time of detecting the third state of swipe (end of swipe), the movement instruction of the character C is not canceled and the movement instruction is continued until a predetermined timing such as the end of rotation of the rotation controller RC. Good.

以上まとめると、プレイヤーは、あたかも現実のトラックボールを操作するような感覚で、タッチパネル上の回転コントローラRCに対してスワイプを行うことができる。
この場合、当該回転コントローラRCはあたかも現実のトラックボールと同様の自転運動をすると共に、その自転運動に連動してキャラクタCも仮想空間内を移動する。即ち、プレイヤーは、操作感覚のみならず視覚的にも、現実のトラックボールに対する操作をした場合と同様の体験をすることができる。
In summary, the player can swipe the rotation controller RC on the touch panel as if operating a real trackball.
In this case, the rotation controller RC rotates as if it were a real trackball, and the character C moves in the virtual space in conjunction with the rotation. That is, the player can experience not only the operation feeling but also the visual experience similar to the case of operating the actual trackball.

さらに、タッチパネルにおける回転コントローラRCの表示位置は、特に限定されず、例えば各種ボタンB1乃至B4のように固定位置でもよい。ただし、本実施形態では、回転コントローラRCの表示位置は、上述のようにタッチ操作の開始位置(タップ操作又はスワイプの第1状態のタッチ位置)となる。これにより、プレイヤーは、タッチパネルの所望の位置にタッチ操作をすることで、回転コントローラRCをタッチパネル内の所望の位置に登場させることが容易にできる。   Furthermore, the display position of the rotation controller RC on the touch panel is not particularly limited, and may be a fixed position such as various buttons B1 to B4. However, in the present embodiment, the display position of the rotation controller RC is the start position of the touch operation (the touch position in the first state of the tap operation or swipe) as described above. Accordingly, the player can easily make the rotation controller RC appear at a desired position in the touch panel by performing a touch operation on the desired position on the touch panel.

以上説明した回転コントローラRCとキャラクタCとの連動は、プレイヤー端末1におけるハードウェアとソフトウェアの協働により実現される。この場合、プレイヤー端末1は、例えば図3に示す機能的構成を有することができる。   The linkage between the rotation controller RC and the character C described above is realized by cooperation of hardware and software in the player terminal 1. In this case, the player terminal 1 can have a functional configuration shown in FIG. 3, for example.

図3に示すように、回転コントローラRCとキャラクタCとの連動が可能となるように、プレイヤー端末1のCPU21においては、操作検出部51と、タッチ位置保持部52と、表示形態決定部53と、表示制御部54とが機能する。
また、記憶部29の一領域として、ボタン格納部71と、回転コントローラ格納部72と、キャラクタ格納部73と、背景等格納部74とが設けられている。
なお、図示はしないが、前提として、回転コントローラRCとキャラクタCとが連動する3Dゲームについて、その実行を制御する機能ブロック(ゲーム実行部)がCPU21において機能しているものとする。
As shown in FIG. 3, in the CPU 21 of the player terminal 1, an operation detection unit 51, a touch position holding unit 52, and a display form determination unit 53 are provided so that the rotation controller RC and the character C can be linked. The display control unit 54 functions.
As one area of the storage unit 29, a button storage unit 71, a rotation controller storage unit 72, a character storage unit 73, and a background storage unit 74 are provided.
Although not shown, it is assumed that a functional block (game execution unit) that controls the execution of the 3D game in which the rotation controller RC and the character C are linked functions in the CPU 21.

操作検出部51は、所定の時間間隔毎に、タッチ操作入力部26におけるタッチ操作の有無を検出し、タッチ操作が有った場合にはそのタッチ位置を検出する。
タッチ位置保持部52は、操作検出部51により最新に検出されたタッチ位置を含む、所定の個数のタッチ位置を保持する。
The operation detection unit 51 detects the presence or absence of a touch operation at the touch operation input unit 26 at predetermined time intervals, and detects the touch position when there is a touch operation.
The touch position holding unit 52 holds a predetermined number of touch positions including the touch position most recently detected by the operation detection unit 51.

ここで、「所定の時間間隔」毎に検出される複数のタッチ位置は、上述したように、タッチ位置の変化方向、変化量、及び変化速度を演算するために用いられる。
即ち、タッチ位置の検出の「所定の時間間隔」は、これらの演算が可能であれば、特に限定されない。ただし、本実施形態では、タッチパネルにフレームが表示される毎にタッチ位置が検出されるものとし、「所定の時間間隔」は、連続して表示される2つのフレームの時間間隔であるものとする。
即ち、本実施形態では、タッチ位置の変化方向等は、最新フレームにおけるタッチ位置と、当該最新フレームの1つ前のフレームにおけるタッチ位置との差分に基づいて、決定されるものとする。
ただし、スワイプの終了時点、即ちユーザの指等がタッチパネルから離間される第3状態の検出時点では、タッチ位置は検出されない。そこで、スワイプの終了時点には、最新フレームからみて1つ前のフレームと、さらにその1つ前のフレームとの差分により、タッチ位置の変化速度が求められるものとする。そして、このタッチ位置の変化速度に基づいて、上述の回転コントローラRCの自転速度が決定されるものとする。
つまり、本実施形態では、このようなスワイプの終了時点の処理を考慮して、最新のフレームを含めて3フレーム(若しくは3回)分のタッチ位置が、タッチ位置保持部52に少なくとも保持されている。
Here, as described above, the plurality of touch positions detected at each “predetermined time interval” are used to calculate the change direction, change amount, and change speed of the touch position.
That is, the “predetermined time interval” for detecting the touch position is not particularly limited as long as these calculations are possible. However, in this embodiment, it is assumed that the touch position is detected every time a frame is displayed on the touch panel, and the “predetermined time interval” is a time interval between two frames that are displayed in succession. .
That is, in this embodiment, the change direction of the touch position is determined based on the difference between the touch position in the latest frame and the touch position in the frame immediately before the latest frame.
However, the touch position is not detected at the end of swipe, that is, when the third state is detected when the user's finger or the like is separated from the touch panel. Therefore, at the end of the swipe, it is assumed that the change speed of the touch position is obtained from the difference between the previous frame from the latest frame and the previous frame. And based on this change speed of a touch position, the autorotation speed of the above-mentioned rotation controller RC shall be determined.
That is, in the present embodiment, in consideration of such processing at the end of the swipe, touch positions for three frames (or three times) including the latest frame are held at least by the touch position holding unit 52. Yes.

表示形態決定部53は、タッチパネルに表示されるゲームの実行画面における各種表示形態を決定するものであり、ボタン表示形態決定部61と、回転コントローラ表示形態決定部62と、キャラクタ表示形態決定部63と、仮想空間配置部64と、投影部65とを備えている。   The display form determining unit 53 determines various display forms on the game execution screen displayed on the touch panel. The button display form determining unit 61, the rotation controller display form determining unit 62, and the character display form determining unit 63. And a virtual space arrangement unit 64 and a projection unit 65.

ボタン表示形態決定部61は、ボタン格納部71に格納されたボタンB1乃至B4(図2)の各オブジェクトを取得し、これらボタンB1乃至B4がタッチパネルに表示される際の各種表示形態を決定する。   The button display form determination unit 61 acquires each object of the buttons B1 to B4 (FIG. 2) stored in the button storage unit 71, and determines various display forms when the buttons B1 to B4 are displayed on the touch panel. .

回転コントローラ表示形態決定部62は、回転コントローラ格納部72に格納された回転コントローラRCのオブジェクトを取得し、当該回転コントローラRCがタッチパネルに表示される際の各種表示形態を決定する。   The rotation controller display form determination unit 62 acquires the object of the rotation controller RC stored in the rotation controller storage unit 72, and determines various display forms when the rotation controller RC is displayed on the touch panel.

例えば、回転コントローラ表示形態決定部62は、タッチ操作の開始が検出されたとき、即ちタップ操作又はスワイプの第1状態が検出されたとき、その検出時点のタッチ位置を、当該回転コントローラRCの表示位置(重心等の配置位置)として決定する。なお、回転コントローラRCの表示位置は、本実施形態では、仮想空間のグローバル座標系で管理されるものとする。   For example, when the start of the touch operation is detected, that is, when the first state of the tap operation or swipe is detected, the rotation controller display form determination unit 62 displays the touch position at the time of detection as the display of the rotation controller RC. It is determined as a position (arrangement position such as the center of gravity). Note that the display position of the rotation controller RC is managed in the global coordinate system of the virtual space in this embodiment.

例えば、回転コントローラ表示形態決定部62は、所定の時間間隔において夫々検出されるタッチ位置の変化量に基づいて、回転コントローラRCのローカル座標系における回転量を決定する。
具体的には本実施形態では、最新のフレームとその1つ前のフレームにおいて夫々検出された2つのタッチ位置が、タッチ位置保持部52に保持されている。そこで、回転コントローラ表示形態決定部62は、最新のフレームとその1つ前のフレームにおいて夫々検出された2つのタッチ位置の差分に基づいて、タッチ位置の変化量を求める。そして、回転コントローラ表示形態決定部62は、当該タッチ位置の変化量に基づいて、回転コントローラRCのローカル座標系における回転量を決定する。
For example, the rotation controller display form determination unit 62 determines the rotation amount in the local coordinate system of the rotation controller RC based on the change amount of the touch position detected at each predetermined time interval.
Specifically, in the present embodiment, two touch positions detected in the latest frame and the previous frame are held in the touch position holding unit 52. Therefore, the rotation controller display form determination unit 62 obtains the change amount of the touch position based on the difference between the two touch positions detected in the latest frame and the previous frame. Then, the rotation controller display form determination unit 62 determines the rotation amount in the local coordinate system of the rotation controller RC based on the change amount of the touch position.

例えば、回転コントローラ表示形態決定部62は、所定の時間間隔において夫々検出されるタッチ位置の変化方向に基づいて、回転コントローラRCのローカル座標系における回転方向を決定する。
具体的には本実施形態では、回転コントローラ表示形態決定部62は、最新のフレームとその1つ前のフレームにおいて夫々検出された2つのタッチ位置の差分に基づいて、タッチ位置の変化方向を求める。そして、回転コントローラ表示形態決定部62は、当該タッチ位置の変化方向に基づいて、回転コントローラRCのローカル座標系における回転方向を決定する。
For example, the rotation controller display form determination unit 62 determines the rotation direction in the local coordinate system of the rotation controller RC based on the change direction of the touch position detected at each predetermined time interval.
Specifically, in this embodiment, the rotation controller display form determination unit 62 obtains the change direction of the touch position based on the difference between the two touch positions detected in the latest frame and the previous frame. . Then, the rotation controller display form determination unit 62 determines the rotation direction in the local coordinate system of the rotation controller RC based on the change direction of the touch position.

例えば、回転コントローラ表示形態決定部62は、所定の時間間隔において夫々検出されるタッチ位置の変化速度に基づいて、回転コントローラRCのローカル座標系における回転速度を決定する。
具体的には本実施形態では、スワイプの第2状態の場合、即ちタッチ位置が変化している場合、回転コントローラ表示形態決定部62は、最新のフレームとその1つ前のフレームにおいて夫々検出された2つのタッチ位置の差分に基づいて、タッチ位置の変化速度を求める。そして、回転コントローラ表示形態決定部62は、当該タッチ位置の変化速度に基づいて、回転コントローラRCのローカル座標系における回転速度を決定する。
これに対して、スワイプが終了した場合、即ちプレイヤーの指等がタッチパネルから離間されてスワイプの第3状態が検出された場合には、回転コントローラ表示形態決定部62は、最新のフレームからみて1つ前のフレームと、さらにその1つ前のフレーム(最新のフレームからみて2つ前のフレーム)とにおいて夫々検出された2つのタッチ位置の差分に基づいて、タッチ位置の変化速度を求める。そして、回転コントローラ表示形態決定部62は、当該タッチ位置の変化速度に基づいて、回転コントローラRCのローカル座標系における回転速度を決定する。
For example, the rotation controller display form determination unit 62 determines the rotation speed of the rotation controller RC in the local coordinate system based on the change speed of the touch position detected at each predetermined time interval.
Specifically, in the present embodiment, when the swipe is in the second state, that is, when the touch position is changed, the rotation controller display form determination unit 62 is detected in each of the latest frame and the previous frame. Based on the difference between the two touch positions, the change speed of the touch position is obtained. Then, the rotation controller display form determination unit 62 determines the rotation speed of the rotation controller RC in the local coordinate system based on the change speed of the touch position.
On the other hand, when the swipe is completed, that is, when the player's finger or the like is moved away from the touch panel and the third state of the swipe is detected, the rotation controller display form determination unit 62 determines 1 from the latest frame. The change speed of the touch position is obtained based on the difference between the two touch positions detected in the immediately preceding frame and in the immediately preceding frame (the two frames before the latest frame). Then, the rotation controller display form determination unit 62 determines the rotation speed of the rotation controller RC in the local coordinate system based on the change speed of the touch position.

キャラクタ表示形態決定部63は、キャラクタ格納部73に格納されたキャラクタのオブジェクトを取得し、当該キャラクタCがタッチパネルに表示される際の各種表示形態を決定する。   The character display form determination unit 63 acquires the character object stored in the character storage unit 73, and determines various display forms when the character C is displayed on the touch panel.

例えば、キャラクタ表示形態決定部63は、所定の時間間隔において夫々検出されるタッチ位置の変化量に基づいて、キャラクタCのグローバル座標系における移動量(グローバル座標系における移動ベクトルの長さ)を決定する。   For example, the character display form determination unit 63 determines the amount of movement of the character C in the global coordinate system (the length of the movement vector in the global coordinate system) based on the change amount of the touch position detected at each predetermined time interval. To do.

具体的には本実施形態では、最新のフレームとその1つ前のフレームにおいて夫々検出された2つのタッチ位置が、タッチ位置保持部52に保持されている。そこで、キャラクタ表示形態決定部63は、最新のフレームとその1つ前のフレームにおいて夫々検出された2つのタッチ位置の差分に基づいて、タッチ位置の変化量を求める。
キャラクタ表示形態決定部63は、当該タッチ位置の変化量に基づいて、キャラクタのグローバル座標系における移動量を決定する。
Specifically, in the present embodiment, two touch positions detected in the latest frame and the previous frame are held in the touch position holding unit 52. Therefore, the character display form determination unit 63 obtains the change amount of the touch position based on the difference between the two touch positions detected in the latest frame and the previous frame.
The character display form determination unit 63 determines the movement amount of the character in the global coordinate system based on the change amount of the touch position.

例えば、キャラクタ表示形態決定部63は、所定の時間間隔において夫々検出されるタッチ位置の変化方向に基づいて、キャラクタCのグローバル座標系における移動方向(グローバル座標系における移動ベクトルの向き)を決定する。   For example, the character display form determination unit 63 determines the movement direction of the character C in the global coordinate system (the direction of the movement vector in the global coordinate system) based on the change direction of the touch position detected at each predetermined time interval. .

具体的には本実施形態では、キャラクタ表示形態決定部63は、最新のフレームとその1つ前のフレームにおいて夫々検出された2つのタッチ位置の差分に基づいて、タッチ位置の変化方向を求める。
キャラクタ表示形態決定部63は、当該タッチ位置の変化方向に基づいて、キャラクタCのグローバル座標系座標系における回転方向を決定する。
Specifically, in the present embodiment, the character display form determination unit 63 obtains the change direction of the touch position based on the difference between the two touch positions detected in the latest frame and the previous frame.
The character display form determination unit 63 determines the rotation direction of the character C in the global coordinate system coordinate system based on the change direction of the touch position.

例えば、キャラクタ表示形態決定部63は、所定の時間間隔において夫々検出されるタッチ位置の変化速度に基づいて、キャラクタCのグローバル座標系における移動速度を決定する。   For example, the character display form determination unit 63 determines the moving speed of the character C in the global coordinate system based on the change speed of the touch position detected at each predetermined time interval.

具体的には本実施形態では、スワイプの第2状態の場合(タッチ位置が変化している場合)、キャラクタ表示形態決定部63は、最新のフレームとその1つ前のフレームにおいて夫々検出された2つのタッチ位置の差分に基づいて、タッチ位置の変化速度を求める。
キャラクタ表示形態決定部63は、当該タッチ位置の変化速度に基づいて、キャラクタCのグローバル座標系における移動速度を決定する。
Specifically, in the present embodiment, when the swipe is in the second state (when the touch position is changed), the character display form determination unit 63 is detected in each of the latest frame and the previous frame. Based on the difference between the two touch positions, the change speed of the touch position is obtained.
The character display form determination unit 63 determines the moving speed of the character C in the global coordinate system based on the change speed of the touch position.

これに対して、スワイプの第3状態の場合(プレイヤーの指等がタッチパネルにから離間されて、スワイプが終了した場合)、キャラクタ表示形態決定部63は、最新のフレームからみて、その1つ前のフレームとさらにその1つ前のフレームにおいて夫々検出された2つのタッチ位置の差分に基づいて、タッチ位置の変化速度を求める。
キャラクタ表示形態決定部63は、当該タッチ位置の変化速度に基づいて、キャラクタCのグローバル座標系における移動速度を決定する。
On the other hand, in the case of the third state of swipe (when the player's finger or the like is separated from the touch panel and the swipe is finished), the character display form determination unit 63 is immediately before the latest frame. The change speed of the touch position is obtained based on the difference between the two touch positions detected in the previous frame and the previous frame.
The character display form determination unit 63 determines the moving speed of the character C in the global coordinate system based on the change speed of the touch position.

なお、ここでは便宜上、タッチ位置の変化量、変化方法、及び変化速度は、回転コントローラ表示形態決定部62とキャラクタ表示形態決定部63との夫々で個別に演算されるように説明した。
しかしながら、本実施形態では上述の如く、同一のタッチ操作に対して、回転コントローラRCとキャラクタCとは連動する(連動しているようにプレイヤーに視認される)。
そこで、タッチ位置の変化量、変化方法、及び変化速度は、回転コントローラ表示形態決定部62とキャラクタ表示形態決定部63とのうち、一方で演算されて、その演算結果が他方に通知されるようにしてもよい。
Here, for convenience, the change amount, the change method, and the change speed of the touch position have been described as being individually calculated by the rotation controller display form determination unit 62 and the character display form determination unit 63.
However, in the present embodiment, as described above, the rotation controller RC and the character C are linked to the same touch operation (visible to the player so as to be linked).
Therefore, the change amount, the change method, and the change speed of the touch position are calculated by one of the rotation controller display form determination unit 62 and the character display form determination unit 63, and the calculation result is notified to the other. It may be.

また、キャラクタ表示形態決定部63は、必要に応じて、キャラクタCのローカル座標系内での変化(例えばキャラクタC自体のモーション変化や回転等)を決定する。   Further, the character display form determination unit 63 determines a change in the local coordinate system of the character C (for example, a motion change or rotation of the character C itself) as necessary.

仮想空間配置部64は、各種オブジェクトを、決定された表示形態に対応するように、グローバル座標系の仮想空間内に配置させる。
ここでいうオブジェクトには、上述したように、ボタンB1乃至B4、回転コントローラRC、及びキャラクタCの各オブジェクトの他に、背景等格納部74に格納される背景等を構成する各種オブジェクトも含まれる。
The virtual space placement unit 64 places various objects in the virtual space of the global coordinate system so as to correspond to the determined display form.
As described above, the objects referred to here include not only the buttons B1 to B4, the rotation controller RC, and the character C, but also various objects constituting the background stored in the background storage unit 74. .

ここで、3次元の仮想空間に置かれたオブジェクトを2次元の表示面(タッチパネル)に表示させるためには、当該オブジェクトを2次元に投影する必要がある。換言すると、当該仮想空間内にある仮想のカメラが当該オブジェクトを撮影した様子を、タッチパネルに表示させる必要がある。
そこで、投影部65は、所定の投影手法に従って、仮想空間内の各オブジェクトを2次元に投影する。
Here, in order to display an object placed in a three-dimensional virtual space on a two-dimensional display surface (touch panel), it is necessary to project the object in two dimensions. In other words, it is necessary to display on the touch panel how the virtual camera in the virtual space has photographed the object.
Therefore, the projection unit 65 projects each object in the virtual space two-dimensionally according to a predetermined projection method.

投影手法は、特に限定されないが、本実施形態では、キャラクタCや背景等のオブジェクトに対しては一般的な透視投影が採用されている。一方、回転コントローラRCやボタンB1乃至B4のオブジェクトに対しては平行投影が採用されている。   The projection method is not particularly limited, but in the present embodiment, general perspective projection is adopted for objects such as the character C and the background. On the other hand, parallel projection is adopted for the objects of the rotation controller RC and the buttons B1 to B4.

透視投影とは、いわゆる遠近法を用いた投影手法であり、肉眼でみた場合と同じような投影結果となる投影手法である。なお、透視投影は、「中心投影」や「パース」とも呼ばれている。
透視投影により投影されたオブジェクトは、仮想的なカメラの位置(視点)から遠くに位置する場合には小さくタッチパネルに表示され、仮想的なカメラの位置(視点)から近くに位置する場合には大きくタッチパネルに表示される。
The perspective projection is a projection method that uses a so-called perspective method, and is a projection method that produces a projection result similar to that seen with the naked eye. The perspective projection is also called “center projection” or “perspective”.
An object projected by perspective projection is displayed small on the touch panel when positioned far from the virtual camera position (viewpoint), and large when positioned near the virtual camera position (viewpoint). Displayed on the touch panel.

これに対して、平行投影とは、同一の大きさのオブジェクトを、3次元の仮想空間内の位置によらず同一の大きさで投影する投影方法をいう。
平行投影が採用されたオブジェクトは、仮想的なカメラの位置(視点)から遠くに位置する場合でも近くに位置する場合でも、常に同一の大きさでタッチパネルに表示される。
On the other hand, parallel projection refers to a projection method in which an object having the same size is projected with the same size regardless of the position in the three-dimensional virtual space.
Objects that employ parallel projection are always displayed on the touch panel with the same size, regardless of whether they are located far from or near the virtual camera position (viewpoint).

ここで、回転コントローラRCとキャラクタCとの投影法は同一にすることもできる。   Here, the projection method of the rotation controller RC and the character C can be the same.

しかしながら、透視投影で統一された場合には、タッチパネルにおける回転コントローラRCの表示上の大きさ(表示面積)が変化してしまう。このため、回転コントローラRCを、3Dゲームの仮想的なコントローラ(模擬的なトラックボール)として用いることは不適になる。
即ち、回転コントローラRCを3Dゲームの仮想的なコントローラ(模擬的なトラックボール)として用いるためには、タッチパネルにおける回転コントローラRCの表示上の大きさは、変化せずに常に一定であることが要求される。
透視投影で統一された場合に当該要求に応えるためには、回転コントローラRCと視点(カメラの位置)との距離が常に一定になるよう演算して、その演算結果に基づいて回転コントローラRCの座標を決定する必要があるため、処理負担が増大する。
However, when unified with perspective projection, the display size (display area) of the rotation controller RC on the touch panel changes. For this reason, it becomes unsuitable to use the rotation controller RC as a virtual controller (simulated trackball) of a 3D game.
That is, in order to use the rotation controller RC as a virtual controller (simulated trackball) for a 3D game, the display size of the rotation controller RC on the touch panel needs to be always constant without changing. Is done.
In order to meet the request when unified in perspective projection, the distance between the rotation controller RC and the viewpoint (camera position) is calculated to be always constant, and the coordinates of the rotation controller RC are based on the calculation result. Therefore, the processing load increases.

一方、平行投影で統一した場合、このような処理負担の増大は解消されるものの、キャラクタC等のゲーム上の仮想空間に存在すべきオブジェクトに対して、遠近法を採用できなくなる。つまり、3Dゲームを実現すること自体が非常に困難になってしまう。   On the other hand, when unified by parallel projection, such an increase in processing load is eliminated, but the perspective method cannot be applied to an object such as the character C that should exist in the virtual space on the game. That is, it becomes very difficult to realize the 3D game itself.

以上のことから本実施形態では、回転コントローラRCの投影法(カメラ)としては平行投影が採用されている。一方、その操作対象のキャラクタCの投影法(カメラ)としては透視投影が採用されている。   From the above, in this embodiment, parallel projection is adopted as the projection method (camera) of the rotation controller RC. On the other hand, perspective projection is adopted as the projection method (camera) of the character C to be operated.

なお、本実施形態では、仮想的なカメラの位置(視点)は、少なくともキャラクタCの投影法(カメラ)に従った投影では変化する。
例えば本実施形態では、キャラクタCの後方の所定距離だけ離間した位置が、視点とされている。この場合、キャラクタCの移動に連動して視点も移動することになる。具体的には例えば、プレイヤーが右方向にスワイプすると、キャラクタCの移動方向も右方向に転換するので、同様に視点も右方向に転換する。
In the present embodiment, the position (viewpoint) of the virtual camera changes at least in the projection according to the projection method (camera) of the character C.
For example, in this embodiment, a position separated by a predetermined distance behind the character C is set as the viewpoint. In this case, the viewpoint moves in conjunction with the movement of the character C. Specifically, for example, when the player swipes in the right direction, the moving direction of the character C is also changed to the right direction, so that the viewpoint is similarly changed to the right direction.

表示制御部54は、投影部65の投影結果を示す2次元の画像を、フレーム単位で、タッチパネル(正確には表示部27)に表示させる制御を実行する。
即ち、回転コントローラRCの自転とキャラクタCの仮想空間内の移動とがプレイヤーのスワイプに応じて連動する画像、具体的には例えば上述した図2のゲームの実行画面41が、タッチパネルに表示される。
The display control unit 54 performs control to display a two-dimensional image indicating the projection result of the projection unit 65 on the touch panel (more precisely, the display unit 27) in units of frames.
That is, an image in which the rotation of the rotation controller RC and the movement of the character C in the virtual space are interlocked according to the player's swipe, specifically, for example, the game execution screen 41 of FIG. 2 described above is displayed on the touch panel. .

次に、図4を参照して、図1のプレイヤー端末1が実行する処理のうち、3Dゲーム実行中に実行画面(例えば図2のゲームの実行画面41)を表示するための一連の処理(以下、「ゲーム表示処理」と呼ぶ)について説明する。
即ち、図4は、ゲーム表示処理の流れの一例を説明するフローチャートである。
ゲーム表示処理は、ゲーム実行開始を契機として開始される。
Next, referring to FIG. 4, a series of processes for displaying an execution screen (for example, the game execution screen 41 of FIG. 2) during the execution of the 3D game among the processes executed by the player terminal 1 of FIG. 1 ( Hereinafter, the “game display process” will be described.
That is, FIG. 4 is a flowchart for explaining an example of the flow of the game display process.
The game display process is started when the game execution starts.

ステップS1において、図3の表示制御部54は、キャラクタCを含むゲーム空間(仮想空間)を、タッチパネル(正確には表示部27)に表示させる。
なお、ステップS1の段階では、回転コントローラRCは仮想空間内に含まれていないものとする。
In step S1, the display control unit 54 of FIG. 3 displays a game space (virtual space) including the character C on the touch panel (more precisely, the display unit 27).
It is assumed that the rotation controller RC is not included in the virtual space at the stage of step S1.

ステップS2において、操作検出部51は、タッチ操作を受付けたか否かを判定する。
ユーザの指等がタッチパネルに接触又は近接していない状態では、ステップS2においてNOであると判定されて、処理はステップS12に進む。
ステップS12において、操作検出部51等は、処理の終了が指示されたか否かを判定する。処理の終了の指示は、特に限定されないが、例えばここではゲームの終了指示が採用されているものとする。
即ち、ゲームの終了指示がなされた場合、ステップS12においてYESであると判定されて、ゲーム表示処理は終了となる。
これに対して、ゲームの終了指示が未だなされていない場合、ステップS12においてNOであると判定されて、処理はステップS2に戻され、それ以降の処理が繰り返される。
即ち、ゲームの終了指示が未だなされておらず、ユーザの指等がタッチパネルに接触又は近接していない状態では、ステップS2NO及びステップS12NOのループ処理が繰り返される。
In step S2, the operation detection unit 51 determines whether or not a touch operation has been received.
In a state where the user's finger or the like is not in contact with or close to the touch panel, it is determined as NO in Step S2, and the process proceeds to Step S12.
In step S12, the operation detection unit 51 and the like determine whether or not an instruction to end the process has been given. The instruction to end the process is not particularly limited. For example, it is assumed here that an instruction to end the game is adopted.
That is, when an instruction to end the game is given, it is determined as YES in Step S12, and the game display process is ended.
On the other hand, if the game end instruction has not been issued yet, it is determined NO in step S12, the process returns to step S2, and the subsequent processes are repeated.
That is, when the game end instruction has not yet been made and the user's finger or the like is not in contact with or in proximity to the touch panel, the loop process of step S2NO and step S12NO is repeated.

当該ループ処理中においてユーザの指等がタッチパネルに接触又は近接すると、タッチ操作が受け付けられ、ステップS2においてYESであると判定されて、処理はステップS3に進む。   When the user's finger or the like touches or approaches the touch panel during the loop process, a touch operation is accepted, and it is determined as YES in Step S2, and the process proceeds to Step S3.

ステップS3において、操作検出部51は、ステップS2において受け付けられたタッチ位置は、ボタン位置であるか否かを判定する。
ボタン位置とは、ボタン(図2の例ではボタンB1乃至B4)が配置されたタッチパネル上の領域をいう。
所定ボタン(図2の例ではボタンB1乃至B4のうち何れか)がタップされた場合には、ステップS3においてYESであると判定されて、処理はステップS4に進む。
ステップS4において、CPU21(図示せぬゲーム実行部等)は、ボタン実行処理を実行する。ボタン実行処理とは、タップされたボタンに割り付けられた機能を発揮させる処理をいう。
ボタン実行処理が実行されると、処理はステップS12に進む。
In step S3, the operation detection unit 51 determines whether or not the touch position received in step S2 is a button position.
The button position refers to an area on the touch panel where buttons (buttons B1 to B4 in the example of FIG. 2) are arranged.
When a predetermined button (any of buttons B1 to B4 in the example of FIG. 2) is tapped, it is determined as YES in Step S3, and the process proceeds to Step S4.
In step S4, the CPU 21 (game execution unit or the like not shown) executes button execution processing. The button execution process refers to a process for exerting a function assigned to a tapped button.
When the button execution process is executed, the process proceeds to step S12.

これに対して、ボタン位置以外の位置にタッチ操作がなされた場合、ステップS3においてYESであると判定され、処理はステップS5に進む。   On the other hand, when the touch operation is performed at a position other than the button position, it is determined as YES in Step S3, and the process proceeds to Step S5.

ステップS5において、表示制御部54は、回転コントローラRCをタッチパネルに表示させる。
なお本実施形態では、回転コントローラRCの表示位置は、ステップS2の処理で受け付けられたタッチ位置となる。
In step S5, the display control unit 54 displays the rotation controller RC on the touch panel.
In the present embodiment, the display position of the rotation controller RC is the touch position received in the process of step S2.

ステップS6において、操作検出部51は、タッチ位置が変化したか否かを判定する。
例えばステップS2において受け付けられたタッチ操作がタップの場合、ステップS6においてNOであると判定されて、処理はステップS12に進む。
In step S6, the operation detection unit 51 determines whether or not the touch position has changed.
For example, if the touch operation accepted in step S2 is a tap, it is determined as NO in step S6, and the process proceeds to step S12.

これに対して、タッチ位置が変化した場合とは、スワイプの第2状態が検出された場合を意味する。このような場合、ステップS6においてYESであると判定されて、処理はステップS7に進む。
ステップS7において、表示形態決定部53は、回転コントローラRCとキャラクタCとの連動した表示形態を決定する。
ステップS8において、表示制御部54は、回転コントローラRCとキャラクタCを、ステップS7において決定された表示形態でタッチパネルに表示させる。
なお、ここでいう表示形態とは、回転コントローラRCの場合には、ローカル座標系における回転方向、回転量、及び回転速度を意味する一方、キャラクタCの場合には、グローバル座標系における移動方向、移動量、及び移動速度を意味する。
On the other hand, the case where the touch position is changed means a case where the second state of swipe is detected. In such a case, it is determined as YES in Step S6, and the process proceeds to Step S7.
In step S <b> 7, the display form determination unit 53 determines a display form in which the rotation controller RC and the character C are linked.
In step S8, the display control unit 54 causes the rotation controller RC and the character C to be displayed on the touch panel in the display form determined in step S7.
In the case of the rotation controller RC, the display form here means the rotation direction, the rotation amount, and the rotation speed in the local coordinate system, while in the case of the character C, the movement direction in the global coordinate system, It means the amount of movement and the movement speed.

ステップS9において、操作検出部51は、タッチ操作が解除されたか否かを判定する。   In step S9, the operation detection unit 51 determines whether or not the touch operation has been released.

タッチ操作が継続している場合、即ちスワイプの第2状態が継続している場合、ステップS9においてNOであると判定されて、処理はステップS6に戻され、それ以降の処理が繰り返される。
即ち、タッチ位置が変化し続けている場合(スワイプの第2状態が継続している場合)、ステップS6乃至S9のループ処理が繰り返され、回転コントローラRCの自転とキャラクタCの仮想空間内の移動とがスワイプに応じて連動する画像、具体的には例えば上述した図2のゲームの実行画面41が、タッチパネルに表示される。
When the touch operation is continued, that is, when the second state of the swipe is continued, it is determined as NO in Step S9, the process is returned to Step S6, and the subsequent processes are repeated.
That is, when the touch position continues to change (when the second swipe state continues), the loop processing of steps S6 to S9 is repeated, and the rotation of the rotation controller RC and the movement of the character C in the virtual space are repeated. 2 is displayed on the touch panel, for example, the game execution screen 41 of FIG. 2 described above.

これに対して、タッチ操作が解除された場合、即ちスワイプの終了を示すスワイプの第3状態が検出された場合、ステップS9においてYESであると判定され、処理はステップS10に進む。
ステップS10において、表示形態決定部53は、回転コントローラRCの表示形態を決定する。なお、ここでいう表示形態とは、回転コントローラRCの回転速度を意味する。
ステップS11において、表示制御部54は、タッチパネルに対して、ゲーム空間(仮想空間)内のキャラクタRCの移動を停止させる表示をすると共に、回転コントローラRCを、ステップS12において決定された表示形態で表示させる。
その後処理はステップS12に進む。
On the other hand, when the touch operation is released, that is, when the third state of the swipe indicating the end of the swipe is detected, it is determined as YES in Step S9, and the process proceeds to Step S10.
In step S10, the display form determining unit 53 determines the display form of the rotation controller RC. In addition, the display form here means the rotation speed of the rotation controller RC.
In step S11, the display control unit 54 displays on the touch panel the stop of the movement of the character RC in the game space (virtual space) and displays the rotation controller RC in the display form determined in step S12. Let
Thereafter, the process proceeds to step S12.

以上本発明の一実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   Although one embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and modifications, improvements, and the like within a scope that can achieve the object of the present invention are included in the present invention. is there.

例えば上述の実施形態では、所定の指示操作により連動するオブジェクトは、回転コントローラRCとキャラクタCとされたが、特にこの組に限定されない。
ここで、回転コントローラRCに対応するオブジェクトを「第1オブジェクト」と呼び、キャラクタCに対応するオブジェクトを「第2オブジェクト」と呼ぶものとする。
この場合、第1オブジェクトと第2オブジェクトとは、次のような関係を有するものであれば足り、夫々任意のオブジェクトを採用することができる。
即ち、第1オブジェクトは、所定の指示に応じてローカル座標系における回転に関する1種以上の量が変化する仮想の3次元形状の回転体を示すオブジェクトであれば足りる。
第2オブジェクトは、当該所定の指示(同一の指示)に応じて1種以上の量が変化するオブジェクトであれば足りる。
即ち、第1オブジェクトと第2オブジェクトとは、同一の指示操作により連動して変化するものであり、前者の変化量は、ローカル座標系における回転に関する1種以上の任意の量であって、後者の変化量は、1以上の任意の量である。
つまり、第2オブジェクトを操作対象のオブジェクトとする必要は特に無く、第1オブジェクトを仮想的なコントローラとする必要も特にない。
ただし、3Dゲームに適用する場合には、第2オブジェクトを操作対象のコンテンツとして、第1オブジェクトを仮想的なコントローラとすることで、プレイヤーの操作性が増すため好適である。
For example, in the above-described embodiment, the objects that are linked by a predetermined instruction operation are the rotation controller RC and the character C, but are not particularly limited to this set.
Here, an object corresponding to the rotation controller RC is referred to as a “first object”, and an object corresponding to the character C is referred to as a “second object”.
In this case, it is sufficient that the first object and the second object have the following relationship, and any object can be adopted.
In other words, the first object need only be an object indicating a virtual three-dimensional rotating body in which one or more amounts relating to rotation in the local coordinate system change according to a predetermined instruction.
The second object may be an object whose amount changes by one or more in accordance with the predetermined instruction (the same instruction).
That is, the first object and the second object change in conjunction with the same instruction operation, and the former change amount is one or more arbitrary amounts relating to rotation in the local coordinate system, and the latter The amount of change is an arbitrary amount of 1 or more.
That is, it is not particularly necessary to set the second object as an operation target object, and it is not necessary to set the first object as a virtual controller.
However, when applied to a 3D game, it is preferable to use the second object as the content to be operated and the first object as a virtual controller because the operability of the player is increased.

具体的には、第1オブジェクトは、例えば図5に示すような各種各様な回転体を示すオブジェクトを採用することができる。
図5(A)の第1オブジェクトRC1は、上述の実施形態の回転コントローラRCと同様に、球体状のオブジェクトである。
図5(B)の第1オブジェクトRC2は、ワイン樽状のオブジェクトである。
図5(C)の第1オブジェクトRC3は、円柱状のオブジェクトである。
図5(D)の第1オブジェクトRC4は、円錐状のオブジェクトである。
このように、第1オブジェクトは、実空間上で回転可能な回転体を模した仮想の3次元形状であれば足り、図5(D)の円錐のように対称的な形状である必要も特にない。
ただし、第1オブジェクトを、上述の実施形態の回転コントローラRCのように仮想的なコントローラとして用いる場合、球体状であると好適である。多方向の入力表現への対応が容易に可能となるからである。
また、図5に示すように、第1オブジェクトに対してテクスチャを貼り付けて模様をつけると、当該第1オブジェクトの回転の様子がプレイヤーに明確に伝わるため好適である。
Specifically, for example, an object indicating various kinds of rotating bodies as shown in FIG. 5 can be adopted as the first object.
The first object RC1 in FIG. 5A is a spherical object, like the rotation controller RC of the above-described embodiment.
The first object RC2 in FIG. 5B is a wine barrel-like object.
The first object RC3 in FIG. 5C is a columnar object.
The first object RC4 in FIG. 5D is a conical object.
Thus, the first object only needs to have a virtual three-dimensional shape imitating a rotating body that can rotate in real space, and it is particularly necessary that the first object has a symmetrical shape like a cone in FIG. Absent.
However, when the first object is used as a virtual controller like the rotation controller RC of the above-described embodiment, it is preferable that the first object has a spherical shape. This is because it is possible to easily handle multi-directional input expressions.
Also, as shown in FIG. 5, it is preferable to apply a texture to the first object so that the player can clearly convey the state of rotation of the first object to the player.

ここで、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図3の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図3の例に限定されない。また、機能ブロックの存在場所も、図3に特に限定されず、任意でよい。
具体的には例えば、図3に示す各機能ブロックは、上述の実施形態ではネイティブアプリケーションとしてプレイヤー端末1に備えられていたが、HTMLとJavaScript(登録商標)を用いてWebアプリケーションとして実装することで、図示せぬサーバ等に備えることもできる。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
Here, the series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 3 is merely an example, and is not particularly limited. That is, it is sufficient that the information processing system has a function capable of executing the above-described series of processing as a whole, and what functional block is used to realize this function is not particularly limited to the example of FIG. Further, the location of the functional block is not particularly limited to that shown in FIG. 3, and may be arbitrary.
Specifically, for example, each functional block shown in FIG. 3 is provided in the player terminal 1 as a native application in the above-described embodiment, but can be implemented as a Web application using HTML and JavaScript (registered trademark). A server or the like (not shown) can also be provided.
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose smartphone or personal computer other than a server.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。   The recording medium including such a program is not only constituted by a removable medium (not shown) distributed separately from the apparatus main body in order to provide the user with the program, but is also provided to the user in a state of being incorporated in advance in the apparatus main body. It is composed of a provided recording medium or the like.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.

換言すると、本発明が適用される情報処理プログラムは、上述の図3の実施形態としての情報処理システムを含め、次のような構成を有する各種各様の実施形態を取ることができる。
即ち、本発明が適用される情報処理プログラムは、
画像を表示媒体(例えば図3のタッチ操作入力部76及び表示部27からなるタッチパネル)に表示させる制御を実行するコンピュータに、
所定の指示に応じてローカル座標系における回転に関する1種以上の量が変化する仮想の3次元形状の回転体を示す第1オブジェクト(例えば図2の回転コントローラRC)と、当該所定の指示に応じて1種以上の量が変化する第2オブジェクト(例えば図2のキャラクタC)とを含む画像(例えば図2のゲームの実行画面41)を、前記表示媒体に表示させる表示制御ステップ(例えば図3の表示制御部54が実行するステップ)と、
前記所定の指示の操作として、前記表示媒体への物体の接触又は近接の操作を検出する検出ステップ(例えば図3の操作検出部51が実行するステップ)と、
検出された前記操作に基づいて、前記第1オブジェクトの回転に関する前記1種以上の量を決定すると共に、前記第2オブジェクトの前記1種以上の量を決定する決定ステップと(例えば図3の表示形態決定部53が実行するステップ)、
を含む制御処理を実行させる情報処理プログラム。
In other words, the information processing program to which the present invention is applied can take various embodiments having the following configurations, including the information processing system as the embodiment of FIG. 3 described above.
That is, an information processing program to which the present invention is applied is
A computer that executes control for displaying an image on a display medium (for example, a touch panel including the touch operation input unit 76 and the display unit 27 in FIG. 3),
A first object (for example, a rotation controller RC in FIG. 2) indicating a virtual three-dimensionally shaped rotating body in which one or more amounts relating to rotation in the local coordinate system change according to a predetermined instruction, and according to the predetermined instruction A display control step (for example, FIG. 3) that displays on the display medium an image (for example, the game execution screen 41 in FIG. 2) including the second object (for example, the character C in FIG. 2) whose one or more types change. The display control unit 54 executes)
As the predetermined instruction operation, a detection step (for example, a step executed by the operation detection unit 51 in FIG. 3) for detecting an operation of contact or proximity of an object to the display medium;
A determination step of determining the one or more amounts relating to the rotation of the first object and determining the one or more amounts of the second object based on the detected operation (for example, the display of FIG. 3); Steps executed by the form determining unit 53),
An information processing program for executing control processing including:

このように、第1オブジェクトと第2オブジェクトとは、同一の指示により連動して変化するものであり、前者の変化量は、ローカル座標系における回転に関する1種以上の任意の量であって、後者の変化量は、1以上の任意の量である。
そこで、第2オブジェクトを、グローバル座標系の仮想空間に配置させて、操作対象のオブジェクトとして用いることで、各種各様な3Dゲームが実現可能になる。
この場合、第1オブジェクトを、第2オブジェクトの操作用の仮想的なコントローラとして用いることができる。
これにより、プレイヤーにとっては、所定の指示を第1オブジェクトにすることで、それに連動して第2オブジェクトが移動したと実感することができる。
しかも、第2オブジェクトは、仮想の3次元形状を有しているので、3次元の仮想空間にマッチする。
このようにして、3Dゲームにとって好適な仮想的なコントローラを実現可能な技術が確立される。
Thus, the first object and the second object change in conjunction with the same instruction, and the former change amount is one or more arbitrary amounts related to rotation in the local coordinate system, The latter change amount is an arbitrary amount of 1 or more.
Therefore, by arranging the second object in the virtual space of the global coordinate system and using it as the operation target object, various various 3D games can be realized.
In this case, the first object can be used as a virtual controller for operating the second object.
As a result, the player can feel that the second object has moved in conjunction with the first object given the predetermined instruction.
In addition, since the second object has a virtual three-dimensional shape, it matches the three-dimensional virtual space.
In this way, a technology capable of realizing a virtual controller suitable for a 3D game is established.

なお、上記情報処理プログラムは、あくまでも3Dゲームにとって好適な仮想的なコントローラを実現可能なものであるに過ぎず、3Dゲーム専用のものではない。即ち、上述したように、同一の指示に対して第1オブジェクトと第2オブジェクトとを連動させる任意の分野に対して、上記情報処理プログラムを適用することができる。   Note that the above information processing program is only capable of realizing a virtual controller suitable for a 3D game, and is not dedicated to a 3D game. That is, as described above, the information processing program can be applied to an arbitrary field in which the first object and the second object are interlocked with the same instruction.

ここで、前記検出ステップは、前記表示媒体に前記物体が接触又は近接している間、前記表示媒体における前記物体の位置を繰り返し検出し、
前記決定ステップは、所定の時間間隔において夫々検出される前記物体の位置の変化量に基づいて、前記第1オブジェクトのローカル座標系における回転量を決定するステップを含むようにすることができる。
また、前記決定ステップは、前記所定の時間間隔において夫々検出される前記物体の位置の変化方向に基づいて、前記第1オブジェクトのローカル座標系における回転方向を決定するステップを含むようにすることができる。
従って、所定の指示としてスワイプを採用すると、スワイプの量(タッチパネルにおける指等の移動量)やスワイプの方向(タッチパネルにおける指等の移動方向)に従って、第1オブジェクトの回転方向や回転量が変化する。
これにより、第1オブジェクトを、仮想的なトラックボール(コントローラ)として取り扱うことが可能になる。
Here, the detection step repeatedly detects the position of the object on the display medium while the object is in contact with or close to the display medium,
The determining step may include a step of determining a rotation amount of the first object in the local coordinate system based on a change amount of the position of the object detected at each predetermined time interval.
The determining step may include a step of determining a rotation direction of the first object in the local coordinate system based on a change direction of the position of the object detected at each of the predetermined time intervals. it can.
Therefore, when the swipe is adopted as the predetermined instruction, the rotation direction and the rotation amount of the first object change according to the swipe amount (the movement amount of the finger or the like on the touch panel) and the swipe direction (the movement direction of the finger or the like on the touch panel). .
As a result, the first object can be handled as a virtual trackball (controller).

この場合、前記第2オブジェクトは、仮想の3次元空間内を移動するオブジェクトであり、
前記決定ステップは、さらに、前記所定の時間間隔において夫々検出される前記物体の位置の変化量に基づいて前記第2オブジェクトのグローバル座標系における移動量を決定すると共に、前記所定の時間間隔において夫々検出される前記物体の位置の変化方向に基づいて前記第2オブジェクトの移動方向を決定するステップを含むことができる。
これにより、仮想的なトラックボールとみたてた第1オブジェクトの回転量や回転方向に連動して、第2オブジェクトのグローバル座標系における移動量や移動方向も変化する。つまり、第2オブジェクトを、仮想的なトラックボール(仮想的なコントローラ)による操作対象のオブジェクトとして用いることができる。
これにより、プレイヤーは、現実のトラックボールを操作するのと同様な感覚で、第1オブジェクトに対してスワイプを行うことで、仮想空間内の第2オブジェクトを自在に移動させることができる。この場合、第1オブジェクトはあたかも現実のトラックボールと同様の自転運動をすると共に、その自転運動に連動して第2オブジェクトも仮想空間を移動する。
即ち、プレイヤーは、操作感覚のみならず視覚的にも、現実のトラックボールに対する操作時と同様の体験をすることができる。
In this case, the second object is an object that moves in a virtual three-dimensional space,
The determining step further determines a movement amount of the second object in the global coordinate system based on a change amount of the position of the object detected at each of the predetermined time intervals, and at each of the predetermined time intervals. The method may include determining a moving direction of the second object based on the detected change direction of the position of the object.
As a result, the movement amount and movement direction of the second object in the global coordinate system change in conjunction with the rotation amount and rotation direction of the first object viewed as a virtual trackball. That is, the second object can be used as an object to be operated by a virtual trackball (virtual controller).
As a result, the player can freely move the second object in the virtual space by swiping the first object with the same feeling as operating the actual trackball. In this case, the first object rotates as if it were a real trackball, and the second object also moves in the virtual space in conjunction with the rotation.
That is, the player can experience not only the operation feeling but also the visual experience similar to that when operating the actual trackball.

さらに、前記決定ステップは、前記検出ステップにおいて前記物体の前記表示媒体の接触又は近接の解除が検出されたとき、解除の検出時点以前の所定時点において検出された前記物体の位置の変化速度に基づいて、前記第1オブジェクトのローカル座標系における回転速度を決定するステップを含むようにすることができる。
前記決定ステップは、前記物体の前記表示媒体の接触又は近接の解除の状態が維持されている場合、前記第1オブジェクトの回転速度を減速させていく決定をすることができる。
これにより、プレイヤーの指等がタッチパネルから離間するスワイプの第3状態(スワイプの終了)は、現実のトラックボールからプレイヤーの手が離された状態と等価に取り扱われる。その結果、現実のトラックボールからプレイヤーの手が離された後の当該現実のトラックボールの回転の動きを模した様子が、仮想のトラックボールとしての第1オブジェクトの回転の動きとして再現可能になる。
Further, the determination step is based on a change speed of the position of the object detected at a predetermined time before the detection of the release when the contact of the display medium of the object or the release of the proximity of the object is detected in the detection step. And determining a rotational speed of the first object in a local coordinate system.
The determination step may determine to reduce the rotation speed of the first object when the state of contact of the display medium with the object or release of proximity is maintained.
As a result, the third swipe state in which the player's finger or the like is separated from the touch panel (the end of the swipe) is handled equivalently to the state in which the player's hand is released from the actual trackball. As a result, it is possible to reproduce the state of the rotation of the actual trackball after the player's hand is released from the actual trackball as the rotation of the first object as a virtual trackball. .

ここで、前記表示制御ステップは、第1投影法により表される前記第1オブジェクトと、第2投影法により表される前記第2オブジェクトとを含む画像を、前記表示媒体に表示させる制御を実行する、ことができる。
これにより、第1オブジェクトを、第2オブジェクトが存在する仮想空間内に適切に表示させることができる。
特に第1オブジェクトを仮想のコントローラ(トラックボール)として採用した場合には、第1オブジェクトの大きさは常に同一であることが望ましい。この場合、前記第1投影法は平行投影法であり、前記第2投影法は透視投影法であるようにすることができる。
Here, the display control step performs control to display an image including the first object represented by the first projection method and the second object represented by the second projection method on the display medium. can do.
Thereby, a 1st object can be appropriately displayed in the virtual space where a 2nd object exists.
In particular, when the first object is employed as a virtual controller (trackball), it is desirable that the size of the first object is always the same. In this case, the first projection method may be a parallel projection method, and the second projection method may be a perspective projection method.

以上説明したように、本発明が適用される情報処理プログラム等の実行により、同一の所定の指示に基づいて、第1オブジェクトと第2オブジェクトとの各変化量が決定される。ここで、第1オブジェクトの変化量は、ローカル座標系における回転に関する1種以上の任意の量であって、後者の変化量は、1以上の任意の量である。
なお、本発明は、以上説明した情報処理プログラム等によらず、次のような処理を実行可能なプログラム等にも容易に適用可能である、
例えば、所定の指示(例えばプレイヤーのタッチ操作)に基づいて第1オブジェクトの変化量(例えば仮想的なコントローラの回転の動き)が決定され、当該変化量に基づいて第2オブジェクトの変化量(例えばキャラクタ等の動き等)が決定される処理を実行可能なプログラム等にも容易に適用可能である。
例えば、逆に、所定の指示(例えばプレイヤーのタッチ操作)に基づいて当該変化量に基づいて第2オブジェクトの変化量(例えばキャラクタ等の動き等)が決定され、当該変化量に基づいて第1オブジェクトの変化量(例えば仮想的なコントローラの回転の動き)が決定される処理を実行可能なプログラム等にも容易に適用可能である。
As described above, the amount of change between the first object and the second object is determined based on the same predetermined instruction by executing the information processing program to which the present invention is applied. Here, the change amount of the first object is one or more arbitrary amounts related to rotation in the local coordinate system, and the latter change amount is an arbitrary amount of one or more.
Note that the present invention is not limited to the information processing program described above, and can be easily applied to a program that can execute the following processing.
For example, the amount of change of the first object (for example, the virtual movement of the controller) is determined based on a predetermined instruction (for example, a player's touch operation), and the amount of change of the second object (for example, the virtual object controller) The present invention can be easily applied to a program or the like that can execute a process for determining the movement of a character or the like.
For example, conversely, a change amount of the second object (for example, movement of a character or the like) is determined based on the change amount based on a predetermined instruction (for example, a player's touch operation), and the first based on the change amount. The present invention can be easily applied to a program or the like that can execute a process for determining an object change amount (for example, a virtual controller rotation movement).

1・・・プレイヤー端末、21・・・CPU、51・・・操作検出部、52・・・タッチ位置保持部、53・・・表示形態決定部、54・・・表示制御部、61・・・ボタン表示形態決定部、62・・・回転コントローラ表示形態決定部、63・・・キャラクタ表示形態決定部、64・・・仮想空間配置部、65・・・投影部、71・・・ボタン格納部、72・・・回転コントローラ格納部、73・・・キャラクタ格納部、74・・・背景等格納部   DESCRIPTION OF SYMBOLS 1 ... Player terminal, 21 ... CPU, 51 ... Operation detection part, 52 ... Touch position holding part, 53 ... Display form determination part, 54 ... Display control part, 61 ... -Button display form determination unit, 62 ... Rotation controller display form determination unit, 63 ... Character display form determination unit, 64 ... Virtual space arrangement unit, 65 ... Projection unit, 71 ... Button storage , 72... Rotation controller storage unit, 73... Character storage unit, 74.

Claims (9)

画像を表示媒体に表示させる制御を実行するコンピュータに、
所定の指示に応じてローカル座標系における回転に関する1種以上の量が変化する仮想の3次元形状の回転体であって、別オブジェクトを操作するための操作器具を示す第1オブジェクトと、操作対象の当該別オブジェクトとしての、当該所定の指示に応じて1種以上の量が変化する第2オブジェクトとを含む画像を、前記表示媒体に表示させる表示制御ステップと、
前記所定の指示の操作として、前記表示媒体への物体の接触又は近接の操作を検出する検出ステップと、
前記操作の開始の検出に基づいて、前記第1オブジェクトの表示位置を決定する第1決定ステップと、
検出された前記操作に基づいて、前記第1オブジェクトの回転に関する前記1種以上の量を決定し、その決定結果に基づいて、前記第2オブジェクトの前記1種以上の量を決定する第2決定ステップと、
を含む制御処理を実行させる情報処理プログラム。
To a computer that executes control to display an image on a display medium,
In response to a predetermined instruction to a rotating member of a virtual three-dimensional shape that the amount of one or more related to the rotation changes in the local coordinate system, a first object that indicates the operating device for operating the different objects, the operation target A display control step of causing the display medium to display an image including the second object whose one or more amounts change according to the predetermined instruction , as the other object
A detection step of detecting a contact or proximity operation of an object to the display medium as the operation of the predetermined instruction;
A first determination step of determining a display position of the first object based on detection of the start of the operation;
Based on the detected operation, to determine the amount of said one or more related to the rotation of the first object, based on the determination result, a second decision to determine the one or more of the amount of the second object Steps,
An information processing program for executing control processing including:
前記検出ステップは、前記表示媒体に前記物体が接触又は近接している間、前記表示媒体における前記物体の位置を繰り返し検出し、
前記第2決定ステップは、所定の時間間隔において夫々検出される前記物体の位置の変化量に基づいて、前記第1オブジェクトのローカル座標系における回転量を決定するステップを含む、
請求項1に記載の情報処理プログラム。
The detection step repeatedly detects the position of the object on the display medium while the object is in contact with or close to the display medium,
The second determining step includes a step of determining a rotation amount of the first object in a local coordinate system based on a change amount of the position of the object detected at each predetermined time interval.
The information processing program according to claim 1.
前記第2決定ステップは、前記所定の時間間隔において夫々検出される前記物体の位置の変化方向に基づいて、前記第1オブジェクトのローカル座標系における回転方向を決定するステップを含む、
請求項2に記載の情報処理プログラム。
The second determining step includes a step of determining a rotation direction of the first object in a local coordinate system based on a change direction of the position of the object detected at each of the predetermined time intervals.
The information processing program according to claim 2.
前記第2オブジェクトは、仮想の3次元空間内を移動するオブジェクトであり、
前記第2決定ステップは、さらに、前記所定の時間間隔において夫々検出される前記物体の位置の変化量に基づいて前記第2オブジェクトのグローバル座標系における移動量を決定すると共に、前記所定の時間間隔において夫々検出される前記物体の位置の変化方向に基づいて前記第2オブジェクトの移動方向を決定するステップを含む、
請求項3に記載の情報処理プログラム。
The second object is an object that moves in a virtual three-dimensional space,
The second determining step further determines an amount of movement of the second object in the global coordinate system based on an amount of change in the position of the object detected at the predetermined time interval, and the predetermined time interval. Determining the moving direction of the second object based on the direction of change of the position of the object detected in
The information processing program according to claim 3.
前記第2決定ステップは、前記検出ステップにおいて前記物体の前記表示媒体の接触又は近接の解除が検出されたとき、解除の検出時点以前の所定時点において検出された前記物体の位置の変化速度に基づいて、前記第1オブジェクトのローカル座標系における回転速度を決定するステップを含む、
請求項2乃至4のうち何れか1項に記載の情報処理プログラム。
The second determination step is based on a change speed of the position of the object detected at a predetermined time before the detection time of the release when the contact of the display medium of the object or the release of the proximity of the object is detected in the detection step. Determining a rotation speed of the first object in a local coordinate system,
The information processing program according to any one of claims 2 to 4.
前記第2決定ステップは、前記物体の前記表示媒体の接触又は近接の解除の状態が維持されている場合、前記第1オブジェクトの回転速度を減速させていく決定をするステップを含む、
請求項5に記載の情報処理プログラム。
The second determining step includes a step of determining to reduce the rotational speed of the first object when the state of contact of the display medium with the object or the release of the proximity is maintained.
The information processing program according to claim 5.
前記表示制御ステップは、第1投影法により表される前記第1オブジェクトと、第2投影法により表される前記第2オブジェクトとを含む画像を、前記表示媒体に表示させる制御を実行する、
請求項1乃至6のうち何れか1項に記載の情報プログラム。
The display control step executes control to display an image including the first object represented by a first projection method and the second object represented by a second projection method on the display medium.
The information program according to any one of claims 1 to 6.
前記第1投影法は平行投影法であり、前記第2投影法は透視投影法である、
請求項7に記載の情報処理プログラム。
The first projection method is a parallel projection method, and the second projection method is a perspective projection method.
The information processing program according to claim 7.
画像を表示媒体に表示させる情報処理装置が実行する情報処理方法であって、
所定の指示に応じてローカル座標系における回転に関する1種以上の量が変化する仮想の3次元形状の回転体であって、別オブジェクトを操作するための操作器具を示す第1オブジェクトと、操作対象の当該別オブジェクトとしての、当該所定の指示に応じて1種以上の量が変化する第2オブジェクトとを含む画像を、前記表示媒体に表示させる表示制御ステップと、
前記所定の指示の操作として、前記表示媒体への物体の接触又は近接の操作を検出する検出ステップと、
前記操作の開始の検出に基づいて、前記第1オブジェクトの表示位置を決定する第1決定ステップと、
検出された前記操作に基づいて、前記第1オブジェクトの回転に関する前記1種以上の量を決定し、その決定結果に基づいて、前記第2オブジェクトの前記1種以上の量を決定する第2決定ステップと、
を含む情報処理方法。
An information processing method executed by an information processing apparatus for displaying an image on a display medium,
In response to a predetermined instruction to a rotating member of a virtual three-dimensional shape that the amount of one or more related to the rotation changes in the local coordinate system, a first object that indicates the operating device for operating the different objects, the operation target A display control step of causing the display medium to display an image including the second object whose one or more amounts change according to the predetermined instruction , as the other object
A detection step of detecting a contact or proximity operation of an object to the display medium as the operation of the predetermined instruction;
A first determination step of determining a display position of the first object based on detection of the start of the operation;
Based on the detected operation, to determine the amount of said one or more related to the rotation of the first object, based on the determination result, a second decision to determine the one or more of the amount of the second object Steps,
An information processing method including:
JP2015036983A 2015-02-26 2015-02-26 Information processing program and information processing method Active JP5876600B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015036983A JP5876600B1 (en) 2015-02-26 2015-02-26 Information processing program and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015036983A JP5876600B1 (en) 2015-02-26 2015-02-26 Information processing program and information processing method

Publications (2)

Publication Number Publication Date
JP5876600B1 true JP5876600B1 (en) 2016-03-02
JP2016158639A JP2016158639A (en) 2016-09-05

Family

ID=55434734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015036983A Active JP5876600B1 (en) 2015-02-26 2015-02-26 Information processing program and information processing method

Country Status (1)

Country Link
JP (1) JP5876600B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017196376A (en) * 2016-04-27 2017-11-02 寶凱電子企業股▲分▼有限公司 Touch control type crane game machine
US10642487B2 (en) 2017-05-11 2020-05-05 Alvion Inc. Non-transitory memory medium storing information processing program, and information processing apparatus

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6781179B2 (en) * 2018-03-06 2020-11-04 株式会社スクウェア・エニックス Game programs and game systems
CN109011564A (en) * 2018-08-21 2018-12-18 苏州蜗牛数字科技股份有限公司 Particle gun modeling construction method and particle gun application in a kind of game

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003024634A (en) * 2001-07-13 2003-01-28 Konami Co Ltd Function display for controller in game machine
JP2005192986A (en) * 2003-12-10 2005-07-21 Nintendo Co Ltd Game program and game device
JP2005312971A (en) * 2004-04-30 2005-11-10 Microsoft Corp Universal controller help on multimedia system
JP2005319136A (en) * 2004-05-10 2005-11-17 Namco Ltd Program, information storage medium, and electronic apparatus
JP2008005961A (en) * 2006-06-28 2008-01-17 Namco Bandai Games Inc Image generation system, program and information storage medium
JP2011034538A (en) * 2009-08-06 2011-02-17 Square Enix Co Ltd Portable computer with touch panel display
JP2014045965A (en) * 2012-08-31 2014-03-17 Square Enix Co Ltd Video game processing device and video game processing program
JP2014151054A (en) * 2013-02-12 2014-08-25 Square Enix Co Ltd Video game apparatus and video game processing program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003024634A (en) * 2001-07-13 2003-01-28 Konami Co Ltd Function display for controller in game machine
JP2005192986A (en) * 2003-12-10 2005-07-21 Nintendo Co Ltd Game program and game device
JP2005312971A (en) * 2004-04-30 2005-11-10 Microsoft Corp Universal controller help on multimedia system
JP2005319136A (en) * 2004-05-10 2005-11-17 Namco Ltd Program, information storage medium, and electronic apparatus
JP2008005961A (en) * 2006-06-28 2008-01-17 Namco Bandai Games Inc Image generation system, program and information storage medium
JP2011034538A (en) * 2009-08-06 2011-02-17 Square Enix Co Ltd Portable computer with touch panel display
JP2014045965A (en) * 2012-08-31 2014-03-17 Square Enix Co Ltd Video game processing device and video game processing program
JP2014151054A (en) * 2013-02-12 2014-08-25 Square Enix Co Ltd Video game apparatus and video game processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017196376A (en) * 2016-04-27 2017-11-02 寶凱電子企業股▲分▼有限公司 Touch control type crane game machine
US10642487B2 (en) 2017-05-11 2020-05-05 Alvion Inc. Non-transitory memory medium storing information processing program, and information processing apparatus

Also Published As

Publication number Publication date
JP2016158639A (en) 2016-09-05

Similar Documents

Publication Publication Date Title
US11379105B2 (en) Displaying a three dimensional user interface
US10990274B2 (en) Information processing program, information processing method, and information processing device
JP5619964B2 (en) Augmented reality simulation continuum
US8788973B2 (en) Three-dimensional gesture controlled avatar configuration interface
Hürst et al. Gesture-based interaction via finger tracking for mobile augmented reality
JP5405572B2 (en) Touch interaction using curved display
JP6048898B2 (en) Information display device, information display method, and information display program
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
WO2019057150A1 (en) Information exchange method and apparatus, storage medium and electronic apparatus
JP2012133481A (en) Program, information storage medium and terminal device
JP2017000480A (en) Terminal device and program
JP5876600B1 (en) Information processing program and information processing method
Hürst et al. Multimodal interaction concepts for mobile augmented reality applications
CN109189302B (en) Control method and device of AR virtual model
JP2013127683A (en) Program, information storage medium, terminal, server, and network system
US11430192B2 (en) Placement and manipulation of objects in augmented reality environment
JP2018142313A (en) System and method for touch of virtual feeling
KR20140081840A (en) Motion controlled list scrolling
JP2014078073A (en) Information processing program, information processing apparatus, information processing system, and image display method
TW201616281A (en) Virtual reality system and method for interacting with an object in virtual reality
WO2016102948A1 (en) Coherent touchless interaction with stereoscopic 3d images
TWI559269B (en) System, method, and computer program product for simulated reality learning
KR102233004B1 (en) Virtual Reality Karaoke Interaction Method and Apparatus
US20130201095A1 (en) Presentation techniques
US10553249B2 (en) Storage medium, information processing apparatus, information processing system and information processing method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160121

R150 Certificate of patent or registration of utility model

Ref document number: 5876600

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250