JP6569794B1 - Information processing apparatus and program - Google Patents
Information processing apparatus and program Download PDFInfo
- Publication number
- JP6569794B1 JP6569794B1 JP2018195454A JP2018195454A JP6569794B1 JP 6569794 B1 JP6569794 B1 JP 6569794B1 JP 2018195454 A JP2018195454 A JP 2018195454A JP 2018195454 A JP2018195454 A JP 2018195454A JP 6569794 B1 JP6569794 B1 JP 6569794B1
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- screen
- operation area
- virtual camera
- dimensional space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 29
- 238000001514 detection method Methods 0.000 claims abstract description 14
- 230000008859 change Effects 0.000 claims description 17
- 238000010586 diagram Methods 0.000 description 38
- 230000009466 transformation Effects 0.000 description 18
- 238000006243 chemical reaction Methods 0.000 description 13
- 238000000034 method Methods 0.000 description 13
- 230000000052 comparative effect Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/214—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
- A63F13/2145—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/426—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】ユーザーが画面を見ながらオブジェクトを簡単に操作できるようにする。【解決手段】本発明は、仮想3次元空間においてオブジェクトが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、前記移動平面上の前記オブジェクトを見たときのゲーム画像を生成するゲーム画像生成部と、仮想3次元空間において前記移動平面と平行になるように配置された仮想操作オブジェクトを、前記仮想カメラから見たときの操作エリアを生成する操作エリア生成部と、前記ゲーム画像と前記操作エリアを同一の画面上に配置させる表示制御部と、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向を決定し、その決定された前記操作エリアで指示された画面上の指示方向を、仮想3次元空間における前記移動平面上の指示方向に変換し、その変換された前記移動平面上の指示方向に前記オブジェクトが移動するように制御するオブジェクト制御部を備えた情報処理装置である。【選択図】図1An object of the present invention is to enable a user to easily operate an object while looking at a screen. The present invention relates to a game for generating a game image when the object on the moving plane is viewed from a virtual camera arranged so as to look down at a moving plane on which the object moves in a virtual three-dimensional space. An image generation unit, an operation area generation unit that generates an operation area when a virtual operation object arranged in parallel with the moving plane in a virtual three-dimensional space is viewed from the virtual camera, and the game image Based on a display control unit that arranges the operation area on the same screen and a detection signal from the touch panel, an instruction direction on the screen instructed in the operation area by a user's touch operation is determined, and the determined The indicated direction on the screen designated in the operation area is converted into the designated direction on the moving plane in the virtual three-dimensional space, The object indicated direction on converted the moving plane is an information processing apparatus having an object control unit for controlling to move. [Selection] Figure 1
Description
本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and a program.
ユーザーがタッチパネルを用いて画面上の操作エリアに対するタッチ操作を行うことによって、仮想3次元空間内においてオブジェクトを移動させる情報処理装置が知られている(たとえば、特許文献1)。 There is known an information processing apparatus that moves an object in a virtual three-dimensional space when a user performs a touch operation on an operation area on a screen using a touch panel (for example, Patent Document 1).
仮想3次元空間内のオブジェクトを斜めから見下ろした俯瞰的なゲーム画像を画面に表示することによって、ユーザーのタッチ操作により操作エリアで指示された画面上の指示方向と、オブジェクトが移動する画面上の移動方向が一致しない場合があった。この場合には、ユーザーの意図した方向にキャラクターが移動しないことになるため、ユーザーにとって画面を見ながらオブジェクトを操作することが困難となる。
本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、ユーザーが画面を見ながらオブジェクトを簡単に操作できるようにすることにある。
By displaying on the screen a bird's-eye view of the game image in which the object in the virtual three-dimensional space is looked down at an angle, the instruction direction on the screen indicated in the operation area by the user's touch operation and the screen on which the object moves In some cases, the movement directions did not match. In this case, since the character does not move in the direction intended by the user, it becomes difficult for the user to operate the object while looking at the screen.
The present invention has been made in view of such circumstances, and an object thereof is to allow a user to easily operate an object while looking at a screen.
上記課題を解決するための本発明の主たる発明は、
仮想3次元空間においてオブジェクトが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、前記移動平面上の前記オブジェクトを見たときのゲーム画像を生成するゲーム画像生成部と、
仮想3次元空間において前記移動平面と平行になるように配置された仮想操作オブジェクトを、前記仮想カメラから見たときの操作エリアを生成する操作エリア生成部と、
前記ゲーム画像と前記操作エリアを同一の画面上に配置させる表示制御部と、
前記ゲーム画像と前記操作エリアが配置された画面に対するユーザーのタッチ操作を検出するタッチパネルと、
前記タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向を決定し、その決定された前記操作エリアで指示された画面上の指示方向を、仮想3次元空間における前記移動平面上の指示方向に変換し、その変換された前記移動平面上の指示方向に前記オブジェクトが移動するように制御するオブジェクト制御部と、
を備えたことを特徴とする情報処理装置である。
本発明の他の特徴については、本明細書及び添付図面の記載により明らかにする。
The main invention of the present invention to solve the above problems is
A game image generation unit that generates a game image when the object on the moving plane is viewed from a virtual camera arranged to look down on the moving plane in which the object moves in the virtual three-dimensional space;
An operation area generating unit for generating an operation area when a virtual operation object arranged in parallel with the moving plane in a virtual three-dimensional space is viewed from the virtual camera;
A display control unit for arranging the game image and the operation area on the same screen;
A touch panel for detecting a user's touch operation on the screen on which the game image and the operation area are arranged;
Based on the detection signal from the touch panel, the instruction direction on the screen instructed in the operation area by the user's touch operation is determined, and the instruction direction on the screen instructed in the determined operation area is determined as a virtual An object control unit that converts the object into a designated direction on the moving plane in a three-dimensional space and controls the object to move in the designated direction on the converted moving plane;
An information processing apparatus characterized by comprising:
Other features of the present invention will become apparent from the description of the present specification and the accompanying drawings.
本明細書及び添付図面の記載により、少なくとも以下の事項が明らかとなる。
即ち、仮想3次元空間においてオブジェクトが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、前記移動平面上の前記オブジェクトを見たときのゲーム画像を生成するゲーム画像生成部と、
仮想3次元空間において前記移動平面と平行になるように配置された仮想操作オブジェクトを、前記仮想カメラから見たときの操作エリアを生成する操作エリア生成部と、
前記ゲーム画像と前記操作エリアを同一の画面上に配置させる表示制御部と、
前記ゲーム画像と前記操作エリアが配置された画面に対するユーザーのタッチ操作を検出するタッチパネルと、
前記タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向を決定し、その決定された前記操作エリアで指示された画面上の指示方向を、仮想3次元空間における前記移動平面上の指示方向に変換し、その変換された前記移動平面上の指示方向に前記オブジェクトが移動するように制御するオブジェクト制御部と、
を備えたことを特徴とする情報処理装置である。
このような情報処理装置によれば、仮想3次元空間においてオブジェクトの移動平面と仮想操作オブジェクトの操作平面が平行になるように配置することで、仮想3次元空間を斜めから見下ろしたときに仮想カメラから見えるゲーム画像と操作エリアが同一の画面上に配置されたとしても、ユーザーのタッチ操作により操作エリアで指示された画面上の指示方向とオブジェクトが移動する画面上の移動方向が一致するようになる。これにより、ユーザーが画面を見ながらオブジェクトを簡単に操作できるようになる。
At least the following matters will become apparent from the description of the present specification and the accompanying drawings.
That is, a game image generation unit that generates a game image when the object on the moving plane is viewed from a virtual camera arranged so as to look down at a moving plane on which the object moves in a virtual three-dimensional space;
An operation area generating unit for generating an operation area when a virtual operation object arranged in parallel with the moving plane in a virtual three-dimensional space is viewed from the virtual camera;
A display control unit for arranging the game image and the operation area on the same screen;
A touch panel for detecting a user's touch operation on the screen on which the game image and the operation area are arranged;
Based on the detection signal from the touch panel, the instruction direction on the screen instructed in the operation area by the user's touch operation is determined, and the instruction direction on the screen instructed in the determined operation area is determined as a virtual An object control unit that converts the object into a designated direction on the moving plane in a three-dimensional space and controls the object to move in the designated direction on the converted moving plane;
An information processing apparatus characterized by comprising:
According to such an information processing apparatus, the virtual camera is arranged when the virtual three-dimensional space is looked down at an angle by arranging the object movement plane and the virtual operation object operation plane in parallel in the virtual three-dimensional space. Even if the game image and the operation area that can be seen from the screen are arranged on the same screen, the instruction direction on the screen indicated by the operation area by the user's touch operation matches the movement direction on the screen where the object moves Become. As a result, the user can easily operate the object while looking at the screen.
また、かかる情報処理装置であって、
仮想3次元空間における仮想カメラの配置を制御する仮想カメラ制御部を備え、
ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向が維持されたことによって、仮想3次元空間における前記移動平面上の指示方向に前記オブジェクトが移動し続けている状態で、仮想カメラの配置が変更された場合に、
前記操作エリア生成部は、変更後の仮想カメラから前記仮想操作オブジェクトを見たときの操作エリアを生成し、
前記表示制御部は、仮想カメラの視方向が変更される前における前記移動平面上の指示方向を、生成された前記操作エリアでユーザーのタッチ操作により指示されるべき画面上の指示方向に変換し、その変換された前記画面上の指示方向に合うように、その生成された前記操作エリアを画面上に配置することとしても良い。
このような情報処理装置によれば、ユーザーのタッチ操作の継続中に仮想カメラの配置が変更されたとしても、これまでの移動方向を維持しつつオブジェクトを移動させることができる。
In addition, such an information processing apparatus,
A virtual camera control unit for controlling the placement of the virtual camera in the virtual three-dimensional space;
In a state where the object continues to move in the designated direction on the moving plane in the virtual three-dimensional space by maintaining the designated direction on the screen designated in the operation area by the user's touch operation, the virtual camera If the placement of is changed,
The operation area generation unit generates an operation area when the virtual operation object is viewed from the changed virtual camera,
The display control unit converts an instruction direction on the moving plane before the viewing direction of the virtual camera is changed into an instruction direction on a screen to be instructed by a user's touch operation in the generated operation area. The generated operation area may be arranged on the screen so as to match the converted instruction direction on the screen.
According to such an information processing apparatus, even if the placement of the virtual camera is changed while the user's touch operation is continued, the object can be moved while maintaining the previous moving direction.
また、かかる情報処理装置であって、
仮想3次元空間における仮想カメラの配置を制御する仮想カメラ制御部を備え、
前記オブジェクト制御部は、仮想カメラの視方向が変更される前、及び、仮想カメラの視方向が変更された後のいずれにおいても、前記タッチパネルからの検出信号に基づいて、ユーザーのスライド操作により前記操作エリアで指示された画面上のスライド距離を決定し、その決定されたスライド距離が所定距離以上である場合に、仮想3次元空間においてオブジェクトが高速で移動するように制御することとしても良い。
このような情報処理装置によれば、仮想3次元空間においてオブジェクトを高速で移動させるために、仮想カメラの視方向が変更された後でも、仮想カメラの視方向が変更される前と同じスライド距離だけスライド操作を行えばよいので、仮想カメラの視方向が変更されたことによる混乱を抑制することができる。
In addition, such an information processing apparatus,
A virtual camera control unit for controlling the placement of the virtual camera in the virtual three-dimensional space;
The object control unit may perform the slide operation by a user based on a detection signal from the touch panel before and after the viewing direction of the virtual camera is changed and after the viewing direction of the virtual camera is changed. A slide distance on the screen instructed in the operation area may be determined, and control may be performed so that the object moves at high speed in the virtual three-dimensional space when the determined slide distance is equal to or greater than a predetermined distance.
According to such an information processing apparatus, in order to move an object at high speed in a virtual three-dimensional space, the same slide distance as before the virtual camera's viewing direction is changed even after the virtual camera's viewing direction is changed. Since the slide operation only needs to be performed, confusion caused by the change in the viewing direction of the virtual camera can be suppressed.
また、かかる情報処理装置であって、
前記オブジェクト制御部は、ユーザーのスライド操作により前記操作エリアで指示された画面上のスライド距離が維持されたことによって、仮想3次元空間における前記移動平面上の指示方向に前記オブジェクトが高速で移動し続けている状態で、仮想カメラの視方向が変更された場合に、仮想カメラの視方向が変更された後において、ユーザーのスライド操作により前記操作エリアで指示された画面上のスライド距離が引き続き維持されたことを条件として、仮想3次元空間においてオブジェクトの高速移動をさらに続けるように制御することとしても良い。
このような情報処理装置によれば、オブジェクトが高速移動しているときに仮想カメラの視方向が変更されたことによって、急にオブジェクトが低速移動することのないように制御できるため、仮想カメラの視方向が変更されたことによる混乱を抑制することができる。
In addition, such an information processing apparatus,
The object control unit moves the object at a high speed in a designated direction on the moving plane in a virtual three-dimensional space by maintaining a slide distance on the screen designated in the operation area by a user's slide operation. When the viewing direction of the virtual camera is changed in the continued state, after the viewing direction of the virtual camera is changed, the slide distance on the screen instructed in the operation area by the user's sliding operation is continuously maintained. On the condition that it has been done, it may be controlled to further continue the high-speed movement of the object in the virtual three-dimensional space.
According to such an information processing device, since the viewing direction of the virtual camera is changed when the object is moving at a high speed, the object can be controlled so as not to move suddenly at a low speed. Confusion caused by changing the viewing direction can be suppressed.
次に、コンピューターを、
仮想3次元空間においてオブジェクトが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、前記移動平面上の前記オブジェクトを見たときのゲーム画像を生成するゲーム画像生成手段、
仮想3次元空間において前記移動平面と平行になるように配置された仮想操作オブジェクトを、前記仮想カメラから見たときの操作エリアを生成する操作エリア生成手段、
前記ゲーム画像と前記操作エリアを同一の画面上に配置させる表示制御手段、
タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向を決定し、その決定された前記操作エリアで指示された画面上の指示方向を、仮想3次元空間における前記移動平面上の指示方向に変換し、その変換された前記移動平面上の指示方向に前記オブジェクトが移動するように制御するオブジェクト制御手段、
として機能させるためのプログラムである。
このようなプログラムによれば、ユーザーが画面を見ながらオブジェクトを簡単に操作できるようになる。
Next, the computer
Game image generation means for generating a game image when the object on the moving plane is viewed from a virtual camera arranged to look down on the moving plane on which the object moves in a virtual three-dimensional space;
An operation area generating means for generating an operation area when a virtual operation object arranged so as to be parallel to the moving plane in a virtual three-dimensional space is viewed from the virtual camera;
Display control means for arranging the game image and the operation area on the same screen;
Based on a detection signal from the touch panel, an instruction direction on the screen instructed in the operation area by a user's touch operation is determined, and the instruction direction on the screen instructed in the determined operation area is determined as virtual 3 Object control means for converting to an indicated direction on the moving plane in a dimensional space and controlling the object to move in the indicated direction on the converted moving plane;
It is a program to make it function as.
According to such a program, the user can easily operate the object while looking at the screen.
===実施形態===
以下では、本発明の実施形態に係る情報処理装置、プログラム及び情報処理システムについて詳細に説明する。なお、本発明はタッチパネルでプレイ可能なゲームを採用する情報処理装置、プログラム、及び情報処理システム等に広く適用できる。
=== Embodiment ===
Hereinafter, an information processing apparatus, a program, and an information processing system according to an embodiment of the present invention will be described in detail. The present invention can be widely applied to information processing apparatuses, programs, information processing systems, and the like that employ games that can be played on a touch panel.
<<システム構成>>
図1は、本実施形態に係る情報処理システム1の一例を示す構成図である。図1に示すように、本実施形態に係る情報処理システム1は、1台以上のクライアント端末10とサーバー装置20とがネットワークNを介して接続されている。
<< System configuration >>
FIG. 1 is a configuration diagram illustrating an example of an
クライアント端末10は、ユーザーが操作するスマートフォン、タブレット、PCなどの端末装置や、家庭用や業務用のゲーム専用機器などの端末装置である。サーバー装置20は、クライアント端末10でユーザーにより行われるゲームの管理や制御、ゲーム内での課金処理等を行う。ネットワークNは、インターネット等であって、移動無線基地局などを含む。
The
<<ハードウェア構成>>
<クライアント端末>
図2は、本実施形態に係るコンピューター50の一例を示すハードウェア構成図である。本実施形態に係るクライアント端末10は、例えば図2に示すハードウェア構成のコンピューター50により実現される。なお、コンピューター50は情報処理装置の一例である。
<< Hardware configuration >>
<Client terminal>
FIG. 2 is a hardware configuration diagram illustrating an example of the
コンピューター50は、図2に示すように、CPU51と、RAM52と、ROM53と、通信インタフェース54と、入力装置55と、表示装置56と、外部インタフェース57と、HDD58などを備えており、それぞれがバスラインBによって相互に接続されている。
As shown in FIG. 2, the
CPU51は、ROM53やHDD58などの記憶装置からプログラムやデータをRAM52上に読み出し、読み出したプログラムやデータに基づく各種処理を実行することによって、コンピューター全体の制御や機能を実現する演算装置である。
The
RAM52は、プログラムやデータを一時保持するための揮発性の半導体メモリ(記憶装置)の一例であり、CPU51が各種処理を実行する際のワークエリアとしても利用される。
The
ROM53は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)の一例である。ROM53には、コンピューター50の起動時に実行されるBIOS、OS設定、及びネットワーク設定などのプログラムやデータが格納されている。
The
通信インタフェース54は、コンピューター50をネットワークNに接続するためのインタフェースである。これにより、コンピューター50は通信インタフェース54を介してデータ通信を行うことができる。
The
入力装置55は、ユーザーが各種信号を入力するのに用いる装置である。入力装置55は、例えば、タッチパネル、操作キーやボタン、キーボードやマウスなどの操作装置である。
The
本実施形態におけるクライアント端末10は、少なくともタッチパネルを有している。タッチパネルは、表示装置56の上に積層される静電容量式のパネルによって構成されている。このタッチパネルでは、ユーザーの指やタッチペン等によるタッチ操作が行われると、格子状に配列されている透明電極が静電容量の変化を検出してその検出信号を出力する。本実施形態においては、静電容量の変化が生じた透明電極の範囲から決まる重心位置が、画面上でのタッチ位置(指示位置)として特定される。
The
表示装置56は、タッチパネルを用いてゲームプレイを行うユーザーに対して各種情報を画面表示するための装置である。表示装置56は、例えば、液晶や有機ELなどのディスプレイである。
The
外部インタフェース57は、外部装置とデータ通信可能に接続するためのインタフェースである。これにより、コンピューター50は外部インタフェース57を介して記録媒体の読み取り及び/又は書き込みを行うことができる。外部装置は、例えば、フレキシブルディスク、CD、DVD、SDメモリカード、USBメモリなどの記録媒体である。
The
HDD58は、プログラムやデータを格納している不揮発性の記憶装置の一例である。格納されるプログラムやデータには、コンピューター全体を制御する基本ソフトウェアであるOS、及びOS上において各種機能を提供するアプリケーションなどがある。
The
なお、HDD58に替えて、記憶媒体としてフラッシュメモリを用いるドライブ装置(例えばソリッドステートドライブ:SSD)を利用してもよい。
Instead of the
本実施形態に係るクライアント端末10は、上述したハードウェア構成のコンピューター50においてプログラムを実行することにより、後述するような各種処理を実現することができる。
The
<<ソフトウェア構成>>
<クライアント端末>
図3は、本実施形態に係るクライアント端末10の一例を示す機能ブロック図である。本実施形態に係るクライアント端末10は、例えば図3に示す機能ブロックにより実現される。
<< Software configuration >>
<Client terminal>
FIG. 3 is a functional block diagram illustrating an example of the
本実施形態に係るクライアント端末10は、プログラムを実行することにより、制御部100と、記憶部120と、通信部140と、操作受付部150と、画面表示部160を実現する。
The
制御部100は、クライアント端末10における各種処理を実行する機能を有する。この制御部100は、ゲーム進行部101と、オブジェクト制御部102と、仮想カメラ制御部103と、ゲーム画像生成部104と、操作エリア生成部105と、表示制御部106を含む。
The
ゲーム進行部101は、クライアント端末10がユーザーから受け付けたゲーム操作に基づき、クライアント端末10でプレイ可能な各種ゲーム(例えば、アクションゲーム等)の進行を制御する。
The
オブジェクト制御部102は、仮想3次元空間(仮想ゲーム空間)に配置されるオブジェクトの挙動を制御する。本実施形態におけるオブジェクト制御部102は、ユーザーのタッチ操作によって指示された画面上の指示方向を、仮想3次元空間における移動平面上の指示方向に変換し、その変換された移動平面上の指示方向にオブジェクトが移動するように制御する。
The
このオブジェクト制御部102は、タッチ位置決定部及び操作入力判定部としての機能を含む。タッチ位置決定部は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上のタッチ位置を決定する。具体的には、格子状に配列されている透明電極のうち静電容量の変化が生じた透明電極の位置に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置(タッチ位置)を決定する。そして、操作入力判定部は、タッチパネルを用いてゲームプレイを行うユーザーによって入力されたゲーム操作の種類を判定する。例えば、ユーザーのタッチ位置が操作エリアに位置するか否かによってタッチ操作が入力されたか否かを判定したり、ユーザーのタッチ位置が操作エリアから所定方向へスライド移動したか否かによってスライド操作が入力されたか否かを判定したりする。
The
仮想カメラ制御部103は、仮想3次元空間における仮想カメラの配置を制御する。本実施形態における仮想カメラ制御部103は、ユーザーの操作に応じて、仮想3次元空間における仮想カメラの配置(例えば、視点位置、視方向、画角等)を変更することにより、仮想カメラから見える仮想3次元空間の様子が変化するように制御する。
The virtual
ゲーム画像生成部104は、仮想3次元空間に配置されたオブジェクトを仮想カメラから見たときのゲーム画像を2次元画像として生成する。本実施形態におけるゲーム画像生成部104は、仮想3次元空間においてオブジェクトが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、その移動平面上のオブジェクトを見たときのゲーム画像を生成する。具体的には、ゲーム画像生成部104は、ワールド座標系で表現される3次元座標に配置されたオブジェクトを、仮想カメラを基準とするビュー座標系への座標変換を行なう。そして、ビュー座標系に配置されたオブジェクトに対して透視変換等を行なって、その仮想カメラから見たときの仮想3次元空間の様子を2次元画像として生成する。また、ゲーム画像生成部104は、光源処理などの補間処理や、オブジェクトにテクスチャをマッピングするための処理等も行なう。
The game
操作エリア生成部105は、仮想3次元空間に配置された仮想操作オブジェクトを仮想カメラから見たときの操作エリアを2次元画像として生成する。本実施形態における操作エリア生成部105は、仮想3次元空間においてオブジェクトが移動する移動平面と平行になるように配置された仮想操作オブジェクトを、仮想カメラから見たときの操作エリアを生成する。なお、この操作エリア生成部105は、ゲーム画像生成部104と同様にして具体的な描画処理を行なう。
The operation
表示制御部106は、仮想3次元空間に配置される各種オブジェクトの2次元画像が含まれるゲーム画面をフレーム毎(例えば、1/60秒毎)に構成して画面表示部160に出力する制御を行う。本実施形態における表示制御部106は、ゲーム画像生成部104によって生成されたゲーム画像と、操作エリア生成部105によって生成された操作エリアを同一の画面上に配置させることによってゲーム画面を構成する。
The
記憶部120は、インストールされたアプリケーション(ゲームアプリ等)やクライアント端末10において必要となる各種情報を記憶する。通信部140は、サーバー装置20との通信を行う。画面表示部160は、表示制御部106の制御に従いゲーム画面を取得してクライアント端末10にて画面表示を行う。
The
<<画面構成>>
本実施形態におけるクライアント端末10の画面構成例について説明する。ここでは、比較例について説明した後に、本発明に係る実施例について説明する。
<< Screen configuration >>
A screen configuration example of the
<比較例>
図4は、比較例におけるゲーム画像を生成するときのワールド座標系、ビュー座標系、及びスクリーン座標系の関係を示す図である。以下では、仮想3次元空間の基準を原点Owとする3次元座標(Xw、Yw、Zw)をワールド座標系と表現し、仮想カメラを原点Ocとする3次元座標(Xc、Yc、Zc)をビュー座標系と表現し、クライアント端末10の画面に対応するスクリーン面(投影面)の中心を原点Osとする2次元座標(Xs、Ys)をスクリーン座標系と表現する。
<Comparative example>
FIG. 4 is a diagram illustrating the relationship between the world coordinate system, the view coordinate system, and the screen coordinate system when generating a game image in the comparative example. Hereinafter, the three-dimensional coordinates (Xw, Yw, Zw) having the origin of the virtual three-dimensional space as the origin Ow are expressed as a world coordinate system, and the three-dimensional coordinates (Xc, Yc, Zc) having the virtual camera as the origin Oc are represented. The view coordinate system is expressed, and two-dimensional coordinates (Xs, Ys) having the origin Os as the center of the screen surface (projection surface) corresponding to the screen of the
仮想カメラは、ワールド座標系のYw軸方向の高さからZw軸方向に対する俯角θでXw−Zw平面を斜めから見下ろすように配置されている。このように仮想3次元空間に仮想カメラを配置することによって、ワールド座標系に関連付けてビュー座標系が設定されることになる。 The virtual camera is arranged so that the Xw-Zw plane is looked down at an angle θ with respect to the Zw axis direction from the height in the Yw axis direction of the world coordinate system. By arranging the virtual camera in the virtual three-dimensional space in this way, the view coordinate system is set in association with the world coordinate system.
ビュー座標系のZc軸方向は、クライアント端末10の画面に対応するスクリーン面(スクリーン座標系の原点Os)に垂直に下した方向であり、仮想カメラの視方向と一致している。ビュー座標系のXc−Yc平面は、スクリーン面と平行であり、ビュー座標系の原点Ocからスクリーン座標系原点Osまでの距離は仮想カメラの焦点距離と一致している。 The Zc axis direction of the view coordinate system is a direction that is perpendicular to the screen surface corresponding to the screen of the client terminal 10 (the origin Os of the screen coordinate system), and coincides with the viewing direction of the virtual camera. The Xc-Yc plane of the view coordinate system is parallel to the screen surface, and the distance from the origin Oc of the view coordinate system to the screen coordinate system origin Os matches the focal length of the virtual camera.
オブジェクトの一例としてのキャラクターAは、ワールド座標系のXw−Zw平面に配置されている。ワールド座標系のXw−Zw平面は、仮想3次元空間においてキャラクターAが移動する移動平面と一致している。このキャラクターAは、ワールド座標系のXw−Zw平面上での座標位置を時間経過に伴って変化させることにより、移動平面を移動することができるようになっている。 A character A as an example of an object is arranged on the Xw-Zw plane of the world coordinate system. The Xw-Zw plane of the world coordinate system coincides with the moving plane on which the character A moves in the virtual three-dimensional space. The character A can move on the moving plane by changing the coordinate position on the Xw-Zw plane of the world coordinate system with time.
ゲーム画像生成部104は、仮想3次元空間においてキャラクターAが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、その移動平面上のキャラクターAを見たときのゲーム画像を生成する。
The game
具体的には、図4に示す仮想カメラとキャラクターAの位置関係から算出される座標変換行列等を用いることにより、ワールド座標系(Xw、Yw、Zw)に配置させたキャラクターAをビュー座標系(Xc、Yc、Zc)へ座標変換を行う。さらに、透視投影手法等を用いることにより、ビュー座標系(Xc、Yc、Zc)に配置されたキャラクターAをスクリーン座標系(Xs、Ys)へ座標変換を行う。このように幾何学的な算出を行なって座標変換を繰り返すことにより、仮想3次元空間のキャラクターAを2次元画像(ゲーム画像)として生成することができる。 Specifically, by using a coordinate transformation matrix calculated from the positional relationship between the virtual camera and the character A shown in FIG. 4, the character A arranged in the world coordinate system (Xw, Yw, Zw) is displayed in the view coordinate system. Coordinate conversion is performed to (Xc, Yc, Zc). Further, by using a perspective projection method or the like, the character A arranged in the view coordinate system (Xc, Yc, Zc) is coordinate-converted to the screen coordinate system (Xs, Ys). Thus, by performing geometric calculation and repeating coordinate transformation, the character A in the virtual three-dimensional space can be generated as a two-dimensional image (game image).
図5は、比較例における操作エリアを生成するときのワールド座標系、ビュー座標系、及びスクリーン座標系の関係を示す図である。以下では、図4と同様に、3次元座標(Xw、Yw、Zw)をワールド座標系と表現し、3次元座標(Xc、Yc、Zc)をビュー座標系と表現し、2次元座標(Xs、Ys)をスクリーン座標系と表現する。 FIG. 5 is a diagram illustrating a relationship among the world coordinate system, the view coordinate system, and the screen coordinate system when generating the operation area in the comparative example. In the following, as in FIG. 4, the three-dimensional coordinates (Xw, Yw, Zw) are expressed as the world coordinate system, the three-dimensional coordinates (Xc, Yc, Zc) are expressed as the view coordinate system, and the two-dimensional coordinates (Xs , Ys) is expressed as a screen coordinate system.
仮想カメラは、ワールド座標系のXw−Zw平面を真上から見下ろすように配置されている(つまり、Yw軸方向の高さからZw軸方向に対する俯角θ=90°となるように、仮想カメラが配置されている。)。このように仮想3次元空間に仮想カメラを配置することによって、ワールド座標系に関連付けてビュー座標系が設定されることになる。 The virtual camera is arranged so that the Xw-Zw plane of the world coordinate system is looked down from directly above (that is, the virtual camera is positioned so that the depression angle θ = 90 ° with respect to the Zw axis direction from the height in the Yw axis direction). Has been placed.). By arranging the virtual camera in the virtual three-dimensional space in this way, the view coordinate system is set in association with the world coordinate system.
ビュー座標系のZc軸方向は、クライアント端末10の画面に対応するスクリーン面(スクリーン座標系の原点Os)に垂直に下した方向であり、仮想カメラの視方向と一致している。ビュー座標系のXc−Yc平面は、スクリーン面と平行であり、ビュー座標系の原点Ocからスクリーン座標系原点Osまでの距離は仮想カメラの焦点距離と一致している。 The Zc axis direction of the view coordinate system is a direction that is perpendicular to the screen surface corresponding to the screen of the client terminal 10 (the origin Os of the screen coordinate system), and coincides with the viewing direction of the virtual camera. The Xc-Yc plane of the view coordinate system is parallel to the screen surface, and the distance from the origin Oc of the view coordinate system to the screen coordinate system origin Os matches the focal length of the virtual camera.
仮想操作オブジェクトの一例としての仮想操作パッドPは、円形の平面を有しており、ワールド座標系のXw−Zw平面に配置されている。ワールド座標系のXw−Zw平面は、クライアント端末10の画面に対応するスクリーン面と平行であると共に、ビュー座標系のXc−Yc平面と平行である。つまり、仮想3次元空間においてキャラクターAが移動する移動平面も、そのスクリーン面と平行であり、ビュー座標系のXc−Yc平面と平行である。
The virtual operation pad P as an example of the virtual operation object has a circular plane and is arranged on the Xw-Zw plane of the world coordinate system. The Xw-Zw plane of the world coordinate system is parallel to the screen surface corresponding to the screen of the
操作エリア生成部105は、仮想3次元空間においてキャラクターAの移動平面と平行になるように配置された仮想操作パッドPを、真上から見下ろすように配置された仮想カメラから見たときの操作エリアを生成する。
The operation
具体的には、図5に示す仮想カメラと仮想操作パッドPの位置関係から算出される座標変換行列等を用いることにより、ワールド座標系(Xw、Yw、Zw)に配置させた仮想操作パッドPをビュー座標系(Xc、Yc、Zc)へ座標変換を行う。さらに、透視投影手法等を用いることにより、ビュー座標系(Xc、Yc、Zc)に配置された仮想操作パッドPをスクリーン座標系(Xs、Ys)へ座標変換を行う。このように幾何学的な算出を行なって座標変換を繰り返すことにより、仮想3次元空間の仮想操作パッドPを2次元画像(操作エリア)として生成することができる。 Specifically, the virtual operation pad P arranged in the world coordinate system (Xw, Yw, Zw) by using a coordinate transformation matrix or the like calculated from the positional relationship between the virtual camera and the virtual operation pad P shown in FIG. Is converted to the view coordinate system (Xc, Yc, Zc). Further, by using a perspective projection method or the like, the virtual operation pad P arranged in the view coordinate system (Xc, Yc, Zc) is coordinate-converted to the screen coordinate system (Xs, Ys). Thus, by performing geometric calculation and repeating coordinate transformation, the virtual operation pad P in the virtual three-dimensional space can be generated as a two-dimensional image (operation area).
図6Aは、比較例におけるクライアント端末10の画面構成例を示す図である。図6Bは、仮想3次元空間におけるキャラクターの移動方向を示す図である。本実施形態におけるクライアント端末10は、図6Aに示すように、画面上に積層されたタッチパネル500を有している。表示制御部106は、図4に示す仮想カメラの配置に基づきゲーム画像生成部104によって生成されたゲーム画像501と、図5に示す仮想カメラの配置に基づき操作エリア生成部105によって生成された操作エリア502が同一の画面上に配置されるように制御する。これにより、ユーザーは画面に接触させた指をスライドさせて操作エリア502に対するスライド操作を行うことによってキャラクターAを移動させることができる。
FIG. 6A is a diagram illustrating a screen configuration example of the
ここでは、図6Aに示すように、ユーザーのタッチ操作により操作エリア502で指示された画面上の指示方向が45°であるときに、キャラクターAが移動する画面上の移動方向は30°となっている。ところが実際には、図6Bに示すように、ユーザーのタッチ操作により操作エリア502で指示された画面上の指示方向が45°であるときには、仮想3次元空間における移動平面(つまり、ワールド座標系のXw−Zw平面)上でのキャラクターAの移動方向は45°となっている。
Here, as shown in FIG. 6A, when the pointing direction on the screen indicated in the
このように比較例では、ユーザーのタッチ操作により操作エリア502で指示された画面上の指示方向(45°)と、キャラクターAが移動する仮想3次元空間における移動平面上の移動方向(45°)が一致しているにもかかわらず、仮想カメラの配置設定の影響を受けて、ユーザーのタッチ操作により操作エリアで指示された画面上の指示方向(45°)と、キャラクターAが移動する画面上の移動方向(30°)が一致しないことになる。このことにより、ユーザーの意図した方向にキャラクターAが移動しないことになるため、ユーザーにとって画面を見ながらキャラクターAを操作することが困難となってしまう。
As described above, in the comparative example, the indicated direction (45 °) on the screen indicated in the
<実施例>
図7は、本発明に係る実施例における操作エリアを生成するときのワールド座標系、ビュー座標系、及びスクリーン座標系の関係を示す図である。以下では、図4と同様に、3次元座標(Xw、Yw、Zw)をワールド座標系と表現し、3次元座標(Xc、Yc、Zc)をビュー座標系と表現し、2次元座標(Xs、Ys)をスクリーン座標系と表現する。
<Example>
FIG. 7 is a diagram showing the relationship among the world coordinate system, the view coordinate system, and the screen coordinate system when generating the operation area in the embodiment according to the present invention. In the following, as in FIG. 4, the three-dimensional coordinates (Xw, Yw, Zw) are expressed as the world coordinate system, the three-dimensional coordinates (Xc, Yc, Zc) are expressed as the view coordinate system, and the two-dimensional coordinates (Xs , Ys) is expressed as a screen coordinate system.
図7に示す本発明に係る仮想カメラの配置設定は、ここでは、図5に示す比較例における仮想カメラの配置設定とは異なっていて、図4に示す比較例における仮想カメラの配置設定と同じになっている。 7 is different from the virtual camera arrangement setting in the comparative example shown in FIG. 5, and is the same as the virtual camera arrangement setting in the comparative example shown in FIG. It has become.
すなわち、仮想カメラは、図4に示す仮想カメラの配置と同様に、ワールド座標系のYw軸方向の高さからZw軸方向に対する俯角θでXw−Zw平面を斜めから見下ろすように配置されている。このように仮想3次元空間に仮想カメラを配置することによって、ワールド座標系に関連付けてビュー座標系が設定されることになる。 That is, the virtual camera is arranged so that the Xw-Zw plane is looked down at an angle θ with respect to the Zw axis direction from the height in the Yw axis direction of the world coordinate system, similarly to the arrangement of the virtual camera shown in FIG. . By arranging the virtual camera in the virtual three-dimensional space in this way, the view coordinate system is set in association with the world coordinate system.
ビュー座標系のZc軸方向は、クライアント端末10の画面に対応するスクリーン面(スクリーン座標系の原点Os)に垂直に下した方向であり、仮想カメラの視方向と一致している。ビュー座標系のXc−Yc平面は、スクリーン面と平行であり、ビュー座標系の原点Ocからスクリーン座標系原点Osまでの距離は仮想カメラの焦点距離と一致している。 The Zc axis direction of the view coordinate system is a direction that is perpendicular to the screen surface corresponding to the screen of the client terminal 10 (the origin Os of the screen coordinate system), and coincides with the viewing direction of the virtual camera. The Xc-Yc plane of the view coordinate system is parallel to the screen surface, and the distance from the origin Oc of the view coordinate system to the screen coordinate system origin Os matches the focal length of the virtual camera.
仮想操作パッドPは、図5に示す仮想操作パッドPと同様であり、円形の平面を有していて、ワールド座標系のXw−Zw平面に配置されている。ワールド座標系のXw−Zw平面は、図4に示すキャラクターAが移動する移動平面と一致している。 The virtual operation pad P is the same as the virtual operation pad P shown in FIG. 5, has a circular plane, and is disposed on the Xw-Zw plane of the world coordinate system. The Xw-Zw plane of the world coordinate system coincides with the movement plane on which the character A shown in FIG. 4 moves.
操作エリア生成部105は、仮想3次元空間においてキャラクターAが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、仮想3次元空間においてキャラクターAの移動平面と平行になるように配置された仮想操作パッドPを見たときの操作エリアを生成する。
The operation
具体的には、図7に示す仮想カメラと仮想操作パッドPの位置関係から算出される座標変換行列等を用いることにより、ワールド座標系(Xw、Yw、Zw)に配置させた仮想操作パッドPをビュー座標系(Xc、Yc、Zc)へ座標変換を行う。さらに、透視投影手法等を用いることにより、ビュー座標系(Xc、Yc、Zc)に配置された仮想操作パッドPをスクリーン座標系(Xs、Ys)へ座標変換を行う。このように幾何学的な算出を行なって座標変換を繰り返すことにより、仮想3次元空間の仮想操作パッドPを2次元画像(操作エリア)として生成することができる。 Specifically, the virtual operation pad P arranged in the world coordinate system (Xw, Yw, Zw) by using a coordinate transformation matrix or the like calculated from the positional relationship between the virtual camera and the virtual operation pad P shown in FIG. Is converted to the view coordinate system (Xc, Yc, Zc). Further, by using a perspective projection method or the like, the virtual operation pad P arranged in the view coordinate system (Xc, Yc, Zc) is coordinate-converted to the screen coordinate system (Xs, Ys). Thus, by performing geometric calculation and repeating coordinate transformation, the virtual operation pad P in the virtual three-dimensional space can be generated as a two-dimensional image (operation area).
図8は、本発明に係るクライアント端末10の画面構成例を示す図である。表示制御部106は、図4に示す仮想カメラの配置に基づきゲーム画像生成部104によって生成されたゲーム画像501と、図7に示す仮想カメラの配置に基づき操作エリア生成部105によって生成された操作エリア502が同一の画面上に配置されるように制御する。これにより、ユーザーは画面に接触させた指をスライドさせて操作エリア502に対するスライド操作を行うことによって、そのスライド方向へキャラクターAを移動させることができる。
FIG. 8 is a diagram showing a screen configuration example of the
ここでは、図7に示す仮想カメラの配置設定の影響を受け、図6Aに示すような円形ではなく、図8に示す操作エリア502は楕円形で表示されている。そして、図8に示すように、ユーザーのタッチ操作により操作エリア502で指示された画面上の指示方向が30°であるときに、キャラクターAが移動する画面上の移動方向も30°となっている。ところが実際には、図6Bに示すように、ユーザーのタッチ操作により操作エリア502で指示された画面上の指示方向が30°であっても、仮想3次元空間における移動平面(つまり、ワールド座標系のXw−Zw平面)上でのキャラクターAの移動方向は45°となっている。
Here, the
このように本発明に係る実施例では、ユーザーのタッチ操作により操作エリア502で指示された画面上の指示方向(30°)と、キャラクターAが移動する仮想3次元空間における移動平面上の移動方向(45°)が異なるが、仮想カメラの配置設定の影響を受けて、操作エリアの形状が変形(円形から楕円形に変形)することで、ユーザーのタッチ操作により操作エリアで指示された画面上の指示方向(30°)を、キャラクターAが移動する画面上の移動方向(30°)と一致させることが可能となる。このことにより、本発明に係る実施例では比較例とは異なり、ユーザーの意図した方向にキャラクターAが移動することになるため、ユーザーにとって画面を見ながらキャラクターAを違和感なく直感的に操作することが可能となる。
As described above, in the embodiment according to the present invention, the designated direction (30 °) on the screen designated in the
<<キャラクター移動>>
本実施形態におけるクライアント端末10のキャラクター移動に関する動作例について、図9及び図10を用いて説明する。図9は、本実施形態におけるクライアント端末10のキャラクター移動に関する動作例について説明するフローチャートである。図10は、指示方向の変換について説明する図である。以下では、ユーザーがタッチパネルを用いて図8に示す画面上の操作エリア502に対するタッチ操作を行ったときに、仮想3次元空間内においてキャラクターAを移動させるためにクライアント端末10が行う制御手順について具体的に説明する。
<< Character movement >>
An operation example related to character movement of the
クライアント端末10は、図9に示すように、ユーザーがタッチパネルを用いて図8に示す画面上の操作エリア502に対するタッチ操作を行ったことにより、そのタッチ操作によって操作エリア502の任意の位置を指定しているか否かを判定する(ステップS11)。
As shown in FIG. 9, the
具体的には、オブジェクト制御部102は、タッチパネルからの検出信号を取得することができたときに、ユーザーのタッチ操作により指示される画面上の指示位置を決定することができる。そのため、オブジェクト制御部102は、ユーザーのタッチ操作により指示される画面上の指示位置を決定することができると、その決定された画面上の指示位置が操作エリア502に位置するか否かを判定する。
Specifically, when the
次に、クライアント端末10は、タッチパネルを用いたユーザーのタッチ操作によって操作エリア502の任意の位置を指定していないと判定された場合に(ステップS11:NO)、ユーザーによって操作エリア502に対するタッチ操作が行われるまで待機する。その一方で、タッチパネルを用いたユーザーのタッチ操作によって操作エリア502の任意の位置を指定していると判定された場合には(ステップS11:YES)、仮想3次元空間内においてキャラクターAを移動させるためのスライド操作が行われたか否かを判定する(ステップS12)。
Next, when it is determined that the arbitrary position of the
具体的には、オブジェクト制御部102は、ユーザーが操作エリア502に接触させた指をそのまま或る方向へ連続移動させるタッチ操作(スライド操作)を行ったことで、タッチパネルからの検出信号を連続的に取得することができたときに、そのスライド操作により連続的に変化する操作エリア502での指示位置を次々に決定することができる。そのため、オブジェクト制御部102は、ユーザーのスライド操作により連続的に変化する操作エリア502での指示位置を次々に決定することができると、ユーザーによって操作エリア502の中心に接触させた指をそのまま任意の方向へ連続移動させるタッチ操作(スライド操作)が行われたか否かを判定する。
Specifically, the
次に、クライアント端末10は、仮想3次元空間内においてキャラクターAを移動させるためのスライド操作が行われなかったと判定された場合に(ステップS12:NO)、この処理を終了する一方で、仮想3次元空間内においてキャラクターAを移動させるためのスライド操作が行われたと判定された場合には(ステップS12:YES)、そのスライド操作によって操作エリア502で指示された画面上の指示方向を決定する(ステップS13)。
Next, when it is determined that the slide operation for moving the character A in the virtual three-dimensional space has not been performed (step S12: NO), the
具体的には、オブジェクト制御部102は、ユーザーが操作エリア502の中心に接触させた指を或る地点まで連続移動させたことにより、タッチパネルからの検出信号に基づきスクリーン座標系における始点位置Ps1と終点位置Ps2の座標を決定する。そして、その決定されたスクリーン座標系における始点位置Ps1と終点位置Ps2の座標に基づいて、スクリーン座標系のXs軸に対する指示角度を決定する。ここでは、図10の左図に示すように、ユーザーのスライド操作により図8に示す画面上の操作エリア502で指示方向が入力されたときに、スクリーン座標系のXs軸に対する指示角度が30°であったものとする。なおこの際、スクリーン座標系における始点位置Ps1はスクリーン座標系の原点Osに一致しているものとする。
Specifically, the
次に、クライアント端末10は、このようにしてユーザーのスライド操作によって操作エリア502で指示された画面上の指示方向が決定されると、その決定された操作エリア502で指示された画面上の指示方向を、仮想3次元空間においてキャラクターAが移動する移動平面上の指示方向に変換する(ステップS14)。
Next, when the instruction direction on the screen instructed in the
具体的には、オブジェクト制御部102は、図7に示す仮想カメラと仮想操作パッドPの位置関係から算出される逆透視変換行列等を用いることにより、その決定されたスクリーン座標系における始点位置Ps1と終点位置Ps2の座標を、ビュー座標系における始点位置Pc1と終点位置Pc2の座標に変換する。さらに、図7に示す仮想カメラと仮想操作パッドPの位置関係から算出される逆座標変換行列等を用いることにより、ビュー座標系における始点位置Pc1と終点位置Pc2の座標を、ワールド座標系における始点位置Pw1と終点位置Pw2の座標に変換する。このような座標変換により、図10に示すように、スクリーン座標系のXs−Ys平面における操作エリア502での指示方向が、ワールド座標系のXw−Zw平面(つまり、仮想3次元空間においてキャラクターAが移動する移動平面)における仮想操作パッドPでの指示方向に変換されたことになる。ここでは、座標変換前では、図10の左図に示すように、スクリーン座標系のXs軸に対する指示角度が30°であったものが、座標変換後には、図10の右図に示すように、ワールド座標系のXw軸に対する指示角度が45°になったものとする。
Specifically, the
次に、クライアント端末10は、ユーザーのスライド操作によって操作エリア502で指示された画面上の指示方向が仮想3次元空間における移動平面上の指示方向に変換されると、仮想3次元空間においてキャラクターAがその変換された指示方向に移動するように制御する(ステップS15)。
Next, when the pointing direction on the screen instructed in the
具体的には、オブジェクト制御部102は、座標変換行列を用いてワールド座標系のXw−Zw平面に配置されるキャラクターAの座標をその変換後の指示方向に平行移動させることによって、仮想3次元空間においてキャラクターAをその変換された指示方向に移動させる。
Specifically, the
これにより、図8に示す画面上に、仮想3次元空間を斜めから見下ろしたときに仮想カメラから見えるゲーム画像501と操作エリア502が同時に配置されたとしても、ユーザーのスライド操作により操作エリア502で指示された画面上の指示方向と、キャラクターAが移動する画面上の移動方向が一致するようになる。そのため、ユーザーが画面を見ながらキャラクターAを簡単に操作できるようになる。
Thus, even if the
<<仮想カメラの配置変更>>
ここでは、仮想3次元空間においてキャラクターの移動中に仮想カメラの配置変更がなされた場合の画面構成例について、図11を用いて説明する。図11は、仮想カメラの配置変更に伴う指示方向の変換について説明する図である。
<< Relocation of virtual camera >>
Here, an example of a screen configuration in the case where the placement of the virtual camera is changed while the character is moving in the virtual three-dimensional space will be described with reference to FIG. FIG. 11 is a diagram for explaining the conversion of the instruction direction in accordance with the change in the arrangement of the virtual camera.
本実施形態におけるクライアント端末10では、ユーザーが図8に示す画面上の操作エリア502に接触させた指をそのまま或る方向へ連続移動させるタッチ操作(スライド操作)を行った際に、ユーザーがその接触させた指を画面から離さずにそのままの状態にすることで、操作エリア502で指示された画面上の指示方向が維持され、仮想3次元空間においてキャラクターAがその指示方向に移動し続けるようにすることも可能である。そして、このように仮想3次元空間においてキャラクターAが移動し続けている最中に、ユーザーの操作によって仮想3次元空間における仮想カメラの配置を変更することも可能である。
In the
ところが、仮想3次元空間においてキャラクターAが移動し続けている最中に、仮想カメラの配置が変更されてしまうと、これまでユーザーが操作エリア502で指示していた画面上の指示方向も連動して変更されることになる。そのため、ユーザーがその接触させた指を画面から離さずにそのままの状態にしているにもかかわらず、仮想3次元空間においてキャラクターAが変更後の指示方向に勝手に移動し始めることになってしまう。
However, if the placement of the virtual camera is changed while the character A continues to move in the virtual three-dimensional space, the instruction direction on the screen that has been designated by the user in the
具体的に説明すると、ユーザーがスライド操作を行った際、その接触させた指を画面から離さずにそのままの状態にすることで、図11Aの左図に示すように、スクリーン座標系のXs−Ys平面における操作エリア502での指示方向が30°のまま維持されたとする。そして、上述した図9に示すステップS14の処理によって指示方向の変換が行われると、図11Aの右図に示すように、ワールド座標系のXw−Zw平面における仮想操作パッドPでの指示方向は45°のまま維持されるものとする。この場合、仮想3次元空間の移動平面においてキャラクターAはその45°の指示方向に移動し続けていることになる。
More specifically, when the user performs a slide operation, the touched finger is left as it is without being released from the screen, so that as shown in the left diagram of FIG. It is assumed that the indicated direction in the
その後、仮想3次元空間においてキャラクターAがその45°の指示方向に移動し続けている最中に、例えば仮想カメラの視方向がユーザーの操作に従って変更された結果、図11Bの左図に示すような楕円形に操作エリア502が変形したものとする。この場合、ユーザーがその接触させた指を画面から離さずにそのままの状態にしているので、図11Bの左図に示す操作エリア502での指示方向は、図11Aの左図に示す操作エリア502での指示方向と同じ30°のまま維持されることになる。そのため、上述した図9に示すステップS14の処理によって指示方向の変換が行われると、図11Bの右図に示す仮想操作パッドPでの指示方向は、図11Aの右図に示す仮想操作パッドPでの指示方向と同じ45°ではなく、それよりも大きな角度(ここでは60°とする)になってしまう。すなわち、このように仮想カメラの配置が変更されると、ユーザーがその接触させた指を画面から離さずにそのままの状態にしているにもかかわらず、仮想3次元空間の移動平面において45°の指示方向に移動し続けていたキャラクターAが、60°の指示方向に移動し始めることになる。
Thereafter, while the character A continues to move in the indicated direction of 45 ° in the virtual three-dimensional space, for example, as a result of changing the viewing direction of the virtual camera according to the user's operation, as shown in the left diagram of FIG. 11B. It is assumed that the
そこで、本実施形態におけるクライアント端末10では、ユーザーがスライド操作を行った際、その接触させた指を画面から離さずにそのままの状態にしているときに、仮想カメラの配置が変更されたとしても、仮想3次元空間の移動平面においてキャラクターAがこれまで通りの指示方向に移動し続けるようにした。以下、具体的に説明する。
Therefore, in the
先ず、操作エリア生成部105は、配置変更後の仮想カメラから、仮想3次元空間の移動平面に配置された仮想操作パッドPを見たときの操作エリア(図11Bの左図に示す操作エリア502)を生成する。
First, the operation
具体的には、配置変更後の仮想カメラと仮想操作パッドPの位置関係から算出される座標変換行列等を用いることにより、ワールド座標系(Xw、Yw、Zw)に配置させた仮想操作パッドPをビュー座標系(Xc、Yc、Zc)へ座標変換を行う。さらに、透視投影手法等を用いることにより、ビュー座標系(Xc、Yc、Zc)に配置された仮想操作パッドPをスクリーン座標系(Xs、Ys)へ座標変換を行う。このように幾何学的な算出を行なって座標変換を繰り返すことにより、仮想3次元空間の仮想操作パッドPを2次元画像(図11Bの左図に示す操作エリア502)として生成することができる。
Specifically, the virtual operation pad P arranged in the world coordinate system (Xw, Yw, Zw) by using a coordinate transformation matrix or the like calculated from the positional relationship between the virtual camera after the arrangement change and the virtual operation pad P. Is converted to the view coordinate system (Xc, Yc, Zc). Further, by using a perspective projection method or the like, the virtual operation pad P arranged in the view coordinate system (Xc, Yc, Zc) is coordinate-converted to the screen coordinate system (Xs, Ys). By performing geometric calculation in this way and repeating coordinate conversion, the virtual operation pad P in the virtual three-dimensional space can be generated as a two-dimensional image (the
次に、表示制御部106は、図11Cの右図に示す仮想カメラの配置変更前における仮想操作パッドP(図11Aの右図に示す仮想操作パッドPと同じ)での指示方向を、その生成された操作エリア(図11Bの左図に示す操作エリア502)でユーザーのスライド操作により指示されるべき画面上の指示方向に変換する。
Next, the
具体的には、配置変更後の仮想カメラと仮想操作パッドPの位置関係から算出される座標変換行列等を用いることにより、図11Cの右図に示すワールド座標系における始点位置Pw1と終点位置Pw2の座標を、ビュー座標系における始点位置Pc1と終点位置Pc2の座標に変換する。さらに、ビュー座標系における始点位置Pc1と終点位置Pc2の座標を、スクリーン座標系における始点位置Ps1と終点位置Ps3の座標に変換する。 Specifically, by using a coordinate transformation matrix or the like calculated from the positional relationship between the virtual camera and the virtual operation pad P after the arrangement change, the start point position Pw1 and the end point position Pw2 in the world coordinate system shown in the right diagram of FIG. 11C. Are converted into the coordinates of the start point position Pc1 and the end point position Pc2 in the view coordinate system. Further, the coordinates of the start point position Pc1 and the end point position Pc2 in the view coordinate system are converted into the coordinates of the start point position Ps1 and the end point position Ps3 in the screen coordinate system.
このような座標変換により、図11Cに示すように、ワールド座標系のXw−Zw平面(つまり、仮想3次元空間においてキャラクターAが移動する移動平面)における仮想操作パッドPでの指示方向が、スクリーン座標系のXs−Ys平面における操作エリア502で指示されるべき指示方向に変換されたことになる。ここでは、座標変換前では、図11Cの右図に示すように、ワールド座標系のXw軸に対する指示角度が45°であったものが、座標変換後には、スクリーン座標系のXs軸に対する指示角度が15°になったものとする。すなわち、ユーザーのスライド操作により画面上の操作エリア502で指示される指示方向が15°であるならば、仮想3次元空間の移動平面においてキャラクターAがこれまで通り45°の指示方向に移動し続けるようになる。
By such coordinate transformation, as shown in FIG. 11C, the pointing direction on the virtual operation pad P on the Xw-Zw plane of the world coordinate system (that is, the moving plane on which the character A moves in the virtual three-dimensional space) is changed to the screen. That is, it is converted into the designated direction to be designated in the
次に、図11Cの左図に示すように、ユーザーが接触させた指は画面から離さずにそのままの状態であるので、操作エリア502で指示されている指示方向の実際の終点位置は、PS3の座標位置ではなく、PS2の座標位置のままになっている。そのため、表示制御部106は、図11Dに示すように、ユーザーのスライド操作により画面上の操作エリア502で指示される指示方向がそのまま15°となるように維持するべく、その15°の指示方向の終点位置がPS3の座標位置からPS2の座標位置となり、かつ、始点位置がPS1の座標位置からPS4の座標位置となるようにシフトさせる。すなわち、表示制御部106は、座標変換行列を用いてスクリーン座標系にて操作エリア502の座標変換を行うことにより、仮想カメラの配置変更の前後において画面上の指示方向の終点位置(PS2の座標位置)を一致させつつ、その変換された操作エリア502で指示されるべき画面上の指示方向(15°)に合わせるように、その生成された操作エリア502(図11Cの左図に示す操作エリア502)を画面上に配置する。
Next, as shown in the left diagram of FIG. 11C, since the finger touched by the user is not released from the screen, the actual end point position in the indicated direction indicated in the
これにより、ユーザーのタッチ操作の継続中に仮想カメラの配置が変更されたとしても、これまでの移動方向を維持しつつキャラクターAを移動させることができる。 Thereby, even if the arrangement of the virtual camera is changed while the user's touch operation is continued, the character A can be moved while maintaining the moving direction so far.
<<スライド操作によるスライド距離>>
ここでは、スライド操作によるスライド距離に応じたキャラクターの移動速度について、図12を用いて説明する。図12は、操作エリアに対するスライド操作の具体例について説明する図である。
<< Slide distance by slide operation >>
Here, the moving speed of the character according to the slide distance by the slide operation will be described with reference to FIG. FIG. 12 is a diagram illustrating a specific example of the slide operation on the operation area.
本実施形態におけるクライアント端末10では、ユーザーが図8に示す画面上の操作エリア502に接触させた指をそのまま或る方向へ連続移動させるタッチ操作(スライド操作)を行った際に、その接触させた指を連続移動させた距離(スライド距離)に応じて、仮想3次元空間におけるキャラクターAの移動速度を変更することも可能である。
In the
ところが、仮想カメラの配置が変更されてしまうと、変更前後での仮想カメラの配置設定に応じて画面上の操作エリア502が変形することになるため、スライド操作時に必要となるスライド距離の大きさが異なることになる。
However, if the virtual camera arrangement is changed, the
具体的に説明すると、仮想カメラの配置設定を変更する前では、ユーザーが図8に示す画面上の操作エリア502に対してスライド操作を行うときに、図12Aの左図に示すスライド距離L1だけスライド操作を行うことにより、仮想3次元空間においてキャラクターAを高速で移動させることができるものとする。その一方、仮想カメラの配置設定を変更した後では、図12Aの右図に示すように、仮想カメラの視方向の変更によって楕円の面積が小さくなるように操作エリア502が変形したとすると、仮想3次元空間においてキャラクターAを高速で移動させるためには、スライド距離L1よりも短いスライド距離L2だけスライド操作を行うことが必要となる。つまり、仮想カメラの配置変更前後において、ユーザーがスライド操作で入力すべきスライド距離の大きさが異なることになってしまう。
More specifically, before changing the placement setting of the virtual camera, when the user performs a slide operation on the
そこで、本実施形態におけるクライアント端末10では、仮想カメラの配置が変更される前、及び、仮想カメラの配置が変更された後のいずれにおいても、ユーザーがスライド操作で入力したスライド距離が所定距離以上であれば、仮想3次元空間においてキャラクターAを高速で移動させるようにした。
Therefore, in the
具体的には、仮想カメラ制御部103がユーザーの操作に従って仮想カメラの配置を変更した場合(例えば、仮想カメラの視方向を変更した場合)、オブジェクト制御部102は、仮想カメラの視方向が変更される前、及び、仮想カメラの視方向が変更された後のいずれにおいても、タッチパネルからの検出信号に基づいて、ユーザーのスライド操作により操作エリア502で指示された画面上のスライド距離を決定すると、その決定されたスライド距離が所定距離以上である場合には、仮想3次元空間においてキャラクターAが高速で移動するように制御する。
Specifically, when the virtual
例えば、図12Bに示すように、仮想カメラの配置が変更される前(図12Bの左図)、及び、仮想カメラの配置が変更された後(図12の右図)のいずれにおいても、ユーザーがスライド操作で入力したスライド距離が距離S以上であれば、仮想3次元空間においてキャラクターAを高速で移動させるようにする。 For example, as shown in FIG. 12B, the user is either before the virtual camera arrangement is changed (the left figure in FIG. 12B) or after the virtual camera arrangement is changed (the right figure in FIG. 12). If the sliding distance input by the sliding operation is equal to or longer than the distance S, the character A is moved at high speed in the virtual three-dimensional space.
これにより、仮想3次元空間においてキャラクターAを高速で移動させるために、仮想カメラの視方向が変更された後でも、仮想カメラの視方向が変更される前と同じスライド距離だけスライド操作を行えばよいので、仮想カメラの視方向が変更されたことによる混乱を抑制することができる。 Accordingly, in order to move the character A at high speed in the virtual three-dimensional space, even if the viewing direction of the virtual camera is changed, the slide operation is performed for the same slide distance as before the viewing direction of the virtual camera is changed. Since it is good, confusion caused by changing the viewing direction of the virtual camera can be suppressed.
<仮想カメラの配置変更>
また、仮想3次元空間においてキャラクターAが高速で移動し続けている最中に、仮想カメラの配置が変更されると、図12Aに示すように、キャラクターAの高速移動のために必要なスライド距離も連動して変更されることになる。そのため、仮想カメラの配置変更後、ユーザーがその接触させた指を画面から離さずにそのままの状態にしているにもかかわらず、キャラクターAの高速移動のために必要なスライド距離が不足してしまい、仮想3次元空間においてキャラクターAが高速移動を勝手に止めてしまう場合もある。
<Replacement of virtual camera>
Also, if the placement of the virtual camera is changed while the character A continues to move at a high speed in the virtual three-dimensional space, as shown in FIG. 12A, the slide distance necessary for the high-speed movement of the character A Will also be changed in conjunction. For this reason, after the placement of the virtual camera is changed, the slide distance necessary for the high-speed movement of the character A is insufficient even though the finger touched by the user is left without leaving the screen. In some cases, the character A stops the high-speed movement without permission in the virtual three-dimensional space.
そこで、本実施形態におけるクライアント端末10では、仮想3次元空間においてキャラクターAが高速で移動し続けている状態においては、仮想カメラの配置が変更されたとしても、キャラクターAの高速移動をさらに続けるようにすることも可能である。
Therefore, in the
具体的には、オブジェクト制御部102は、ユーザーのスライド操作により操作エリア502で指示された画面上のスライド距離が維持されたことによって、仮想3次元空間における移動平面上の指示方向にキャラクターAが高速で移動し続けている状態において、仮想カメラ制御部103によって仮想カメラの視方向が変更された場合に、仮想カメラの視方向が変更された後において、ユーザーのスライド操作により操作エリア502で指示された画面上のスライド距離が引き続き維持されたことを条件として、仮想3次元空間においてキャラクターAの高速移動をさらに続けるように制御する。
Specifically, the
これにより、キャラクターAが高速移動しているときに仮想カメラの視方向が変更されたことによって、急にキャラクターAが低速移動することのないように制御できるため、仮想カメラの視方向が変更されたことによる混乱を抑制することができる。 As a result, since the viewing direction of the virtual camera is changed when the character A is moving at a high speed, the control can be performed so that the character A does not move suddenly at a low speed, so the viewing direction of the virtual camera is changed. The confusion caused by this can be suppressed.
===その他の実施形態===
前述の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物も含まれる。特に、以下に述べる実施形態であっても、本発明に含まれるものである。
=== Other Embodiments ===
The above-described embodiments are for facilitating understanding of the present invention, and are not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and the present invention includes equivalents thereof. In particular, the embodiments described below are also included in the present invention.
<スライド操作>
前述の実施形態では、ユーザーがスライド操作を行うことによってキャラクターの移動方向を指示できる場合を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、ユーザーがスライド操作を行うことによって攻撃方向やスキル発動方向を指示できるようにしてもよい。
<Slide operation>
In the above-described embodiment, the case where the user can instruct the moving direction of the character by performing a slide operation has been described as an example, but the present invention is not limited to this. For example, the user may be able to instruct the attack direction and skill activation direction by performing a slide operation.
また、前述の実施形態では、ユーザーがスライド操作で入力したスライド距離に応じてキャラクターの移動速度を変化させる場合(キャラクターの移動速度を低速から高速へ切り替える場合)を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、ユーザーがスライド操作で入力したスライド距離に応じて攻撃種類やスキル種類を変化させてもよい(攻撃種類を武器Aから武器Bへ切り替えてもよいし、発動可能なスキル種類をスキルAからスキルBに切り替えてもよい)。 In the above-described embodiment, the case where the character moving speed is changed according to the slide distance input by the user by the slide operation (when the character moving speed is switched from low speed to high speed) has been described as an example. The present invention is not limited to this. For example, the attack type or skill type may be changed according to the slide distance input by the user by the slide operation (the attack type may be switched from weapon A to weapon B, and the skill type that can be activated is changed from skill A You may switch to skill B).
<仮想カメラの配置変更>
前述の実施形態では、仮想カメラの俯角θが徐々に小さくなるように仮想カメラの視方向を変更して行った結果、楕円形状で画面表示される操作エリアが潰れて見える場合があり得る。このように楕円形状の操作エリアが見えにくくなってしまうと、タッチ操作ができなくなる。そのため、仮想カメラの俯角θが所定範囲内で変化するように、仮想カメラの配置変更を制限することも可能である。また、仮想カメラの高さが徐々に低くなるように仮想カメラの位置を変更して行った結果、楕円形状で画面表示される操作エリアが潰れて見える場合もあり得る。この場合にも、仮想カメラの高さが所定範囲内で変化するように、仮想カメラの配置変更を制限することも可能である。
<Replacement of virtual camera>
In the above-described embodiment, as a result of changing the viewing direction of the virtual camera so that the depression angle θ of the virtual camera gradually decreases, the operation area displayed on the screen in an elliptical shape may appear to be crushed. If the elliptical operation area becomes difficult to see in this way, the touch operation cannot be performed. For this reason, it is possible to limit the change in the placement of the virtual camera so that the depression angle θ of the virtual camera changes within a predetermined range. Further, as a result of changing the position of the virtual camera so that the height of the virtual camera gradually decreases, the operation area displayed on the screen in an elliptical shape may appear to be crushed. Also in this case, it is possible to limit the change of the placement of the virtual camera so that the height of the virtual camera changes within a predetermined range.
また、前述の実施形態では、ユーザーの操作に従って仮想カメラの視方向が変更される場合を例に挙げて説明したが、ユーザーの操作ではなく、ゲームの進行状況等に応じて自動的に仮想カメラの視方向が変更されるように制御することも可能である。 In the above-described embodiment, the case where the viewing direction of the virtual camera is changed according to the user's operation has been described as an example. However, the virtual camera is not automatically operated according to the progress of the game but the user's operation It is also possible to control so that the viewing direction is changed.
<操作エリア>
前述の実施形態では、ゲーム画像501と操作エリア502を同一の画面上に配置した画面構成を例に挙げて説明したが、画面上で操作エリア502が見えないように画面構成することも可能である。
<Operation area>
In the above-described embodiment, the screen configuration in which the
また、前述の実施形態では、画面上で操作エリア502の配置を固定した画面構成であってもよいし、ユーザーが最初のタッチ操作で指示した任意の指示位置を基準位置とし、その基準位置に操作エリア502を配置した画面構成であってもよい。
Further, in the above-described embodiment, the screen configuration may be such that the arrangement of the
<指示方向の変換>
前述の実施形態では、座標変換や透視投影手法等を利用して、操作エリア502で指示された画面上の指示方向を、仮想3次元空間においてキャラクターAが移動する移動平面上の指示方向に変換する場合を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、操作エリア502と仮想操作パッドPとの面積比から変換後の指示角度を求めることにより、指示方向を変換することも可能である。
<Conversion of indicated direction>
In the above-described embodiment, the instruction direction on the screen instructed in the
1 情報処理システム
10 クライアント端末
20 サーバー装置
50 コンピューター
51 CPU
52 RAM
53 ROM
54 通信インタフェース
55 入力装置
56 表示装置
57 外部インタフェース
58 HDD
100 制御部
101 ゲーム進行部
102 オブジェクト制御部
103 仮想カメラ制御部
104 ゲーム画像生成部
105 操作エリア生成部
106 表示制御部
120 記憶部
140 通信部
150 操作受付部
160 画面表示部
500 タッチパネル
501 ゲーム画像
502 操作エリア
B バスライン
N ネットワーク
1
52 RAM
53 ROM
54
DESCRIPTION OF
Claims (5)
仮想3次元空間において前記移動平面を斜めから見下ろすように配置された仮想カメラから、前記移動平面と平行になるように配置された仮想操作オブジェクトを見たときの前記仮想操作オブジェクトの形状を、操作エリアとして生成する操作エリア生成部と、
前記ゲーム画像と前記操作エリアを同一の画面上に配置させる表示制御部と、
前記ゲーム画像と前記操作エリアが配置された画面に対するユーザーのタッチ操作を検出するタッチパネルと、
前記タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向を決定し、その決定された前記操作エリアで指示された画面上の指示方向を、仮想3次元空間における前記移動平面上の指示方向に変換し、その変換された前記移動平面上の指示方向に前記オブジェクトが移動するように制御するオブジェクト制御部と、
を備えたことを特徴とする情報処理装置。 A game image generation unit that generates a game image when the object on the moving plane is viewed from a virtual camera arranged to look down on the moving plane in which the object moves in the virtual three-dimensional space;
The shape of the virtual operation object when the virtual operation object arranged so as to be parallel to the movement plane is viewed from a virtual camera arranged so as to look down on the movement plane in a virtual three-dimensional space is manipulated. An operation area generator for generating an area;
A display control unit for arranging the game image and the operation area on the same screen;
A touch panel for detecting a user's touch operation on the screen on which the game image and the operation area are arranged;
Based on the detection signal from the touch panel, the instruction direction on the screen instructed in the operation area by the user's touch operation is determined, and the instruction direction on the screen instructed in the determined operation area is determined as a virtual An object control unit that converts the object into a designated direction on the moving plane in a three-dimensional space and controls the object to move in the designated direction on the converted moving plane;
An information processing apparatus comprising:
仮想3次元空間における仮想カメラの配置を制御する仮想カメラ制御部と、
を備え、
ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向が維持されたことによって、仮想3次元空間における前記移動平面上の指示方向に前記オブジェクトが移動し続けている状態で、仮想カメラの配置が変更された場合に、
前記操作エリア生成部は、変更後の仮想カメラから前記仮想操作オブジェクトを見たときの前記仮想操作オブジェクトの形状を、変形後の操作エリアとして生成し、
前記表示制御部は、仮想カメラの視方向が変更される前における前記移動平面上の指示方向を、生成された変形後の前記操作エリアでユーザーのタッチ操作により指示されるべき画面上の指示方向に変換し、その変換された前記画面上の指示方向に合うように、その生成された変形後の前記操作エリアを画面上に配置する、
ことを特徴とする情報処理装置。 The information processing apparatus according to claim 1,
A virtual camera control unit for controlling the placement of the virtual camera in the virtual three-dimensional space;
With
In a state where the object continues to move in the designated direction on the moving plane in the virtual three-dimensional space by maintaining the designated direction on the screen designated in the operation area by the user's touch operation, the virtual camera If the placement of is changed,
The operation area generation unit generates a shape of the virtual operation object when the virtual operation object is viewed from the virtual camera after the change as an operation area after deformation ,
The display control unit displays an instruction direction on the moving plane before the viewing direction of the virtual camera is changed, and an instruction direction on the screen to be instructed by a user's touch operation in the generated operation area after the deformation. And the generated operation area after deformation is arranged on the screen so as to match the converted direction on the screen.
An information processing apparatus characterized by that.
仮想3次元空間における仮想カメラの配置を制御する仮想カメラ制御部と、
を備え、
前記オブジェクト制御部は、仮想カメラの視方向が変更される前、及び、仮想カメラの視方向が変更された後のいずれにおいても、前記タッチパネルからの検出信号に基づいて、ユーザーのスライド操作により前記操作エリアで指示された画面上のスライド距離を決定し、その決定されたスライド距離が所定距離以上である場合に、仮想3次元空間においてオブジェクトが高速で移動するように制御する、
ことを特徴とする情報処理装置。 The information processing apparatus according to claim 1,
A virtual camera control unit for controlling the placement of the virtual camera in the virtual three-dimensional space;
With
The object control unit may perform the slide operation by a user based on a detection signal from the touch panel before and after the viewing direction of the virtual camera is changed and after the viewing direction of the virtual camera is changed. Determining a slide distance on the screen instructed in the operation area, and controlling the object to move at high speed in the virtual three-dimensional space when the determined slide distance is a predetermined distance or more;
An information processing apparatus characterized by that.
前記オブジェクト制御部は、ユーザーのスライド操作により前記操作エリアで指示された画面上のスライド距離が維持されたことによって、仮想3次元空間における前記移動平面上の指示方向に前記オブジェクトが高速で移動し続けている状態で、仮想カメラの視方向が変更された場合に、仮想カメラの視方向が変更された後において、ユーザーのスライド操作により前記操作エリアで指示された画面上のスライド距離が引き続き維持されたことを条件として、仮想3次元空間においてオブジェクトの高速移動をさらに続けるように制御する、
ことを特徴とする情報処理装置。 The information processing apparatus according to claim 3,
The object control unit moves the object at a high speed in a designated direction on the moving plane in a virtual three-dimensional space by maintaining a slide distance on the screen designated in the operation area by a user's slide operation. When the viewing direction of the virtual camera is changed in the continued state, after the viewing direction of the virtual camera is changed, the slide distance on the screen instructed in the operation area by the user's sliding operation is continuously maintained. On the condition that the object is further moved at a high speed in the virtual three-dimensional space.
An information processing apparatus characterized by that.
仮想3次元空間においてオブジェクトが移動する移動平面を斜めから見下ろすように配置された仮想カメラから、前記移動平面上の前記オブジェクトを見たときのゲーム画像を生成するゲーム画像生成手段、
仮想3次元空間において前記移動平面を斜めから見下ろすように配置された仮想カメラから、前記移動平面と平行になるように配置された仮想操作オブジェクトを見たときの前記仮想操作オブジェクトの形状を、操作エリアとして生成する操作エリア生成手段、
前記ゲーム画像と前記操作エリアを同一の画面上に配置させる表示制御手段、
タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により前記操作エリアで指示された画面上の指示方向を決定し、その決定された前記操作エリアで指示された画面上の指示方向を、仮想3次元空間における前記移動平面上の指示方向に変換し、その変換された前記移動平面上の指示方向に前記オブジェクトが移動するように制御するオブジェクト制御手段、
として機能させるためのプログラム。 Computer
Game image generation means for generating a game image when the object on the moving plane is viewed from a virtual camera arranged to look down on the moving plane on which the object moves in a virtual three-dimensional space;
The shape of the virtual operation object when the virtual operation object arranged so as to be parallel to the movement plane is viewed from a virtual camera arranged so as to look down on the movement plane in a virtual three-dimensional space is manipulated. Operation area generating means for generating as an area,
Display control means for arranging the game image and the operation area on the same screen;
Based on a detection signal from the touch panel, an instruction direction on the screen instructed in the operation area by a user's touch operation is determined, and the instruction direction on the screen instructed in the determined operation area is determined as virtual 3 Object control means for converting to an indicated direction on the moving plane in a dimensional space and controlling the object to move in the indicated direction on the converted moving plane;
Program to function as.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018195454A JP6569794B1 (en) | 2018-10-16 | 2018-10-16 | Information processing apparatus and program |
PCT/JP2019/040423 WO2020080346A1 (en) | 2018-10-16 | 2019-10-15 | Information processing device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018195454A JP6569794B1 (en) | 2018-10-16 | 2018-10-16 | Information processing apparatus and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019133189A Division JP2020062376A (en) | 2019-07-18 | 2019-07-18 | Information processor and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6569794B1 true JP6569794B1 (en) | 2019-09-04 |
JP2020062179A JP2020062179A (en) | 2020-04-23 |
Family
ID=67844848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018195454A Active JP6569794B1 (en) | 2018-10-16 | 2018-10-16 | Information processing apparatus and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6569794B1 (en) |
WO (1) | WO2020080346A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020138201A1 (en) * | 2018-12-28 | 2020-07-02 | 株式会社バンダイナムコエンターテインメント | Game system, processing method, and information storage medium |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7320286B2 (en) * | 2021-03-15 | 2023-08-03 | 株式会社コナミデジタルエンタテインメント | Program, information processing device, and information processing method |
WO2022196349A1 (en) * | 2021-03-15 | 2022-09-22 | 株式会社コナミデジタルエンタテインメント | Recording medium, information processing device, and information processing method |
JP7320287B2 (en) * | 2021-03-15 | 2023-08-03 | 株式会社コナミデジタルエンタテインメント | Program, information processing device, and information processing method |
CN114489457B (en) * | 2022-01-27 | 2024-01-19 | 北京字跳网络技术有限公司 | Virtual object control method and device, readable medium and electronic equipment |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5237325B2 (en) * | 2010-04-28 | 2013-07-17 | 株式会社スクウェア・エニックス | Video game processing apparatus, video game processing method, and video game processing program |
JP5373876B2 (en) * | 2011-10-20 | 2013-12-18 | 株式会社コナミデジタルエンタテインメント | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM |
JP2014208258A (en) * | 2014-06-12 | 2014-11-06 | 株式会社スクウェア・エニックス | Video game processing device and video game processing program |
JP6643776B2 (en) * | 2015-06-11 | 2020-02-12 | 株式会社バンダイナムコエンターテインメント | Terminal device and program |
JP6005831B1 (en) * | 2015-12-28 | 2016-10-12 | 株式会社Cygames | Program and information processing method |
JP6084719B1 (en) * | 2016-02-26 | 2017-02-22 | 株式会社コロプラ | Image processing method and image processing program |
JP6856346B2 (en) * | 2016-10-07 | 2021-04-07 | 株式会社コーエーテクモゲームス | Game processing program and storage medium |
JP6661513B2 (en) * | 2016-10-31 | 2020-03-11 | 株式会社バンク・オブ・イノベーション | Video game processing device and video game processing program |
CN110494196A (en) * | 2016-12-08 | 2019-11-22 | 数字脉冲私人有限公司 | System and method for using virtual reality to study in coordination |
JP6948124B2 (en) * | 2016-12-14 | 2021-10-13 | エヌエイチエヌ コーポレーション | Program and image control method |
JP6907148B2 (en) * | 2016-12-22 | 2021-07-21 | 株式会社コロプラ | An information processing method, a device, and a program for causing a computer to execute the information processing method. |
-
2018
- 2018-10-16 JP JP2018195454A patent/JP6569794B1/en active Active
-
2019
- 2019-10-15 WO PCT/JP2019/040423 patent/WO2020080346A1/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020138201A1 (en) * | 2018-12-28 | 2020-07-02 | 株式会社バンダイナムコエンターテインメント | Game system, processing method, and information storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2020062179A (en) | 2020-04-23 |
WO2020080346A1 (en) | 2020-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6569794B1 (en) | Information processing apparatus and program | |
US11752432B2 (en) | Information processing device and method of causing computer to perform game program | |
US8830184B2 (en) | Image displaying device, image displaying method, and program for displaying images | |
US20180067572A1 (en) | Method of controlling virtual object or view point on two dimensional interactive display | |
US20240281136A1 (en) | Varying icons to improve operability | |
US9530399B2 (en) | Electronic device for providing information to user | |
JP6035971B2 (en) | Information processing apparatus, program, and image processing system | |
EP2998838A1 (en) | Display apparatus and method for controlling the same | |
EP3037936B1 (en) | Image projection apparatus, and system employing interactive input-output capability | |
JP2006092321A (en) | Electronic equipment and touchpad device | |
JP6504248B2 (en) | Image output control method, image output control program and display device | |
JP6394190B2 (en) | System and method enabling gesture control based on occlusion pattern detection | |
TWI442305B (en) | A operation method and a system of the multi-touch | |
JP6969516B2 (en) | Programs and information processing equipment | |
JP7511532B2 (en) | Program, image processing method and image processing system | |
JP2014016743A (en) | Information processing device, information processing device control method and information processing device control program | |
JP2020062376A (en) | Information processor and program | |
JP6630164B2 (en) | Electronic device, control method therefor, program, and storage medium | |
JP2015102875A (en) | Display system and display control device | |
JP6501533B2 (en) | Interface program for icon selection | |
JP6521146B1 (en) | Information processing apparatus and program | |
KR101528485B1 (en) | System and method for virtual reality service based in smart device | |
JP2019202128A (en) | Information processor and program | |
CN112402967B (en) | Game control method, game control device, terminal equipment and medium | |
JP2016130888A (en) | Computer program for icon selection, portable terminal, and computer mounting method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190110 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190110 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190709 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190722 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6569794 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |