JP2018015547A - Display control method and program for causing computer to execute display control method - Google Patents

Display control method and program for causing computer to execute display control method Download PDF

Info

Publication number
JP2018015547A
JP2018015547A JP2017097712A JP2017097712A JP2018015547A JP 2018015547 A JP2018015547 A JP 2018015547A JP 2017097712 A JP2017097712 A JP 2017097712A JP 2017097712 A JP2017097712 A JP 2017097712A JP 2018015547 A JP2018015547 A JP 2018015547A
Authority
JP
Japan
Prior art keywords
virtual camera
display control
control method
hmd
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017097712A
Other languages
Japanese (ja)
Inventor
孝展 吉岡
Takanobu Yoshioka
孝展 吉岡
傑 小林
Takashi Kobayashi
傑 小林
崇生 柏原
Takao Kashiwabara
崇生 柏原
集平 寺畑
Shuhei Terahata
集平 寺畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2017097712A priority Critical patent/JP2018015547A/en
Publication of JP2018015547A publication Critical patent/JP2018015547A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a display control method capable of providing a user with an experience like a VR space while following the conventional operational feeling of a game.SOLUTION: The display control method in a system provided with a head-mounted display (HMD) includes the steps of: generating virtual space data defining a virtual space 200 including a virtual camera 300 and character objects C1, C2; displaying a visual field image V on the HMD on the basis of a visual field CV of the virtual camera 300 and the virtual space data; updating the visual field image V by changing the direction of the virtual camera 300 on the basis of movement of the HMD; forming a field 400 defining a range where the character objects C1, C2 can move so as to surround the virtual camera 300 at an initial position of the virtual camera 300; and moving the character objects C1, C2 within the field 400 on the basis of a prescribed movement input.SELECTED DRAWING: Figure 8

Description

本開示は、表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラムに関する。   The present disclosure relates to a display control method and a program for causing a computer to execute the display control method.

プレイヤ対プレイヤ、あるいはプレイヤ対コンピュータ対戦型の格闘ゲームが知られている。特許文献1は、操作コントローラを用いて画面上のゲームキャラクタの動作を制御するゲーム装置に関する発明であって、対戦するゲームキャラクタが画面に表示され、ゲームキャラクタが画面の左右方向に移動しながら対戦が行われる格闘ゲームを開示している。   Player-to-player or player-to-computer fighting games are known. Patent Document 1 is an invention relating to a game apparatus that controls the operation of a game character on a screen using an operation controller, in which a game character to be played is displayed on the screen, and the game character moves while moving in the horizontal direction of the screen. Disclosed is a fighting game.

特開2003−299874号公報JP 2003-299874 A

近年、ヘッドマウントディスプレイ(HMD:Head‐Mounted Display)を装着して仮想現実(VR:Virtual Reality)空間に没入できるゲーム(以下、VRゲームと称することがある)が知られており、VR空間らしい操作体験をユーザに提供するための開発が盛んに行われている。
一方で、VRゲームをプレイするユーザは、従来のゲームとの操作感の違いに戸惑うことが予想される。
In recent years, games that can be immersed in a virtual reality (VR) space by wearing a head-mounted display (HMD: Head-Mounted Display) (hereinafter, sometimes referred to as a VR game) are known, and seem to be a VR space. There is a lot of development to provide users with operation experience.
On the other hand, a user who plays a VR game is expected to be confused by the difference in operational feeling from a conventional game.

本開示は、従来のゲームの操作感を踏襲しつつ、VR空間らしい体験をユーザに提供可能な表示制御方法を提供することを目的とする。また、本開示は、当該表示制御方法をコンピュータに実行させるためのプログラムを提供することを目的とする。   An object of the present disclosure is to provide a display control method capable of providing a user with a VR space-like experience while following the operational feeling of a conventional game. Moreover, this indication aims at providing the program for making a computer perform the said display control method.

本開示が示す一態様によれば、ヘッドマウントディスプレイを備えたシステムにおける表示制御方法であって、
当該表示制御方法は、
(a)仮想カメラおよびキャラクタオブジェクトを含む仮想空間を定義する仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(c)前記ヘッドマウントディスプレイの動きに基づいて前記仮想カメラの向きを変化させることで前記視野画像を更新するステップと、
(d)前記キャラクタオブジェクトが移動可能な範囲を定義するフィールドを、前記仮想カメラの初期位置において前記仮想カメラを囲むように構成するステップと、
(e)所定の移動入力に基づいて、前記キャラクタオブジェクトを前記フィールド内で移動させるステップと、を含む。
According to one aspect of the present disclosure, a display control method in a system including a head mounted display,
The display control method is
(A) generating virtual space data defining a virtual space including a virtual camera and a character object;
(B) displaying a visual field image on the head-mounted display based on the visual field of the virtual camera and the virtual space data;
(C) updating the visual field image by changing the orientation of the virtual camera based on the movement of the head mounted display;
(D) configuring a field defining a range in which the character object is movable so as to surround the virtual camera at an initial position of the virtual camera;
(E) moving the character object within the field based on a predetermined movement input.

本開示によれば、従来のゲームの操作感を踏襲しつつ、VR空間らしい体験をユーザに整理番号:COL08137 特願2016-145520 (Proof) 提出日:平成28年 7月25日 2提供可能な表示制御方法を提供することができる。   According to the present disclosure, while following the feeling of operation of the conventional game, the VR space-like experience is given to the user. Number: COL08137 Patent application 2016-145520 (Proof) Date of submission: July 25, 2016 2 Available A display control method can be provided.

本実施形態に係るヘッドマウントディスプレイ(HMD)システムを示す概略図である。It is the schematic which shows the head mounted display (HMD) system which concerns on this embodiment. HMDを装着したユーザの頭部を示す図である。It is a figure which shows the head of the user wearing HMD. 制御装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a control apparatus. 視野画像をHMDに表示する処理を示すフローチャートである。It is a flowchart which shows the process which displays a visual field image on HMD. 仮想空間の一例を示すxyz空間図である。It is xyz space figure which shows an example of virtual space. (a)は、図5に示す仮想空間のyx平面図であり、(b)は、図5に示す仮想空間のzx平面図である。(A) is a yx plan view of the virtual space shown in FIG. 5, and (b) is a zx plan view of the virtual space shown in FIG. 5. 本実施形態に係る表示制御方法を説明するためのフローチャートである。It is a flowchart for demonstrating the display control method which concerns on this embodiment. (a)は、仮想空間内に、仮想カメラ、バトルフィールド、およびキャラクタオブジェクトが配置された状態を示す模式図であり、(b)は、(a)の場合にHMDに表示される視野画像を示す図である。(A) is a schematic diagram which shows the state by which the virtual camera, the battle field, and the character object are arrange | positioned in virtual space, (b) shows the visual field image displayed on HMD in the case of (a). FIG. (a)は、バトルフィールド内においてキャラクタオブジェクトが移動した状態を示す図であり、(b)は、移動したキャラクタオブジェクトを追って仮想カメラが移動された状態を示す図である。(A) is a figure which shows the state which the character object moved in the battle field, (b) is a figure which shows the state by which the virtual camera was moved following the moved character object. バトルフィールド内に障壁オブジェクトが配置された状態を示す図である。It is a figure which shows the state by which the barrier object was arrange | positioned in the battle field. (a)は、図10の場合の視野画像を示す図であり、(b)は、障壁オブジェクトが破壊されたときの視野画像を示す図である。(A) is a figure which shows the visual field image in the case of FIG. 10, (b) is a figure which shows a visual field image when a barrier object is destroyed. バトルフィールドの形状が変更された状態を示す図である。It is a figure which shows the state by which the shape of the battle field was changed. 第二の実施形態に係る表示制御方法を説明するためのフローチャートである。It is a flowchart for demonstrating the display control method which concerns on 2nd embodiment. (a)は、第二の実施形態においてバトルフィールドに関連付けられて表示オブジェクトが配置された状態を示す模式図であり、(b)は、(a)の場合の視野画像を示す図である。(A) is a schematic diagram which shows the state by which the display object was arrange | positioned linked | related with the battle field in 2nd embodiment, (b) is a figure which shows the visual field image in the case of (a). (a)は、仮想カメラの向きが図14(a)から水平方向に変化した状態を示す図であり、(b)は、(a)の場合の視野画像を示す図である。(A) is a figure which shows the state from which the direction of the virtual camera changed to the horizontal direction from Fig.14 (a), (b) is a figure which shows the visual field image in the case of (a). 仮想カメラの向きが図14(a)から上方向に変化した場合の視野画像を示す図である。It is a figure which shows a visual field image when direction of a virtual camera changes to the upward direction from Fig.14 (a). 図14(a)に示すバトルフィールド内に障壁オブジェクトが配置された状態を示す模式図である。It is a schematic diagram which shows the state by which the barrier object was arrange | positioned in the battle field shown to Fig.14 (a).

[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)ヘッドマウントディスプレイを備えたシステムにおける表示制御方法であって、
当該表示制御方法は、
(a)仮想カメラおよびキャラクタオブジェクトを含む仮想空間を定義する仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(c)前記ヘッドマウントディスプレイの動きに基づいて前記仮想カメラの向きを変化させることで前記視野画像を更新するステップと、
(d)前記キャラクタオブジェクトが移動可能な範囲を定義するフィールドを、前記仮想カメラの初期位置において前記仮想カメラを囲むように構成するステップと、
(e)所定の移動入力に基づいて、前記キャラクタオブジェクトを前記フィールド内で移動させるステップと、を含む。
[Description of Embodiments Presented by the Present Disclosure]
An overview of an embodiment indicated by the present disclosure will be described.
(1) A display control method in a system including a head mounted display,
The display control method is
(A) generating virtual space data defining a virtual space including a virtual camera and a character object;
(B) displaying a visual field image on the head-mounted display based on the visual field of the virtual camera and the virtual space data;
(C) updating the visual field image by changing the orientation of the virtual camera based on the movement of the head mounted display;
(D) configuring a field defining a range in which the character object is movable so as to surround the virtual camera at an initial position of the virtual camera;
(E) moving the character object within the field based on a predetermined movement input.

上記方法によれば、従来のゲームの操作感を踏襲しつつ、VR空間らしい体験をユーザに提供することができる。   According to the above method, it is possible to provide the user with a VR space-like experience while following the operational feeling of the conventional game.

(2)前記ステップ(e)では、前記移動入力の横方向成分に応じて、前記キャラクタオブジェクトが前記仮想カメラの周方向に移動されても良い。   (2) In the step (e), the character object may be moved in the circumferential direction of the virtual camera in accordance with a lateral component of the movement input.

上記方法によれば、例えば、キャラクタオブジェクトがHMDを装着したユーザを中心として弧を描くように移動するため、VRらしい新規な体験をユーザに提供することができる。   According to the above method, for example, the character object moves so as to draw an arc around the user wearing the HMD, so that a new VR-like experience can be provided to the user.

(3)(f)所定の条件を満たした場合には、前記キャラクタオブジェクトが移動可能な範囲をさらに制限するステップをさらに含んでも良い。   (3) (f) When a predetermined condition is satisfied, the method may further include a step of further restricting a range in which the character object can move.

上記方法によれば、状況に応じてキャラクタオブジェクトの移動範囲をさらに制限することで、ゲーム性を向上させることができる。   According to the above method, the game performance can be improved by further restricting the movement range of the character object according to the situation.

(4)前記表示制御方法は、少なくとも一つのラウンドから構成された対戦型ゲームのプレイを行うための方法であって、
前記所定の条件は、前記対戦型ゲームの種類または前記ラウンド中の経過時間を含んでも良い。
(4) The display control method is a method for playing a competitive game composed of at least one round,
The predetermined condition may include a type of the battle game or an elapsed time during the round.

例えば、ゲームの種類やラウンドの時間経過に応じてキャラクタオブジェクトの移動可能範囲を狭くすることで、ゲーム性を高めつつVR空間らしい体験をユーザに提供することができる。   For example, by narrowing the movable range of the character object in accordance with the type of game or the time of the round, it is possible to provide the user with an experience that seems to be a VR space while improving the game performance.

(5)前記ステップ(f)では、ラウンドのレベルまたは1ラウンド中の時間経過に応じて、前記キャラクタオブジェクトが移動可能な範囲が変更されても良い。   (5) In step (f), the range in which the character object can move may be changed according to the level of the round or the passage of time during one round.

例えば、ラウンドのレベルや1ラウンド中の時間経過とともに徐々にキャラクタオブジェクトの逃げ場が狭くなっていくといったVR空間らしい体験をユーザに提供することができる。   For example, it is possible to provide the user with a VR space-like experience in which the escape area of the character object gradually narrows as the level of the round or the time during one round elapses.

(6)前記ステップ(f)では、障壁オブジェクトを前記フィールド内に設置することで前記キャラクタオブジェクトが移動可能な範囲を制限しても良い。   (6) In the step (f), a range in which the character object can move may be limited by installing a barrier object in the field.

(7)前記ステップ(f)では、前記フィールドの形状を変更することで前記キャラクタオブジェクトが移動可能な範囲を制限しても良い。   (7) In the step (f), a range in which the character object can move may be limited by changing a shape of the field.

これらの方法によれば、キャラクタオブジェクトが移動可能な範囲を容易に制限することができる。   According to these methods, the range in which the character object can move can be easily limited.

(8)前記ステップ(c)では、前記仮想カメラは、前記ヘッドマウントディスプレイの動きと連動してその位置が変化せず、その向きが変化しても良い。   (8) In the step (c), the position of the virtual camera may not change and the direction of the virtual camera may change in conjunction with the movement of the head mounted display.

上記方法によれば、HMDの動きに応じて仮想カメラの向きを変更した場合でも仮想カメラの位置が変化することがないため、映像酔い(いわゆるVR酔い)を防止することができる。   According to the above method, the motion sickness (so-called VR motion sickness) can be prevented because the position of the virtual camera does not change even when the orientation of the virtual camera is changed according to the movement of the HMD.

(9)前記フィールドにおいて、前記キャラクタオブジェクトの前記視野画像の奥行き方向への移動が禁止されても良い。   (9) In the field, movement of the character object in the depth direction of the visual field image may be prohibited.

上記方法によれば、キャラクタオブジェクトが視野画像の奥行き方向に移動することが無く、従来の2D格闘ゲームと同様の操作感を与えることができる。   According to the above method, the character object does not move in the depth direction of the visual field image, and an operation feeling similar to that of the conventional 2D fighting game can be given.

(10)一実施形態に係るプログラムは、(1)から(9)のうちいずれかに記載の表示制御方法をコンピュータに実行させるためのプログラムである。   (10) A program according to an embodiment is a program for causing a computer to execute the display control method according to any one of (1) to (9).

この構成によれば、従来のゲームの操作感を踏襲しつつ、VR空間らしい体験をユーザに提供可能なプログラムを提供することができる。   According to this configuration, it is possible to provide a program that can provide a user with a VR space-like experience while following the operational feeling of a conventional game.

[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。なお、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Presented by the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, about the member which has the same reference number as the member already demonstrated in description of this embodiment, the description is not repeated for convenience of explanation.

(第一の実施形態)
図1は、本開示が示す実施形態(以下、単に本実施形態という。)に係るヘッドマウントディスプレイ(以下、単にHMDという。)システム1を示す概略図である。図1に示すように、HMDシステム1は、ユーザUの頭部に装着されたHMD110と、位置センサ130と、制御装置120と、外部コントローラ320とを備える。
(First embodiment)
FIG. 1 is a schematic diagram showing a head-mounted display (hereinafter simply referred to as HMD) system 1 according to an embodiment (hereinafter simply referred to as this embodiment) shown in the present disclosure. As shown in FIG. 1, the HMD system 1 includes an HMD 110 mounted on the head of the user U, a position sensor 130, a control device 120, and an external controller 320.

HMD110は、表示部112と、HMDセンサ114と、ヘッドフォン116とを備えている。なお、HMD110にヘッドフォン116を設けずに、HMD110とは独立したスピーカやヘッドフォンを用いても良い。   The HMD 110 includes a display unit 112, an HMD sensor 114, and a headphone 116. Note that a speaker or headphones independent of the HMD 110 may be used without providing the headphones 116 on the HMD 110.

表示部112は、HMD110を装着したユーザUの視界(視野)を覆うように構成された非透過型の表示装置を備えている。HMD110は、透過型表示装置を備えており、当該透過型表示装置の透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。これにより、ユーザUは、表示部112に表示された視野画像のみを見ることで仮想空間に没入することができる。なお、表示部112は、ユーザUの左眼に投影される左眼用の表示部とユーザUの右眼に投影される右眼用の表示部とから構成されてもよい。   The display unit 112 includes a non-transmissive display device configured to cover the field of view (field of view) of the user U wearing the HMD 110. The HMD 110 may include a transmissive display device, and may be temporarily configured as a non-transmissive display device by adjusting the transmittance of the transmissive display device. Thereby, the user U can immerse in the virtual space by viewing only the visual field image displayed on the display unit 112. Note that the display unit 112 may include a display unit for the left eye that is projected onto the left eye of the user U and a display unit for the right eye that is projected onto the right eye of the user U.

HMDセンサ114は、HMD110の表示部112の近傍に搭載される。HMDセンサ114は、地磁気センサ、加速度センサ、傾きセンサ(角速度センサやジャイロセンサ等)のうちの少なくとも1つを含み、ユーザUの頭部に装着されたHMD110の各種動きを検出することができる。   The HMD sensor 114 is mounted in the vicinity of the display unit 112 of the HMD 110. The HMD sensor 114 includes at least one of a geomagnetic sensor, an acceleration sensor, and a tilt sensor (such as an angular velocity sensor and a gyro sensor), and can detect various movements of the HMD 110 mounted on the head of the user U.

位置センサ130は、例えば、ポジション・トラッキング・カメラにより構成され、HMD110の位置を検出するように構成されている。位置センサ130は、制御装置120に無線または有線により通信可能に接続されており、HMD110に設けられた図示しない複数の検知点の位置、傾きまたは発光強度に関する情報を検出するように構成されている。また、位置センサ130は、赤外線センサや複数の光学カメラを含んでもよい。   The position sensor 130 is composed of, for example, a position tracking camera, and is configured to detect the position of the HMD 110. The position sensor 130 is communicably connected to the control device 120 by wireless or wired communication, and is configured to detect information on the position, inclination, or light emission intensity of a plurality of detection points (not shown) provided in the HMD 110. . The position sensor 130 may include an infrared sensor and a plurality of optical cameras.

制御装置120は、位置センサ130から取得された情報に基づいて、HMD110の位置情報を取得し、当該取得された位置情報に基づいて、仮想空間における仮想カメラの位置と、現実空間におけるHMD110を装着したユーザUの位置を正確に対応付けることができる。   The control device 120 acquires the position information of the HMD 110 based on the information acquired from the position sensor 130, and wears the position of the virtual camera in the virtual space and the HMD 110 in the real space based on the acquired position information. Thus, the position of the user U can be accurately associated.

次に、図2を参照して、HMD110の位置や傾きに関する情報を取得する方法について説明する。図2は、HMD110を装着したユーザUの頭部を示す図である。HMD110を装着したユーザUの頭部の動きに連動したHMD110の位置や傾きに関する情報は、位置センサ130および/またはHMD110に搭載されたHMDセンサ114により検出可能である。図2に示すように、HMD110を装着したユーザUの頭部を中心として、3次元座標(uvw座標)が規定される。ユーザUが直立する垂直方向をv軸として規定し、v軸と直交し表示部112の中心とユーザUとを結ぶ方向をw軸として規定し、v軸およびw軸と直交する方向をu軸として規定する。位置センサ130および/またはHMDセンサ114は、各uvw軸回りの角度(すなわち、v軸を中心とする回転を示すヨー角、u軸を中心とした回転を示すピッチ角、w軸を中心とした回転を示すロール角で決定される傾き)を検出する。制御装置120は、検出された各uvw軸回りの角度変化に基づいて、視野情報を定義する仮想カメラの視軸を制御するための角度情報を決定する。   Next, with reference to FIG. 2, a method for acquiring information related to the position and inclination of the HMD 110 will be described. FIG. 2 is a diagram illustrating the head of the user U wearing the HMD 110. Information regarding the position and inclination of the HMD 110 that is linked to the movement of the head of the user U wearing the HMD 110 can be detected by the position sensor 130 and / or the HMD sensor 114 mounted on the HMD 110. As shown in FIG. 2, three-dimensional coordinates (uvw coordinates) are defined centering on the head of the user U wearing the HMD 110. The vertical direction in which the user U stands upright is defined as the v axis, the direction orthogonal to the v axis and connecting the center of the display unit 112 and the user U is defined as the w axis, and the direction perpendicular to the v axis and the w axis is the u axis. It prescribes as The position sensor 130 and / or the HMD sensor 114 is an angle around each uvw axis (that is, a yaw angle indicating rotation about the v axis, a pitch angle indicating rotation about the u axis, and a center about the w axis). The inclination determined by the roll angle indicating rotation) is detected. The control device 120 determines angle information for controlling the visual axis of the virtual camera that defines the visual field information based on the detected angle change around each uvw axis.

次に、図3を参照して、制御装置120のハードウェア構成について説明する。図3に示すように、制御装置120は、制御部121と、記憶部123と、I/O(入出力)インターフェース124と、通信インターフェース125と、バス126とを備える。制御部121と、記憶部123と、I/Oインターフェース124と、通信インターフェース125とは、バス126を介して互いに通信可能に接続されている。   Next, the hardware configuration of the control device 120 will be described with reference to FIG. As shown in FIG. 3, the control device 120 includes a control unit 121, a storage unit 123, an I / O (input / output) interface 124, a communication interface 125, and a bus 126. The control unit 121, the storage unit 123, the I / O interface 124, and the communication interface 125 are connected to each other via a bus 126 so as to communicate with each other.

制御装置120は、HMD110とは別体に、パーソナルコンピュータ、タブレットまたはウェアラブルデバイスとして構成されてもよいし、HMD110の内部に搭載されていてもよい。また、制御装置120の一部の機能がHMD110に搭載されると共に、制御装置120の残りの機能がHMD110とは別体の他の装置に搭載されてもよい。   The control device 120 may be configured as a personal computer, a tablet, or a wearable device separately from the HMD 110, or may be mounted inside the HMD 110. In addition, some functions of the control device 120 may be mounted on the HMD 110, and the remaining functions of the control device 120 may be mounted on another device separate from the HMD 110.

制御部121は、メモリとプロセッサを備えている。メモリは、例えば、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)および/またはGPU(Graphics Processing Unit)であって、ROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。   The control unit 121 includes a memory and a processor. The memory includes, for example, a ROM (Read Only Memory) in which various programs are stored, a RAM (Random Access Memory) having a plurality of work areas in which various programs executed by the processor are stored, and the like. The processor is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and / or a GPU (Graphics Processing Unit), and a program specified from various programs incorporated in the ROM is expanded on the RAM. It is comprised so that various processes may be performed in cooperation with.

特に、プロセッサが本実施形態に係る表示制御方法をコンピュータに実行させるための表示制御プログラム(後述する)をRAM上に展開し、RAMとの協働で当該プログラムを実行することで、制御部121は、制御装置120の各種動作を制御してもよい。制御部121は、メモリや記憶部123に格納された所定のアプリケーション(ゲームプログラム)を実行することで、HMD110の表示部112に仮想空間(視野画像)を提供する。これにより、ユーザUは、表示部112に提供された仮想空間に没入することができる。   In particular, the controller 121 develops a display control program (to be described later) for causing the computer to execute the display control method according to the present embodiment on the RAM, and executes the program in cooperation with the RAM. May control various operations of the control device 120. The control unit 121 provides a virtual space (view image) to the display unit 112 of the HMD 110 by executing a predetermined application (game program) stored in the memory or the storage unit 123. Thereby, the user U can be immersed in the virtual space provided on the display unit 112.

記憶部(ストレージ)123は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、USBフラッシュメモリ等の記憶装置であって、プログラムや各種データを格納するように構成されている。記憶部123には、表示制御プログラムが組み込まれてもよい。また、ユーザの認証プログラムや各種画像やオブジェクトに関するデータを含むゲームプログラム等が格納されてもよい。さらに、記憶部123には、各種データを管理するためのテーブルを含むデータベースが構築されてもよい。   The storage unit (storage) 123 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a USB flash memory, and is configured to store programs and various data. The storage unit 123 may incorporate a display control program. In addition, a user authentication program, a game program including data on various images and objects, and the like may be stored. Furthermore, a database including tables for managing various data may be constructed in the storage unit 123.

I/Oインターフェース124は、位置センサ130と、HMD110と、外部コントローラ320をそれぞれ制御装置120に通信可能に接続するように構成されており、例えば、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High―Definition Multimedia Interface)端子等により構成されている。なお、制御装置120は、位置センサ130と、HMD110と、外部コントローラ320のそれぞれと無線接続されていてもよい。   The I / O interface 124 is configured to connect the position sensor 130, the HMD 110, and the external controller 320 to the control device 120 in a communicable manner. For example, the I / O interface 124 includes a USB (Universal Serial Bus) terminal, a DVI (Digital Visual Bus), and the like. An interface) terminal, an HDMI (registered trademark) (high-definition multimedia interface) terminal, and the like. Note that the control device 120 may be wirelessly connected to each of the position sensor 130, the HMD 110, and the external controller 320.

通信インターフェース125は、制御装置120をLAN(Local Area Network)、WAN(Wide Area Network)またはインターネット等の通信ネットワーク3に接続させるように構成されている。通信インターフェース125は、通信ネットワーク3を介して外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んでおり、通信ネットワーク3を介して通信するための通信規格に適合するように構成されている。   The communication interface 125 is configured to connect the control device 120 to a communication network 3 such as a LAN (Local Area Network), a WAN (Wide Area Network), or the Internet. The communication interface 125 includes various wired connection terminals for communicating with an external device via the communication network 3 and various processing circuits for wireless connection. The communication interface 125 conforms to a communication standard for communicating via the communication network 3. Configured to fit.

次に、図4から図6を参照することで視野画像をHMD110に表示するための処理について説明する。図4は、視野画像をHMD110に表示するための処理を示すフローチャートである。図5は、仮想空間200の一例を示すxyz空間図を示す。図6(a)は、図5に示す仮想空間200のyx平面図であって、図6(b)は、図5に示す仮想空間200のzx平面図である。   Next, processing for displaying a field-of-view image on the HMD 110 will be described with reference to FIGS. 4 to 6. FIG. 4 is a flowchart showing a process for displaying the visual field image on the HMD 110. FIG. 5 shows an xyz space diagram showing an example of the virtual space 200. 6A is a yx plan view of the virtual space 200 shown in FIG. 5, and FIG. 6B is a zx plan view of the virtual space 200 shown in FIG.

図4に示すように、ステップS1において、制御部121(図3参照)は、仮想カメラ300を含む仮想空間200を定義する仮想空間データを生成する。図5および図6に示すように、仮想空間200は、中心位置21を中心とした全天球として規定される(図5および図6では、上半分の天球のみが図示されている)。また、仮想空間200には、中心位置21を原点とするxyz座標系が設定されている。HMDシステム1の初期状態では、仮想カメラ300が仮想空間200の中心位置21に配置されている。 仮想カメラ300の視野を定義するuvw座標系は、現実空間におけるユーザUの頭部を中心として規定されたuvw座標系に連動するように決定される。また、HMD110を装着したユーザUの現実空間における移動に連動して、仮想カメラ300を仮想空間200内で移動させてもよい。   As shown in FIG. 4, in step S <b> 1, the control unit 121 (see FIG. 3) generates virtual space data that defines the virtual space 200 including the virtual camera 300. As shown in FIGS. 5 and 6, the virtual space 200 is defined as a celestial sphere centered on the center position 21 (only the upper half celestial sphere is shown in FIGS. 5 and 6). In the virtual space 200, an xyz coordinate system with the center position 21 as the origin is set. In the initial state of the HMD system 1, the virtual camera 300 is disposed at the center position 21 of the virtual space 200. The uvw coordinate system that defines the visual field of the virtual camera 300 is determined so as to be linked to the uvw coordinate system that is defined around the head of the user U in the real space. Further, the virtual camera 300 may be moved in the virtual space 200 in conjunction with the movement of the user U wearing the HMD 110 in the real space.

次に、ステップS2において、制御部121は、仮想カメラ300の視野CV(図6参照)を特定する。具体的には、制御部121は、位置センサ130および/またはHMDセンサ114から送信されたHMD110の状態を示すデータに基づいて、HMD110の位置や傾きに関する情報を取得する。次に、制御部121は、HMD110の位置や傾きに関する情報に基づいて、仮想空間200内における仮想カメラ300の位置や向きを決定する。次に、制御部121は、仮想カメラ300の位置や向きから仮想カメラ300の視軸に相当する基準視線Lを決定し、決定された基準視線Lから仮想カメラ300の視野CVを特定する。ここで、仮想カメラ300の視野CVは、HMD110を装着したユーザUが視認可能な仮想空間200の一部の領域と一致する。換言すれば、視野CVは、HMD110に表示される仮想空間200の一部の領域に一致する。また、視野CVは、図6(a)に示すxy平面において、基準視線Lを中心とした極角θ α の角度範囲として設定される第1領域CVaと、図6(b)に示すxz平面において、基準視線Lを中心とした方位角θ β の角度範囲として設定される第2領域CVbとを有する。   Next, in step S2, the control unit 121 specifies the field of view CV (see FIG. 6) of the virtual camera 300. Specifically, the control unit 121 acquires information on the position and inclination of the HMD 110 based on data indicating the state of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. Next, the control unit 121 determines the position and orientation of the virtual camera 300 in the virtual space 200 based on information regarding the position and inclination of the HMD 110. Next, the control unit 121 determines a reference line of sight L corresponding to the visual axis of the virtual camera 300 from the position and orientation of the virtual camera 300, and specifies the field of view CV of the virtual camera 300 from the determined reference line of sight L. Here, the visual field CV of the virtual camera 300 coincides with a partial region of the virtual space 200 that is visible to the user U wearing the HMD 110. In other words, the visual field CV coincides with a partial area of the virtual space 200 displayed on the HMD 110. The visual field CV includes a first region CVa set as an angular range of the polar angle θ α with the reference line of sight L as the center in the xy plane shown in FIG. 6A, and the xz plane shown in FIG. 6B. The second region CVb is set as an angle range of the azimuth angle θ β with the reference line of sight L as the center.

このように、制御部121は、位置センサ130および/またはHMDセンサ114からのデータに基づいて、仮想カメラ300の視野CVを特定することができる。ここで、HMD110を装着したユーザUが動くと、制御部121は、位置センサ130および/またはHMDセンサ114から送信されたHMD110の動きを示すデータに基づいて、仮想カメラ300の視野CVを特定することができる。つまり、制御部121は、HMD110の動きに応じて、視野CVを移動させることができる。   As described above, the control unit 121 can specify the visual field CV of the virtual camera 300 based on the data from the position sensor 130 and / or the HMD sensor 114. Here, when the user U wearing the HMD 110 moves, the control unit 121 specifies the visual field CV of the virtual camera 300 based on the data indicating the movement of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. be able to. That is, the control unit 121 can move the visual field CV according to the movement of the HMD 110.

次に、ステップS3において、制御部121は、HMD110の表示部112に表示される視野画像を示す視野画像データを生成する。具体的には、制御部121は、仮想空間200を規定する仮想空間データと、仮想カメラ300の視野CVとに基づいて、視野画像データを生成する。すなわち、仮想カメラ300の視野CVにより、仮想空間データのうち視野画像データとして描画される範囲が定まる。   Next, in step S <b> 3, the control unit 121 generates visual field image data indicating the visual field image displayed on the display unit 112 of the HMD 110. Specifically, the control unit 121 generates visual field image data based on virtual space data defining the virtual space 200 and the visual field CV of the virtual camera 300. In other words, the visual field CV of the virtual camera 300 determines the range to be drawn as visual field image data in the virtual space data.

次に、ステップS4において、制御部121は、視野画像データに基づいて、HMD110の表示部112に視野画像を表示する。このように、HMD110を装着しているユーザUの動きに応じて、仮想カメラ300の視野CVが変化し、HMD110に表示される視野画像Vが変化するので、ユーザUは仮想空間200に没入することができる。   Next, in step S <b> 4, the control unit 121 displays a field image on the display unit 112 of the HMD 110 based on the field image data. As described above, the visual field CV of the virtual camera 300 is changed according to the movement of the user U wearing the HMD 110, and the visual field image V displayed on the HMD 110 is changed, so that the user U is immersed in the virtual space 200. be able to.

次に、本実施形態に係る表示制御方法について、図7から図9を参照して説明する。図7は、本実施形態に係る表示制御方法を説明するためのフローチャートである。図8(a)は、仮想空間内に仮想カメラ、バトルフィールド、およびキャラクタオブジェクトが配置された状態を示す模式図であり、図8(b)は、図8(a)の場合にHMDに表示される視野画像を示す図である。図9(a)は、バトルフィールド内においてキャラクタオブジェクトが移動した状態を示す図であり、図9(b)は、移動したキャラクタオブジェクトを追って仮想カメラが移動された状態を示す図である。   Next, the display control method according to the present embodiment will be described with reference to FIGS. FIG. 7 is a flowchart for explaining the display control method according to the present embodiment. FIG. 8A is a schematic diagram showing a state in which a virtual camera, a battle field, and a character object are arranged in the virtual space, and FIG. 8B is displayed on the HMD in the case of FIG. FIG. FIG. 9A is a diagram illustrating a state in which the character object has moved in the battle field, and FIG. 9B is a diagram illustrating a state in which the virtual camera is moved following the moved character object.

最初に、図8(a)に示すように、本実施形態に係る仮想空間200は、仮想カメラ300と、バトルフィールド400(フィールドの一例)と、キャラクタオブジェクトC1,C2とを含む。制御部121は、これらを含む仮想空間200を規定する仮想空間データを生成している。   First, as shown in FIG. 8A, the virtual space 200 according to the present embodiment includes a virtual camera 300, a battle field 400 (an example of a field), and character objects C1 and C2. The control unit 121 generates virtual space data that defines the virtual space 200 including these.

バトルフィールド400は、仮想空間200内において、仮想カメラ300の周囲を取り囲む領域として規定されている。バトルフィールド400は、仮想カメラ300の初期位置における仮想空間200の水平面(図8(a)におけるxz面)内において、仮想カメラ300を囲むように配置されることが好ましい。本例においては、バトルフィールド400は、仮想カメラ300の初期位置における垂直軸(Y軸)周りに配置された真円状に形成されている。なお、バトルフィールド400は、仮想カメラ300の周囲を囲む形状であれば良く、楕円状や多角形状であっても良い。このバトルフィールド400は、キャラクタオブジェクトC1,C2が移動可能な範囲を定義する。また、バトルフィールド400の中心径に相当する経路410が、キャラクタオブジェクトC1,C2の移動経路として規定されている。移動経路410は、例えばバトルフィールド400の中心径(=(外径+内径)/2)上に設けられるが、バトルフィールド400の径方向において任意の場所に設定可能である。なお、移動経路410を設けることなく、バトルフィールド400内であればキャラクタオブジェクトC1,C2が任意に移動できるように構成しても良い。   The battle field 400 is defined as an area surrounding the virtual camera 300 in the virtual space 200. The battle field 400 is preferably disposed so as to surround the virtual camera 300 in the horizontal plane (xz plane in FIG. 8A) of the virtual space 200 at the initial position of the virtual camera 300. In this example, the battle field 400 is formed in a perfect circle arranged around the vertical axis (Y axis) at the initial position of the virtual camera 300. The battle field 400 only needs to have a shape surrounding the virtual camera 300, and may have an elliptical shape or a polygonal shape. The battle field 400 defines a range in which the character objects C1 and C2 can move. A path 410 corresponding to the center diameter of the battle field 400 is defined as the movement path of the character objects C1 and C2. The movement path 410 is provided, for example, on the center diameter (= (outer diameter + inner diameter) / 2) of the battle field 400, but can be set at any place in the radial direction of the battle field 400. The character objects C1 and C2 may be arbitrarily moved within the battle field 400 without providing the movement path 410.

本例では、キャラクタオブジェクトC1,C2のうちプレイヤキャラクタC1が、HMD110を装着したユーザUが操作可能なオブジェクトであるものとする。一方、相手キャラクタC2は、ユーザ同士の対戦型ゲームの場合には他のユーザによって操作されるオブジェクトであり、ユーザ対コンピュータの対戦型ゲームの場合には制御装置120(制御部121)によって操作されるオブジェクトであるものとする。すなわち、バトルフィールド400は、例えば格闘ゲームなどの対戦型ゲームにおいて、プレイヤキャラクタC1と相手キャラクタC2との対戦の舞台となるバトルフィールドとして構成されており、プレイヤキャラクタC1や相手キャラクタC2が移動経路410を移動しながら対戦が行われる。   In this example, it is assumed that the player character C1 among the character objects C1 and C2 is an object that can be operated by the user U wearing the HMD 110. On the other hand, the opponent character C2 is an object operated by another user in the case of a competitive game between users, and is operated by the control device 120 (control unit 121) in the case of a competitive game of a user versus computer. Object. That is, the battle field 400 is configured as a battle field that is a stage of a battle between the player character C1 and the opponent character C2 in a battle game such as a fighting game, and the player character C1 and the opponent character C2 move along the movement path 410. While the battle is held.

図7に示すように、ステップS20において、制御部121は、対戦ゲームの開始時に、仮想カメラ300の視野CV内にプレイヤキャラクタC1および相手キャラクタC2が含まれるように、仮想カメラ300の初期位置およびバトルフィールド400内でのキャラクタオブジェクトC1,C2の位置を決定する。   As shown in FIG. 7, in step S20, the control unit 121 sets the initial position of the virtual camera 300 and the opponent character C2 so that the player character C1 and the opponent character C2 are included in the visual field CV of the virtual camera 300 at the start of the battle game. The positions of the character objects C1 and C2 in the battle field 400 are determined.

ステップS20の状態で、HMD110の表示部112に表示される視野画像Vを図8(b)に示す。図8(b)に示すように、視野画像Vには、バトルフィールド400と、バトルフィールド400上のキャラクタオブジェクトC1,C2が表示される。また、視野画像Vの所定位置(ここでは、画面下方)には、各キャラクタオブジェクトC1,C2のヒットポイント(HP)値や必殺技を使用するためのスキルポイント(SP)値のゲージを含む固定ユーザ・インタフェース(UI)画像600が表示されている。   FIG. 8B shows the visual field image V displayed on the display unit 112 of the HMD 110 in the state of step S20. As shown in FIG. 8B, the battle field 400 and the character objects C1 and C2 on the battle field 400 are displayed in the visual field image V. Further, a fixed position including a gauge of hit point (HP) values and skill point (SP) values for using the special technique is provided at a predetermined position (here, the lower part of the screen) of the visual field image V. A user interface (UI) image 600 is displayed.

次に、ステップS22において、制御部121は、各キャラクタオブジェクトC1,C2に対する操作入力を受けたか否かを判定する。例えば、ユーザUが外部コントローラ320の操作ボタンを操作した場合、制御部121は、プレイヤキャラクタC1に対する操作入力を受けたと判定する。具体的には、外部コントローラ320は、操作ボタンに対するユーザUの入力操作に応じて、プレイヤキャラクタC1を動作させることを指示する指示信号を生成し、当該生成された指示信号を制御装置120へ送信する。また、制御部121は、プレイヤキャラクタC1に対する操作入力とは別に、相手キャラクタC2に対する操作入力を受けたか否かを判定する。   Next, in step S22, the control unit 121 determines whether or not an operation input has been received for the character objects C1 and C2. For example, when the user U operates an operation button of the external controller 320, the control unit 121 determines that an operation input for the player character C1 has been received. Specifically, the external controller 320 generates an instruction signal instructing to move the player character C1 in response to an input operation of the user U with respect to the operation button, and transmits the generated instruction signal to the control device 120. To do. Moreover, the control part 121 determines whether the operation input with respect to the other party character C2 was received separately from the operation input with respect to the player character C1.

プレイヤキャラクタC1および/または相手キャラクタC2への操作入力を受けたと判定した場合(ステップS22のYes)、ステップS24において、制御部121は、当該操作入力に基づいて各キャラクタオブジェクトC1,C2を動作させる。具体的には、制御部121は、I/Oインターフェース124を介して外部コントローラ320からの指示信号を受信し、当該受信した指示信号に基づいて、プレイヤキャラクタC1を動作させる。また、制御部121は、他のユーザが操作する外部コントローラからの指示信号に基づいて、あるいは制御部121自身が生成する指示信号に基づいて、相手キャラクタC2を動作させる。例えば、図9(a)に示すように、各キャラクタオブジェクトC1,C2に対して水平方向(図中のX方向)の移動入力操作が行われた場合には、制御部121は、キャラクタオブジェクトC1,C2を仮想カメラ300の周方向に(移動経路410上を)移動させる。   When it is determined that an operation input to the player character C1 and / or the opponent character C2 has been received (Yes in step S22), in step S24, the control unit 121 moves each character object C1, C2 based on the operation input. . Specifically, the control unit 121 receives an instruction signal from the external controller 320 via the I / O interface 124, and moves the player character C1 based on the received instruction signal. The control unit 121 moves the opponent character C2 based on an instruction signal from an external controller operated by another user or based on an instruction signal generated by the control unit 121 itself. For example, as shown in FIG. 9A, when a movement input operation in the horizontal direction (X direction in the figure) is performed on each of the character objects C1 and C2, the control unit 121 displays the character object C1. , C2 is moved in the circumferential direction of the virtual camera 300 (on the movement path 410).

次に、ステップS22と並行して(あるいはステップS24の後に)、ステップ26において、制御部121は、HMD110を装着したユーザUが動いたか否か、すなわち、仮想カメラ300に対する移動入力があったか否かを判定する。そして、制御部121は、仮想カメラ300に対する移動入力があったと判定した場合には(ステップS26のYes)、ステップS28において、図9(b)に示すように、当該移動入力に基づいて仮想空間200内で仮想カメラ300の向きを変更する。具体的には、制御部121は、HMD110の動きと連動するように、仮想カメラ300の位置はそのままの状態で回転させる。すなわち、制御部121は、HMD110の動きに連動して仮想カメラ300の位置を変化させず、仮想カメラ300の向きを変化させる。このように、HMD100の動きに応じて仮想カメラ300の位置を変化させずに向きのみ変化させることで、ユーザUの映像酔い(いわゆるVR酔い)を防止することができる。   Next, in parallel with step S22 (or after step S24), in step 26, the control unit 121 determines whether or not the user U wearing the HMD 110 has moved, that is, whether or not there has been a movement input to the virtual camera 300. Determine. If the control unit 121 determines that there has been a movement input to the virtual camera 300 (Yes in step S26), in step S28, as shown in FIG. The direction of the virtual camera 300 is changed within 200. Specifically, the control unit 121 rotates the position of the virtual camera 300 as it is so as to be interlocked with the movement of the HMD 110. That is, the control unit 121 changes the orientation of the virtual camera 300 without changing the position of the virtual camera 300 in conjunction with the movement of the HMD 110. Thus, by changing only the direction without changing the position of the virtual camera 300 in accordance with the movement of the HMD 100, it is possible to prevent the user U's video sickness (so-called VR sickness).

次に、ステップS30において、制御部121は、所定の条件を満たしているか否かを判定する。そして、所定の条件を満たしていないと判定した場合には、制御部121の処理はステップS22および/またはステップS26に戻る。一方、所定の条件を満たしていると判定した場合には(ステップS30のYes)、ステップS32において、制御部121は、図10に示すように、バトルフィールド400内の所定位置に障壁オブジェクトW1を配置する。ここで、所定の条件とは、例えば、対戦型ゲームの種類や対戦型ゲームの各ラウンドでの経過時間等を含む。すなわち、ゲームの種類に応じて、予めバトルフィールド400内に障壁オブジェクトW1を配置しても良く、また、対戦ラウンドの開始から所定時間経過後にバトルフィールド400内に障壁オブジェクトW1を配置しても良い。   Next, in step S30, the control unit 121 determines whether or not a predetermined condition is satisfied. And when it determines with not satisfy | filling predetermined conditions, the process of the control part 121 returns to step S22 and / or step S26. On the other hand, when it is determined that the predetermined condition is satisfied (Yes in step S30), in step S32, the control unit 121 arranges the barrier object W1 at a predetermined position in the battle field 400 as shown in FIG. To do. Here, the predetermined condition includes, for example, the type of the battle game, the elapsed time in each round of the battle game, and the like. That is, according to the type of game, the barrier object W1 may be arranged in the battle field 400 in advance, or the barrier object W1 may be arranged in the battle field 400 after a predetermined time has elapsed since the start of the battle round.

障壁オブジェクトW1は、仮想カメラ300の初期位置において、仮想カメラ300の視野の方向とは反対側(仮想カメラ300の後方側)に配置されることが好ましい。仮想カメラ300の初期位置における後方側はユーザUが見難いため、この後方側のバトルフィールド400を潰していくことが好都合である。また、制御部121は、対戦ラウンドのレベルまたは1ラウンド中の時間経過に応じて、障壁オブジェクトW1の位置を変更したり、新たな障壁オブジェクトW2(図10)を配置しても良い。なお、仮想カメラ300の視野CV内に障壁オブジェクトW2を含むように仮想カメラ300の向きが変更された場合には、図11(a)に示すように、視野画像内に障壁オブジェクトW2が表示される。   The barrier object W <b> 1 is preferably arranged on the side opposite to the visual field direction of the virtual camera 300 (the rear side of the virtual camera 300) at the initial position of the virtual camera 300. Since it is difficult for the user U to see the rear side at the initial position of the virtual camera 300, it is convenient to crush the battle field 400 on the rear side. Further, the control unit 121 may change the position of the barrier object W1 or arrange a new barrier object W2 (FIG. 10) according to the level of the battle round or the passage of time during one round. When the orientation of the virtual camera 300 is changed so that the barrier object W2 is included in the visual field CV of the virtual camera 300, the barrier object W2 is displayed in the visual field image as shown in FIG. The

次に、ステップS34において、制御部121は、プレイヤキャラクタC1および相手キャラクタC2の少なくとも一方が、障壁オブジェクトW1,W2に接触したかどうかを判定する。そして、キャラクタオブジェクトC1,C2が障壁オブジェクトW1,W2に接触したと判定した場合には(ステップS34のYes)、ステップS36において、制御部121は、キャラクタオブジェクトC1,C2が所定以上の力で障壁オブジェクトW1,W2に接触したかどうかを判定する。そして、キャラクタオブジェクトC1,C2が所定以上の力で接触していないと判定した場合には(ステップS36のNo)、ステップS38において、制御部121は、キャラクタオブジェクトC1,C2が障壁オブジェクトW1,W2よりも先に進めないよう、キャラクタオブジェクトC1,C2の移動を制限する。すなわち、障壁オブジェクトW1,W2がバトルフィールド400内に設置されることで、キャラクタオブジェクトC1,C2が移動可能な範囲が制限される。   Next, in step S34, the control unit 121 determines whether or not at least one of the player character C1 and the opponent character C2 has come into contact with the barrier objects W1 and W2. If it is determined that the character objects C1 and C2 have come into contact with the barrier objects W1 and W2 (Yes in step S34), in step S36, the control unit 121 causes the character objects C1 and C2 to block with a predetermined force or more. It is determined whether or not the objects W1 and W2 are touched. If it is determined that the character objects C1 and C2 are not touching with a predetermined force or more (No in step S36), in step S38, the control unit 121 determines that the character objects C1 and C2 are the barrier objects W1 and W2. The movement of the character objects C1 and C2 is restricted so as not to proceed further. That is, by setting the barrier objects W1 and W2 in the battle field 400, the range in which the character objects C1 and C2 can move is limited.

一方、所定以上の力で接触したと判定した場合には(ステップS36のYes)、ステップS40において、制御部121は、障壁オブジェクトW1,W2を破壊する。例えば、図11(b)に示すように、相手キャラクタC2がプレイヤキャラクタC1を攻撃し、プレイヤキャラクタC1が障壁オブジェクトW2に所定の力以上で接触した(強くぶつかった)場合には、障壁オブジェクトW2が破壊される。これにより、障壁オブジェクトW2によるキャラクタオブジェクトC1,C2の移動の制限が解除される。   On the other hand, when it determines with having contacted with the force more than predetermined (Yes of step S36), the control part 121 destroys barrier object W1, W2 in step S40. For example, as shown in FIG. 11B, when the opponent character C2 attacks the player character C1, and the player character C1 comes into contact with the barrier object W2 with a predetermined force or more (strongly hits), the barrier object W2 Is destroyed. Thereby, the restriction | limiting of the movement of the character objects C1 and C2 by the barrier object W2 is cancelled | released.

以上説明したように、本実施形態によれば、制御部121は、キャラクタオブジェクトC1,C2が移動可能な範囲を定義するバトルフィールド400を、仮想カメラ300の初期位置において仮想カメラ300を囲むように構成し、所定の移動入力に基づいて、キャラクタオブジェクトC1,C2をバトルフィールド400内で移動させる。これにより、従来のゲームの操作感を踏襲しつつ、VR空間らしい体験をユーザに提供することができる   As described above, according to the present embodiment, the control unit 121 is configured to surround the virtual camera 300 at the initial position of the virtual camera 300, with the battle field 400 defining the range in which the character objects C1 and C2 can move. The character objects C1 and C2 are moved in the battle field 400 based on a predetermined movement input. Thereby, it is possible to provide the user with a VR space-like experience while following the operational feeling of the conventional game.

また、ステップS24で説明したように、移動入力の横方向成分に応じて、キャラクタオブジェクトC1,C2が仮想カメラ300の周方向に移動される。このように、キャラクタオブジェクトC1,C2がHMD110を装着したユーザUを中心として弧を描くように移動するため、VRらしい新規な体験をユーザUに提供することができる。   Further, as described in step S <b> 24, the character objects C <b> 1 and C <b> 2 are moved in the circumferential direction of the virtual camera 300 according to the lateral component of the movement input. Thus, since the character objects C1 and C2 move so as to draw an arc around the user U wearing the HMD 110, a new VR-like experience can be provided to the user U.

また、ステップS32で説明したように、所定の条件を満たした場合には、キャラクタオブジェクトC1,C2が移動可能な範囲をさらに制限する障壁オブジェクトW1,W2をバトルフィールド400内に配置する。このように、ゲームの種類や対戦ラウンド中の時間経過に応じてプレイヤキャラクタC1や相手キャラクタC2の移動可能範囲を狭くすることで、ゲーム性を高めつつVR空間らしい体験をユーザに提供することができる。また、新たな障壁オブジェクトを追加したり、障壁オブジェクトの位置を変更したりすることで、対戦ラウンドのレベルや1ラウンド中の時間経過とともに徐々にキャラクタオブジェクトC1,C2の逃げ場が狭くなっていくといったVR空間らしい体験をユーザに提供することができる。   Further, as described in step S <b> 32, when predetermined conditions are satisfied, barrier objects W <b> 1 and W <b> 2 that further limit the range in which the character objects C <b> 1 and C <b> 2 can move are arranged in the battle field 400. In this way, by narrowing the movable range of the player character C1 and the opponent character C2 according to the type of game and the time elapsed during the battle round, it is possible to provide the user with a VR space-like experience while improving the game characteristics. it can. Further, by adding a new barrier object or changing the position of the barrier object, the escape areas of the character objects C1 and C2 gradually become narrower as the level of the battle round and the time during one round elapse. A VR space-like experience can be provided to the user.

このように、ラウンドの進行等に伴って障壁オブジェクトをバトルフィールド400に設置することで、ラウンドの開始時はキャラクタオブジェクトC1,C2が周方向に無限に移動できる、いわゆる無限フィールドをユーザに提供することができる。また、ラウンドの経過に伴って障壁オブジェクトが設置されると、障壁オブジェクトに向けて、相手キャラクタC2を追い詰める、または、プレイヤキャラクタC1が障壁オブジェクトに追い詰められないようにする、といった駆け引きをプレイヤであるユーザUに提供することができる。ここで、バトルフィールド400は、上述したように仮想カメラ300を囲むように配置されている。これにより、無限フィールドの状態から障壁オブジェクトが設置されたとしても、プレイヤに対し、キャラクタオブジェクトC1,C2が移動可能な範囲を、仮想カメラ300を垂直軸(Y軸)周りに回転させることで容易に把握させることができる。すなわち、プレイヤは、障壁オブジェクトがバトルフィールド400に設置されると、キャラクタオブジェクトC1,C2が移動可能な範囲の広さを、仮想カメラ300を垂直軸(Y軸)周りに回転させる範囲として容易に認識することができる。   In this way, by providing a barrier object in the battle field 400 as the round progresses, the user is provided with a so-called infinite field in which the character objects C1 and C2 can move infinitely in the circumferential direction at the start of the round. Can do. Further, when a barrier object is installed as the round progresses, the player performs a bargaining such as driving the opponent character C2 toward the barrier object or preventing the player character C1 from being driven by the barrier object. It can be provided to the user U. Here, the battle field 400 is arranged so as to surround the virtual camera 300 as described above. Thereby, even if a barrier object is installed from an infinite field state, it is easy for the player to rotate the virtual camera 300 around the vertical axis (Y axis) within a range in which the character objects C1 and C2 can move. Can be grasped. That is, when the barrier object is placed on the battle field 400, the player easily recognizes the range of the range in which the character objects C1 and C2 can move as the range in which the virtual camera 300 is rotated about the vertical axis (Y axis). can do.

なお、上記の実施形態では、制御部121は、障壁オブジェクトW1,W2をバトルフィールド400内に設置することでキャラクタオブジェクトC1,C2が移動可能な範囲を制限しているが、この例に限られない。例えば、図12に示すように、バトルフィールド400自体の形状を変更することでキャラクタオブジェクトC1,C2が移動可能な範囲を制限しても良い。このとき、対戦ラウンドのレベルや1ラウンド中の時間経過等に応じて、破線Mで示したように、バトルフィールド400の形状を徐々に狭くしても良い。   In the above embodiment, the control unit 121 limits the range in which the character objects C1 and C2 can move by installing the barrier objects W1 and W2 in the battle field 400, but is not limited to this example. . For example, as shown in FIG. 12, the range in which the character objects C1, C2 can move may be limited by changing the shape of the battle field 400 itself. At this time, as shown by the broken line M, the shape of the battle field 400 may be gradually narrowed according to the level of the battle round, the passage of time during one round, or the like.

(第二の実施形態)
次に、第二の実施形態に係る表示制御方法について、図13から図16を参照して説明する。図13は、第二の実施形態に係る表示制御方法を説明するためのフローチャートである。図14(a)は、バトルフィールドに関連付けられて表示オブジェクトが配置された状態を示す模式図であり、図14(b)は、図14(a)の場合の視野画像を示す図である。図15(a)は、仮想カメラの向きが図14(a)から水平方向に変化した状態を示す図であり、図15(b)は、図15(a)の場合の視野画像を示す図である。図16は、仮想カメラの向きが図14(a)から上方向に変化した場合の視野画像を示す図である。
(Second embodiment)
Next, a display control method according to the second embodiment will be described with reference to FIGS. FIG. 13 is a flowchart for explaining the display control method according to the second embodiment. FIG. 14A is a schematic diagram showing a state in which display objects are arranged in association with the battle field, and FIG. 14B is a diagram showing a visual field image in the case of FIG. FIG. 15A is a diagram illustrating a state in which the orientation of the virtual camera is changed in the horizontal direction from FIG. 14A, and FIG. 15B is a diagram illustrating a visual field image in the case of FIG. It is. FIG. 16 is a diagram illustrating a visual field image when the orientation of the virtual camera is changed upward from FIG.

最初に、図14(a)に示すように、本実施形態に係る仮想空間200は、仮想カメラ300と、バトルフィールド400と、キャラクタオブジェクトC1,C2と、ユーザ・インタフェース・オブジェクト500(以下、UIオブジェクトと称する。UIオブジェクトは対象オブジェクトの一例である)と、を含む。制御部121は、これらを含む仮想空間200を規定する仮想空間データを生成している。仮想カメラ300、バトルフィールド400、およびキャラクタオブジェクトC1,C2は第一の実施形態と同様の構成であるため、その詳細な説明は省略する。   First, as shown in FIG. 14A, a virtual space 200 according to the present embodiment includes a virtual camera 300, a battle field 400, character objects C1 and C2, and a user interface object 500 (hereinafter referred to as UI object). The UI object is an example of a target object). The control unit 121 generates virtual space data that defines the virtual space 200 including these. Since the virtual camera 300, the battle field 400, and the character objects C1 and C2 have the same configuration as in the first embodiment, detailed description thereof is omitted.

UIオブジェクト500は、仮想空間200内において、仮想カメラ300の周囲を取り囲むように配置されている。具体的には、UIオブジェクト500は、仮想カメラ300を囲むように配置されたバトルフィールド400の外周部に配置されている。このUIオブジェクト500は、Y軸方向において、バトルフィールド400から所定の高さだけ上方に設置されていることが好ましい。   The UI object 500 is arranged so as to surround the virtual camera 300 in the virtual space 200. Specifically, the UI object 500 is arranged on the outer periphery of the battle field 400 arranged so as to surround the virtual camera 300. The UI object 500 is preferably installed above the battle field 400 by a predetermined height in the Y-axis direction.

図13に示すように、ステップ50において、制御部121は、対戦ゲームの開始時に、仮想カメラ300の初期位置における視野CV内に、キャラクタオブジェクト(プレイヤキャラクタC1、相手キャラクタC2)とUIオブジェクト500とが含まれるように、仮想カメラ300の初期位置およびバトルフィールド400内でのキャラクタオブジェクトC1,C2の位置を決定する。次に、ステップ52において、制御部121は、仮想カメラ300の初期位置の視野CV内に含まれる領域に、UIオブジェクト500に沿って表示オブジェクト510を配置する。表示オブジェクト510の仮想カメラ300と対向する面(表面)には、各種情報を含むテクスチャ515がマッピングされている。   As shown in FIG. 13, in step 50, the control unit 121 sets the character object (player character C <b> 1, opponent character C <b> 2) and UI object 500 within the visual field CV at the initial position of the virtual camera 300 at the start of the battle game. Are determined so that the initial position of the virtual camera 300 and the positions of the character objects C1 and C2 in the battle field 400 are determined. Next, in step 52, the control unit 121 arranges the display object 510 along the UI object 500 in an area included in the visual field CV at the initial position of the virtual camera 300. A texture 515 including various types of information is mapped to the surface (front surface) of the display object 510 facing the virtual camera 300.

ステップS52においてHMD110の表示部112に表示される視野画像Vを図14(b)に示す。
図14(b)に示すように、視野画像Vには、バトルフィールド400およびバトルフィールド400上のキャラクタオブジェクトC1,C2が表示されるとともに、UIオブジェクト500およびUIオブジェクト500に沿って配置された表示オブジェクト510にマッピングされたテクスチャ515が表示される。UIオブジェクト500は、例えば、ユーザUの周囲を取り囲む円筒形の電光掲示板として、仮想カメラ300の初期位置における視野画像V内の上方に表示される。なお、UIオブジェクト500の形状は、本実施形態に例示のものに限られず、様々な態様を採用することができる。表示オブジェクト510の表面にマッピングされるテクスチャ515は、例えば、各キャラクタオブジェクトC1,C2のHP値やSP値、ラウンドの残り時間、得点、武器・防具等の各種情報を含む。なお、視野画像Vの下方には、例えば、HP値やSP値を含む固定UI画像600が表示されている。固定UI画像600は、UIオブジェクト500とは異なり、プレイヤキャラクタC1と相手キャラクタC2との対戦中に常に視野画像Vの所定位置に固定表示される。
A field-of-view image V displayed on the display unit 112 of the HMD 110 in step S52 is shown in FIG.
As shown in FIG. 14B, the field image V displays the battle field 400 and the character objects C <b> 1 and C <b> 2 on the battle field 400, and the UI object 500 and the display object 510 arranged along the UI object 500. A texture 515 mapped to is displayed. The UI object 500 is displayed above the visual field image V at the initial position of the virtual camera 300 as, for example, a cylindrical electronic bulletin board surrounding the user U. The shape of the UI object 500 is not limited to that illustrated in the present embodiment, and various forms can be employed. The texture 515 mapped on the surface of the display object 510 includes, for example, various information such as the HP value and SP value of each character object C1, C2, the remaining time of the round, the score, weapons / protectors. A fixed UI image 600 including, for example, an HP value and an SP value is displayed below the visual field image V. Unlike the UI object 500, the fixed UI image 600 is always fixedly displayed at a predetermined position of the visual field image V during the battle between the player character C1 and the opponent character C2.

次に、ステップS54において、制御部121は、プレイヤキャラクタC1および/または相手キャラクタC2に対する操作入力を受けたか否かを判定する。プレイヤキャラクタC1および/または相手キャラクタC2への操作入力を受けたと判定した場合(ステップS54のYes)、ステップS56において、制御部121は、当該操作入力に基づいて各キャラクタオブジェクトC1,C2を動作させる。第一実施形態と同様に、各キャラクタオブジェクトC1,C2に対して水平方向(図中のX方向)の移動入力操作が行われた場合には、制御部121は、バトルフィールド400内でキャラクタオブジェクトC1,C2を仮想カメラ300の周方向に移動させる(図9(a)参照)。そして、制御部121は、処理をステップS54へ戻す。   Next, in step S54, the control unit 121 determines whether or not an operation input for the player character C1 and / or the opponent character C2 has been received. When it is determined that an operation input to the player character C1 and / or the opponent character C2 has been received (Yes in step S54), in step S56, the control unit 121 moves each character object C1, C2 based on the operation input. . As in the first embodiment, when a movement input operation in the horizontal direction (X direction in the drawing) is performed on each of the character objects C1 and C2, the control unit 121 performs the character object C1 in the battle field 400. , C2 is moved in the circumferential direction of the virtual camera 300 (see FIG. 9A). And the control part 121 returns a process to step S54.

ステップS54と並行して(あるいはステップS56の後に)、ステップ58において、制御部121は、仮想カメラ300に対する移動入力があったか否かを判定する。そして、制御部121は、仮想カメラ300に対する移動入力があったと判定した場合には(ステップS58のYes)、ステップS60において、図15(a)に示すように、当該移動入力に基づいて仮想空間200内で仮想カメラ300の位置を固定した状態で、仮想カメラ300の向きを変更する。すなわち、仮想カメラ300は、HMD110の動きと連動してその位置が変化せず、その向きのみが変化する。これにより、ユーザUの映像酔い(いわゆるVR酔い)を防止することができる。   In parallel with step S54 (or after step S56), in step 58, the control unit 121 determines whether or not there has been a movement input to the virtual camera 300. If the control unit 121 determines that there has been a movement input to the virtual camera 300 (Yes in step S58), in step S60, as illustrated in FIG. 15A, the virtual space is based on the movement input. The orientation of the virtual camera 300 is changed in a state in which the position of the virtual camera 300 is fixed in 200. That is, the position of the virtual camera 300 does not change in conjunction with the movement of the HMD 110, and only the direction of the virtual camera 300 changes. Thereby, it is possible to prevent the motion sickness of the user U (so-called VR sickness).

次に、ステップS62において、制御部121は、ステップS60で変更された仮想カメラ300の向きに応じて、仮想カメラ300の視野CV内にテクスチャ515が表示されるようにUIオブジェクト500に沿って配置される表示オブジェクト510の位置を変更する。このときの視野画像Vの表示を図15(b)に示す。図15(b)に示すように、制御部121は、仮想カメラ300の動きに追随するように、表示オブジェクト510の位置をUIオブジェクト500に沿って移動させる。これにより、仮想カメラ300の視野CV内に常にテクスチャ515が表示される。   Next, in step S62, the control unit 121 arranges the texture 515 along the UI object 500 so that the texture 515 is displayed in the visual field CV of the virtual camera 300 according to the orientation of the virtual camera 300 changed in step S60. The position of the displayed object 510 is changed. The display of the visual field image V at this time is shown in FIG. As illustrated in FIG. 15B, the control unit 121 moves the position of the display object 510 along the UI object 500 so as to follow the movement of the virtual camera 300. Thereby, the texture 515 is always displayed in the visual field CV of the virtual camera 300.

本例では、UIオブジェクト500は、バトルフィールド400から所定の高さだけ上方において水平方向に延在するように設置されている。そのため、HMD110の動きに応じて仮想カメラ300の向きが初期位置から上方向(Y軸方向)に変更された場合には、図16に示すように、視野画像V内においてUIオブジェクト500の位置が下方に移動した状態でテクスチャ515がUIオブジェクト500に沿って表示される。このように、表示オブジェクト510の位置(すなわち、テクスチャ515の表示位置)は、仮想カメラ300のY軸方向における向きの変更に連動することがない。すなわち、ステップS52において、制御部121は、HMD110のヨー軸(v軸)周りの動きに基づいて、テクスチャ515の表示位置を移動させる一方、HMD110のロール軸(w軸)およびピッチ軸(u軸)周りの動きに基づいて、テクスチャ515の表示位置を移動させないように制御する。   In this example, the UI object 500 is installed so as to extend horizontally from the battle field 400 by a predetermined height. Therefore, when the orientation of the virtual camera 300 is changed from the initial position to the upward direction (Y-axis direction) according to the movement of the HMD 110, the position of the UI object 500 in the field-of-view image V is as shown in FIG. The texture 515 is displayed along the UI object 500 while moving downward. As described above, the position of the display object 510 (that is, the display position of the texture 515) is not linked to the change in the orientation of the virtual camera 300 in the Y-axis direction. That is, in step S52, the control unit 121 moves the display position of the texture 515 based on the movement of the HMD 110 around the yaw axis (v axis), while the roll axis (w axis) and the pitch axis (u axis) of the HMD 110. ) Based on the surrounding movement, control is performed so that the display position of the texture 515 is not moved.

次に、ステップS64において、制御部121は、対戦型ゲームの種類や対戦型ゲームの各ラウンドでの経過時間等を含む所定の条件を満たしているか否かを判定する。そして、所定の条件を満たしていると判定した場合には(ステップS64のYes)、ステップS66において、制御部121は、図17に示すように、バトルフィールド400内の所定位置に障壁オブジェクトWを配置する。そして、制御部121は、処理をステップS54およびステップS58へ戻す。   Next, in step S64, the control unit 121 determines whether or not a predetermined condition including the type of the competitive game, the elapsed time in each round of the competitive game, and the like is satisfied. And when it determines with satisfy | filling a predetermined condition (Yes of step S64), in step S66, the control part 121 arrange | positions the barrier object W in the predetermined position in the battle field 400, as shown in FIG. To do. And the control part 121 returns a process to step S54 and step S58.

障壁オブジェクトWは、バトルフィールド400だけではなくUIオブジェクト500に対しても配置されることが好ましい。これにより、プレイヤキャラクタC1や相手キャラクタC2が移動可能な範囲を変更することができるとともに、UIオブジェクト500に沿った表示オブジェクト510の移動位置も制限することができる。なお、第一の実施形態と同様に、制御部121は、対戦ラウンドのレベルまたは1ラウンド中の時間経過に応じて、障壁オブジェクトWの位置を変更したり、障壁オブジェクトWとは異なる新たな障壁オブジェクトを配置しても良い。また、第一の実施形態のステップS40のように、制御部121は、キャラクタオブジェクトC1,C2が障壁オブジェクトWに所定以上の力で接触した場合には障壁オブジェクトWを破壊するように制御しても良い。   The barrier object W is preferably arranged not only for the battle field 400 but also for the UI object 500. Thereby, the range in which the player character C1 and the opponent character C2 can move can be changed, and the moving position of the display object 510 along the UI object 500 can be limited. As in the first embodiment, the control unit 121 changes the position of the barrier object W or a new barrier different from the barrier object W according to the level of the battle round or the passage of time during one round. Objects may be placed. Further, as in step S40 of the first embodiment, the control unit 121 performs control so that the barrier object W is destroyed when the character objects C1 and C2 contact the barrier object W with a predetermined force or more. Also good.

以上説明したように、本実施形態によれば、制御部121は、所定の情報を含むテクスチャ515を表示可能な表示オブジェクト510の位置を定義するUIオブジェクト500を、仮想カメラ300の初期位置において仮想カメラ300を囲むように配置し、仮想カメラ300の動きに追随するように、表示オブジェクト510の位置(テクスチャ515の表示位置)をUIオブジェクト500に沿って移動させる。これにより、HMD110を装着したユーザUが自らの動きに追随して移動するテクスチャ515を常に視認することができる。また、UIオブジェクト500を仮想空間200内における看板(電光掲示板)のような態様で構成すれば、仮想空間200の世界観に適するようにユーザUにテクスチャ515を視認させることができる。これにより、VR空間らしい体験をユーザに提供することができる。   As described above, according to the present embodiment, the control unit 121 virtually displays the UI object 500 that defines the position of the display object 510 that can display the texture 515 including the predetermined information at the initial position of the virtual camera 300. It arrange | positions so that the camera 300 may be enclosed, and the position (display position of the texture 515) of the display object 510 is moved along the UI object 500 so that the movement of the virtual camera 300 may be followed. Thereby, the user U wearing the HMD 110 can always visually recognize the texture 515 that moves following his / her movement. If the UI object 500 is configured in a manner like a signboard (electronic bulletin board) in the virtual space 200, the user U can visually recognize the texture 515 so as to be suitable for the world view of the virtual space 200. As a result, it is possible to provide the user with a VR space-like experience.

また、ステップS52で説明したように、制御部121は、HMD110のヨー軸(v軸)周りの動きに基づいて、テクスチャ515の表示位置を移動させる一方、HMD110のロール軸(w軸)およびピッチ軸(u軸)周りの動きに基づいて、テクスチャ515の表示位置を移動させないように制御する。これにより、HMD110の動きを仮想カメラ300の動きに反映させるために必要な検知データの量を少なくしつつ、テクスチャ515の表示位置の変更を制御することができる。   Further, as described in step S52, the control unit 121 moves the display position of the texture 515 based on the movement of the HMD 110 around the yaw axis (v axis), while the roll axis (w axis) and pitch of the HMD 110. Control is performed so as not to move the display position of the texture 515 based on the movement around the axis (u-axis). Thereby, it is possible to control the change in the display position of the texture 515 while reducing the amount of detection data necessary to reflect the movement of the HMD 110 in the movement of the virtual camera 300.

また、ステップS50で説明したように、仮想カメラ300は、HMD110の動きと連動してその位置が変化せず、その向きが変化する。このように仮想カメラ300の位置を固定することで、HMD110のロール軸周りの動きに基づいてのみテクスチャ515の表示位置を制御する場合でも、UIオブジェクト500に沿って表示される情報の自然な移動動作をさせることができる。   Further, as described in step S50, the virtual camera 300 does not change its position in conjunction with the movement of the HMD 110, and its direction changes. By fixing the position of the virtual camera 300 in this way, even when the display position of the texture 515 is controlled only based on the movement of the HMD 110 around the roll axis, natural movement of information displayed along the UI object 500 is performed. It can be operated.

また、ステップS54およびS56で説明したように、制御部121は、バトルフィールド400内におけるプレイヤキャラクタC1や相手キャラクタC2の所定方向への移動を制限するとともに、所定方向へのキャラクタオブジェクトC1,C2の移動の制限に応じて、テクスチャ515の表示可能位置を制限するために、障壁オブジェクトWを仮想空間200内に配置する。キャラクタオブジェクトC1,C2の移動可能な範囲が狭くなるのに合わせて、テクスチャ515の表示位置を制限することで、ユーザUにバトルフィールド400の大きさをフィードバックすることができる。   Further, as described in steps S54 and S56, the control unit 121 restricts the movement of the player character C1 and the opponent character C2 in the battle field 400 in a predetermined direction and moves the character objects C1 and C2 in the predetermined direction. The barrier object W is arranged in the virtual space 200 in order to limit the displayable position of the texture 515 according to the restriction. The size of the battle field 400 can be fed back to the user U by limiting the display position of the texture 515 as the movable range of the character objects C1 and C2 becomes narrower.

なお、例えばゲームの状況に応じて所定の条件を満たした場合には、テクスチャ515に含まれる情報のうち少なくとも一部を仮想カメラ300の動きに追随させないようにしてもよい。例えば、バトルフィールド400が狭くなった場合には、テクスチャ515に含まれる一部の情報の表示を仮想カメラ300の動きに追随させないことで、バトルフィールド400が狭くなったことをユーザUが認識し得る。   For example, when a predetermined condition is satisfied according to the game situation, at least a part of the information included in the texture 515 may not be allowed to follow the movement of the virtual camera 300. For example, when the battle field 400 is narrowed, the user U can recognize that the battle field 400 is narrowed by not causing the display of some information included in the texture 515 to follow the movement of the virtual camera 300.

また、第二の実施形態においては、各種情報がテクスチャ515としてマッピングされた表示オブジェクト510をUIオブジェクト500に沿って移動させることで、テクスチャ515の表示位置を移動させているが、この例に限られない。例えば、テクスチャがUIオブジェクト500に直接マッピングされ、このテクスチャのUIオブジェクト510上でのマッピング位置を変更することで、テクスチャの表示位置を移動させる構成としても良い。   In the second embodiment, the display position of the texture 515 is moved by moving the display object 510 in which various pieces of information are mapped as the texture 515 along the UI object 500. However, the present invention is not limited to this example. I can't. For example, the texture may be directly mapped to the UI object 500, and the texture display position may be moved by changing the mapping position of the texture on the UI object 510.

以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲およびその均等の範囲に基づいて定められるべきである。   As mentioned above, although embodiment of this indication was described, the technical scope of this invention should not be limitedly interpreted by description of this embodiment. This embodiment is an example, and it is understood by those skilled in the art that various modifications can be made within the scope of the invention described in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the equivalents thereof.

制御部121によって実行される各種処理をソフトウェアによって実現するために、本実施形態に係る表示制御方法をコンピュータ(プロセッサ)に実行させるための表示制御プログラムが記憶部123またはROMに予め組み込まれていてもよい。または、表示制御プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD−ROM,DVD−ROM、Blu−ray(登録商標)ディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体が制御装置120に接続されることで、当該記憶媒体に格納されたプログラムが、記憶部123に組み込まれる。そして、記憶部123に組み込まれた表示制御プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部121は本実施形態に係る表示制御方法を実行する。   In order to realize various processes executed by the control unit 121 by software, a display control program for causing a computer (processor) to execute the display control method according to the present embodiment is incorporated in the storage unit 123 or the ROM in advance. Also good. Alternatively, the display control program can be a magnetic disk (HDD, floppy disk), optical disk (CD-ROM, DVD-ROM, Blu-ray (registered trademark) disk, etc.), magneto-optical disk (MO, etc.), flash memory (SD card) , USB memory, SSD, etc.) may be stored in a computer-readable storage medium. In this case, the program stored in the storage medium is incorporated into the storage unit 123 by connecting the storage medium to the control device 120. Then, the display control program incorporated in the storage unit 123 is loaded on the RAM, and the control unit 121 executes the display control method according to the present embodiment by executing the loaded program.

また、表示制御プログラムは、通信ネットワーク3上のコンピュータから通信インターフェース125を介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該プログラムが記憶部123に組み込まれる。   The display control program may be downloaded from a computer on the communication network 3 via the communication interface 125. Similarly in this case, the downloaded program is incorporated in the storage unit 123.

1:HMDシステム
3:通信ネットワーク
21:中心位置
110:ヘッドマウントディスプレイ(HMD)
112:表示部
114:HMDセンサ
116:ヘッドフォン
120:制御装置
121:制御部
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
200:仮想空間
300:仮想カメラ
400:バトルフィールド(フィールド)
410:移動経路
500:UIオブジェクト(対象オブジェクト)
510:表示オブジェクト
515:テクスチャ
600:固定UI画像
C1:プレイヤキャラクタ(キャラクタオブジェクト)
C2:相手キャラクタ(キャラクタオブジェクト)
CV:視野
U:ユーザ
V:視野画像
W1,W2,W:障壁オブジェクト

1: HMD system 3: Communication network 21: Center position 110: Head mounted display (HMD)
112: Display unit 114: HMD sensor 116: Headphone 120: Control device 121: Control unit 123: Storage unit 124: I / O interface 125: Communication interface 126: Bus 130: Position sensor 200: Virtual space 300: Virtual camera 400: Battle field (field)
410: Movement path 500: UI object (target object)
510: Display object 515: Texture 600: Fixed UI image C1: Player character (character object)
C2: opponent character (character object)
CV: field of view U: user V: field of view images W1, W2, W: barrier object

Claims (10)

ヘッドマウントディスプレイを備えたシステムにおける表示制御方法であって、
(a)仮想カメラおよびキャラクタオブジェクトを含む仮想空間を定義する仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(c)前記ヘッドマウントディスプレイの動きに基づいて前記仮想カメラの向きを変化させることで前記視野画像を更新するステップと、
(d)前記キャラクタオブジェクトが移動可能な範囲を定義するフィールドを、前記仮想カメラの初期位置において前記仮想カメラを囲むように構成するステップと、
(e)所定の移動入力に基づいて、前記キャラクタオブジェクトを前記フィールド内で移動させるステップと、
を含む、表示制御方法。
A display control method in a system including a head mounted display,
(A) generating virtual space data defining a virtual space including a virtual camera and a character object;
(B) displaying a visual field image on the head-mounted display based on the visual field of the virtual camera and the virtual space data;
(C) updating the visual field image by changing the orientation of the virtual camera based on the movement of the head mounted display;
(D) configuring a field defining a range in which the character object is movable so as to surround the virtual camera at an initial position of the virtual camera;
(E) moving the character object within the field based on a predetermined movement input;
Including a display control method.
前記ステップ(e)では、前記移動入力の横方向成分に応じて、前記キャラクタオブジェクトが前記仮想カメラの周方向に移動される、請求項1に記載の表示制御方法。   The display control method according to claim 1, wherein in the step (e), the character object is moved in a circumferential direction of the virtual camera in accordance with a lateral component of the movement input. (f)所定の条件を満たした場合には、前記キャラクタオブジェクトが移動可能な範囲をさらに制限するステップをさらに含む、請求項1または2に記載の表示制御方法。   (F) The display control method according to claim 1, further comprising a step of further restricting a range in which the character object can move when a predetermined condition is satisfied. 前記表示制御方法は、少なくとも一つのラウンドから構成された対戦型ゲームのプレイを行うための方法であって、
前記所定の条件は、前記対戦型ゲームの種類または前記ラウンド中の経過時間を含む、請求項3に記載の表示制御方法。
The display control method is a method for playing a battle game composed of at least one round,
The display control method according to claim 3, wherein the predetermined condition includes a type of the competitive game or an elapsed time during the round.
前記ステップ(f)では、ラウンドのレベルまたは1ラウンド中の時間経過に応じて、前記キャラクタオブジェクトが移動可能な範囲が変更される、請求項3に記載の表示制御方法。   The display control method according to claim 3, wherein in step (f), a range in which the character object can move is changed according to a round level or a lapse of time during one round. 前記ステップ(f)では、障壁オブジェクトを前記フィールド内に設置することで前記キャラクタオブジェクトが移動可能な範囲を制限する、請求項3から5のいずれか一項に記載の表示制御方法。   The display control method according to claim 3, wherein in step (f), a range in which the character object can move is limited by installing a barrier object in the field. 前記ステップ(f)では、前記フィールドの形状を変更することで前記キャラクタオブジェクトが移動可能な範囲を制限する、請求項3から5のいずれか一項に記載の表示制御方法。   The display control method according to claim 3, wherein, in the step (f), a range in which the character object can move is limited by changing a shape of the field. 前記ステップ(c)では、前記仮想カメラは、前記ヘッドマウントディスプレイの動きと連動してその位置が変化せず、その向きが変化する、請求項1から7のいずれか一項に記載の表示制御方法。   The display control according to any one of claims 1 to 7, wherein in the step (c), the position of the virtual camera does not change and the direction of the virtual camera changes in conjunction with the movement of the head mounted display. Method. 前記フィールドにおいて、前記キャラクタオブジェクトの前記視野画像の奥行き方向への移動が禁止される、請求項1から8のいずれか一項に記載の表示制御方法。   The display control method according to claim 1, wherein in the field, movement of the character object in the depth direction of the visual field image is prohibited. 請求項1から9のいずれか一項に記載の表示制御方法をコンピュータに実行させるためのプログラム。

A program for causing a computer to execute the display control method according to any one of claims 1 to 9.

JP2017097712A 2017-05-16 2017-05-16 Display control method and program for causing computer to execute display control method Pending JP2018015547A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017097712A JP2018015547A (en) 2017-05-16 2017-05-16 Display control method and program for causing computer to execute display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017097712A JP2018015547A (en) 2017-05-16 2017-05-16 Display control method and program for causing computer to execute display control method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016145520A Division JP6152997B1 (en) 2016-07-25 2016-07-25 Display control method and program for causing a computer to execute the display control method

Publications (1)

Publication Number Publication Date
JP2018015547A true JP2018015547A (en) 2018-02-01

Family

ID=61075460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017097712A Pending JP2018015547A (en) 2017-05-16 2017-05-16 Display control method and program for causing computer to execute display control method

Country Status (1)

Country Link
JP (1) JP2018015547A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019149133A (en) * 2018-02-28 2019-09-05 株式会社コナミデジタルエンタテインメント Information processing device, program for information processing device, head-mounted display, and information processing system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019149133A (en) * 2018-02-28 2019-09-05 株式会社コナミデジタルエンタテインメント Information processing device, program for information processing device, head-mounted display, and information processing system
WO2019168061A1 (en) * 2018-02-28 2019-09-06 株式会社コナミデジタルエンタテインメント Information processing device, recording medium, head-mounted display, and information processing system
KR20200115622A (en) * 2018-02-28 2020-10-07 가부시키가이샤 코나미 데지타루 엔타테인멘토 Information processing device, computer program stored on recording medium, head mounted display and information processing system
CN111801146A (en) * 2018-02-28 2020-10-20 科乐美数码娱乐株式会社 Information processing device, recording medium, head-mounted display, and information processing system
US11300794B2 (en) 2018-02-28 2022-04-12 Konami Digital Entertainment Co., Ltd. Recording medium, information processing system, and information processing method
KR102469221B1 (en) * 2018-02-28 2022-11-21 가부시키가이샤 코나미 데지타루 엔타테인멘토 Information processing devices, computer programs stored on recording media, head-mounted displays and information processing systems

Similar Documents

Publication Publication Date Title
JP6152997B1 (en) Display control method and program for causing a computer to execute the display control method
EP3398666B1 (en) Game apparatus, processing method, and information storage medium
US9971157B2 (en) Display control method and system for executing the display control method
US10504296B2 (en) Information processing method and system for executing the information processing method
JP6207685B1 (en) Display control method and program for causing a computer to execute the display control method
JP2017187952A (en) Display control method and program for causing computer to execute the method
JP6117414B1 (en) Information processing method and program for causing computer to execute information processing method
JP6207691B1 (en) Information processing method and program for causing computer to execute information processing method
JP2021184272A (en) Information processing method, program, and computer
JP6118444B1 (en) Information processing method and program for causing computer to execute information processing method
JP6342448B2 (en) Display control method and program for causing a computer to execute the display control method
JP2018015547A (en) Display control method and program for causing computer to execute display control method
JP6416338B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6290490B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6266823B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6159455B1 (en) Method, program, and recording medium for providing virtual space
JP6403843B1 (en) Information processing method, information processing program, and information processing apparatus
JP6832320B2 (en) Systems, methods, and programs for providing content using augmented reality technology
JP6449922B2 (en) Information processing method and program for causing computer to execute information processing method
JP2019023869A (en) Information processing method, computer, and program
JP6905022B2 (en) Application control program, application control method and application control system
JP6941130B2 (en) Information processing method, information processing program and information processing device
JP6389305B1 (en) Information processing method, computer, and program
JP2018018499A (en) Information processing method and program for causing computer to execute the method
US20230338841A1 (en) Foveated enhancement of non-xr games within a hmd system