JP6207685B1 - Display control method and program for causing a computer to execute the display control method - Google Patents
Display control method and program for causing a computer to execute the display control method Download PDFInfo
- Publication number
- JP6207685B1 JP6207685B1 JP2016145521A JP2016145521A JP6207685B1 JP 6207685 B1 JP6207685 B1 JP 6207685B1 JP 2016145521 A JP2016145521 A JP 2016145521A JP 2016145521 A JP2016145521 A JP 2016145521A JP 6207685 B1 JP6207685 B1 JP 6207685B1
- Authority
- JP
- Japan
- Prior art keywords
- virtual camera
- display
- movement
- control method
- visual field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】ユーザ・インタフェースをVR空間らしい方法で視野画像内に表示可能な表示制御方法を提供する。【解決手段】ヘッドマウントディスプレイ(HMD)を備えたシステムにおける表示制御方法であって、当該方法は、(a)仮想カメラ300を含む仮想空間200を定義する仮想空間データを生成するステップと、(b)仮想カメラ300の視野CVおよび仮想空間データに基づいてHMDに視野画像Vを表示させるステップと、(c)HMDの動きに基づいて仮想カメラ300を動かすことで視野画像Vを更新するステップと、(d)所定の情報515を表示可能な対象オブジェクト500を、仮想カメラ300の初期位置において仮想カメラ300を囲むように配置するステップと、(e)仮想カメラ300の動きに追随するように、情報515の表示位置を対象オブジェクト500に沿って移動させるステップと、を含む。【選択図】図14Provided is a display control method capable of displaying a user interface in a visual field image by a method similar to a VR space. A display control method in a system including a head mounted display (HMD), the method comprising: (a) generating virtual space data defining a virtual space 200 including a virtual camera 300; b) displaying the visual field image V on the HMD based on the visual field CV and the virtual space data of the virtual camera 300; and (c) updating the visual field image V by moving the virtual camera 300 based on the movement of the HMD. (D) arranging the target object 500 capable of displaying the predetermined information 515 so as to surround the virtual camera 300 at the initial position of the virtual camera 300, and (e) following the movement of the virtual camera 300. Moving the display position of the information 515 along the target object 500. [Selection] Figure 14
Description
本開示は、表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラムに関する。 The present disclosure relates to a display control method and a program for causing a computer to execute the display control method.
プレイヤ対プレイヤ、あるいはプレイヤ対コンピュータ対戦型の格闘ゲームが知られている。特許文献1は、操作コントローラを用いて画面上のゲームキャラクタの動作を制御するゲーム装置に関する発明であって、対戦するゲームキャラクタが画面に表示され、ゲームキャラクタが画面の左右方向に移動しながら対戦が行われる格闘ゲームを開示している。特許文献1のような格闘ゲームでは、ゲームのキャラクタの体力値、必殺技を使用するためのポイントを示すゲージや、勝敗・残り時間といった各種の対戦用パラメータを表示する領域は、画面の所定位置に固定表示されている。 Player-to-player or player-to-computer fighting games are known. Patent Document 1 is an invention relating to a game apparatus that controls the operation of a game character on a screen using an operation controller, in which a game character to be played is displayed on the screen, and the game character moves while moving in the horizontal direction of the screen. Disclosed is a fighting game. In a fighting game such as Patent Document 1, an area for displaying various strengths of a game character, a gauge indicating points for using a special technique, and various battle parameters such as winning / losing / remaining time are displayed at predetermined positions on the screen. Is fixed.
近年、ヘッドマウントディスプレイ(HMD:Head‐Mounted Display)を装着して仮想現実(VR:Virtual Reality)空間に没入できるゲーム(以下、VRゲームと称することがある)が知られており、VR空間らしい体験をユーザに提供するための開発が盛んに行われている。 In recent years, a game that can be immersed in a virtual reality (VR) space (hereinafter referred to as a VR game) by wearing a head-mounted display (HMD: Head-Mounted Display) is known, and seems to be a VR space. There is a great deal of development to provide users with experiences.
本開示は、ユーザ・インタフェースなどの各種情報をVR空間らしい方法で視野画像内に表示可能な表示制御方法を提供することを目的とする。 An object of the present disclosure is to provide a display control method capable of displaying various types of information such as a user interface in a visual field image by a method similar to a VR space.
本開示が示す一態様によれば、ヘッドマウントディスプレイを備えたシステムにおける表示制御方法であって、
当該表示制御方法は、
(a)仮想カメラを含む仮想空間を定義する仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(c)前記ヘッドマウントディスプレイの動きに基づいて前記仮想カメラを動かすことで前記視野画像を更新するステップと、
(d)所定の情報を表示可能な対象オブジェクトを、前記仮想カメラの初期位置において前記仮想カメラを囲むように配置するステップと、
(e)前記仮想カメラの動きに追随するように、前記情報の表示位置を前記対象オブジェクトに沿って移動させるステップと、
を含む。
According to one aspect of the present disclosure, a display control method in a system including a head mounted display,
The display control method is
(A) generating virtual space data defining a virtual space including a virtual camera;
(B) displaying a visual field image on the head-mounted display based on the visual field of the virtual camera and the virtual space data;
(C) updating the visual field image by moving the virtual camera based on the movement of the head mounted display;
(D) arranging a target object capable of displaying predetermined information so as to surround the virtual camera at an initial position of the virtual camera;
(E) moving the display position of the information along the target object so as to follow the movement of the virtual camera;
including.
本開示によれば、ユーザ・インタフェースなどの各種情報をVR空間らしい方法で視野画像内に表示可能な表示制御方法を提供することができる。 According to the present disclosure, it is possible to provide a display control method capable of displaying various types of information such as a user interface in a visual field image by a method similar to a VR space.
[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)ヘッドマウントディスプレイを備えたシステムにおける表示制御方法であって、
当該表示制御方法は、
(a)仮想カメラを含む仮想空間を定義する仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(c)前記ヘッドマウントディスプレイの動きに基づいて前記仮想カメラを動かすことで前記視野画像を更新するステップと、
(d)所定の情報を表示可能な対象オブジェクトを、前記仮想カメラの初期位置において前記仮想カメラを囲むように配置するステップと、
(e)前記仮想カメラの動きに追随するように、前記情報の表示位置を前記対象オブジェクトに沿って移動させるステップと、
を含む。
[Description of Embodiments Presented by the Present Disclosure]
An overview of an embodiment indicated by the present disclosure will be described.
(1) A display control method in a system including a head mounted display,
The display control method is
(A) generating virtual space data defining a virtual space including a virtual camera;
(B) displaying a visual field image on the head-mounted display based on the visual field of the virtual camera and the virtual space data;
(C) updating the visual field image by moving the virtual camera based on the movement of the head mounted display;
(D) arranging a target object capable of displaying predetermined information so as to surround the virtual camera at an initial position of the virtual camera;
(E) moving the display position of the information along the target object so as to follow the movement of the virtual camera;
including.
上記方法によれば、ユーザ・インタフェースなどの各種情報をVR空間らしい方法で視野画像内に表示することができる。 According to the above method, various types of information such as a user interface can be displayed in the visual field image by a method similar to a VR space.
(2)前記ステップ(e)では、
前記ヘッドマウントディスプレイのヨー軸周りの動きに基づいて、前記表示位置を移動させ、
前記ヘッドマウントディスプレイのロール軸およびピッチ軸周りの動きに基づいて、前記表示位置を移動させなくても良い。
(2) In step (e),
Based on the movement of the head mounted display around the yaw axis, the display position is moved,
The display position may not be moved based on the movement of the head mounted display around the roll axis and the pitch axis.
上記方法によれば、ヘッドマウントディスプレイの動きを把握するために必要な検知データの量を少なくしつつ、情報の表示位置を制御することができる。 According to the above method, the display position of information can be controlled while reducing the amount of detection data necessary for grasping the movement of the head mounted display.
(3)前記ステップ(c)では、前記仮想カメラは、前記ヘッドマウントディスプレイの動きと連動してその位置が変化せず、その向きが変化しても良い。 (3) In the step (c), the position of the virtual camera may change without changing its position in conjunction with the movement of the head mounted display.
上記方法によれば、仮想カメラの位置を固定することで、上記の(2)の方法を採用した場合でも、対象オブジェクトに沿って表示される情報の自然な移動動作をさせ得る。また、ヘッドマウントディスプレイの動きに応じて仮想カメラの向きを変更した場合でも仮想カメラの位置が変化することがないため、映像酔い(いわゆるVR酔い)を防止することができる。 According to the above method, by fixing the position of the virtual camera, even when the above method (2) is adopted, a natural movement operation of information displayed along the target object can be performed. In addition, even when the orientation of the virtual camera is changed according to the movement of the head mounted display, the position of the virtual camera does not change, so that video sickness (so-called VR sickness) can be prevented.
(4)前記情報は、所定の移動入力に基づいて前記仮想空間内で移動するキャラクタオブジェクトに関連付けられた情報を含んでも良い。 (4) The information may include information associated with a character object that moves in the virtual space based on a predetermined movement input.
キャラクタオブジェクトに関する各種パラメータ等の情報表示をヘッドマウントディスプレイの動きと連動させることで、VR空間らしさをユーザに体験させることができる。 By displaying information such as various parameters related to the character object in conjunction with the movement of the head-mounted display, the user can experience VR-likeness.
(5)(f)前記キャラクタオブジェクトの移動範囲を規定するフィールドを、前記対象オブジェクトと関連付けて構成するステップを、さらに含み、
前記情報は、前記フィールドに関連付けられた情報を含んでも良い。
(5) (f) further comprising the step of associating and configuring a field defining the movement range of the character object with the target object;
The information may include information associated with the field.
上記方法によれば、フィールド内におけるキャラクタオブジェクトの動きに追従したヘッドマウントディスプレイの動きに連動して、キャラクタオブジェクトやフィールドに関する情報の表示位置を変更することができる。 According to the above method, the display position of the information related to the character object and the field can be changed in conjunction with the movement of the head mounted display following the movement of the character object in the field.
(6)(g)前記フィールド内における前記キャラクタオブジェクトの所定方向への移動を制限するステップと、
(h)前記所定方向への前記キャラクタオブジェクトの移動の制限に応じて、前記対象オブジェクトに沿った前記情報の表示可能位置を制限するステップと、をさらに含んでも良い。
(6) (g) limiting the movement of the character object in a predetermined direction within the field;
(H) The method may further include a step of restricting a displayable position of the information along the target object in accordance with a restriction on the movement of the character object in the predetermined direction.
上記方法によれば、キャラクタオブジェクトの移動可能な範囲が狭くなるのに合わせて情報の表示位置を制限することで、ユーザにフィールドの大きさをフィードバックすることができる。 According to the above method, the size of the field can be fed back to the user by limiting the display position of the information as the range in which the character object can move is narrowed.
(7)(i)所定の条件を満たした場合には、前記情報のうち少なくとも一部を前記仮想カメラの動きに追随させないステップを、さらに含んでも良い。 (7) (i) When a predetermined condition is satisfied, the method may further include a step of not causing at least a part of the information to follow the movement of the virtual camera.
例えば、フィールドが狭くなった場合には仮想カメラの動きに情報の表示を追随させないことで、フィールドが狭くなったことをユーザが認識し得る。 For example, when the field is narrowed, the user can recognize that the field is narrowed by not causing the display of information to follow the movement of the virtual camera.
(8)前記ステップ(e)では、前記情報がテクスチャとして前記対象オブジェクトにマッピングされる位置を変更することで、前記表示位置を移動させても良い。 (8) In the step (e), the display position may be moved by changing a position where the information is mapped to the target object as a texture.
(9)前記ステップ(e)では、前記情報がテクスチャとしてマッピングされた表示オブジェクトを前記対象オブジェクトに沿って移動させることで、前記表示位置を移動させても良い。 (9) In the step (e), the display position may be moved by moving a display object in which the information is mapped as a texture along the target object.
これらの方法によれば、ヘッドマウントディスプレイの動きに連動して、各種情報の表示位置を容易に変更することができる。 According to these methods, it is possible to easily change the display position of various information in conjunction with the movement of the head mounted display.
(10)一実施形態に係るプログラムは、(1)から(9)のうちいずれかに記載の表示制御方法をコンピュータに実行させるためのプログラムである。 (10) A program according to an embodiment is a program for causing a computer to execute the display control method according to any one of (1) to (9).
この構成によれば、ユーザ・インタフェースなどの各種情報をVR空間らしい方法で視野画像内に表示可能なプログラムを提供することができる。 According to this configuration, it is possible to provide a program that can display various types of information such as a user interface in a visual field image by a method similar to a VR space.
[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。なお、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Presented by the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, about the member which has the same reference number as the member already demonstrated in description of this embodiment, the description is not repeated for convenience of explanation.
(第一の実施形態)
図1は、本開示が示す実施形態(以下、単に本実施形態という。)に係るヘッドマウントディスプレイ(以下、単にHMDという。)システム1を示す概略図である。図1に示すように、HMDシステム1は、ユーザUの頭部に装着されたHMD110と、位置センサ130と、制御装置120と、外部コントローラ320とを備える。
(First embodiment)
FIG. 1 is a schematic diagram showing a head-mounted display (hereinafter simply referred to as HMD) system 1 according to an embodiment (hereinafter simply referred to as this embodiment) shown in the present disclosure. As shown in FIG. 1, the HMD system 1 includes an
HMD110は、表示部112と、HMDセンサ114と、ヘッドフォン116とを備えている。なお、HMD110にヘッドフォン116を設けずに、HMD110とは独立したスピーカやヘッドフォンを用いても良い。
The
表示部112は、HMD110を装着したユーザUの視界(視野)を覆うように構成された非透過型の表示装置を備えている。HMD110は、透過型表示装置を備えており、当該透過型表示装置の透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。これにより、ユーザUは、表示部112に表示された視野画像のみを見ることで仮想空間に没入することができる。なお、表示部112は、ユーザUの左眼に投影される左眼用の表示部とユーザUの右眼に投影される右眼用の表示部とから構成されてもよい。
The
HMDセンサ114は、HMD110の表示部112の近傍に搭載される。HMDセンサ114は、地磁気センサ、加速度センサ、傾きセンサ(角速度センサやジャイロセンサ等)のうちの少なくとも1つを含み、ユーザUの頭部に装着されたHMD110の各種動きを検出することができる。
The
位置センサ130は、例えば、ポジション・トラッキング・カメラにより構成され、HMD110の位置を検出するように構成されている。位置センサ130は、制御装置120に無線または有線により通信可能に接続されており、HMD110に設けられた図示しない複数の検知点の位置、傾きまたは発光強度に関する情報を検出するように構成されている。また、位置センサ130は、赤外線センサや複数の光学カメラを含んでもよい。
The
制御装置120は、位置センサ130から取得された情報に基づいて、HMD110の位置情報を取得し、当該取得された位置情報に基づいて、仮想空間における仮想カメラの位置と、現実空間におけるHMD110を装着したユーザUの位置を正確に対応付けることができる。
The
次に、図2を参照して、HMD110の位置や傾きに関する情報を取得する方法について説明する。図2は、HMD110を装着したユーザUの頭部を示す図である。HMD110を装着したユーザUの頭部の動きに連動したHMD110の位置や傾きに関する情報は、位置センサ130および/またはHMD110に搭載されたHMDセンサ114により検出可能である。図2に示すように、HMD110を装着したユーザUの頭部を中心として、3次元座標(uvw座標)が規定される。ユーザUが直立する垂直方向をv軸として規定し、v軸と直交し表示部112の中心とユーザUとを結ぶ方向をw軸として規定し、v軸およびw軸と直交する方向をu軸として規定する。位置センサ130および/またはHMDセンサ114は、各uvw軸回りの角度(すなわち、v軸を中心とする回転を示すヨー角、u軸を中心とした回転を示すピッチ角、w軸を中心とした回転を示すロール角で決定される傾き)を検出する。制御装置120は、検出された各uvw軸回りの角度変化に基づいて、視野情報を定義する仮想カメラの視軸を制御するための角度情報を決定する。
Next, with reference to FIG. 2, a method for acquiring information related to the position and inclination of the
次に、図3を参照して、制御装置120のハードウェア構成について説明する。図3に示すように、制御装置120は、制御部121と、記憶部123と、I/O(入出力)インターフェース124と、通信インターフェース125と、バス126とを備える。制御部121と、記憶部123と、I/Oインターフェース124と、通信インターフェース125とは、バス126を介して互いに通信可能に接続されている。
Next, the hardware configuration of the
制御装置120は、HMD110とは別体に、パーソナルコンピュータ、タブレットまたはウェアラブルデバイスとして構成されてもよいし、HMD110の内部に搭載されていてもよい。また、制御装置120の一部の機能がHMD110に搭載されると共に、制御装置120の残りの機能がHMD110とは別体の他の装置に搭載されてもよい。
The
制御部121は、メモリとプロセッサを備えている。メモリは、例えば、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)および/またはGPU(Graphics Processing Unit)であって、ROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。
The
特に、プロセッサが本実施形態に係る表示制御方法をコンピュータに実行させるための表示制御プログラム(後述する)をRAM上に展開し、RAMとの協働で当該プログラムを実行することで、制御部121は、制御装置120の各種動作を制御してもよい。制御部121は、メモリや記憶部123に格納された所定のアプリケーション(ゲームプログラム)を実行することで、HMD110の表示部112に仮想空間(視野画像)を提供する。これにより、ユーザUは、表示部112に提供された仮想空間に没入することができる。
In particular, the
記憶部(ストレージ)123は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、USBフラッシュメモリ等の記憶装置であって、プログラムや各種データを格納するように構成されている。記憶部123には、表示制御プログラムが組み込まれてもよい。また、ユーザの認証プログラムや各種画像やオブジェクトに関するデータを含むゲームプログラム等が格納されてもよい。さらに、記憶部123には、各種データを管理するためのテーブルを含むデータベースが構築されてもよい。
The storage unit (storage) 123 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a USB flash memory, and is configured to store programs and various data. The
I/Oインターフェース124は、位置センサ130と、HMD110と、外部コントローラ320をそれぞれ制御装置120に通信可能に接続するように構成されており、例えば、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High―Definition Multimedia Interface)端子等により構成されている。なお、制御装置120は、位置センサ130と、HMD110と、外部コントローラ320のそれぞれと無線接続されていてもよい。
The I /
通信インターフェース125は、制御装置120をLAN(Local Area Network)、WAN(Wide Area Network)またはインターネット等の通信ネットワーク3に接続させるように構成されている。通信インターフェース125は、通信ネットワーク3を介して外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んでおり、通信ネットワーク3を介して通信するための通信規格に適合するように構成されている。
The
次に、図4から図6を参照することで視野画像をHMD110に表示するための処理について説明する。図4は、視野画像をHMD110に表示するための処理を示すフローチャートである。図5は、仮想空間200の一例を示すxyz空間図を示す。図6(a)は、図5に示す仮想空間200のyx平面図であって、図6(b)は、図5に示す仮想空間200のzx平面図である。
Next, processing for displaying a field-of-view image on the
図4に示すように、ステップS1において、制御部121(図3参照)は、仮想カメラ300を含む仮想空間200を定義する仮想空間データを生成する。図5および図6に示すように、仮想空間200は、中心位置21を中心とした全天球として規定される(図5および図6では、上半分の天球のみが図示されている)。また、仮想空間200には、中心位置21を原点とするxyz座標系が設定されている。HMDシステム1の初期状態では、仮想カメラ300が仮想空間200の中心位置21に配置されている。
仮想カメラ300の視野を定義するuvw座標系は、現実空間におけるユーザUの頭部を中心として規定されたuvw座標系に連動するように決定される。また、HMD110を装着したユーザUの現実空間における移動に連動して、仮想カメラ300を仮想空間200内で移動させてもよい。
As shown in FIG. 4, in step S <b> 1, the control unit 121 (see FIG. 3) generates virtual space data that defines the
The uvw coordinate system that defines the visual field of the
次に、ステップS2において、制御部121は、仮想カメラ300の視野CV(図6参照)を特定する。具体的には、制御部121は、位置センサ130および/またはHMDセンサ114から送信されたHMD110の状態を示すデータに基づいて、HMD110の位置や傾きに関する情報を取得する。次に、制御部121は、HMD110の位置や傾きに関する情報に基づいて、仮想空間200内における仮想カメラ300の位置や向きを決定する。次に、制御部121は、仮想カメラ300の位置や向きから仮想カメラ300の視軸に相当する基準視線Lを決定し、決定された基準視線Lから仮想カメラ300の視野CVを特定する。ここで、仮想カメラ300の視野CVは、HMD110を装着したユーザUが視認可能な仮想空間200の一部の領域と一致する。換言すれば、視野CVは、HMD110に表示される仮想空間200の一部の領域に一致する。また、視野CVは、図6(a)に示すxy平面において、基準視線Lを中心とした極角θαの角度範囲として設定される第1領域CVaと、図6(b)に示すxz平面において、基準視線Lを中心とした方位角θβの角度範囲として設定される第2領域CVbとを有する。
Next, in step S2, the
このように、制御部121は、位置センサ130および/またはHMDセンサ114からのデータに基づいて、仮想カメラ300の視野CVを特定することができる。ここで、HMD110を装着したユーザUが動くと、制御部121は、位置センサ130および/またはHMDセンサ114から送信されたHMD110の動きを示すデータに基づいて、仮想カメラ300の視野CVを特定することができる。つまり、制御部121は、HMD110の動きに応じて、視野CVを移動させることができる。
As described above, the
次に、ステップS3において、制御部121は、HMD110の表示部112に表示される視野画像を示す視野画像データを生成する。具体的には、制御部121は、仮想空間200を規定する仮想空間データと、仮想カメラ300の視野CVとに基づいて、視野画像データを生成する。すなわち、仮想カメラ300の視野CVにより、仮想空間データのうち視野画像データとして描画される範囲が定まる。
Next, in step S <b> 3, the
次に、ステップS4において、制御部121は、視野画像データに基づいて、HMD110の表示部112に視野画像を表示する。このように、HMD110を装着しているユーザUの動きに応じて、仮想カメラ300の視野CVが変化し、HMD110に表示される視野画像Vが変化するので、ユーザUは仮想空間200に没入することができる。
Next, in step S <b> 4, the
次に、本実施形態に係る表示制御方法について、図7から図9を参照して説明する。図7は、本実施形態に係る表示制御方法を説明するためのフローチャートである。図8(a)は、仮想空間内に仮想カメラ、バトルフィールド、およびキャラクタオブジェクトが配置された状態を示す模式図であり、図8(b)は、図8(a)の場合にHMDに表示される視野画像を示す図である。図9(a)は、バトルフィールド内においてキャラクタオブジェクトが移動した状態を示す図であり、図9(b)は、移動したキャラクタオブジェクトを追って仮想カメラが移動された状態を示す図である。 Next, the display control method according to the present embodiment will be described with reference to FIGS. FIG. 7 is a flowchart for explaining the display control method according to the present embodiment. FIG. 8A is a schematic diagram showing a state in which a virtual camera, a battle field, and a character object are arranged in the virtual space, and FIG. 8B is displayed on the HMD in the case of FIG. FIG. FIG. 9A is a diagram illustrating a state in which the character object has moved in the battle field, and FIG. 9B is a diagram illustrating a state in which the virtual camera is moved following the moved character object.
最初に、図8(a)に示すように、本実施形態に係る仮想空間200は、仮想カメラ300と、バトルフィールド400(フィールドの一例)と、キャラクタオブジェクトC1,C2とを含む。制御部121は、これらを含む仮想空間200を規定する仮想空間データを生成している。
First, as shown in FIG. 8A, the
バトルフィールド400は、仮想空間200内において、仮想カメラ300の周囲を取り囲む領域として規定されている。バトルフィールド400は、仮想カメラ300の初期位置における仮想空間200の水平面(図8(a)におけるxz面)内において、仮想カメラ300を囲むように配置されることが好ましい。本例においては、バトルフィールド400は、仮想カメラ300の初期位置における垂直軸(Y軸)周りに配置された真円状に形成されている。なお、バトルフィールド400は、仮想カメラ300の周囲を囲む形状であれば良く、楕円状や多角形状であっても良い。このバトルフィールド400は、キャラクタオブジェクトC1,C2が移動可能な範囲を定義する。また、バトルフィールド400の中心径に相当する経路410が、キャラクタオブジェクトC1,C2の移動経路として規定されている。移動経路410は、例えばバトルフィールド400の中心径(=(外径+内径)/2)上に設けられるが、バトルフィールド400の径方向において任意の場所に設定可能である。なお、移動経路410を設けることなく、バトルフィールド400内であればキャラクタオブジェクトC1,C2が任意に移動できるように構成しても良い。
The
本例では、キャラクタオブジェクトC1,C2のうちプレイヤキャラクタC1が、HMD110を装着したユーザUが操作可能なオブジェクトであるものとする。一方、相手キャラクタC2は、ユーザ同士の対戦型ゲームの場合には他のユーザによって操作されるオブジェクトであり、ユーザ対コンピュータの対戦型ゲームの場合には制御装置120(制御部121)によって操作されるオブジェクトであるものとする。すなわち、バトルフィールド400は、例えば格闘ゲームなどの対戦型ゲームにおいて、プレイヤキャラクタC1と相手キャラクタC2との対戦の舞台となるバトルフィールドとして構成されており、プレイヤキャラクタC1や相手キャラクタC2が移動経路410を移動しながら対戦が行われる。
In this example, it is assumed that the player character C1 among the character objects C1 and C2 is an object that can be operated by the user U wearing the
図7に示すように、ステップS20において、制御部121は、対戦ゲームの開始時に、仮想カメラ300の視野CV内にプレイヤキャラクタC1および相手キャラクタC2が含まれるように、仮想カメラ300の初期位置およびバトルフィールド400内でのキャラクタオブジェクトC1,C2の位置を決定する。
As shown in FIG. 7, in step S20, the
ステップS20の状態で、HMD110の表示部112に表示される視野画像Vを図8(b)に示す。図8(b)に示すように、視野画像Vには、バトルフィールド400と、バトルフィールド400上のキャラクタオブジェクトC1,C2が表示される。また、視野画像Vの所定位置(ここでは、画面下方)には、各キャラクタオブジェクトC1,C2のヒットポイント(HP)値や必殺技を使用するためのスキルポイント(SP)値のゲージを含む固定ユーザ・インタフェース(UI)画像600が表示されている。
FIG. 8B shows the visual field image V displayed on the
次に、ステップS22において、制御部121は、各キャラクタオブジェクトC1,C2に対する操作入力を受けたか否かを判定する。例えば、ユーザUが外部コントローラ320の操作ボタンを操作した場合、制御部121は、プレイヤキャラクタC1に対する操作入力を受けたと判定する。具体的には、外部コントローラ320は、操作ボタンに対するユーザUの入力操作に応じて、プレイヤキャラクタC1を動作させることを指示する指示信号を生成し、当該生成された指示信号を制御装置120へ送信する。また、制御部121は、プレイヤキャラクタC1に対する操作入力とは別に、相手キャラクタC2に対する操作入力を受けたか否かを判定する。
Next, in step S22, the
プレイヤキャラクタC1および/または相手キャラクタC2への操作入力を受けたと判定した場合(ステップS22のYes)、ステップS24において、制御部121は、当該操作入力に基づいて各キャラクタオブジェクトC1,C2を動作させる。具体的には、制御部121は、I/Oインターフェース124を介して外部コントローラ320からの指示信号を受信し、当該受信した指示信号に基づいて、プレイヤキャラクタC1を動作させる。また、制御部121は、他のユーザが操作する外部コントローラからの指示信号に基づいて、あるいは制御部121自身が生成する指示信号に基づいて、相手キャラクタC2を動作させる。例えば、図9(a)に示すように、各キャラクタオブジェクトC1,C2に対して水平方向(図中のX方向)の移動入力操作が行われた場合には、制御部121は、キャラクタオブジェクトC1,C2を仮想カメラ300の周方向に(移動経路410上を)移動させる。
When it is determined that an operation input to the player character C1 and / or the opponent character C2 has been received (Yes in step S22), in step S24, the
次に、ステップS22と並行して(あるいはステップS24の後に)、ステップ26において、制御部121は、HMD110を装着したユーザUが動いたか否か、すなわち、仮想カメラ300に対する移動入力があったか否かを判定する。そして、制御部121は、仮想カメラ300に対する移動入力があったと判定した場合には(ステップS26のYes)、ステップS28において、図9(b)に示すように、当該移動入力に基づいて仮想空間200内で仮想カメラ300の向きを変更する。具体的には、制御部121は、HMD110の動きと連動するように、仮想カメラ300の位置はそのままの状態で回転させる。すなわち、制御部121は、HMD110の動きに連動して仮想カメラ300の位置を変化させず、仮想カメラ300の向きを変化させる。このように、HMD100の動きに応じて仮想カメラ300の位置を変化させずに向きのみ変化させることで、ユーザUの映像酔い(いわゆるVR酔い)を防止することができる。
Next, in parallel with step S22 (or after step S24), in step 26, the
次に、ステップS30において、制御部121は、所定の条件を満たしているか否かを判定する。そして、所定の条件を満たしていないと判定した場合には、制御部121の処理はステップS22および/またはステップS26に戻る。一方、所定の条件を満たしていると判定した場合には(ステップS30のYes)、ステップS32において、制御部121は、図10に示すように、バトルフィールド400内の所定位置に障壁オブジェクトW1を配置する。ここで、所定の条件とは、例えば、対戦型ゲームの種類や対戦型ゲームの各ラウンドでの経過時間等を含む。すなわち、ゲームの種類に応じて、予めバトルフィールド400内に障壁オブジェクトW1を配置しても良く、また、対戦ラウンドの開始から所定時間経過後にバトルフィールド400内に障壁オブジェクトW1を配置しても良い。
Next, in step S30, the
障壁オブジェクトW1は、仮想カメラ300の初期位置において、仮想カメラ300の視野の方向とは反対側(仮想カメラ300の後方側)に配置されることが好ましい。仮想カメラ300の初期位置における後方側はユーザUが見難いため、この後方側のバトルフィールド400を潰していくことが好都合である。また、制御部121は、対戦ラウンドのレベルまたは1ラウンド中の時間経過に応じて、障壁オブジェクトW1の位置を変更したり、新たな障壁オブジェクトW2(図10)を配置しても良い。なお、仮想カメラ300の視野CV内に障壁オブジェクトW2を含むように仮想カメラ300の向きが変更された場合には、図11(a)に示すように、視野画像内に障壁オブジェクトW2が表示される。
The barrier object W <b> 1 is preferably arranged on the side opposite to the visual field direction of the virtual camera 300 (the rear side of the virtual camera 300) at the initial position of the
次に、ステップS34において、制御部121は、プレイヤキャラクタC1および相手キャラクタC2の少なくとも一方が、障壁オブジェクトW1,W2に接触したかどうかを判定する。そして、キャラクタオブジェクトC1,C2が障壁オブジェクトW1,W2に接触したと判定した場合には(ステップS34のYes)、ステップS36において、制御部121は、キャラクタオブジェクトC1,C2が所定以上の力で障壁オブジェクトW1,W2に接触したかどうかを判定する。そして、キャラクタオブジェクトC1,C2が所定以上の力で接触していないと判定した場合には(ステップS36のNo)、ステップS38において、制御部121は、キャラクタオブジェクトC1,C2が障壁オブジェクトW1,W2よりも先に進めないよう、キャラクタオブジェクトC1,C2の移動を制限する。すなわち、障壁オブジェクトW1,W2がバトルフィールド400内に設置されることで、キャラクタオブジェクトC1,C2が移動可能な範囲が制限される。
Next, in step S34, the
一方、所定以上の力で接触したと判定した場合には(ステップS36のYes)、ステップS40において、制御部121は、障壁オブジェクトW1,W2を破壊する。例えば、図11(b)に示すように、相手キャラクタC2がプレイヤキャラクタC1を攻撃し、プレイヤキャラクタC1が障壁オブジェクトW2に所定の力以上で接触した(強くぶつかった)場合には、障壁オブジェクトW2が破壊される。これにより、障壁オブジェクトW2によるキャラクタオブジェクトC1,C2の移動の制限が解除される。
On the other hand, when it determines with having contacted with the force more than predetermined (Yes of step S36), the
以上説明したように、本実施形態によれば、制御部121は、キャラクタオブジェクトC1,C2が移動可能な範囲を定義するバトルフィールド400を、仮想カメラ300の初期位置において仮想カメラ300を囲むように構成し、所定の移動入力に基づいて、キャラクタオブジェクトC1,C2をバトルフィールド400内で移動させる。これにより、従来のゲームの操作感を踏襲しつつ、VR空間らしい体験をユーザに提供することができる
As described above, according to the present embodiment, the
また、ステップS24で説明したように、移動入力の横方向成分に応じて、キャラクタオブジェクトC1,C2が仮想カメラ300の周方向に移動される。このように、キャラクタオブジェクトC1,C2がHMD110を装着したユーザUを中心として弧を描くように移動するため、VRらしい新規な体験をユーザUに提供することができる。
Further, as described in step S <b> 24, the character objects C <b> 1 and C <b> 2 are moved in the circumferential direction of the
また、ステップS32で説明したように、所定の条件を満たした場合には、キャラクタオブジェクトC1,C2が移動可能な範囲をさらに制限する障壁オブジェクトW1,W2をバトルフィールド400内に配置する。このように、ゲームの種類や対戦ラウンド中の時間経過に応じてプレイヤキャラクタC1や相手キャラクタC2の移動可能範囲を狭くすることで、ゲーム性を高めつつVR空間らしい体験をユーザに提供することができる。また、新たな障壁オブジェクトを追加したり、障壁オブジェクトの位置を変更したりすることで、対戦ラウンドのレベルや1ラウンド中の時間経過とともに徐々にキャラクタオブジェクトC1,C2の逃げ場が狭くなっていくといったVR空間らしい体験をユーザに提供することができる。
Further, as described in step S <b> 32, when predetermined conditions are satisfied, barrier objects W <b> 1 and W <b> 2 that further limit the range in which the character objects C <b> 1 and C <b> 2 can move are arranged in the
このように、ラウンドの進行等に伴って障壁オブジェクトをバトルフィールド400に設置することで、ラウンドの開始時はキャラクタオブジェクトC1,C2が周方向に無限に移動できる、いわゆる無限フィールドをユーザに提供することができる。また、ラウンドの経過に伴って障壁オブジェクトが設置されると、障壁オブジェクトに向けて、相手キャラクタC2を追い詰める、または、プレイヤキャラクタC1が障壁オブジェクトに追い詰められないようにする、といった駆け引きをプレイヤであるユーザUに提供することができる。ここで、バトルフィールド400は、上述したように仮想カメラ300を囲むように配置されている。これにより、無限フィールドの状態から障壁オブジェクトが設置されたとしても、プレイヤに対し、キャラクタオブジェクトC1,C2が移動可能な範囲を、仮想カメラ300を垂直軸(Y軸)周りに回転させることで容易に把握させることができる。すなわち、プレイヤは、障壁オブジェクトがバトルフィールド400に設置されると、キャラクタオブジェクトC1,C2が移動可能な範囲の広さを、仮想カメラ300を垂直軸(Y軸)周りに回転させる範囲として容易に認識することができる。
In this way, by providing a barrier object in the
なお、上記の実施形態では、制御部121は、障壁オブジェクトW1,W2をバトルフィールド400内に設置することでキャラクタオブジェクトC1,C2が移動可能な範囲を制限しているが、この例に限られない。例えば、図12に示すように、バトルフィールド400自体の形状を変更することでキャラクタオブジェクトC1,C2が移動可能な範囲を制限しても良い。このとき、対戦ラウンドのレベルや1ラウンド中の時間経過等に応じて、破線Mで示したように、バトルフィールド400の形状を徐々に狭くしても良い。
In the above embodiment, the
(第二の実施形態)
次に、第二の実施形態に係る表示制御方法について、図13から図16を参照して説明する。図13は、第二の実施形態に係る表示制御方法を説明するためのフローチャートである。図14(a)は、バトルフィールドに関連付けられて表示オブジェクトが配置された状態を示す模式図であり、図14(b)は、図14(a)の場合の視野画像を示す図である。図15(a)は、仮想カメラの向きが図14(a)から水平方向に変化した状態を示す図であり、図15(b)は、図15(a)の場合の視野画像を示す図である。図16は、仮想カメラの向きが図14(a)から上方向に変化した場合の視野画像を示す図である。
(Second embodiment)
Next, a display control method according to the second embodiment will be described with reference to FIGS. FIG. 13 is a flowchart for explaining the display control method according to the second embodiment. FIG. 14A is a schematic diagram showing a state in which display objects are arranged in association with the battle field, and FIG. 14B is a diagram showing a visual field image in the case of FIG. FIG. 15A is a diagram illustrating a state in which the orientation of the virtual camera is changed in the horizontal direction from FIG. 14A, and FIG. 15B is a diagram illustrating a visual field image in the case of FIG. It is. FIG. 16 is a diagram illustrating a visual field image when the orientation of the virtual camera is changed upward from FIG.
最初に、図14(a)に示すように、本実施形態に係る仮想空間200は、仮想カメラ300と、バトルフィールド400と、キャラクタオブジェクトC1,C2と、ユーザ・インタフェース・オブジェクト500(以下、UIオブジェクトと称する。UIオブジェクトは対象オブジェクトの一例である)と、を含む。制御部121は、これらを含む仮想空間200を規定する仮想空間データを生成している。仮想カメラ300、バトルフィールド400、およびキャラクタオブジェクトC1,C2は第一の実施形態と同様の構成であるため、その詳細な説明は省略する。
First, as shown in FIG. 14A, a
UIオブジェクト500は、仮想空間200内において、仮想カメラ300の周囲を取り囲むように配置されている。具体的には、UIオブジェクト500は、仮想カメラ300を囲むように配置されたバトルフィールド400の外周部に配置されている。このUIオブジェクト500は、Y軸方向において、バトルフィールド400から所定の高さだけ上方に設置されていることが好ましい。
The
図13に示すように、ステップ50において、制御部121は、対戦ゲームの開始時に、仮想カメラ300の初期位置における視野CV内に、キャラクタオブジェクト(プレイヤキャラクタC1、相手キャラクタC2)とUIオブジェクト500とが含まれるように、仮想カメラ300の初期位置およびバトルフィールド400内でのキャラクタオブジェクトC1,C2の位置を決定する。次に、ステップ52において、制御部121は、仮想カメラ300の初期位置の視野CV内に含まれる領域に、UIオブジェクト500に沿って表示オブジェクト510を配置する。表示オブジェクト510の仮想カメラ300と対向する面(表面)には、各種情報を含むテクスチャ515がマッピングされている。
As shown in FIG. 13, in
ステップS52においてHMD110の表示部112に表示される視野画像Vを図14(b)に示す。
図14(b)に示すように、視野画像Vには、バトルフィールド400およびバトルフィールド400上のキャラクタオブジェクトC1,C2が表示されるとともに、UIオブジェクト500およびUIオブジェクト500に沿って配置された表示オブジェクト510にマッピングされたテクスチャ515が表示される。UIオブジェクト500は、例えば、ユーザUの周囲を取り囲む円筒形の電光掲示板として、仮想カメラ300の初期位置における視野画像V内の上方に表示される。なお、UIオブジェクト500の形状は、本実施形態に例示のものに限られず、様々な態様を採用することができる。表示オブジェクト510の表面にマッピングされるテクスチャ515は、例えば、各キャラクタオブジェクトC1,C2のHP値やSP値、ラウンドの残り時間、得点、武器・防具等の各種情報を含む。なお、視野画像Vの下方には、例えば、HP値やSP値を含む固定UI画像600が表示されている。固定UI画像600は、UIオブジェクト500とは異なり、プレイヤキャラクタC1と相手キャラクタC2との対戦中に常に視野画像Vの所定位置に固定表示される。
A field-of-view image V displayed on the
As shown in FIG. 14B, the field image V displays the
次に、ステップS54において、制御部121は、プレイヤキャラクタC1および/または相手キャラクタC2に対する操作入力を受けたか否かを判定する。プレイヤキャラクタC1および/または相手キャラクタC2への操作入力を受けたと判定した場合(ステップS54のYes)、ステップS56において、制御部121は、当該操作入力に基づいて各キャラクタオブジェクトC1,C2を動作させる。第一実施形態と同様に、各キャラクタオブジェクトC1,C2に対して水平方向(図中のX方向)の移動入力操作が行われた場合には、制御部121は、バトルフィールド400内でキャラクタオブジェクトC1,C2を仮想カメラ300の周方向に移動させる(図9(a)参照)。そして、制御部121は、処理をステップS54へ戻す。
Next, in step S54, the
ステップS54と並行して(あるいはステップS56の後に)、ステップ58において、制御部121は、仮想カメラ300に対する移動入力があったか否かを判定する。そして、制御部121は、仮想カメラ300に対する移動入力があったと判定した場合には(ステップS58のYes)、ステップS60において、図15(a)に示すように、当該移動入力に基づいて仮想空間200内で仮想カメラ300の位置を固定した状態で、仮想カメラ300の向きを変更する。すなわち、仮想カメラ300は、HMD110の動きと連動してその位置が変化せず、その向きのみが変化する。これにより、ユーザUの映像酔い(いわゆるVR酔い)を防止することができる。
In parallel with step S54 (or after step S56), in step 58, the
次に、ステップS62において、制御部121は、ステップS60で変更された仮想カメラ300の向きに応じて、仮想カメラ300の視野CV内にテクスチャ515が表示されるようにUIオブジェクト500に沿って配置される表示オブジェクト510の位置を変更する。このときの視野画像Vの表示を図15(b)に示す。図15(b)に示すように、制御部121は、仮想カメラ300の動きに追随するように、表示オブジェクト510の位置をUIオブジェクト500に沿って移動させる。これにより、仮想カメラ300の視野CV内に常にテクスチャ515が表示される。
Next, in step S62, the
本例では、UIオブジェクト500は、バトルフィールド400から所定の高さだけ上方において水平方向に延在するように設置されている。そのため、HMD110の動きに応じて仮想カメラ300の向きが初期位置から上方向(Y軸方向)に変更された場合には、図16に示すように、視野画像V内においてUIオブジェクト500の位置が下方に移動した状態でテクスチャ515がUIオブジェクト500に沿って表示される。このように、表示オブジェクト510の位置(すなわち、テクスチャ515の表示位置)は、仮想カメラ300のY軸方向における向きの変更に連動することがない。すなわち、ステップS52において、制御部121は、HMD110のヨー軸(v軸)周りの動きに基づいて、テクスチャ515の表示位置を移動させる一方、HMD110のロール軸(w軸)およびピッチ軸(u軸)周りの動きに基づいて、テクスチャ515の表示位置を移動させないように制御する。
In this example, the
次に、ステップS64において、制御部121は、対戦型ゲームの種類や対戦型ゲームの各ラウンドでの経過時間等を含む所定の条件を満たしているか否かを判定する。そして、所定の条件を満たしていると判定した場合には(ステップS64のYes)、ステップS66において、制御部121は、図17に示すように、バトルフィールド400内の所定位置に障壁オブジェクトWを配置する。そして、制御部121は、処理をステップS54およびステップS58へ戻す。
Next, in step S64, the
障壁オブジェクトWは、バトルフィールド400だけではなくUIオブジェクト500に対しても配置されることが好ましい。これにより、プレイヤキャラクタC1や相手キャラクタC2が移動可能な範囲を変更することができるとともに、UIオブジェクト500に沿った表示オブジェクト510の移動位置も制限することができる。なお、第一の実施形態と同様に、制御部121は、対戦ラウンドのレベルまたは1ラウンド中の時間経過に応じて、障壁オブジェクトWの位置を変更したり、障壁オブジェクトWとは異なる新たな障壁オブジェクトを配置しても良い。また、第一の実施形態のステップS40のように、制御部121は、キャラクタオブジェクトC1,C2が障壁オブジェクトWに所定以上の力で接触した場合には障壁オブジェクトWを破壊するように制御しても良い。
The barrier object W is preferably arranged not only for the
以上説明したように、本実施形態によれば、制御部121は、所定の情報を含むテクスチャ515を表示可能な表示オブジェクト510の位置を定義するUIオブジェクト500を、仮想カメラ300の初期位置において仮想カメラ300を囲むように配置し、仮想カメラ300の動きに追随するように、表示オブジェクト510の位置(テクスチャ515の表示位置)をUIオブジェクト500に沿って移動させる。これにより、HMD110を装着したユーザUが自らの動きに追随して移動するテクスチャ515を常に視認することができる。また、UIオブジェクト500を仮想空間200内における看板(電光掲示板)のような態様で構成すれば、仮想空間200の世界観に適するようにユーザUにテクスチャ515を視認させることができる。これにより、VR空間らしい体験をユーザに提供することができる。
As described above, according to the present embodiment, the
また、ステップS52で説明したように、制御部121は、HMD110のヨー軸(v軸)周りの動きに基づいて、テクスチャ515の表示位置を移動させる一方、HMD110のロール軸(w軸)およびピッチ軸(u軸)周りの動きに基づいて、テクスチャ515の表示位置を移動させないように制御する。これにより、HMD110の動きを仮想カメラ300の動きに反映させるために必要な検知データの量を少なくしつつ、テクスチャ515の表示位置の変更を制御することができる。
Further, as described in step S52, the
また、ステップS50で説明したように、仮想カメラ300は、HMD110の動きと連動してその位置が変化せず、その向きが変化する。このように仮想カメラ300の位置を固定することで、HMD110のロール軸周りの動きに基づいてのみテクスチャ515の表示位置を制御する場合でも、UIオブジェクト500に沿って表示される情報の自然な移動動作をさせることができる。
Further, as described in step S50, the
また、ステップS54およびS56で説明したように、制御部121は、バトルフィールド400内におけるプレイヤキャラクタC1や相手キャラクタC2の所定方向への移動を制限するとともに、所定方向へのキャラクタオブジェクトC1,C2の移動の制限に応じて、テクスチャ515の表示可能位置を制限するために、障壁オブジェクトWを仮想空間200内に配置する。キャラクタオブジェクトC1,C2の移動可能な範囲が狭くなるのに合わせて、テクスチャ515の表示位置を制限することで、ユーザUにバトルフィールド400の大きさをフィードバックすることができる。
Further, as described in steps S54 and S56, the
なお、例えばゲームの状況に応じて所定の条件を満たした場合には、テクスチャ515に含まれる情報のうち少なくとも一部を仮想カメラ300の動きに追随させないようにしてもよい。例えば、バトルフィールド400が狭くなった場合には、テクスチャ515に含まれる一部の情報の表示を仮想カメラ300の動きに追随させないことで、バトルフィールド400が狭くなったことをユーザUが認識し得る。
For example, when a predetermined condition is satisfied according to the game situation, at least a part of the information included in the
また、第二の実施形態においては、各種情報がテクスチャ515としてマッピングされた表示オブジェクト510をUIオブジェクト500に沿って移動させることで、テクスチャ515の表示位置を移動させているが、この例に限られない。例えば、テクスチャがUIオブジェクト500に直接マッピングされ、このテクスチャのUIオブジェクト510上でのマッピング位置を変更することで、テクスチャの表示位置を移動させる構成としても良い。
In the second embodiment, the display position of the
以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲およびその均等の範囲に基づいて定められるべきである。 As mentioned above, although embodiment of this indication was described, the technical scope of this invention should not be limitedly interpreted by description of this embodiment. This embodiment is an example, and it is understood by those skilled in the art that various modifications can be made within the scope of the invention described in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the equivalents thereof.
制御部121によって実行される各種処理をソフトウェアによって実現するために、本実施形態に係る表示制御方法をコンピュータ(プロセッサ)に実行させるための表示制御プログラムが記憶部123またはROMに予め組み込まれていてもよい。または、表示制御プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD−ROM,DVD−ROM、Blu−ray(登録商標)ディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体が制御装置120に接続されることで、当該記憶媒体に格納されたプログラムが、記憶部123に組み込まれる。そして、記憶部123に組み込まれた表示制御プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部121は本実施形態に係る表示制御方法を実行する。
In order to realize various processes executed by the
また、表示制御プログラムは、通信ネットワーク3上のコンピュータから通信インターフェース125を介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該プログラムが記憶部123に組み込まれる。
The display control program may be downloaded from a computer on the communication network 3 via the
1:HMDシステム
3:通信ネットワーク
21:中心位置
110:ヘッドマウントディスプレイ(HMD)
112:表示部
114:HMDセンサ
116:ヘッドフォン
120:制御装置
121:制御部
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
200:仮想空間
300:仮想カメラ
400:バトルフィールド(フィールド)
410:移動経路
500:UIオブジェクト(対象オブジェクト)
510:表示オブジェクト
515:テクスチャ
600:固定UI画像
C1:プレイヤキャラクタ(キャラクタオブジェクト)
C2:相手キャラクタ(キャラクタオブジェクト)
CV:視野
U:ユーザ
V:視野画像
W1,W2,W:障壁オブジェクト
1: HMD system 3: Communication network 21: Center position 110: Head mounted display (HMD)
112: Display unit 114: HMD sensor 116: Headphone 120: Control device 121: Control unit 123: Storage unit 124: I / O interface 125: Communication interface 126: Bus 130: Position sensor 200: Virtual space 300: Virtual camera 400: Battle field (field)
410: Movement path 500: UI object (target object)
510: Display object 515: Texture 600: Fixed UI image C1: Player character (character object)
C2: opponent character (character object)
CV: field of view U: user V: field of view images W1, W2, W: barrier object
Claims (8)
(a)仮想カメラを含む仮想空間を定義する仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて前記非透過型ヘッドマウントディスプレイに視野画像を表示させるステップと、
(c)前記非透過型ヘッドマウントディスプレイの動きに基づいて前記仮想カメラを動かすことで前記視野画像を更新するステップと、
(d)前記非透過型ヘッドマウントディスプレイを装着したユーザが没入する前記仮想空間を構成するオブジェクトであって所定の情報を表示可能な対象オブジェクトを、前記仮想カメラの初期位置において前記仮想カメラをヨー軸周りに囲むように配置するステップと、
(e)前記仮想カメラの動きに追随するように、前記情報の表示位置を前記対象オブジェクトに沿って移動させるステップと、
を含み、
前記ステップ(e)では、前記表示位置は、前記非透過型ヘッドマウントディスプレイのヨー軸周りの動きに基づいて移動され、前記非透過型ヘッドマウントディスプレイのロール軸およびピッチ軸周りの動きについては、当該ロール軸およびピッチ軸周りの動きに基づかずに前記対象オブジェクトに沿って移動される、表示制御方法。 A display control method in a system including a non-transmissive head mounted display,
(A) generating virtual space data defining a virtual space including a virtual camera;
(B) displaying a visual field image on the non-transmissive head mounted display based on the visual field of the virtual camera and the virtual space data;
(C) updating the visual field image by moving the virtual camera based on the movement of the non-transmissive head mounted display;
; (D) a non-transmissive head mounted display permits a user wearing is a objects constituting the virtual space immersive displays predetermined information object, a yaw of the virtual camera in the initial position of the virtual camera Arranging to surround the axis ,
(E) moving the display position of the information along the target object so as to follow the movement of the virtual camera;
Only including,
In the step (e), the display position is moved based on the movement of the non-transmissive head mounted display around the yaw axis, and the movement of the non-transmissive head mounted display around the roll axis and the pitch axis is A display control method of moving along the target object without being based on movement around the roll axis and the pitch axis .
(a)仮想カメラを含む仮想空間を定義する仮想空間データを生成するステップと、 (A) generating virtual space data defining a virtual space including a virtual camera;
(b)前記仮想カメラの視野および前記仮想空間データに基づいて前記非透過型ヘッドマウントディスプレイに視野画像を表示させるステップと、 (B) displaying a visual field image on the non-transmissive head mounted display based on the visual field of the virtual camera and the virtual space data;
(c)前記非透過型ヘッドマウントディスプレイの動きに基づいて前記仮想カメラを動かすことで前記視野画像を更新するステップと、 (C) updating the visual field image by moving the virtual camera based on the movement of the non-transmissive head mounted display;
(d)前記非透過型ヘッドマウントディスプレイを装着したユーザが没入する前記仮想空間を構成するオブジェクトであって所定の情報を表示可能な対象オブジェクトを、前記仮想カメラの初期位置において前記仮想カメラを囲むように配置するステップと、 (D) Surrounding the virtual camera at an initial position of the virtual camera with a target object capable of displaying predetermined information, which is an object constituting the virtual space in which the user wearing the non-transmissive head mounted display is immersed Step to arrange and
(e)前記仮想カメラの動きに追随するように、前記情報の表示位置を前記対象オブジェクトに沿って移動させるステップと、 (E) moving the display position of the information along the target object so as to follow the movement of the virtual camera;
(f)所定の移動入力に基づいて前記仮想空間内で移動するキャラクタオブジェクトの移動範囲を規定するフィールドを、前記対象オブジェクトと関連付けて構成するステップと、(F) configuring a field that defines a moving range of a character object moving in the virtual space based on a predetermined moving input in association with the target object;
を含み、Including
前記情報は、前記フィールドに関連付けられた情報を含む、表示制御方法。The display control method, wherein the information includes information associated with the field.
(h)前記所定方向への前記キャラクタオブジェクトの移動の制限に応じて、前記対象オブジェクトに沿った前記情報の表示可能位置を制限するステップと、をさらに含む、請求項3に記載の表示制御方法。 (G) limiting the movement of the character object in a predetermined direction within the field;
The display control method according to claim 3 , further comprising: (h) restricting a displayable position of the information along the target object in accordance with restriction on movement of the character object in the predetermined direction. .
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016145521A JP6207685B1 (en) | 2016-07-25 | 2016-07-25 | Display control method and program for causing a computer to execute the display control method |
US15/675,669 US9971157B2 (en) | 2016-07-25 | 2017-08-11 | Display control method and system for executing the display control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016145521A JP6207685B1 (en) | 2016-07-25 | 2016-07-25 | Display control method and program for causing a computer to execute the display control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6207685B1 true JP6207685B1 (en) | 2017-10-04 |
JP2018018148A JP2018018148A (en) | 2018-02-01 |
Family
ID=59997671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016145521A Active JP6207685B1 (en) | 2016-07-25 | 2016-07-25 | Display control method and program for causing a computer to execute the display control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6207685B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019101330A (en) * | 2017-12-06 | 2019-06-24 | 株式会社スクウェア・エニックス | Display system and display method |
JPWO2019229816A1 (en) * | 2018-05-28 | 2021-05-13 | 株式会社ソニー・インタラクティブエンタテインメント | Image generator, image generator, and program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7098098B2 (en) * | 2018-03-20 | 2022-07-11 | 株式会社エクシング | Karaoke system, VR content device and VR content program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012155731A (en) * | 2012-03-13 | 2012-08-16 | Namco Bandai Games Inc | Retrieval system |
JP2015150063A (en) * | 2014-02-12 | 2015-08-24 | 株式会社バンダイナムコエンターテインメント | Program and game apparatus |
JP5882517B1 (en) * | 2015-05-29 | 2016-03-09 | 株式会社コロプラ | Content viewing system using head-mounted display |
JP2016082411A (en) * | 2014-10-17 | 2016-05-16 | 国立大学法人電気通信大学 | Head-mounted display, image display method and program |
-
2016
- 2016-07-25 JP JP2016145521A patent/JP6207685B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012155731A (en) * | 2012-03-13 | 2012-08-16 | Namco Bandai Games Inc | Retrieval system |
JP2015150063A (en) * | 2014-02-12 | 2015-08-24 | 株式会社バンダイナムコエンターテインメント | Program and game apparatus |
JP2016082411A (en) * | 2014-10-17 | 2016-05-16 | 国立大学法人電気通信大学 | Head-mounted display, image display method and program |
JP5882517B1 (en) * | 2015-05-29 | 2016-03-09 | 株式会社コロプラ | Content viewing system using head-mounted display |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019101330A (en) * | 2017-12-06 | 2019-06-24 | 株式会社スクウェア・エニックス | Display system and display method |
JPWO2019229816A1 (en) * | 2018-05-28 | 2021-05-13 | 株式会社ソニー・インタラクティブエンタテインメント | Image generator, image generator, and program |
US11270673B2 (en) | 2018-05-28 | 2022-03-08 | Sony Interactive Entertainment Inc. | Image generation apparatus, image generation method, and program |
JP7047085B2 (en) | 2018-05-28 | 2022-04-04 | 株式会社ソニー・インタラクティブエンタテインメント | Image generator, image generator, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2018018148A (en) | 2018-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6152997B1 (en) | Display control method and program for causing a computer to execute the display control method | |
JP6342038B1 (en) | Program for providing virtual space, information processing apparatus for executing the program, and method for providing virtual space | |
US9971157B2 (en) | Display control method and system for executing the display control method | |
JP6058855B1 (en) | Information processing method and program for causing computer to execute information processing method | |
JP6117414B1 (en) | Information processing method and program for causing computer to execute information processing method | |
JP6223533B1 (en) | Information processing method and program for causing computer to execute information processing method | |
JP2017187952A (en) | Display control method and program for causing computer to execute the method | |
JP6207685B1 (en) | Display control method and program for causing a computer to execute the display control method | |
US20180059788A1 (en) | Method for providing virtual reality, program for executing the method on computer, and information processing apparatus | |
JP2018015547A (en) | Display control method and program for causing computer to execute display control method | |
JP6207691B1 (en) | Information processing method and program for causing computer to execute information processing method | |
JP2018097517A (en) | Information processing method, device, and program for causing computer to execute the information processing method | |
JP6290490B1 (en) | Information processing method, apparatus, and program for causing computer to execute information processing method | |
JP2021184272A (en) | Information processing method, program, and computer | |
JP6118444B1 (en) | Information processing method and program for causing computer to execute information processing method | |
JP6416338B1 (en) | Information processing method, information processing program, information processing system, and information processing apparatus | |
JP6389305B1 (en) | Information processing method, computer, and program | |
JP6266823B1 (en) | Information processing method, information processing program, information processing system, and information processing apparatus | |
JP2019023869A (en) | Information processing method, computer, and program | |
JP6403843B1 (en) | Information processing method, information processing program, and information processing apparatus | |
JP2018007227A (en) | Information processing method and program for computer to execute the information processing method | |
JP6449922B2 (en) | Information processing method and program for causing computer to execute information processing method | |
JP6275809B1 (en) | Display control method and program for causing a computer to execute the display control method | |
JP6941130B2 (en) | Information processing method, information processing program and information processing device | |
US12053699B2 (en) | Foveated enhancement of non-XR games within a HMD system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170905 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6207685 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |