JP2020064652A - Program, computer and method for providing user with virtual experience via image display device - Google Patents

Program, computer and method for providing user with virtual experience via image display device Download PDF

Info

Publication number
JP2020064652A
JP2020064652A JP2019232273A JP2019232273A JP2020064652A JP 2020064652 A JP2020064652 A JP 2020064652A JP 2019232273 A JP2019232273 A JP 2019232273A JP 2019232273 A JP2019232273 A JP 2019232273A JP 2020064652 A JP2020064652 A JP 2020064652A
Authority
JP
Japan
Prior art keywords
user
hmd
image display
display device
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019232273A
Other languages
Japanese (ja)
Inventor
豪 佐藤
Takeshi Sato
豪 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2019232273A priority Critical patent/JP2020064652A/en
Publication of JP2020064652A publication Critical patent/JP2020064652A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To provide a novel technique for suppressing withdrawal from a game not intended by a user in the game in which a plurality of users participate.SOLUTION: A program according to an embodiment of the present disclosure causes a computer for providing users with a virtual experience in a game in which a plurality of the users participate via respective image display devices to execute steps of: defining a virtual space for providing the virtual experience; providing the users with the virtual space via the respective image display devices; detecting a removal action of the user to remove the image display device associated with a head of the user; and generating output that prompts the user whose removal action is detected, to perform input related to returning to the game.SELECTED DRAWING: Figure 11

Description

本開示は、画像表示装置を介して仮想体験をユーザに提供するためのプログラム、コンピュータ及び方法に関する。より具体的には、本開示は、ゲームにおけるユーザの離脱に関わる処理を実行するためのプログラム、コンピュータ及び方法に関する。   The present disclosure relates to a program, a computer and a method for providing a virtual experience to a user via an image display device. More specifically, the present disclosure relates to a program, a computer, and a method for executing a process related to leaving a user in a game.

特許文献1には、複数のユーザが参加するゲームにおいて、ゲームに参加した各ユーザが、ゲームに参加した他のユーザのゲーム中のマナーを評価する手法が開示されている。尚、特許文献1に記載されたゲームは、仮想現実(VR:Virtual Reality)技術が適用されたゲームではない。特許文献1の手法によると、各ユーザは、自身に対するマナー評価結果に基づいて、ゲームへの参加が制限されたり、ゲームにおいて不利益を受けたりする。   Patent Document 1 discloses a method in which, in a game in which a plurality of users participate, each user who participates in the game evaluates manners in the game of other users who participate in the game. The game described in Patent Document 1 is not a game to which a virtual reality (VR) technique is applied. According to the method of Patent Document 1, each user is restricted from participating in the game or suffers a disadvantage in the game based on the manner evaluation result for itself.

特許文献1の手法は、ユーザのゲーム参加を制限したり不利益を与えたりすることで、不正離脱のようなマナーの悪い行為をユーザが行うのを間接的に抑制するものである。ここで、「不正離脱」とは、ゲームの状況がユーザにとって不利な状況になった場合などにそのユーザがゲームを途中で終了させるべく、ゲーム端末の通信接続を切断したり、ゲームのホーム画面に戻ったりすることをいう。   The method of Patent Document 1 indirectly restricts the user from performing an act of bad manners such as illegal leaving by limiting the user's participation in the game or giving a disadvantage. Here, "illegal departure" means that the user disconnects the communication connection of the game terminal or the home screen of the game in order to end the game in the middle when the situation of the game is disadvantageous to the user. To return to.

特許文献1の手法では、あるユーザが不正離脱した場合に、他のユーザは、この不正離脱が意図的なものか否かを判別することができない。従って、意図的な不正離脱も意図的でない不正離脱も同じマナー評価を受ける。この場合、意図せぬ不正離脱、例えばゲームに習熟していないユーザの意図せぬ不正離脱を、ゲーム参加の制限や不利益を与えることなく抑制することができない。   According to the method of Patent Document 1, when a certain user makes an unauthorized departure, another user cannot determine whether this unauthorized departure is intentional or not. Therefore, both intentional and unintentional breaches receive the same manner evaluation. In this case, it is not possible to prevent an unintended illegitimate departure, for example, an unintended illegitimate departure of a user who is not familiar with the game without restricting participation in the game or giving a disadvantage.

特許第5679227号公報Japanese Patent No. 5679227

本開示は、複数のユーザが参加する仮想空間での仮想体験において、ユーザの不正離脱を抑制するための新規な手法を提供することを目的とする。   An object of the present disclosure is to provide a novel method for suppressing unauthorized departure of a user in a virtual experience in a virtual space in which a plurality of users participate.

本開示の一実施形態によれば、第1ユーザの頭部に関連付けられた画像表示装置を介して、前記第1ユーザを含む複数のユーザが参加する仮想空間での仮想体験を前記第1ユーザに提供するためのコンピュータに、
前記仮想空間を定義するステップと、
前記画像表示装置を介して前記仮想空間を前記第1ユーザに提供するステップと、
前記画像表示装置を前記第1ユーザが取り外す取り外し動作を検出するステップと、
前記取り外し動作が検出された場合に、前記仮想体験を終了するか否かの入力を促すUI(User Interface)を前記画像表示装置に出力させるステップと、
を実行させるプログラムが提供される。
According to an embodiment of the present disclosure, the first user experiences a virtual experience in a virtual space in which a plurality of users including the first user participate via an image display device associated with the head of the first user. To the computer for delivery to
Defining the virtual space,
Providing the virtual space to the first user via the image display device;
Detecting a removal operation of removing the image display device by the first user,
Output a UI (User Interface) to the image display device to prompt input of whether or not to end the virtual experience when the removal operation is detected,
A program is provided to execute.

本開示の別の実施形態によれば、第1ユーザの頭部に関連付けられた画像表示装置を介
して、前記第1ユーザを含む複数のユーザが参加する仮想空間での仮想体験を前記第1ユーザに提供するためのコンピュータであって、
前記コンピュータが備えるプロセッサによる制御により、
前記仮想空間を定義するステップと、
前記画像表示装置を介して前記仮想空間を前記第1ユーザに提供するステップと、
前記画像表示装置を前記第1ユーザが取り外す取り外し動作を検出するステップと、
前記取り外し動作が検出された場合に、前記仮想体験を終了するか否かの入力を促すUI(User Interface)を前記画像表示装置に出力させるステップと
が実行される、コンピュータが提供される。
According to another embodiment of the present disclosure, the first virtual experience in a virtual space in which a plurality of users including the first user participate is performed via the image display device associated with the head of the first user. A computer for providing to a user,
By the control of the processor included in the computer,
Defining the virtual space,
Providing the virtual space to the first user via the image display device;
Detecting a removal operation of removing the image display device by the first user,
And a step of causing the image display device to output a UI (User Interface) that prompts an input as to whether or not to end the virtual experience when the removal operation is detected.

本開示の別の実施形態によれば、第1ユーザの頭部に関連付けられた画像表示装置を介して、前記第1ユーザを含む複数のユーザが参加する仮想空間での仮想体験を前記第1ユーザに提供するための、コンピュータにより実行される方法であって、
前記仮想空間を定義するステップと、
前記画像表示装置を介して前記仮想空間を前記第1ユーザに提供するステップと、
前記画像表示装置を前記第1ユーザが取り外す取り外し動作を検出するステップと、
前記取り外し動作が検出された場合に、前記仮想体験を終了するか否かの入力を促すUI(User Interface)を前記画像表示装置に出力させるステップと
を含む、方法が提供される。
According to another embodiment of the present disclosure, the first virtual experience in a virtual space in which a plurality of users including the first user participate is performed via the image display device associated with the head of the first user. A computer implemented method for providing to a user, comprising:
Defining the virtual space,
Providing the virtual space to the first user via the image display device;
Detecting a removal operation of removing the image display device by the first user,
Outputting a UI (User Interface) to the image display device for prompting an input as to whether to end the virtual experience when the removal operation is detected.

本開示の実施形態により、複数のユーザがプレイに関与するゲームにおいてユーザの意図しないゲームからの離脱を抑制するための新規な手法を提供することができる。   According to the embodiments of the present disclosure, it is possible to provide a novel method for suppressing a departure from a game that is not intended by users in a game in which a plurality of users participate in play.

本開示のその他の特徴及び利点は、後述する実施形態の説明、添付の図面及び特許請求の範囲の記載から明らかなものとなる。   Other features and advantages of the present disclosure will be apparent from the description of the embodiments below, the accompanying drawings and the claims.

HMDシステムの構成を概略的に示す図である。It is a figure which shows the structure of a HMD system roughly. 本開示の一実施形態による、コンピュータの基本的なハードウェア構成の例を表すブロック図である。FIG. 16 is a block diagram illustrating an example of a basic hardware configuration of a computer according to an embodiment of the present disclosure. 一実施形態に従う、HMDに設定されるuvw視野座標系を概念的に表す図である。FIG. 6 is a diagram conceptually showing a uvw visual field coordinate system set in an HMD according to one embodiment. 一実施形態に従う、仮想空間を表現する一態様を概念的に表す図である。It is a figure which represents notionally one aspect which represents virtual space according to one embodiment. 一実施形態に従う、HMDを装着するユーザの頭部を上から表した図である。FIG. 3 is a diagram showing the head of the user wearing the HMD from above, according to one embodiment. 仮想空間において視認領域をx方向から見たyz断面を表す図である。It is a figure showing the yz section which looked at the visual recognition region from the x direction in virtual space. 仮想空間において視認領域をy方向から見たxz断面を表す図である。It is a figure showing the xz section which looked at the visual recognition field from the y direction in virtual space. 一実施形態に従う、コントローラの概略構成を表す図である。It is a figure showing the schematic structure of the controller according to one embodiment. 一実施形態に従う、コントローラの概略構成を表す図である。It is a figure showing the schematic structure of the controller according to one embodiment. 本開示の一実施形態による、HMDシステムを介してユーザに仮想体験を提供するための、ゲーム離脱制御機能を含むコンピュータの機能を示すブロック図である。FIG. 6 is a block diagram illustrating functions of a computer including a game departure control function for providing a virtual experience to a user via an HMD system according to an embodiment of the present disclosure. ユーザが没入する仮想空間の画像を表示部に表示するための一般的な処理のフロー図である。It is a flowchart of a general process for displaying an image of a virtual space in which a user is immersed in a display unit. 本開示の一実施形態による方法のフローチャートである。3 is a flowchart of a method according to an embodiment of the present disclosure. ユーザA及びユーザBがオンラインマッチプレイをしているときの状況を示す概略図である。It is a schematic diagram showing a situation when user A and user B are performing an online match play. ユーザAが、装着しているHMD又は手に持っているコントローラを近くの机の上に置くときの様子を概略的に説明する図である。It is a figure which illustrates roughly a mode when a user A puts on the HMD which he is wearing or the controller which he has in his hand on the nearby desk. HMDを取り外すときのHMDの動きの軌跡を利用した取り外し動作検知の様子を概略的に説明する図である。It is a figure which roughly explains the mode of removal operation | movement detection using the locus | trajectory of the movement of HMD when removing HMD. HMDに設けられた着脱センサを用いてHMD取り外し動作検知を行う様子を概略的に説明する図である。It is a figure which illustrates roughly a mode that HMD removal operation detection is performed using the attachment / detachment sensor provided in HMD. HMD等の位置に基づいて取り外し動作を検知するときの様子を概略的に説明する図である。It is a figure which illustrates roughly a mode when detecting a removal operation based on a position of HMD etc. HMD等の動き及び位置の双方に基づいて取り外し動作検知を行うときの様子を概略的に説明する図である。It is a figure which illustrates roughly a mode when detecting a removal operation based on both movement and a position of HMD etc. HMD等の動き及び位置の双方に基づいて取り外し動作検知を行うときの様子を概略的に説明する図である。It is a figure which illustrates roughly a mode when detecting a removal operation based on both movement and a position of HMD etc. ユーザの目に基づいて取り外し動作検知を行うときの様子を概略的に説明する図である。It is a figure explaining roughly a mode when detecting a detachment operation based on a user's eyes. ユーザの目に基づいて取り外し動作検知を行うときの様子を概略的に説明する図である。It is a figure explaining roughly a mode when detecting a detachment operation based on a user's eyes. HMDとコントローラとの間の位置関係に基づいて取り外し動作検知を行うときの様子を概略的に説明する図である。It is a figure which roughly illustrates a mode at the time of performing a removal operation | movement detection based on the positional relationship between HMD and a controller. HMDとコントローラとの間の位置関係に基づいて取り外し動作検知を行うときの様子を概略的に説明する図である。It is a figure which roughly illustrates a mode at the time of performing a removal operation | movement detection based on the positional relationship between HMD and a controller. HMD110の表示部112に表示される、ユーザ・インターフェースとして提供されるアラートの一例を示す図である。It is a figure which shows an example of the alert provided as a user interface displayed on the display part 112 of HMD110. 追加のアラートを提供するいくつかの方法を示す概略図である。FIG. 6 is a schematic diagram illustrating some methods of providing additional alerts.

[本開示の実施形態の説明]
はじめに、本開示の例示的な実施形態の構成を列記して説明する。本開示の実施形態による方法、プログラム及びコンピュータは、以下のような構成を備えてもよい。
[Description of Embodiments of the Present Disclosure]
First, the configurations of exemplary embodiments of the present disclosure will be listed and described. The method, the program, and the computer according to the embodiment of the present disclosure may have the following configurations.

(項目1)
第1ユーザの頭部に関連付けられた画像表示装置を介して、前記第1ユーザを含む複数のユーザが参加する仮想空間での仮想体験を前記第1ユーザに提供するためのコンピュータに、
前記仮想空間を定義するステップと、
前記画像表示装置を介して前記仮想空間を前記第1ユーザに提供するステップと、
前記画像表示装置を前記第1ユーザが取り外す取り外し動作を検出するステップと、
前記取り外し動作が検出された場合に、前記仮想体験を終了するか否かの入力を促すUI(User Interface)を前記画像表示装置に出力させるステップと、
を実行させるプログラム。
(Item 1)
A computer for providing the first user with a virtual experience in a virtual space in which a plurality of users including the first user participate via an image display device associated with the head of the first user,
Defining the virtual space,
Providing the virtual space to the first user via the image display device;
Detecting a removal operation of removing the image display device by the first user,
Output a UI (User Interface) to the image display device to prompt input of whether or not to end the virtual experience when the removal operation is detected,
A program to execute.

(項目2)
前記取り外し動作を検出するステップは、
前記第1ユーザの頭部に含まれる第1部位を検出するステップと、
前記第1部位を検出できないとき、前記取り外し動作が行われたと判定するステップと
を含む、項目1に記載のプログラム。
(Item 2)
The step of detecting the removal operation includes
Detecting a first part included in the head of the first user;
And a step of determining that the removal operation has been performed when the first part cannot be detected.

(項目3)
前記取り外し動作を検出するステップは、
前記画像表示装置を追跡するステップと、
前記画像表示装置が静止したとき、又は前記画像表示装置が所定の軌道を動いたとき、前記取り外し動作が行われたと判定するステップと
を含む、項目1に記載のプログラム。
(Item 3)
The step of detecting the removal operation includes
Tracking the image display device,
The program according to item 1, comprising a step of determining that the detaching operation is performed when the image display device stands still or when the image display device moves on a predetermined trajectory.

(項目4)
前記取り外し動作を検出するステップは、
前記第1ユーザにより使用される操作デバイスを追跡するステップと、
前記操作デバイスが静止したとき、又は前記操作デバイスと前記画像表示装置との間の位置関係が所定の条件を満たしたとき、前記取り外し動作が行われたと判定するステップと
を含む、項目1に記載のプログラム。
(Item 4)
The step of detecting the removal operation includes
Tracking an operating device used by the first user;
Determining that the removal operation has been performed when the operating device is stationary or when the positional relationship between the operating device and the image display device satisfies a predetermined condition. Program of.

(項目5)
前記コンピュータに、
前記仮想体験を終了する入力を受け付けるステップと、
前記仮想体験を終了する入力が受け付けられたことに応じて、前記第1ユーザを前記仮想体験から正常に離脱させるステップと、
を実行させる、項目1から4のいずれか1項に記載のプログラム。
(Item 5)
On the computer,
Accepting an input to end the virtual experience,
Gracefully leaving the first user from the virtual experience in response to receiving an input to end the virtual experience;
5. The program according to any one of items 1 to 4, for executing the program.

(項目6)
前記コンピュータに、
前記仮想体験を終了しない入力を受け付けるステップと、
前記仮想体験を終了しない入力が受け付けられたことに応じて、前記第1ユーザを前記仮想体験に復帰させるステップと、
を実行させる、項目1から5のいずれか1項に記載のプログラム。
(Item 6)
On the computer,
Accepting an input that does not end the virtual experience,
Returning the first user to the virtual experience in response to receiving an input that does not end the virtual experience;
6. The program according to any one of items 1 to 5, for executing the program.

(項目7)
前記コンピュータに、
前記仮想体験を終了する入力及び前記仮想体験を終了しない入力のいずれも受け付けられなかったことに応じて、前記第1ユーザが前記仮想体験から不正離脱したと判定するステップ
を実行させる、項目1から6のいずれか1項に記載のプログラム。
(Item 7)
On the computer,
From item 1, which executes a step of determining that the first user has illegally left the virtual experience in response to neither input of ending the virtual experience nor input of not ending the virtual experience is received. 6. The program according to any one of 6.

(項目8)
前記UIは、前記第1ユーザが前記仮想体験への復帰及び正常離脱のいずれも行わない場合に前記第1ユーザが前記仮想体験から不正離脱したとみなされる旨の警告を含む、項目1から7のいずれか1項に記載のプログラム。
(Item 8)
Items 1 to 7, wherein the UI includes a warning that the first user is considered to have been illegally withdrawn from the virtual experience if the first user does not return to the virtual experience or normally exits. The program according to any one of 1.

(項目9)
前記取り外し動作が検出された場合に、前記画像表示装置に関連付けられる音声出力装置及び画像出力装置のうちの少なくとも1つに、前記仮想体験からの正常離脱を促す出力を行わせるステップ
を含む、項目1から8のいずれか1項に記載のプログラム。
(Item 9)
And a step of causing at least one of an audio output device and an image output device associated with the image display device to perform an output for urging a normal departure from the virtual experience when the removal operation is detected. The program according to any one of 1 to 8.

(項目10)
第1ユーザの頭部に関連付けられた画像表示装置を介して、前記第1ユーザを含む複数のユーザが参加する仮想空間での仮想体験を前記第1ユーザに提供するためのコンピュータであって、
前記コンピュータが備えるプロセッサによる制御により、
前記仮想空間を定義するステップと、
前記画像表示装置を介して前記仮想空間を前記第1ユーザに提供するステップと、
前記画像表示装置を前記第1ユーザが取り外す取り外し動作を検出するステップと、
前記取り外し動作が検出された場合に、前記仮想体験を終了するか否かの入力を促すUI(User Interface)を前記画像表示装置に出力させるステップと
が実行される、コンピュータ。
(Item 10)
A computer for providing the first user with a virtual experience in a virtual space in which a plurality of users including the first user participate via an image display device associated with the head of the first user,
By the control of the processor included in the computer,
Defining the virtual space,
Providing the virtual space to the first user via the image display device;
Detecting a removal operation of removing the image display device by the first user,
And a step of causing the image display device to output a UI (User Interface) prompting an input as to whether or not to end the virtual experience when the removal operation is detected.

(項目11)
第1ユーザの頭部に関連付けられた画像表示装置を介して、前記第1ユーザを含む複数のユーザが参加する仮想空間での仮想体験を前記第1ユーザに提供するための、コンピュータにより実行される方法であって、
前記仮想空間を定義するステップと、
前記画像表示装置を介して前記仮想空間を前記第1ユーザに提供するステップと、
前記画像表示装置を前記第1ユーザが取り外す取り外し動作を検出するステップと、
前記取り外し動作が検出された場合に、前記仮想体験を終了するか否かの入力を促すUI(User Interface)を前記画像表示装置に出力させるステップと
を含む、方法。
(Item 11)
Computer-implemented for providing to the first user a virtual experience in a virtual space in which a plurality of users including the first user participate via an image display device associated with the head of the first user. Method,
Defining the virtual space,
Providing the virtual space to the first user via the image display device;
Detecting a removal operation of removing the image display device by the first user,
Outputting a UI (User Interface) to the image display device for prompting an input as to whether or not to end the virtual experience when the removal operation is detected.

[本開示の実施形態の詳細]
以下、図面を参照しつつ、本開示の実施形態について説明する。以下の説明では、同様の要素には同様の符号を付してある。それらの名称及び機能も同様である。このような要素については重複する説明が省略される。
[Details of the embodiment of the present disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In the following description, similar elements are given similar reference numerals. Their names and functions are also the same. Overlapping description of such elements is omitted.

図1を参照して、画像表示装置システム100の構成について説明する。以下では、画像表示装置の一例としてヘッドマウントデバイス(Head−Mounted Device:HMD)が用いられるシステムについて具体的に説明する。しかし、HMDだけでなく、ユーザに仮想体験を提供するための様々な装置を本開示の実施形態に適用することができることが当業者に理解されよう。   The configuration of the image display device system 100 will be described with reference to FIG. Hereinafter, a system using a head-mounted device (HMD) as an example of the image display device will be specifically described. However, it will be understood by those skilled in the art that not only the HMD but various devices for providing a virtual experience to a user can be applied to the embodiments of the present disclosure.

図1は、システム100の構成を概略的に示す。一例では、システム100は、家庭用のシステム又は業務用のシステムとして提供される。HMDは、表示部を備える所謂ヘッドマウントディスプレイであってもよく、表示部を有するスマートフォン等の端末を装着可能なヘッドマウント機器であってもよい。   FIG. 1 schematically shows the configuration of the system 100. In one example, the system 100 is provided as a home system or a business system. The HMD may be a so-called head-mounted display having a display unit, or may be a head-mounted device to which a terminal such as a smartphone having the display unit can be attached.

システム100は、HMD110と、HMDセンサ120と、コントローラ160と、コンピュータ200とを備える。HMD110は、表示部112と、注視センサ140とを含む。コントローラ160は、モーションセンサ130を含んでもよい。   The system 100 includes an HMD 110, an HMD sensor 120, a controller 160, and a computer 200. The HMD 110 includes a display unit 112 and a gaze sensor 140. The controller 160 may include the motion sensor 130.

一例では、コンピュータ200は、インターネット等のネットワーク192に接続可能であってもよく、ネットワーク192に接続されるサーバ150等のコンピュータと通信可能であってもよい。別の態様において、HMD110は、HMDセンサ120の代わりにセンサ114を含んでもよい。   In one example, the computer 200 may be connectable to a network 192 such as the Internet, or may be capable of communicating with a computer such as the server 150 connected to the network 192. In another aspect, HMD 110 may include sensor 114 instead of HMD sensor 120.

HMD110は、ユーザ190の頭部に装着され、動作中に仮想空間をユーザに提供し得る。より具体的には、HMD110は、右目用の画像及び左目用の画像を表示部112にそれぞれ表示する。ユーザの各目がそれぞれの画像を視認すると、ユーザは、両目の視差に基づき当該画像を3次元の画像として認識し得る。   The HMD 110 may be mounted on the head of the user 190 and provide the user with a virtual space during operation. More specifically, the HMD 110 displays an image for the right eye and an image for the left eye on the display unit 112, respectively. When each eye of the user visually recognizes each image, the user can recognize the image as a three-dimensional image based on the parallax of both eyes.

表示部112は、例えば、非透過型の表示装置として実現される。一例では、表示部112は、ユーザの両目の前方に位置するように、HMD110の本体に配置される。したがって、ユーザは、表示部112に表示される3次元画像を視認すると、仮想空間に没入することができる。ある実施形態において、仮想空間は、例えば、背景、ユーザが操作可能なオブジェクト、ユーザが選択可能なメニューの画像等を含む。ある実施形態において、表示部112は、スマートフォン等の情報表示端末が備える液晶表示部又は有機EL(Electro Luminescence)表示部として実現され得る。   The display unit 112 is realized, for example, as a non-transmissive display device. In one example, the display unit 112 is arranged on the main body of the HMD 110 so as to be located in front of both eyes of the user. Therefore, the user can immerse himself in the virtual space when viewing the three-dimensional image displayed on the display unit 112. In one embodiment, the virtual space includes, for example, a background, objects that the user can operate, images of menus that the user can select, and the like. In an embodiment, the display unit 112 can be realized as a liquid crystal display unit or an organic EL (Electro Luminescence) display unit included in an information display terminal such as a smartphone.

一例では、表示部112は、右目用の画像を表示するためのサブ表示部と、左目用の画像を表示するためのサブ表示部とを含み得る。別の態様において、表示部112は、右目用の画像と左目用の画像とを一体として表示する構成であってもよい。この場合、表示部112は、高速シャッタを含む。高速シャッタは、画像がいずれか一方の目にのみ認識されるように、右目用の画像と左目用の画像とを交互に表示可能に作動する。   In one example, the display unit 112 may include a sub display unit for displaying an image for the right eye and a sub display unit for displaying an image for the left eye. In another aspect, the display unit 112 may be configured to integrally display the image for the right eye and the image for the left eye. In this case, the display unit 112 includes a high speed shutter. The high-speed shutter operates so that the image for the right eye and the image for the left eye can be alternately displayed so that the image is recognized by only one of the eyes.

一例では、HMD110は、複数の光源(図示せず)を含む。各光源は、例えば、赤外線を発するLED(Light Emitting Diode)により実現される。HMDセンサ120は、HMD110の動きを検出するためのポジショントラッキング機能を有する。より具体的には、HMDセンサ120は、HMD110が発する複数の赤外線を読み取り、現実空間内におけるHMD110の位置及び傾きを検出してもよい。   In one example, the HMD 110 includes multiple light sources (not shown). Each light source is realized by, for example, an LED (Light Emitting Diode) that emits infrared rays. The HMD sensor 120 has a position tracking function for detecting the movement of the HMD 110. More specifically, the HMD sensor 120 may read a plurality of infrared rays emitted by the HMD 110 and detect the position and inclination of the HMD 110 in the physical space.

ある態様において、HMDセンサ120は、カメラにより実現されてもよい。この場合、HMDセンサ120は、カメラから出力されるHMD110の画像情報を用いて、画像解析処理を実行することにより、HMD110の位置及び傾きを検出することができる。   In an aspect, the HMD sensor 120 may be implemented by a camera. In this case, the HMD sensor 120 can detect the position and inclination of the HMD 110 by executing the image analysis process using the image information of the HMD 110 output from the camera.

別の態様において、HMD110は、位置検出器として、HMDセンサ120の代わりに、センサ114を備えてもよい。HMD110は、センサ114を用いて、HMD110自身の位置及び傾きを検出し得る。例えば、センサ114が角速度センサ、地磁気センサ、加速度センサ、ジャイロセンサ等である場合、HMD110は、HMDセンサ120の代わりに、これらの各センサのいずれかを用いて、自身の位置及び傾きを検出し得る。一例として、センサ114が角速度センサである場合、角速度センサは、現実空間におけるHMD110の3軸周りの角速度を経時的に検出する。HMD110は、各角速度に基づいて、HMD110の3軸周りの角度の時間的変化を算出し、さらに、角度の時間的変化に基づいて、HMD110の傾きを算出する。また、HMD110は、透過型表示装置を備えていても良い。この場合、当該透過型表示装置は、その透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。また、視界画像は、仮想空間を構成する画像の一部に、現実空間を提示する構成を含んでいてもよい。例えば、HMD110に搭載されたカメラで撮影した画像を視界画像の一部に重畳して表示させてもよいし、当該透過型表示装置の一部の透過率を高く設定することにより、視界画像の一部から現実空間を視認可能にしてもよい。   In another aspect, the HMD 110 may include a sensor 114 as a position detector instead of the HMD sensor 120. The HMD 110 can detect the position and inclination of the HMD 110 itself using the sensor 114. For example, when the sensor 114 is an angular velocity sensor, a geomagnetic sensor, an acceleration sensor, a gyro sensor, or the like, the HMD 110 uses any one of these sensors instead of the HMD sensor 120 to detect its own position and inclination. obtain. As an example, when the sensor 114 is an angular velocity sensor, the angular velocity sensor detects the angular velocity around the three axes of the HMD 110 in the physical space over time. The HMD 110 calculates the temporal change of the angle around the three axes of the HMD 110 based on each angular velocity, and further calculates the inclination of the HMD 110 based on the temporal change of the angle. Further, the HMD 110 may include a transmissive display device. In this case, the transmissive display device may be temporarily configured as a non-transmissive display device by adjusting its transmittance. Further, the view field image may include a configuration for presenting the real space in a part of the image forming the virtual space. For example, an image captured by a camera mounted on the HMD 110 may be displayed so as to be superimposed on a part of the view image, or a part of the transmissive display device may be set to have a high transmittance so that the view image The physical space may be made visible from a part.

注視センサ140は、ユーザ190の右目及び左目の視線が向けられる方向(視線)を検出する。当該方向の検出は、例えば、公知のアイトラッキング機能によって実現される。注視センサ140は、当該アイトラッキング機能を有するセンサにより実現される。ある態様において、注視センサ140は、右目用のセンサ及び左目用のセンサを含むことが好ましい。注視センサ140は、例えば、ユーザ190の右目及び左目に赤外光を照射するとともに、照射光に対する角膜及び虹彩からの反射光を受けることにより各眼球の回転角を検出するセンサであってもよい。注視センサ140は、検出した各回転角に基づいて、ユーザ190の視線を検知することができる。   The gaze sensor 140 detects a direction (line of sight) in which the right and left eyes of the user 190 are directed. The detection of the direction is realized by a known eye tracking function, for example. The gaze sensor 140 is realized by a sensor having the eye tracking function. In an aspect, the gaze sensor 140 preferably includes a sensor for the right eye and a sensor for the left eye. The gaze sensor 140 may be, for example, a sensor that irradiates the right and left eyes of the user 190 with infrared light, and receives the reflected light from the cornea and the iris with respect to the irradiated light to detect the rotation angle of each eyeball. . The gaze sensor 140 can detect the line of sight of the user 190 based on the detected rotation angles.

サーバ150は、コンピュータ200にプログラムを送信し得る。別の態様において、サーバ150は、他のユーザによって使用されるHMDに仮想現実を提供するための他のコンピュータ200と通信し得る。例えば、アミューズメント施設において、複数のユーザが参加型のゲームを行う場合、各コンピュータ200は、各ユーザの動作に基づく信号を他のコンピュータ200と通信して、同じ仮想空間において複数のユーザが共通のゲームを楽しむことを可能にする。   The server 150 may send the program to the computer 200. In another aspect, the server 150 may communicate with other computers 200 for providing virtual reality to HMDs used by other users. For example, when a plurality of users play a participation-type game in an amusement facility, each computer 200 communicates a signal based on the operation of each user with another computer 200 so that the plurality of users share a common virtual space. Allows you to enjoy the game.

コントローラ160は、有線又は無線によりコンピュータ200に接続される。コント
ローラ160は、ユーザ190からコンピュータ200への命令の入力を受け付ける。ある態様において、コントローラ160は、ユーザ190によって把持可能に構成される。別の態様において、コントローラ160は、ユーザ190の身体又は衣類の一部に装着可能に構成される。別の態様において、コントローラ160は、コンピュータ200から送信される信号に基づいて、振動、音、光のうちの少なくともいずれかを出力するように構成されてもよい。別の態様において、コントローラ160は、ユーザ190から、仮想空間に配置されるオブジェクトの位置や動きを制御するための操作を受け付ける。
The controller 160 is connected to the computer 200 by wire or wirelessly. The controller 160 receives an instruction input from the user 190 to the computer 200. In one aspect, the controller 160 is configured to be grippable by the user 190. In another aspect, the controller 160 is configured to be attachable to a part of the body or clothing of the user 190. In another aspect, the controller 160 may be configured to output vibration, sound, and / or light based on a signal transmitted from the computer 200. In another aspect, the controller 160 accepts an operation from the user 190 for controlling the position and movement of an object arranged in the virtual space.

ある態様において、モーションセンサ130は、ユーザの手に取り付けられて、ユーザの手の動きを検出する。例えば、モーションセンサ130は、手の回転速度、回転数等を検出する。検出された信号は、コンピュータ200に送られる。モーションセンサ130は、例えば、手袋型のコントローラ160Aに設けられる。ある実施形態において、現実空間における安全のため、コントローラ160Aは、手袋型のようにユーザ190の手に装着されることにより容易に飛んで行かないものに装着されるのが望ましい。別の態様において、複数の操作ボタンを有する一般的な構造のコントローラ160Bが用いられてもよい。別の態様において、ユーザ190に装着されないセンサがユーザ190の手の動きを検出してもよい。ユーザ190の身体の様々な部分の位置、向き、動きの方向、動きの距離などを検知する光学式センサが用いられてもよい。例えば、ユーザ190を撮影するカメラの信号が、ユーザ190の動作を表す信号として、コンピュータ200に入力されてもよい。モーションセンサ130とコンピュータ200とは、一例として、無線により互いに接続される。無線の場合、通信形態は特に限られず、例えば、Bluetooth(登録商標)その他の公知の通信手法が用いられる。   In one aspect, the motion sensor 130 is attached to the user's hand to detect movement of the user's hand. For example, the motion sensor 130 detects the rotation speed, the rotation speed, etc. of the hand. The detected signal is sent to the computer 200. The motion sensor 130 is provided in, for example, a glove type controller 160A. In one embodiment, for safety in the physical space, the controller 160A is preferably attached to something that does not fly easily by being attached to the hand of the user 190, such as a glove type. In another aspect, a controller 160B having a general structure having a plurality of operation buttons may be used. In another aspect, a sensor not worn by the user 190 may detect movement of the user's 190 hand. Optical sensors may be used to detect the position, orientation, direction of movement, distance of movement, etc. of various parts of the body of the user 190. For example, a signal from a camera that captures the user 190 may be input to the computer 200 as a signal representing the operation of the user 190. The motion sensor 130 and the computer 200 are wirelessly connected to each other, for example. In the case of wireless communication, the communication form is not particularly limited, and for example, Bluetooth (registered trademark) or other known communication method is used.

図2を参照して、本開示の実施形態に係るコンピュータ200について説明する。図2は、本開示の一実施形態によるコンピュータ200の基本的なハードウェア構成の例を表すブロック図である。コンピュータ200は、主たる構成要素として、プロセッサ202と、メモリ204と、ストレージ206と、入出力インターフェース208と、通信インターフェース210とを備える。各構成要素は、それぞれ、バス212に接続される。
プロセッサ202は、コンピュータ200に与えられる信号に基づいて、あるいは、予め定められた条件が成立したことに基づいて、メモリ204又はストレージ206に格納されているプログラムに含まれる一連の命令を実行する。ある態様において、プロセッサ202は、CPU(Central Processing Unit)、MPU(Micro Processor Unit)、FPGA(Field−Programmable Gate Array)等のデバイスとして実現される。
The computer 200 according to the embodiment of the present disclosure will be described with reference to FIG. 2. FIG. 2 is a block diagram showing an example of a basic hardware configuration of the computer 200 according to an embodiment of the present disclosure. The computer 200 includes a processor 202, a memory 204, a storage 206, an input / output interface 208, and a communication interface 210 as main components. Each component is connected to the bus 212.
The processor 202 executes a series of instructions included in a program stored in the memory 204 or the storage 206 based on a signal given to the computer 200 or when a predetermined condition is satisfied. In one aspect, the processor 202 is realized as a device such as a CPU (Central Processing Unit), an MPU (Micro Processor Unit), and an FPGA (Field-Programmable Gate Array).

メモリ204は、プログラム及びデータを一時的に保存する。プログラムは、例えば、ストレージ206からロードされる。データは、コンピュータ200に入力されたデータと、プロセッサ202によって生成されたデータとを含む。ある態様において、メモリ204は、RAM(Random Access Memory)等の揮発性メモリとして実現される。   The memory 204 temporarily stores programs and data. The program is loaded from the storage 206, for example. The data includes data input to the computer 200 and data generated by the processor 202. In one aspect, the memory 204 is implemented as a volatile memory such as a RAM (Random Access Memory).

ストレージ206は、プログラム及びデータを永続的に保持する。ストレージ206は、例えば、ROM(Read−Only Memory)、ハードディスク装置、フラッシュメモリ等の不揮発性記憶装置として実現される。ストレージ206に格納されるプログラムは、システム100において仮想空間を提供するためのプログラム、シミュレーションプログラム、ゲームプログラム、ユーザ認証プログラム、他のコンピュータ200との通信を実現するためのプログラム等を含む。ストレージ206に格納されるデータは、仮想空間を規定するためのデータ及びオブジェクト等を含む。   The storage 206 permanently holds programs and data. The storage 206 is realized, for example, as a non-volatile storage device such as a ROM (Read-Only Memory), a hard disk device, or a flash memory. The programs stored in the storage 206 include a program for providing a virtual space in the system 100, a simulation program, a game program, a user authentication program, a program for realizing communication with another computer 200, and the like. The data stored in the storage 206 includes data and objects for defining the virtual space.

別の態様において、ストレージ206は、メモリカードのように着脱可能な記憶装置と
して実現されてもよい。さらに別の態様において、コンピュータ200に内蔵されたストレージ206の代わりに、外部の記憶装置に保存されているプログラム及びデータを使用する構成が使用されてもよい。このような構成によれば、例えば、アミューズメント施設のように複数のシステム100が使用される場面において、プログラムやデータの更新を一括して行なうことが可能になる。
In another aspect, the storage 206 may be realized as a removable storage device such as a memory card. In yet another aspect, instead of the storage 206 built in the computer 200, a configuration using programs and data stored in an external storage device may be used. With such a configuration, for example, in a situation where a plurality of systems 100 are used, such as in an amusement facility, it is possible to collectively update programs and data.

ある実施形態において、入出力インターフェース208は、HMD110、HMDセンサ120及びモーションセンサ130との間で信号を通信する。ある態様において、入出力インターフェース208は、USB(Universal Serial Bus、USB)、DVI(Digital Visual Interface)、HDMI(登録商標)(High−Definition Multimedia Interface)等の端子を用いて実現される。なお、入出力インターフェース208は上述のものに限られない。   In certain embodiments, the input / output interface 208 communicates signals with the HMD 110, the HMD sensor 120, and the motion sensor 130. In one aspect, the input / output interface 208 is realized by using a terminal such as a USB (Universal Serial Bus, USB), a DVI (Digital Visual Interface), and a HDMI (registered trademark) (High-Definition Multimedia Interface). The input / output interface 208 is not limited to the above.

ある実施形態において、入出力インターフェース208は、さらに、コントローラ160と通信し得る。例えば、入出力インターフェース208は、コントローラ160及びモーションセンサ130から出力された信号の入力を受ける。別の態様において、入出力インターフェース208は、プロセッサ202から出力された命令を、コントローラ160に送る。当該命令は、振動、音声出力、発光等をコントローラ160に指示する。コントローラ160は、当該命令を受信すると、その命令に応じて、振動、音声出力、発光等を実行する。   In some embodiments, the input / output interface 208 can also communicate with the controller 160. For example, the input / output interface 208 receives the signals output from the controller 160 and the motion sensor 130. In another aspect, the input / output interface 208 sends the instructions output from the processor 202 to the controller 160. The command instructs the controller 160 to perform vibration, voice output, light emission, or the like. Upon receiving the command, the controller 160 executes vibration, voice output, light emission, etc. according to the command.

通信インターフェース210は、ネットワーク192に接続され、ネットワーク192に接続されている他のコンピュータ(例えば、サーバ150)と通信する。ある態様において、通信インターフェース210は、例えば、LAN(Local Area Network)等の有線通信インターフェース、あるいは、WiFi(Wireless Fidelity)、Bluetooth(登録商標)、NFC(Near Field Communication)等の無線通信インターフェースとして実現される。なお、通信インターフェース210は上述のものに限られない。   The communication interface 210 is connected to the network 192 and communicates with another computer (for example, the server 150) connected to the network 192. In one aspect, the communication interface 210 is realized as a wired communication interface such as a LAN (Local Area Network), or a wireless communication interface such as WiFi (Wireless Fidelity), Bluetooth (registered trademark), NFC (Near Field Communication), or the like. To be done. The communication interface 210 is not limited to the above.

ある態様において、プロセッサ202は、ストレージ206にアクセスし、ストレージ206に格納されている1つ以上のプログラムをメモリ204にロードし、当該プログラムに含まれる一連の命令を実行する。当該1つ以上のプログラムは、コンピュータ200のオペレーティングシステム、仮想空間を提供するためのアプリケーションプログラム、仮想空間で実行可能なゲームソフトウェア等を含み得る。プロセッサ202は、入出力インターフェース208を介して、仮想空間を提供するための信号をHMD110に送る。HMD110は、その信号に基づいて表示部112に映像を表示する。   In an aspect, the processor 202 accesses the storage 206, loads one or more programs stored in the storage 206 into the memory 204, and executes the series of instructions contained in the program. The one or more programs may include an operating system of the computer 200, an application program for providing a virtual space, game software executable in the virtual space, and the like. The processor 202 sends a signal for providing a virtual space to the HMD 110 via the input / output interface 208. The HMD 110 displays an image on the display unit 112 based on the signal.

図2に示される例では、コンピュータ200は、HMD110の外部に設けられている。しかし、別の態様において、コンピュータ200は、HMD110に内蔵されてもよい。一例として、表示部112を含む携帯型の情報通信端末(例えば、スマートフォン)がコンピュータ200として機能してもよい。   In the example shown in FIG. 2, the computer 200 is provided outside the HMD 110. However, in another aspect, the computer 200 may be incorporated in the HMD 110. As an example, a portable information communication terminal (for example, a smartphone) including the display unit 112 may function as the computer 200.

また、コンピュータ200は、複数のHMD110に共通して用いられる構成であってもよい。このような構成によれば、例えば、複数のユーザに同一の仮想空間を提供することもできるので、各ユーザは同一の仮想空間で他のユーザと同一のアプリケーションを楽しむことができる。   Moreover, the computer 200 may be configured to be commonly used by a plurality of HMDs 110. With such a configuration, for example, the same virtual space can be provided to a plurality of users, so that each user can enjoy the same application as other users in the same virtual space.

ある実施形態において、システム100では、グローバル座標系が予め設定されている。グローバル座標系は、現実空間における鉛直方向、鉛直方向に直交する水平方向、ならびに、鉛直方向及び水平方向の双方に直交する前後方向にそれぞれ平行な、3つの基準方向(軸)を有する。本実施形態では、グローバル座標系は視点座標系の1つである。そこで、グローバル座標系における水平方向、鉛直方向(上下方向)、及び前後方向は、それぞれ、x軸、y軸、z軸として規定される。より具体的には、グローバル座標系において、x軸は現実空間の水平方向に平行である。y軸は、現実空間の鉛直方向に平行である。z軸は現実空間の前後方向に平行である。   In one embodiment, the system 100 has a preset global coordinate system. The global coordinate system has three reference directions (axes) that are parallel to the vertical direction in the real space, the horizontal direction orthogonal to the vertical direction, and the front-rear direction orthogonal to both the vertical direction and the horizontal direction. In this embodiment, the global coordinate system is one of the viewpoint coordinate systems. Therefore, the horizontal direction, vertical direction (vertical direction), and front-back direction in the global coordinate system are defined as the x-axis, the y-axis, and the z-axis, respectively. More specifically, in the global coordinate system, the x-axis is parallel to the horizontal direction in real space. The y-axis is parallel to the vertical direction of the real space. The z axis is parallel to the front-back direction of the physical space.

ある態様において、HMDセンサ120は、赤外線センサを含む。赤外線センサが、HMD110の各光源から発せられた赤外線をそれぞれ検出すると、HMD110の存在を検出する。HMDセンサ120は、さらに、各点の値(グローバル座標系における各座標値)に基づいて、HMD110を装着したユーザ190の動きに応じた、現実空間内におけるHMD110の位置及び傾きを検出する。より詳しくは、HMDセンサ120は、経時的に検出された各値を用いて、HMD110の位置及び傾きの時間的変化を検出できる。   In one aspect, the HMD sensor 120 includes an infrared sensor. When the infrared sensor detects infrared light emitted from each light source of the HMD 110, the presence of the HMD 110 is detected. The HMD sensor 120 further detects the position and inclination of the HMD 110 in the physical space according to the movement of the user 190 who wears the HMD 110, based on the value of each point (each coordinate value in the global coordinate system). More specifically, the HMD sensor 120 can detect temporal changes in the position and inclination of the HMD 110 by using each value detected over time.

グローバル座標系は現実空間の座標系と平行である。したがって、HMDセンサ120によって検出されたHMD110の各傾きは、グローバル座標系におけるHMD110の3軸周りの各傾きに相当する。HMDセンサ120は、グローバル座標系におけるHMD110の傾きに基づき、uvw視野座標系をHMD110に設定する。HMD110に設定されるuvw視野座標系は、HMD110を装着したユーザ190が仮想空間において物体を見る際の視点座標系に対応する。   The global coordinate system is parallel to the coordinate system in real space. Therefore, each inclination of the HMD 110 detected by the HMD sensor 120 corresponds to each inclination around the three axes of the HMD 110 in the global coordinate system. The HMD sensor 120 sets the uvw visual field coordinate system to the HMD 110 based on the inclination of the HMD 110 in the global coordinate system. The uvw visual field coordinate system set in the HMD 110 corresponds to the viewpoint coordinate system when the user 190 wearing the HMD 110 views an object in the virtual space.

図3を参照して、uvw視野座標系について説明する。図3は、ある実施形態に従うHMD110に設定されるuvw視野座標系を概念的に表す図である。HMDセンサ120は、HMD110の起動時に、グローバル座標系におけるHMD110の位置及び傾きを検出する。プロセッサ202は、検出された値に基づいて、uvw視野座標系をHMD110に設定する。   The uvw visual field coordinate system will be described with reference to FIG. FIG. 3 is a diagram conceptually showing a uvw visual field coordinate system set in the HMD 110 according to an embodiment. The HMD sensor 120 detects the position and inclination of the HMD 110 in the global coordinate system when the HMD 110 is activated. The processor 202 sets the uvw visual field coordinate system in the HMD 110 based on the detected value.

図3に示されるように、HMD110は、HMD110を装着したユーザの頭部を中心(原点)とした3次元のuvw視野座標系を設定する。より具体的には、HMD110は、グローバル座標系を規定する水平方向、鉛直方向、及び前後方向(x軸、y軸、z軸)を、グローバル座標系内においてHMD110の各軸周りの傾きだけ各軸周りにそれぞれ傾けることによって新たに得られる3つの方向を、HMD110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、及びロール方向(w軸)として設定する。   As shown in FIG. 3, the HMD 110 sets a three-dimensional uvw visual field coordinate system with the head of the user wearing the HMD 110 as the center (origin). More specifically, the HMD 110 sets the horizontal direction, the vertical direction, and the front-back direction (x axis, y axis, z axis) that define the global coordinate system by the inclination around each axis of the HMD 110 in the global coordinate system. Three directions newly obtained by inclining about the axis are set as a pitch direction (u axis), a yaw direction (v axis), and a roll direction (w axis) of the uvw visual field coordinate system in the HMD 110.

ある態様において、HMD110を装着したユーザ190が直立し、かつ、正面を視認している場合、プロセッサ202は、グローバル座標系に平行なuvw視野座標系をHMD110に設定する。この場合、グローバル座標系における水平方向(x軸)、鉛直方向(y軸)、及び前後方向(z軸)は、HMD110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)及びロール方向(w軸)に一致する。   In an aspect, when the user 190 wearing the HMD 110 is standing upright and viewing the front, the processor 202 sets the uvw view coordinate system parallel to the global coordinate system in the HMD 110. In this case, the horizontal direction (x axis), vertical direction (y axis), and front-back direction (z axis) in the global coordinate system are the pitch direction (u axis) and yaw direction (v axis) of the uvw visual field coordinate system in the HMD 110. And the roll direction (w axis).

uvw視野座標系がHMD110に設定された後、HMDセンサ120は、HMD110の動きに基づいて、設定されたuvw視野座標系におけるHMD110の傾き(傾きの変化量)を検出できる。この場合、HMDセンサ120は、HMD110の傾きとして、uvw視野座標系におけるHMD110のピッチ角(θu)、ヨー角(θv)及びロール角(θw)をそれぞれ検出する。ピッチ角(θu)は、uvw視野座標系におけるピッチ方向周りのHMD110の傾き角度を表す。ヨー角(θv)は、uvw視野座標系におけるヨー方向周りのHMD110の傾き角度を表す。ロール角(θw)は、uvw視野座標系におけるロール方向周りのHMD110の傾き角度を表す。   After the uvw visual field coordinate system is set in the HMD 110, the HMD sensor 120 can detect the inclination (change amount of inclination) of the HMD 110 in the set uvw visual field coordinate system based on the movement of the HMD 110. In this case, the HMD sensor 120 detects the pitch angle (θu), the yaw angle (θv), and the roll angle (θw) of the HMD 110 in the uvw visual field coordinate system as the inclination of the HMD 110. The pitch angle (θu) represents the tilt angle of the HMD 110 around the pitch direction in the uvw visual field coordinate system. The yaw angle (θv) represents the tilt angle of the HMD 110 around the yaw direction in the uvw visual field coordinate system. The roll angle (θw) represents the tilt angle of the HMD 110 around the roll direction in the uvw visual field coordinate system.

HMDセンサ120は、検出されたHMD110の傾き角度に基づいて、HMD110が動いた後のHMD110におけるuvw視野座標系を、HMD110に設定する。HMD110と、HMD110のuvw視野座標系との関係は、HMD110の位置及び傾きに関わらず、常に一定である。HMD110の位置及び傾きが変わると、当該位置及び傾きの変化に連動して、グローバル座標系におけるHMD110のuvw視野座標系の位置及び傾きが変化する。   The HMD sensor 120 sets the uvw visual field coordinate system in the HMD 110 after the HMD 110 moves to the HMD 110 based on the detected tilt angle of the HMD 110. The relationship between the HMD 110 and the uvw visual field coordinate system of the HMD 110 is always constant regardless of the position and inclination of the HMD 110. When the position and the inclination of the HMD 110 change, the position and the inclination of the uvw visual field coordinate system of the HMD 110 in the global coordinate system change in association with the change of the position and the inclination.

ある態様において、HMDセンサ120は、赤外線センサからの出力に基づいて取得される赤外線の光強度及び複数の点間の相対的な位置関係(例えば、各点間の距離等)に基づいて、HMD110の現実空間内における位置を、HMDセンサ120に対する相対位置として特定してもよい。また、プロセッサ202は、特定された相対位置に基づいて、現実空間内(グローバル座標系)におけるHMD110のuvw視野座標系の原点を決定してもよい。   In one aspect, the HMD sensor 120 uses the HMD 110 based on the light intensity of infrared light acquired based on the output from the infrared sensor and the relative positional relationship between a plurality of points (for example, the distance between the points). The position in the real space may be specified as the relative position with respect to the HMD sensor 120. Further, the processor 202 may determine the origin of the uvw visual field coordinate system of the HMD 110 in the physical space (global coordinate system) based on the specified relative position.

図4を参照して、仮想空間についてさらに説明する。図4は、ある実施形態に従う仮想空間400を表現する一態様を概念的に表す図である。仮想空間400は、中心406の360度方向の全体を覆う全天球状の構造を有する。図4では、説明を複雑にしないために、仮想空間400のうちの上半分の天球が例示されている。仮想空間400では各メッシュが規定される。各メッシュの位置は、仮想空間400に規定されるXYZ座標系における座標値として予め規定されている。コンピュータ200は、仮想空間400に展開可能なコンテンツ(静止画、動画等)を構成する各部分画像を、仮想空間400において対応する各メッシュにそれぞれ対応付けて、ユーザによって視認可能な仮想空間画像が展開される仮想空間400をユーザに提供する。   The virtual space will be further described with reference to FIG. FIG. 4 is a diagram conceptually showing one aspect of expressing the virtual space 400 according to an embodiment. The virtual space 400 has a spherical structure that covers the entire center 406 in the 360 ° direction. In FIG. 4, the celestial sphere in the upper half of the virtual space 400 is illustrated in order not to complicate the description. Each mesh is defined in the virtual space 400. The position of each mesh is defined in advance as a coordinate value in the XYZ coordinate system defined in the virtual space 400. The computer 200 associates each partial image forming the content (still image, moving image, etc.) that can be expanded in the virtual space 400 with each corresponding mesh in the virtual space 400, and the virtual space image visually recognizable by the user is displayed. The expanded virtual space 400 is provided to the user.

ある態様において、仮想空間400では、中心406を原点とするxyz座標系が規定される。xyz座標系は、例えば、グローバル座標系に平行である。xyz座標系は視点座標系の一種であるため、xyz座標系における水平方向、鉛直方向(上下方向)及び前後方向は、それぞれx軸、y軸及びz軸として規定される。したがって、xyz座標系のx軸(水平方向)がグローバル座標系のx軸と平行であり、xyz座標系のy軸(鉛直方向)がグローバル座標系のy軸と平行であり、xyz座標系のz軸(前後方向)がグローバル座標系のz軸と平行である。   In an aspect, in the virtual space 400, an xyz coordinate system whose origin is the center 406 is defined. The xyz coordinate system is, for example, parallel to the global coordinate system. Since the xyz coordinate system is a kind of viewpoint coordinate system, the horizontal direction, the vertical direction (vertical direction), and the front-back direction in the xyz coordinate system are defined as the x-axis, the y-axis, and the z-axis, respectively. Therefore, the x axis of the xyz coordinate system (horizontal direction) is parallel to the x axis of the global coordinate system, the y axis of the xyz coordinate system (vertical direction) is parallel to the y axis of the global coordinate system, and the x axis of the xyz coordinate system is The z axis (front-back direction) is parallel to the z axis of the global coordinate system.

HMD110の起動時、すなわちHMD110の初期状態において、仮想カメラ404が、仮想空間400の中心406に配置される。ある態様において、プロセッサ202は、仮想カメラ404が撮影する画像をHMD110の表示部112に表示する。仮想カメラ404は、現実空間におけるHMD110の動きに連動して、仮想空間400を同様に移動する。これにより、現実空間におけるHMD110の位置及び向きの変化が、仮想空間400において同様に再現され得る。   When the HMD 110 is activated, that is, in the initial state of the HMD 110, the virtual camera 404 is arranged at the center 406 of the virtual space 400. In an aspect, the processor 202 displays the image captured by the virtual camera 404 on the display unit 112 of the HMD 110. The virtual camera 404 similarly moves in the virtual space 400 in association with the movement of the HMD 110 in the physical space. Thereby, the change in the position and orientation of the HMD 110 in the physical space can be reproduced in the virtual space 400 as well.

HMD110の場合と同様に、仮想カメラ404には、uvw視野座標系が規定される。仮想空間400における仮想カメラ404のuvw視野座標系は、現実空間(グローバル座標系)におけるHMD110のuvw視野座標系に連動するように規定される。したがって、HMD110の傾きが変化すると、それに応じて、仮想カメラ404の傾きも変化する。また、仮想カメラ404は、HMD110を装着したユーザの現実空間における移動に連動して、仮想空間400において移動することもできる。   As in the case of the HMD 110, the uvw visual field coordinate system is defined for the virtual camera 404. The uvw visual field coordinate system of the virtual camera 404 in the virtual space 400 is defined to be linked to the uvw visual field coordinate system of the HMD 110 in the physical space (global coordinate system). Therefore, when the inclination of the HMD 110 changes, the inclination of the virtual camera 404 also changes accordingly. The virtual camera 404 can also move in the virtual space 400 in conjunction with the movement of the user wearing the HMD 110 in the real space.

コンピュータ200のプロセッサ202は、仮想カメラ404の配置位置と、基準視線408とに基づいて、仮想空間400における視界領域410を規定する。視界領域410は、仮想空間400のうち、HMD110を装着したユーザが視認する領域に対応する。   The processor 202 of the computer 200 defines the view area 410 in the virtual space 400 based on the arrangement position of the virtual camera 404 and the reference line of sight 408. The view area 410 corresponds to an area of the virtual space 400 that is visually recognized by the user wearing the HMD 110.

注視センサ140によって検出されるユーザ190の視線は、ユーザ190が物体を視認する際の視点座標系における方向である。HMD110のuvw視野座標系は、ユーザ190が表示部112を視認する際の視点座標系に等しい。また、仮想カメラ404のuvw視野座標系は、HMD110のuvw視野座標系に連動している。したがって、ある態様に従うシステム100は、注視センサ140によって検出されたユーザ190の視線を、仮想カメラ404のuvw視野座標系におけるユーザの視線とみなすことができる。   The line of sight of the user 190 detected by the gaze sensor 140 is the direction in the viewpoint coordinate system when the user 190 visually recognizes an object. The uvw visual field coordinate system of the HMD 110 is equal to the viewpoint coordinate system when the user 190 visually recognizes the display unit 112. The uvw visual field coordinate system of the virtual camera 404 is linked to the uvw visual field coordinate system of the HMD 110. Therefore, system 100 according to an aspect can regard the line of sight of user 190 detected by gaze sensor 140 as the line of sight of the user in the uvw visual field coordinate system of virtual camera 404.

図5を参照して、ユーザの視線の決定について説明する。図5は、ある実施形態に従うHMD110を装着するユーザ190の頭部を上から表した図である。   The determination of the line of sight of the user will be described with reference to FIG. FIG. 5 is a diagram showing the head of the user 190 wearing the HMD 110 according to an embodiment from above.

ある態様において、注視センサ140は、ユーザ190の右目及び左目の各視線を検出する。ある態様において、ユーザ190が近くを見ている場合、注視センサ140は、視線R1及びL1を検出する。別の態様において、ユーザ190が遠くを見ている場合、注視センサ140は、視線R2及びL2を検出する。この場合、ロール方向wに対して視線R2及びL2がなす角度は、ロール方向wに対して視線R1及びL1がなす角度よりも小さい。注視センサ140は、検出結果をコンピュータ200に送信する。   In one aspect, the gaze sensor 140 detects each line of sight of the right and left eyes of the user 190. In an aspect, the gaze sensor 140 detects the lines of sight R1 and L1 when the user 190 is looking closer. In another aspect, the gaze sensor 140 detects lines of sight R2 and L2 when the user 190 is looking far away. In this case, the angle formed by the sight lines R2 and L2 with respect to the roll direction w is smaller than the angle formed by the sight lines R1 and L1 with respect to the roll direction w. The gaze sensor 140 transmits the detection result to the computer 200.

コンピュータ200が、視線の検出結果として、視線R1及びL1の検出値を注視センサ140から受信した場合には、その検出値に基づいて、視線R1及びL1の交点である注視点N1を特定する。一方、コンピュータ200は、視線R2及びL2の検出値を注視センサ140から受信した場合には、視線R2及びL2の交点を注視点として特定する。コンピュータ200は、特定した注視点N1の位置に基づき、ユーザ190の視線N0を特定する。コンピュータ200は、例えば、ユーザ190の右目Rと左目Lとを結ぶ直線の中点と、注視点N1とを通る直線の延びる方向を、視線N0として検出する。視線N0は、ユーザ190が両目により実際に視線を向けている方向である。また、視線N0は、視界領域410に対してユーザ190が実際に視線を向けている方向に相当する。   When the computer 200 receives the detection values of the sight lines R1 and L1 as the detection result of the sight line from the gaze sensor 140, the computer 200 specifies the gaze point N1 which is the intersection of the sight lines R1 and L1 based on the detection value. On the other hand, when the computer 200 receives the detection values of the sight lines R2 and L2 from the gaze sensor 140, the computer 200 specifies the intersection of the sight lines R2 and L2 as the gaze point. The computer 200 specifies the line of sight N0 of the user 190 based on the specified position of the gazing point N1. The computer 200 detects, as the line of sight N0, for example, a direction in which a straight line passing through the midpoint of a straight line connecting the right eye R and the left eye L of the user 190 and the gazing point N1 extends. The line of sight N0 is the direction in which the user 190 is actually directing his or her eyes with both eyes. Further, the line of sight N0 corresponds to the direction in which the user 190 is actually directing the line of sight with respect to the view field 410.

別の態様において、システム100は、システム100を構成するいずれかの部分に、マイク及びスピーカを備えてもよい。ユーザは、マイクに発話することにより、仮想空間400に対して、音声による指示を与えることができる。   In another aspect, the system 100 may include a microphone and a speaker in any part of the system 100. The user can give a voice instruction to the virtual space 400 by speaking into the microphone.

また、別の態様において、システム100は、テレビジョン放送受信チューナを備えてもよい。このような構成によれば、システム100は、仮想空間400においてテレビ番組を表示することができる。   In another aspect, the system 100 may include a television broadcast receiving tuner. With such a configuration, the system 100 can display the television program in the virtual space 400.

さらに別の態様において、システム100は、インターネットに接続するための通信回路、あるいは、電話回線に接続するための通話機能を備えていてもよい。   In yet another aspect, the system 100 may include a communication circuit for connecting to the Internet or a call function for connecting to a telephone line.

図6及び図7を参照して、視界領域410について説明する。図6は、仮想空間400において視界領域410をx方向から見たyz断面を表す図である。図7は、仮想空間400において視界領域410をy方向から見たxz断面を表す図である。   The visibility region 410 will be described with reference to FIGS. 6 and 7. FIG. 6 is a diagram showing a yz cross section of the view field 410 in the virtual space 400 viewed from the x direction. FIG. 7 is a diagram showing an xz cross section of the view field 410 in the virtual space 400 viewed from the y direction.

図6に示されるように、yz断面における視界領域410は、領域602を含む。領域602は、仮想カメラ404の配置位置と基準視線408と仮想空間400のyz断面とによって定義される。プロセッサ202は、仮想空間おける基準視線408を中心として極角αを含む範囲を、領域602として規定する。   As shown in FIG. 6, the view field 410 in the yz section includes a region 602. The area 602 is defined by the arrangement position of the virtual camera 404, the reference line of sight 408, and the yz section of the virtual space 400. The processor 202 defines a range including the polar angle α around the reference line of sight 408 in the virtual space as a region 602.

図7に示されるように、xz断面における視界領域410は、領域702を含む。領域702は、仮想カメラ404の配置位置と基準視線408と仮想空間400のxz断面と
によって定義される。プロセッサ202は、仮想空間400における基準視線408を中心とした方位角βを含む範囲を、領域702として規定する。極角α及びβは、仮想カメラ404の配置位置と仮想カメラ404の向きとに応じて定まる。
As shown in FIG. 7, the view field 410 in the xz section includes a region 702. The area 702 is defined by the arrangement position of the virtual camera 404, the reference line of sight 408, and the xz section of the virtual space 400. The processor 202 defines a range including the azimuth angle β around the reference line of sight 408 in the virtual space 400 as a region 702. The polar angles α and β are determined according to the arrangement position of the virtual camera 404 and the orientation of the virtual camera 404.

ある態様において、システム100は、コンピュータ200からの信号に基づいて、視界画像を表示部112に表示させることにより、仮想空間における視界をユーザ190に提供する。視界画像は、仮想空間画像402のうち視界領域410に重畳する部分に相当する。ユーザ190が、頭に装着したHMD110を動かすと、その動きに連動して仮想カメラ404も動く。その結果、仮想空間400における視界領域410の位置が変化する。これにより、表示部112に表示される視界画像は、仮想空間画像402のうち、仮想空間400においてユーザが向いた方向の視界領域410に重畳する画像に更新される。ユーザは、仮想空間400における所望の方向を視認することができる。   In one aspect, the system 100 provides the user 190 with a view in the virtual space by displaying a view image on the display unit 112 based on a signal from the computer 200. The view field image corresponds to a portion of the virtual space image 402 that is superimposed on the view field region 410. When the user 190 moves the HMD 110 mounted on the head, the virtual camera 404 also moves in conjunction with the movement. As a result, the position of the view field 410 in the virtual space 400 changes. As a result, the view image displayed on the display unit 112 is updated to the image of the virtual space image 402 that is superimposed on the view area 410 in the direction in which the user is facing in the virtual space 400. The user can visually recognize a desired direction in the virtual space 400.

このように、仮想カメラ404の向き(傾き)は仮想空間400におけるユーザの視線(基準視線408)に相当し、仮想カメラ404が配置される位置は、仮想空間400におけるユーザの視点に相当する。したがって、仮想カメラ404を移動(配置位置を変える動作、向きを変える動作を含む)させることにより、表示部112に表示される画像が更新され、ユーザ190の視界(視点、視線を含む)が移動される。   Thus, the orientation (tilt) of the virtual camera 404 corresponds to the user's line of sight (reference line of sight 408) in the virtual space 400, and the position where the virtual camera 404 is arranged corresponds to the user's viewpoint in the virtual space 400. Therefore, by moving the virtual camera 404 (including the operation of changing the arrangement position and the operation of changing the direction), the image displayed on the display unit 112 is updated, and the field of view (including the viewpoint and the line of sight) of the user 190 moves. To be done.

ユーザ190は、HMD110を装着している間、現実世界を視認することなく、仮想空間400に展開される仮想空間画像402のみを視認できる。そのため、システム100は、仮想空間400への高い没入感覚をユーザに与えることができる。   The user 190 can visually recognize only the virtual space image 402 developed in the virtual space 400 without visually recognizing the real world while wearing the HMD 110. Therefore, the system 100 can give the user a high sense of immersion in the virtual space 400.

ある態様において、プロセッサ202は、HMD110を装着したユーザ190の現実空間における移動に連動して、仮想空間400において仮想カメラ404を移動し得る。この場合、プロセッサ202は、仮想空間400における仮想カメラ404の位置及び向きに基づいて、HMD110の表示部112に投影される画像領域(すなわち、仮想空間400における視界領域410)を特定する。   In an aspect, the processor 202 can move the virtual camera 404 in the virtual space 400 in conjunction with the movement of the user 190 wearing the HMD 110 in the real space. In this case, the processor 202 specifies the image area (that is, the view area 410 in the virtual space 400) projected on the display unit 112 of the HMD 110 based on the position and orientation of the virtual camera 404 in the virtual space 400.

ある実施形態に従うと、仮想カメラ404は、2つの仮想カメラ、すなわち、右目用の画像を提供するための仮想カメラと、左目用の画像を提供するための仮想カメラとを含んでもよい。また、ユーザ190が3次元の仮想空間400を認識できるように、適切な視差が、2つの仮想カメラに設定されてもよい。   According to certain embodiments, virtual camera 404 may include two virtual cameras, a virtual camera for providing an image for the right eye and a virtual camera for providing an image for the left eye. In addition, appropriate parallax may be set in the two virtual cameras so that the user 190 can recognize the three-dimensional virtual space 400.

図8Aを参照して、コントローラ160の一例であるコントローラ160Aについて説明する。図8Aは、ある実施形態に従うコントローラ160Aの概略構成を表す図である。   A controller 160A that is an example of the controller 160 will be described with reference to FIG. 8A. FIG. 8A is a diagram showing a schematic configuration of a controller 160A according to an embodiment.

ある態様において、コントローラ160Aは、右コントローラと左コントローラとを含み得る。説明を簡単にするために、図8Aにおけるコントローラ160Aは右コントローラを示す。右コントローラは、ユーザ190の右手で操作される。左コントローラは、ユーザ190の左手で操作される。ある態様において、右コントローラと左コントローラとは、別個の装置として対称に構成される。したがって、ユーザ190は、右コントローラを把持した右手と、左コントローラを把持した左手とをそれぞれ自由に動かすことができる。別の態様において、コントローラ160は両手の操作を受け付ける一体型のコントローラであってもよい。以下、右コントローラ160Aについて説明する。   In an aspect, the controller 160A can include a right controller and a left controller. For ease of explanation, controller 160A in FIG. 8A shows the right controller. The right controller is operated by the right hand of the user 190. The left controller is operated by the left hand of the user 190. In one aspect, the right controller and the left controller are symmetrically configured as separate devices. Therefore, the user 190 can freely move the right hand holding the right controller and the left hand holding the left controller. In another aspect, the controller 160 may be an integrated controller that accepts the operation of both hands. The right controller 160A will be described below.

右コントローラ160Aは、グリップ802と、フレーム804と、天面806とを備える。グリップ802は、ユーザ190の右手によって把持されるように構成されている。例えば、グリップ802は、ユーザ190の右手の掌と3本の指(中指、薬指、小指)とによって保持され得る。   The right controller 160A includes a grip 802, a frame 804, and a top surface 806. The grip 802 is configured to be gripped by the right hand of the user 190. For example, the grip 802 may be held by the palm of the user's 190 right hand and three fingers (middle finger, ring finger, little finger).

グリップ802は、ボタン808及び810と、モーションセンサ130とを含む。ボタン808は、グリップ802の側面に配置され、右手の中指による操作を受け付ける。ボタン810は、グリップ802の前面に配置され、右手の人差し指による操作を受け付ける。ある態様において、ボタン808、810は、トリガー式のボタンとして構成される。モーションセンサ130は、グリップ802の筐体に内蔵されている。なお、ユーザ190の動作がカメラその他の装置によってユーザ190の周りから検出可能である場合には、グリップ802は、モーションセンサ130を備えなくてもよい。   Grip 802 includes buttons 808 and 810 and motion sensor 130. The button 808 is arranged on the side surface of the grip 802 and receives an operation by the middle finger of the right hand. The button 810 is arranged on the front surface of the grip 802 and receives an operation by the index finger of the right hand. In one aspect, the buttons 808, 810 are configured as trigger-type buttons. The motion sensor 130 is built in the housing of the grip 802. Note that the grip 802 may not include the motion sensor 130 when the motion of the user 190 can be detected from around the user 190 by a camera or other device.

フレーム804は、その円周方向に沿って配置された複数の赤外線LED812を含む。赤外線LED812は、コントローラ160Aを使用するプログラムの実行中に、当該プログラムの進行に合わせて赤外線を発光する。赤外線LED812から発せられた赤外線は、右コントローラ160Aと左コントローラ(図示しない)との各位置や姿勢(傾き、向き)を検出するために使用され得る。図8に示される例では、2列に配置された赤外線LED812が示されているが、配列の数は図8に示されるものに限られない。1列あるいは3列以上の配列が使用されてもよい。   The frame 804 includes a plurality of infrared LEDs 812 arranged along the circumferential direction thereof. The infrared LED 812 emits infrared light according to the progress of the program while the program using the controller 160A is being executed. The infrared rays emitted from the infrared LED 812 can be used to detect each position and posture (tilt, direction) of the right controller 160A and the left controller (not shown). In the example shown in FIG. 8, the infrared LEDs 812 arranged in two rows are shown, but the number of arrays is not limited to that shown in FIG. Arrays with one row or more than two rows may be used.

天面806は、ボタン814及び816と、アナログスティック818とを備える。ボタン814及び816は、プッシュ式ボタンとして構成される。ボタン814及び816は、ユーザ190の右手の親指による操作を受け付ける。アナログスティック818は、ある態様において、初期位置(ニュートラルの位置)から360度任意の方向への操作を受け付ける。当該操作は、例えば、仮想空間400に配置されるオブジェクトを移動するための操作を含む。   The top surface 806 includes buttons 814 and 816 and an analog stick 818. Buttons 814 and 816 are configured as push buttons. Buttons 814 and 816 accept an operation performed by the thumb of the right hand of user 190. In a certain aspect, the analog stick 818 accepts an operation in an arbitrary direction of 360 degrees from the initial position (neutral position). The operation includes, for example, an operation for moving an object arranged in the virtual space 400.

ある態様において、右コントローラ160A及び左コントローラは、赤外線LED812等の部材を駆動するための電池を含む。電池は、1次電池及び2次電池のいずれであってもよく、その形状は、ボタン型、乾電池型等任意であり得る。別の態様において、右コントローラ160Aと左コントローラは、例えば、コンピュータ200のUSBインターフェースに接続され得る。この場合、右コントローラ800及び左コントローラは、USBインターフェースを介して電力を供給され得る。   In one aspect, the right controller 160A and the left controller include batteries for driving components such as infrared LEDs 812. The battery may be either a primary battery or a secondary battery, and the shape thereof may be any of button type, dry cell type and the like. In another aspect, the right controller 160A and the left controller may be connected to a USB interface of the computer 200, for example. In this case, the right controller 800 and the left controller may be powered via the USB interface.

図8Bを参照して、コントローラ160の一例であるコントローラ160Bについて説明する。図8Bは、ある実施形態に従うコントローラ160Bの概略構成を表す図である。   A controller 160B that is an example of the controller 160 will be described with reference to FIG. 8B. FIG. 8B is a diagram illustrating a schematic configuration of the controller 160B according to an embodiment.

コントローラ160Bは、複数のボタン820(820a、820b、820c、820d)及び822(822a、822b、822c、822d)と、左右のアナログスティック824L及び824Rとを備える。各ボタン820及び822は、プッシュ式ボタンとして構成される。ボタン820及び822は、ユーザ190の手の親指による操作を受け付ける。ユーザ190の手の人差し指又は中指による操作を受け付けることが可能な不図示のトリガー式のボタンが、更にコントローラ160Bに設けられてもよい。アナログスティック824L及び824Rは、ある態様において、それぞれ初期位置(ニュートラルの位置)から360度任意の方向への操作を受け付ける。当該操作は、例えば、仮想空間400に配置されるオブジェクトを移動するための操作を含む。ボタン820(820a、820b、820c、820d)及び822(822a、822b、822c、822d)並びにアナログスティック824L及び824R(更に、含まれる場合には不図示のトリガー式ボタン)には、それぞれ別個の操作コマンドが割り当てられる。操作コマンドは、例えば、仮想空間400内のオブジェクトに指令を与えるためのコマンド、ゲームのメニュー画面等において各種の設定を行うためのコマンド、及びユーザ190が仮想空間400を体験している際にコンピュータ200に入力し得る任意の他のコマンドを含む。各ボタン又はアナログスティックに割り当てられた操作コマンドは、例えばゲームの進行や場面の変化に応じて、動的に変更されてもよい。   The controller 160B includes a plurality of buttons 820 (820a, 820b, 820c, 820d) and 822 (822a, 822b, 822c, 822d), and left and right analog sticks 824L and 824R. Each button 820 and 822 is configured as a push button. Buttons 820 and 822 accept an operation by the thumb of the user 190's hand. A trigger-type button (not shown) capable of accepting an operation with the index finger or the middle finger of the user 190 may be further provided in the controller 160B. In a certain aspect, the analog sticks 824L and 824R each accept an operation in an arbitrary direction of 360 degrees from the initial position (neutral position). The operation includes, for example, an operation for moving an object arranged in the virtual space 400. Buttons 820 (820a, 820b, 820c, 820d) and 822 (822a, 822b, 822c, 822d) and analog sticks 824L and 824R (and trigger-type buttons (not shown) if included) are each operated separately. Command is assigned. The operation command is, for example, a command for giving a command to an object in the virtual space 400, a command for making various settings on a game menu screen, and a computer when the user 190 is experiencing the virtual space 400. Includes any other commands that may be input to 200. The operation command assigned to each button or analog stick may be dynamically changed, for example, according to the progress of the game or the change of the scene.

ある態様において、コントローラ160Bは、その外表面に配置された不図示の複数の赤外線LEDを含んでもよい。赤外線LEDは、コントローラ160Bを使用するプログラムの実行中に、当該プログラムの進行に合わせて赤外線を発光する。赤外線LEDから発せられた赤外線は、コントローラ160Bの位置や姿勢(傾き、向き)を検出するために使用され得る。またコントローラ160Bは、内部の電子部品を駆動するための電池を含む。電池は、1次電池及び2次電池のいずれであってもよく、その形状は、ボタン型、乾電池型等任意であり得る。別の態様において、コントローラ160Bは、例えば、コンピュータ200のUSBインターフェースに接続され得る。この場合、コントローラ160Bは、USBインターフェースを介して電力を供給され得る。   In one aspect, the controller 160B may include a plurality of infrared LEDs (not shown) disposed on the outer surface thereof. The infrared LED emits infrared light according to the progress of the program while the program using the controller 160B is being executed. The infrared rays emitted from the infrared LEDs can be used to detect the position and posture (tilt, orientation) of the controller 160B. The controller 160B also includes a battery for driving internal electronic components. The battery may be either a primary battery or a secondary battery, and the shape thereof may be any of button type, dry cell type and the like. In another aspect, the controller 160B may be connected to the USB interface of the computer 200, for example. In this case, the controller 160B may be powered via the USB interface.

図9は、本開示の一実施形態による、システム100を介してユーザに仮想体験を提供するための、コンピュータ200の機能を示すブロック図である。既に述べたように、本開示の実施形態において、仮想体験をユーザに提供するための様々な画像表示装置を用いることができる。以下に説明する実施形態では、画像表示装置の一例としてHMDが用いられる。   FIG. 9 is a block diagram illustrating the functionality of computer 200 for providing a virtual experience to a user via system 100, according to an embodiment of the disclosure. As previously mentioned, various image display devices for providing a virtual experience to a user may be used in the embodiments of the present disclosure. In the embodiments described below, an HMD is used as an example of an image display device.

コンピュータ200は、主にHMDセンサ120、モーションセンサ130、注視センサ140、コントローラ160からの入力に基づいて、様々な処理を実行する。   The computer 200 mainly executes various processes based on inputs from the HMD sensor 120, the motion sensor 130, the gaze sensor 140, and the controller 160.

コンピュータ200は、プロセッサ202と、メモリ204と、通信制御部205とを備える。プロセッサ202は、仮想空間特定部902と、HMD動作検知部904と、視線検知部906と、基準視線決定部908と、視界領域決定部910と、仮想視点特定部912と、視界画像生成部914と、仮想カメラ制御部916と、ゲーム離脱制御部918と、視界画像出力部924と、を含み得る。メモリ204は様々な情報を格納するように構成され得る。一例では、メモリ204は、仮想空間データ926、オブジェクトデータ928、アプリケーションデータ930、取り外し判定データ932、アラートデータ934、その他のデータ938等を含んでもよい。メモリ204はまた、HMDセンサ120、モーションセンサ130、注視センサ140、コントローラ160等からの入力に対応した出力情報をHMD110に関連付けられる表示部112へ提供するための演算に必要な、各種データを含んでもよい。オブジェクトデータ928は、仮想空間内に配置される様々なオブジェクトに関するデータを含んでもよい。取り外し判定データ932は、ユーザによる画像表示装置(HMD等)の取り外し動作を判定するのに使用される様々なデータを含んでもよい。表示部112は、HMD110に内蔵されてもよいし、HMD110に取り付け可能な別のデバイス(例えば、スマートフォン)のディスプレイであってもよい。   The computer 200 includes a processor 202, a memory 204, and a communication control unit 205. The processor 202 includes a virtual space specifying unit 902, an HMD motion detecting unit 904, a line-of-sight detecting unit 906, a reference line-of-sight determining unit 908, a view area determining unit 910, a virtual viewpoint specifying unit 912, and a view image generating unit 914. A virtual camera control unit 916, a game departure control unit 918, and a view image output unit 924. The memory 204 may be configured to store various information. In one example, the memory 204 may include virtual space data 926, object data 928, application data 930, removal determination data 932, alert data 934, other data 938, and the like. The memory 204 also includes various data necessary for calculation for providing output information corresponding to inputs from the HMD sensor 120, the motion sensor 130, the gaze sensor 140, the controller 160, and the like to the display unit 112 associated with the HMD 110. But it's okay. The object data 928 may include data regarding various objects arranged in the virtual space. The removal determination data 932 may include various data used to determine the removal operation of the image display device (HMD or the like) by the user. The display unit 112 may be built in the HMD 110 or a display of another device (for example, a smartphone) that can be attached to the HMD 110.

図9においてプロセッサ202内に含まれるコンポーネントは、プロセッサ202が実行する機能を具体的なモジュールとして表現する1つの例にすぎない。複数のコンポーネントの機能が単一のコンポーネントによって実現されてもよい。プロセッサ202がすべてのコンポーネントの機能を実行するように構成されてもよい。   The components included in the processor 202 in FIG. 9 are merely one example of expressing the functions executed by the processor 202 as concrete modules. The functionality of multiple components may be implemented by a single component. Processor 202 may be configured to perform the functions of all components.

図10は、ユーザが没入する仮想空間の画像を表示部112に表示するための一般的な処理のフロー図である。   FIG. 10 is a flowchart of a general process for displaying an image of a virtual space in which a user is immersed in the display unit 112.

図9及び図10を参照して、仮想空間の画像を提供するためのシステム100の一般的
な処理を説明する。仮想空間400は、HMDセンサ120、注視センサ140及びコンピュータ200等の相互作用によって提供され得る。
With reference to FIGS. 9 and 10, general processing of the system 100 for providing an image in the virtual space will be described. The virtual space 400 may be provided by the interaction of the HMD sensor 120, the gaze sensor 140, the computer 200, and the like.

処理はステップ1002において開始する。一例として、アプリケーションデータ930に含まれるゲームアプリケーションがコンピュータ200によって実行されてもよい。ステップ1004において、プロセッサ202(又は、仮想空間特定部902)は、仮想空間データ926を参照するなどして、ユーザが没入する仮想空間400を構成する天球状の仮想空間画像402を生成する。HMDセンサ120によってHMD110の位置や傾きが検知される。HMDセンサ120によって検知された情報はコンピュータ200に送信される。ステップ1006において、HMD動作検知部904は、HMD110の位置情報、傾き情報等を取得する。ステップ1008において、取得された位置情報及び傾き情報に基づいて視界方向が決定される。   The process starts at step 1002. As an example, the game application included in the application data 930 may be executed by the computer 200. In step 1004, the processor 202 (or the virtual space identifying unit 902) generates the celestial spherical virtual space image 402 that constitutes the virtual space 400 in which the user is immersed, by referring to the virtual space data 926 and the like. The HMD sensor 120 detects the position and inclination of the HMD 110. The information detected by the HMD sensor 120 is transmitted to the computer 200. In step 1006, the HMD operation detection unit 904 acquires the position information, the tilt information, and the like of the HMD 110. In step 1008, the view direction is determined based on the acquired position information and tilt information.

注視センサ140がユーザの左右の目の眼球の動きを検出すると、当該情報がコンピュータ200に送信される。ステップ1010において、視線検知部906は、右目及び左目の視線が向けられる方向を特定し、視線方向N0を決定する。ステップ1012において、基準視線決定部908は、HMD110の傾きにより決定された視界方向又はユーザの視線方向N0を基準視線408として決定する。基準視線408はまた、HMD110の位置や傾きに追随する仮想カメラ404の位置及び傾きに基づいて決定されてもよい。   When the gaze sensor 140 detects the movement of the eyeballs of the left and right eyes of the user, the information is transmitted to the computer 200. In step 1010, the line-of-sight detection unit 906 identifies the directions in which the lines of sight of the right and left eyes are directed, and determines the line-of-sight direction N0. In step 1012, the reference line-of-sight determination unit 908 determines the visual field direction or the user's line-of-sight direction N0 determined by the inclination of the HMD 110 as the reference line of sight 408. The reference line-of-sight 408 may also be determined based on the position and tilt of the virtual camera 404 that follows the position and tilt of the HMD 110.

ステップ1014において、視界領域決定部910は、仮想空間400における仮想カメラ404の視界領域410を決定する。図4に示すように、視界領域410は、仮想空間画像402のうちユーザの視界を構成する部分である。視界領域410は基準視線408に基づいて決定される。視界領域410をx方向から見たyz断面図及び視界領域410をy方向から見たxz断面図は、既に説明した図6及び図7にそれぞれ示されている。   In step 1014, the view area determination unit 910 determines the view area 410 of the virtual camera 404 in the virtual space 400. As shown in FIG. 4, the visual field 410 is a portion of the virtual space image 402 that constitutes the visual field of the user. The visual field 410 is determined based on the reference line of sight 408. The yz sectional view of the view field 410 viewed from the x direction and the xz sectional view of the view field 410 viewed from the y direction are shown in FIGS. 6 and 7 described above, respectively.

ステップ1016において、視界画像生成部914は、視界領域410に基づいて視界画像を生成する。視界画像は、右目用と左目用の2つの2次元画像を含む。これらの2次元画像が表示部112に重畳される(より具体的には、右目用画像が右目用表示部に出力され、左目用画像が左目用表示部に出力される)ことにより、3次元画像としての仮想空間400がユーザに提供される。ステップ1018において、視界画像出力部924は、視界画像に関する情報を表示部112に出力する。表示部112は、受信した視界画像の情報に基づいて、当該視界画像を表示する。処理はステップ1020において終了する。   In step 1016, the visual field image generation unit 914 generates a visual field image based on the visual field region 410. The view image includes two two-dimensional images for the right eye and the left eye. By superimposing these two-dimensional images on the display unit 112 (more specifically, the image for the right eye is output to the display unit for the right eye and the image for the left eye is output to the display unit for the left eye), the three-dimensional image is displayed. The virtual space 400 as an image is provided to the user. In step 1018, the visual field image output unit 924 outputs information regarding the visual field image to the display unit 112. The display unit 112 displays the visual field image based on the received information on the visual field image. The process ends at step 1020.

図11は、本開示の一実施形態による、ゲーム離脱制御方法1100のフローチャートである。本開示の一実施形態において、コンピュータプログラムが、図11に示される各ステップをプロセッサ202(又はコンピュータ200)に実行させてもよい。また、本開示の別の実施形態は、少なくともプロセッサを備え、当該プロセッサの制御により方法1100を実行するコンピュータとして実施することもできる。   FIG. 11 is a flowchart of a game departure control method 1100 according to one embodiment of the present disclosure. In one embodiment of the present disclosure, a computer program may cause the processor 202 (or the computer 200) to execute the steps illustrated in FIG. 11. Further, another embodiment of the present disclosure may be implemented as a computer including at least a processor and executing the method 1100 under the control of the processor.

以下、本開示の実施形態について具体的に説明する。ここでは、本開示の実施形態を適用することができる具体例として、ユーザが、当該ユーザに関連付けられるアバター、他のオブジェクト等が配置された仮想空間に没入して楽しむことができるゲームを想定する。しかし、本開示の実施形態は、必ずしもこのような態様に限定されない。本開示の実施形態が、特許請求の範囲において規定される範囲に含まれる様々な態様を取り得ることは、当業者にとって明らかであろう。   Hereinafter, embodiments of the present disclosure will be specifically described. Here, as a specific example to which the embodiment of the present disclosure can be applied, it is assumed that the user can enjoy the game by immersing himself in a virtual space in which an avatar, another object, etc. associated with the user are arranged. . However, the embodiments of the present disclosure are not necessarily limited to such an aspect. It will be apparent to those skilled in the art that the embodiments of the present disclosure can take various aspects within the scope defined by the claims.

図12は、複数のユーザ、例えば2人のユーザであるユーザA及びユーザBがオンラインゲームのマッチプレイをしているときの状況を示す概略図である。尚、ゲームに参加するユーザの人数は2人に制限されない。本開示の実施形態は、より多くの数のユーザが参
加できるゲームにも適用することができる。ユーザA及びユーザBのそれぞれの場所には、図9に示すシステム100が設置されており、これらシステムが互いにネットワーク192及びサーバ150を介して接続されている。説明を簡略にするために、図12では、ユーザAが装着した上述のHMD110のようなHMD1202と、右手に持った上述のコントローラ(ゲームに関連した可動デバイス)のようなコントローラ1204と、これらHMD1202及びコントローラ1204が接続された、机1206上のパーソナルコンピュータ(PC)1208のみが示されている。しかし、図1又は図9に示した他の要素が備えられていてもよいことは明らかであろう。ユーザBも同様のデバイスを有しているが、簡略化のために当該デバイスは省略されている。以下では、図12に示したユーザA及びユーザBがオンラインマッチプレイをしている状況を想定して、本開示の実施形態について説明する。
FIG. 12 is a schematic diagram showing a situation in which a plurality of users, for example, two users, user A and user B, are performing match play of an online game. The number of users who participate in the game is not limited to two. Embodiments of the present disclosure can also be applied to games in which a larger number of users can participate. The system 100 shown in FIG. 9 is installed in each place of the user A and the user B, and these systems are mutually connected via the network 192 and the server 150. In order to simplify the description, in FIG. 12, an HMD 1202 such as the above HMD 110 worn by the user A, a controller 1204 such as the above controller (movable device related to the game) held in the right hand, and these HMD 1202. And only the personal computer (PC) 1208 on the desk 1206 to which the controller 1204 is connected is shown. However, it will be apparent that the other elements shown in FIG. 1 or 9 may be provided. User B has a similar device, but the device is omitted for simplification. Hereinafter, the embodiment of the present disclosure will be described on the assumption that the users A and B shown in FIG. 12 are performing online match play.

図11に戻り、処理は最初にステップ1104に進む。ステップ104において、ゲーム離脱制御部918は、アプリケーションデータ930などから得られる現在プレイされているゲームに関する情報に基づき、ユーザAが、他のユーザも参加しているオンラインマッチをプレイしているかどうかを判定する。ステップ1104においてユーザAがプレイ中でないと判定された場合(ステップ1104の「N」)、処理はステップ1122に進み、終了する。例えば、ユーザAがオンラインマッチプレイ中でない場合、又はユーザAもしくは対戦相手のユーザBがプレイ中のゲームを正常に終了させたときには、この処理が実行される。   Returning to FIG. 11, the process first proceeds to step 1104. In step 104, the game leaving control unit 918 determines whether the user A is playing an online match in which other users are also participating based on the information regarding the currently played game obtained from the application data 930 and the like. judge. If it is determined in step 1104 that the user A is not playing (“N” in step 1104), the process proceeds to step 1122 and ends. For example, this process is executed when the user A is not in the online match play, or when the user A or the opponent user B normally ends the game being played.

一方、ユーザAが現在プレイ中である場合(ステップ1104の「Y」)、処理はステップ1106に進む。ステップ1106において、ゲーム離脱制御部918は、ユーザAによるHMD1202等の取り外し動作が検知されたかどうかを判定する。HMD1202等の取り外し動作の検知の詳細については図12〜図19Bを参照して後述する。取り外し動作が検知されなかった場合(ステップ1106の「N」)、処理はステップ1104の前に戻る。他方、取り外し動作が検知された場合(ステップ1106の「Y」)、処理はステップ1108に進む。ステップ1108において、ゲーム離脱制御部918は、アラートデータ934を参照することなどによって、ゲームへの復帰に関する入力を促すための出力として、ユーザAに対するアラートを生成する。このアラートの生成は、ユーザ・インターフェースの生成を含んでもよい。アラートデータ934には、生成されるアラートの内容、形態、生成する場所等のデータが格納されていてもよい。アラートは、表示、音、振動、光などの形態で生成したり、複数の形態で生成したり、重複して生成したりすることができる。アラートの具体例については図20及び図21を参照して後述する。   On the other hand, if the user A is currently playing (“Y” in step 1104), the process proceeds to step 1106. In step 1106, the game leaving control unit 918 determines whether or not the removal operation of the HMD 1202 or the like by the user A has been detected. Details of detection of the removal operation of the HMD 1202 and the like will be described later with reference to FIGS. 12 to 19B. If no removal operation was detected (“N” in step 1106), the process returns to before step 1104. On the other hand, when the removal operation is detected (“Y” in step 1106), the process proceeds to step 1108. In step 1108, the game leaving control unit 918 generates an alert for the user A as an output for prompting an input regarding return to the game by referring to the alert data 934 or the like. Generating this alert may include generating a user interface. The alert data 934 may store data such as the content, form, and location of the generated alert. The alert can be generated in the form of display, sound, vibration, light, etc., can be generated in a plurality of forms, or can be generated in duplicate. A specific example of the alert will be described later with reference to FIGS. 20 and 21.

処理はステップ1110に進み、ゲーム離脱制御部918は、ゲームへの復帰に関する入力を促す出力に応答してユーザAがプレイに復帰することを選択したかどうかを判定する。プレイへの復帰が選択されたと判定された場合(ステップ1110の「Y」)、処理はステップ1104に戻る。プレイへの復帰が選択されなかった場合(ステップ1110の「N」)、処理はステップ1112に進む。   The process proceeds to step 1110, and the game leaving control unit 918 determines whether or not the user A has selected to return to the play in response to the output prompting the input regarding the return to the game. When it is determined that the return to the play is selected (“Y” in step 1110), the process returns to step 1104. If the return to play is not selected (“N” in step 1110), the process proceeds to step 1112.

ステップ1112において、ゲーム離脱制御部918は、プレイに復帰しないこと、即ち正常終了することが選択されたかどうかを判定する。正常終了が選択された場合(ステップ1112の「Y」)、処理はステップ1114に進む。ステップ1114において、正常終了処理が行われる。一例において、ユーザAがマッチプレイから離脱することを選択した結果として、ユーザAの負け、相手のユーザBの勝ちを決定してゲームを終了させてもよい。複数のユーザが参加するゲームにおいて、一部のユーザが離脱したときにゲームの勝敗をどのように決定するかについては任意に定めてもよい。例えば、ユーザAがユーザBよりも高い得点を有していた場合でも、ユーザAが離脱するときには、ユーザAを負けと決定してもよい。   In step 1112, the game leaving control unit 918 determines whether or not the non-return to the play, that is, the normal end is selected. If normal termination is selected (“Y” in step 1112), the process proceeds to step 1114. In step 1114, normal termination processing is performed. In one example, as a result of the user A selecting to leave match play, the loss of the user A and the win of the opponent user B may be determined and the game may be ended. In a game in which a plurality of users participate, how to determine the outcome of the game when some users leave may be arbitrarily determined. For example, even if user A has a higher score than user B, user A may decide to lose when user A leaves.

プレイへ復帰しないこと(正常終了)が選択されなかった場合(ステップ1112の「N」)、処理はステップ1116に進む。ステップ1116において、ゲーム離脱制御部918は、ゲームのプレイに必要な通信接続が切断されたかどうかを判定する。例えば、ネットワークとの接続のための通信ケーブルが抜かれたとき、通信接続が切断されたと判定される。通信接続が切断されたと判定された場合(ステップ1116の「Y」)、処理はステップ1118に進む。ステップ1118において、ゲーム離脱制御部918は不正離脱処理を行った後に処理を終了する。不正離脱処理の一例において、マッチプレイを正常に終了しなかったと判定されたユーザAに対して、上述の正常終了処理においてユーザAに課される不利益に加えて、今後のゲーム参加に対する制限、ペナルティなどの不利益が課されてもよい。不正離脱処理においてどのような不利益をユーザAに課すかは、ゲームの種類、対戦相手が受ける影響等に応じて、任意に定めることができる。   If no return to normal play (normal end) is not selected (“N” in step 1112), the process proceeds to step 1116. In step 1116, the game departure control unit 918 determines whether the communication connection necessary for playing the game has been disconnected. For example, when the communication cable for connecting to the network is pulled out, it is determined that the communication connection is disconnected. If it is determined that the communication connection has been disconnected (“Y” in step 1116), the process proceeds to step 1118. In step 1118, the game leave control unit 918 ends the process after performing the illegal leave process. In an example of the improper exit processing, in addition to the disadvantage imposed on the user A in the above normal end processing for the user A who is determined not to end the match play normally, restrictions on future game participation, Penalties and other penalties may be imposed. What kind of disadvantage is imposed on the user A in the illegal withdrawal process can be arbitrarily determined according to the type of game, the influence on the opponent, and the like.

他方、通信接続が切断されていないと判定された場合(ステップ1116の「N」)、処理はステップ1120に進む。ステップ1120において、ゲーム離脱制御部918は、所定時間が経過したかどうかを判定する。当該所定時間は、例えば、ステップ1106において取り外し動作が検知されたときから経過した時間について設定されてもよい。あるいは、所定時間は、ステップ1108においてアラートが生成されたときから経過した時間について設定されてもよい。あるいは、所定時間は、ステップ1110、1112又は1116に関連する時点から経過した時間について設定されてもよい。これらの所定時間は、対戦相手であるユーザBがユーザAからの何らかの応答を待っている時間に相当し得る。したがって、所定時間をあまり長い時間とすることは好ましくない。一例として、所定時間は30秒に設定されてもよい。尚、ゲームの種類によっては、所定時間は、より長い時間又はより短い時間であってもよい。このような時間制限を設けることにより、相手プレーヤが無制限に待たされることによって迷惑を被るのを防ぐことができる。   On the other hand, if it is determined that the communication connection has not been disconnected (“N” in step 1116), the process proceeds to step 1120. In step 1120, the game departure control unit 918 determines whether a predetermined time has passed. The predetermined time may be set, for example, for the time that has elapsed since the removal operation was detected in step 1106. Alternatively, the predetermined time may be set for the time that has elapsed since the alert was generated in step 1108. Alternatively, the predetermined time may be set for the time elapsed from the time point associated with steps 1110, 1112 or 1116. These predetermined times may correspond to the time when the opponent user B waits for some response from the user A. Therefore, it is not preferable to set the predetermined time too long. As an example, the predetermined time may be set to 30 seconds. Depending on the type of game, the predetermined time may be a longer time or a shorter time. By providing such a time limit, it is possible to prevent the opponent player from being annoyed by waiting indefinitely.

所定時間が経過していない場合(ステップ1120の「N」)、処理はステップ1110の前に戻り、プレイへの復帰が選択されたか否か、プレイへ復帰しないことが選択されたか否か、通信接続が切断されたか否か、所定時間が経過したか否かについての判定が繰り返し実行される。それぞれの判定に関する処理は上述の通りである。ステップ1120において所定時間が経過したと判定されると(ステップ1120の「Y」)、処理はステップ1118に進み、上述の不正離脱処理が実行され、本フローは終了する。   If the predetermined time has not elapsed (“N” in step 1120), the process returns to step 1110, and whether or not return to play is selected, whether or not not return to play is selected, communication is performed. The determination as to whether or not the connection has been disconnected and whether or not a predetermined time has elapsed is repeatedly executed. The processing regarding each determination is as described above. When it is determined in step 1120 that the predetermined time has elapsed (“Y” in step 1120), the process proceeds to step 1118, the above-mentioned illegal withdrawal process is executed, and this flow ends.

次に、図13〜図19を参照して、図11のステップ1106におけるHMD等の取り外し動作の検知の具体例について説明する。   Next, with reference to FIGS. 13 to 19, a specific example of detection of the removal operation of the HMD or the like in step 1106 of FIG. 11 will be described.

先ず図13を用いて、HMDの取り外し又はコントローラを手放すことに基づくHMD取り外し動作の検知の一例について説明する。図示されるように、ユーザAが、装着しているHMD1202を頭から外して近くの机の上に置いた状況を考える。ここで、机の上に置かれたHMDをHMD1302として示す。この場合、HMD1302の動きはほぼ又は完全に静止する。したがって、HMDが動く距離が最小距離以下になったか否かを判定することにより、HMDが完全静止状態又はそれに近い状態にあるか否かが分かる。これにより、ユーザAがHMD1202を取り外したか否かを検知することができる。上記の最小距離は、HMD及びコントローラに関して取り外し判定データ932に予め格納されていても良い。ユーザがHMD1202を装着してゲームをプレイしている間は、多少なりともHMDの動きが発生する。したがって、上記の最小距離を閾値として用いることにより、HMDが完全静止状態又はそれに近い状態になったか否かを判定することができる。HMD1202の位置や動きは、前述のHMDセンサ120のポジショントラッキング機能又はセンサ114によるHMDの位置及び傾き検出機能を用いて検出することがで
きる。尚、このような機能のないHMDの場合には、ジャイロセンサなどのセンサが追加されても良い。また、図13ではHMDが置かれる場所として机が示されたが、HMDが床や椅子などのその他の任意の場所に置かれる場合にも本開示の実施形態を同様に適用することができる。
First, an example of detection of the HMD removal operation based on the removal of the HMD or the release of the controller will be described with reference to FIG. As shown in the figure, consider a situation in which the user A removes the worn HMD 1202 from his / her head and places it on a nearby desk. Here, the HMD placed on the desk is shown as an HMD 1302. In this case, the movement of the HMD 1302 is almost or completely stationary. Therefore, by determining whether or not the moving distance of the HMD has become equal to or less than the minimum distance, it is possible to know whether or not the HMD is in the completely stationary state or in a state close thereto. This makes it possible to detect whether the user A has removed the HMD 1202. The above minimum distance may be stored in advance in the removal determination data 932 for the HMD and the controller. While the user wears the HMD 1202 and plays the game, some movement of the HMD occurs. Therefore, by using the above-mentioned minimum distance as a threshold, it is possible to determine whether or not the HMD is in a completely stationary state or a state close to it. The position and movement of the HMD 1202 can be detected using the position tracking function of the HMD sensor 120 or the position and tilt detection function of the HMD by the sensor 114 described above. In the case of an HMD that does not have such a function, a sensor such as a gyro sensor may be added. Although the desk is shown as the place where the HMD is placed in FIG. 13, the embodiment of the present disclosure can be similarly applied to the case where the HMD is placed on any other place such as a floor or a chair.

図13には、ユーザAが手に持っていたコントローラ1204を机の上に置いた状況も示されており、置かれたコントローラはコントローラ1304として図示されている。この場合もまた、コントローラ1304は完全静止状態又はこれに近い状態となる。ユーザがコントローラを手に持ってゲームをプレイしている間は多少なりとも動きが発生する。したがって、コントローラが完全静止状態又はこれに近い状態になったと判定される場合、ユーザがコントローラを手放してどこかに置いたことになる(即ち、取り外し動作が行われたことになる)。コントローラの位置、動き等は、例えば前述のモーションセンサ130によって検出することができる。ユーザによっては、HMDを外す前にコントローラを先に置く場合がある。そのような場合には、コントローラの静止状態に基づいて処理を行うことにより、HMDの動きに基づく処理よりも早く、ユーザによる取り外し動作を検出することができる。   FIG. 13 also shows a situation in which the controller 1204 held by the user A is placed on the desk, and the placed controller is shown as the controller 1304. Also in this case, the controller 1304 is in a completely stationary state or a state close thereto. While the user holds the controller in his hand and plays the game, some movement occurs. Therefore, when it is determined that the controller is in the completely stationary state or a state close to the completely stationary state, the user has let go of the controller and placed it somewhere (that is, the removal operation has been performed). The position, movement, etc. of the controller can be detected by, for example, the motion sensor 130 described above. Some users put the controller first before removing the HMD. In such a case, by performing the processing based on the stationary state of the controller, it is possible to detect the removal operation by the user earlier than the processing based on the movement of the HMD.

次に、図14を参照して、HMDの動きに基づく処理の別の例として、取り外し動作時のHMDの動きの軌跡を利用したHMD取り外し動作検知について説明する。図示されるように、ユーザAが頭1402に装着されたHMD1404を外そうとするとき、ユーザAは、先ずHMD1404を上方向に軌跡1406に沿って持ち上げ、そして持ち上げた位置からどこか別の場所(例えば、机の上)に置くために、HMD1404を下方向に軌跡1408に沿って下げる。このような場合、軌跡1406及び軌跡1408は放物線状の曲線となる。したがって、このような放物線状の軌道に沿ったHMDの動きが検出されたときに、HMDの取り外し動作が行われていると判定することができる。このような場合との比較のために、ユーザAが単に上を向く状況を考えると、HMDは例えば軌跡1410を辿る。軌跡1410の動きの距離は短く、上下方向の移動量が少ないので、軌跡1406又は軌跡1408などの放物線状の動きとはかなり異なることが分かる。したがって、ユーザによるHMDの取り外し動作と、ユーザが単に上を向く動作とは、区別することが可能である。この検知手法によれば、HMDがどこかに置かれて完全に静止状態になるときより前の段階において、取り外し動作を検知することができる。   Next, with reference to FIG. 14, as another example of the processing based on the movement of the HMD, detection of the HMD removal operation using the locus of the movement of the HMD during the removal operation will be described. As shown in the figure, when the user A tries to remove the HMD 1404 mounted on the head 1402, the user A first lifts the HMD 1404 upward along the trajectory 1406, and then moves the lifted position somewhere else. HMD 1404 is lowered down along track 1408 for placement on (eg, on a desk). In such a case, the locus 1406 and the locus 1408 are parabolic curves. Therefore, when the movement of the HMD along such a parabolic trajectory is detected, it can be determined that the HMD removal operation is being performed. Considering a situation in which the user A simply looks up for comparison with such a case, the HMD follows a locus 1410, for example. It can be seen that the movement distance of the trajectory 1410 is short and the amount of vertical movement is small, so that it is considerably different from the parabolic movement of the trajectory 1406 or the trajectory 1408. Therefore, it is possible to distinguish the operation of removing the HMD by the user and the operation of the user simply pointing up. According to this detection method, the removal operation can be detected at a stage before the HMD is placed somewhere and completely stopped.

別の例として、ゲームプレイ中に発生する可能性が低い、ゲームプレイとして不自然なHMDの動きを用いて、HMDの取り外し動作を検知しても良い。例えば、そのような不自然な動きが予めデータとして取り外し判定データ932に格納されていてもよい。検出されたHMDの動きが予め格納された動きと比較して同じであるか又は類似するかを判定することにより、取り外し動作を検知することができる。   As another example, the HMD removal operation may be detected by using an unnatural HMD movement in game play that is unlikely to occur during game play. For example, such unnatural movement may be stored in the removal determination data 932 as data in advance. The removal operation can be detected by determining whether the detected HMD movement is the same as or similar to the previously stored movement.

次に、図15を参照して、着脱センサを用いたHMD取り外し動作検知について説明する。この例では、ユーザAの頭1502に装着されたHMD1504に、点線で概略的に示された着脱センサ1506が設けられている。着脱センサ1506を用いて、ユーザAの額が検出されなくなったときにHMD1504が頭から外されたと判定することによって、取り外し動作を検知することができる。着脱センサ1506は、例えば、赤外線を使用するタイプのセンサであってもよいし、機械式スイッチのタイプのセンサ、その他の任意のタイプのセンサであってもよい。   Next, with reference to FIG. 15, detection of the HMD removal operation using the attachment / detachment sensor will be described. In this example, the HMD 1504 attached to the head 1502 of the user A is provided with the attachment / detachment sensor 1506 schematically indicated by the dotted line. By using the attachment / detachment sensor 1506, it is possible to detect the removal operation by determining that the HMD 1504 has been removed from the head when the forehead of the user A is no longer detected. The attachment / detachment sensor 1506 may be, for example, a sensor that uses infrared rays, a mechanical switch type sensor, or any other type sensor.

次に、図16を参照して、HMD等の位置に基づいてHMD取り外し動作を検知する例について説明する。ここで、位置には、HMD等の向きも含むものとする。図示されるように、HMD1602は下向きに置かれた状態であると仮定する。この場合、HMD1602の下向きの状態がある一定時間以上続いたときにHMD1602が取り外された状態にあると判定することによって、取り外し動作の発生を検知することができる。HMD1602が上向きになった状態又はその他の向きになった状態が一定時間以上継続したときも、同様の処理が可能である。HMDの向きが一定時間以上同じままであることは、ゲームプレイ上ほぼあり得ない。したがって、そのような状況が生じた場合、HMDが机、床等に置かれていると判定することができる。同様に、コントローラ1604が特定の向き(例えば、横向き)の状態になったまま、ある一定時間以上が経過したときに、コントローラ1604がユーザの手から放れて机等の上に置かれたと判定されても良い。   Next, with reference to FIG. 16, an example in which the HMD removal operation is detected based on the position of the HMD or the like will be described. Here, the position also includes the orientation of the HMD and the like. As shown, the HMD 1602 is assumed to be in the downward position. In this case, the occurrence of the removal operation can be detected by determining that the HMD 1602 is in the removed state when the downward state of the HMD 1602 continues for a certain period of time or longer. The same processing can be performed when the HMD 1602 is in the upward state or the state in which the HMD 1602 is in the other direction continues for a predetermined time or more. It is almost impossible in game play that the orientation of the HMD remains the same for a certain time or longer. Therefore, when such a situation occurs, it can be determined that the HMD is placed on the desk, floor, or the like. Similarly, it is determined that the controller 1604 has been released from the user's hand and placed on a desk or the like when a certain time or more has passed while the controller 1604 is in a state of a specific orientation (for example, sideways orientation). May be.

以上、HMD等の動き及び位置の一方に基づいてHMD取り外し動作の検知を行う例について説明した。しかし、本開示の実施形態はこのような態様に限定されない。HMD等の動きと位置の双方に基づいて、取り外し動作の検知が行われても良い。例えば、所定の位置からの所定の動きによる移動が生じたこと、所定の動きによる所定の位置への移動が生じたこと、所定の動きが所定の位置において生じたことなどに基づいて、取り外し動作の検知が行われても良い。   The example in which the HMD removal operation is detected based on one of the movement and the position of the HMD has been described above. However, the embodiment of the present disclosure is not limited to such an aspect. The removal operation may be detected based on both the movement and the position of the HMD or the like. For example, the removal operation is performed based on a movement from a predetermined position due to a predetermined movement, a movement to a predetermined position due to a predetermined movement, a predetermined movement at a predetermined position, or the like. May be detected.

図17A及び図17Bを参照して、HMD等の動き及び位置の双方に基づいてHMD取り外し動作検知を行う例について説明する。図17A及び図17Bにおいては、簡単化のために、HMDの向きが白抜きの太い矢印で示されている。図示されるように、図17AのHMD1702は、前向きの状態で上方向にある距離以上動かされる。この動きは、HMD1702を頭上へ外す動きとして解釈することができる。他方、図17BのHMD1704は、下向きの状態下方向へある距離以上動かされる。この動きは、HMD1704を床等に置く動きとして解釈することができる。このようにHMDの動きを解釈することに基づいて、HMDの取り外し動作を検知しても良い。   An example in which the HMD removal operation detection is performed based on both the movement and the position of the HMD and the like will be described with reference to FIGS. 17A and 17B. In FIGS. 17A and 17B, the direction of the HMD is indicated by a thick white arrow for simplification. As shown, the HMD 1702 of FIG. 17A is moved upward a certain distance in a forward facing condition. This motion can be interpreted as a motion of moving the HMD 1702 overhead. On the other hand, the HMD 1704 in FIG. 17B is moved downward for a certain distance or more. This motion can be interpreted as a motion of placing the HMD 1704 on the floor or the like. In this way, the removal operation of the HMD may be detected based on the interpretation of the movement of the HMD.

以上においては、HMD等を頭から外すとき、机に置くとき等を予め想定してHMD等の取り外し動作検知を行う例について説明した。別の例として、HMDのポジショントラッキングを行うことによってHMDの動きの追跡を続けていると、HMDの動きに関するデータが蓄積される。そして、ユーザがどのような動きをしているときに取り外し動作を行っているかを示す教師データを取得して、人工知能(AI)を用いた機械学習に利用することができる。その場合、予め想定されていなかった動き及び位置に基づいて取り外し動作を検知することも可能となり得る。   In the above description, an example in which the removal operation of the HMD or the like is detected on the assumption that the HMD or the like is detached from the head or placed on a desk in advance. As another example, if the HMD movement tracking is continued by performing the HMD position tracking, data regarding the HMD movement is accumulated. Then, teacher data indicating what kind of movement the user is performing the detaching operation can be acquired and used for machine learning using artificial intelligence (AI). In that case, it may also be possible to detect the removal operation based on movements and positions that were not assumed in advance.

次に、図18A及び図18Bを参照して、ユーザの頭部及び目の少なくとも一方の位置及び動きの少なくとも一方に基づいてHMD取り外し動作の検知を行う例について説明する。尚、ユーザの頭部の動き及び位置は、HMDを装着しているときにはHMDの位置及び動きとして特定することができるので、ここでは特に、目の位置及び動きに基づく処理について説明する。図18A及び図18Bに示すように、HMD1802は、前述の注視センサ140のような注視センサ1804(概略的に示す)を備え、ユーザの目のアイトラッキングを行う。図18Aでは、ユーザがHMD1802を頭に装着した状態を想定している。このときには、注視センサ1804によってユーザの目をトラッキングすることが可能である。他方、図18Bにおいて、HMDを頭から外すためにユーザがHMDを頭上に持ち上げたときには、注視センサ1804はユーザの目をトラッキングすることができなくなる。このように、目の位置及び/又は動きを検出することができないとき、取り外し動作が行われたと判定されてもよい。さらに、ゲームプレイにおいて通常起きえないような不自然な目の動きを検出したときにも、取り外し動作が行われたと判定されても良い。このような判定に用いるデータは、取り外し判定データ932に格納されていても良い。   Next, with reference to FIGS. 18A and 18B, an example in which the HMD removal operation is detected based on at least one of the position and the movement of at least one of the head and eyes of the user will be described. Note that the movement and position of the user's head can be specified as the position and movement of the HMD when the HMD is worn, so here, in particular, processing based on the position and movement of the eyes will be described. As shown in FIGS. 18A and 18B, the HMD 1802 includes a gaze sensor 1804 (schematically illustrated) such as the gaze sensor 140 described above, and performs eye tracking of the eyes of the user. In FIG. 18A, it is assumed that the user wears the HMD 1802 on his / her head. At this time, the gaze sensor 1804 can track the eyes of the user. On the other hand, in FIG. 18B, when the user lifts the HMD overhead to remove it from the head, the gaze sensor 1804 is unable to track the user's eyes. In this way, it may be determined that the removal operation has been performed when the position and / or movement of the eyes cannot be detected. Furthermore, it may be determined that the removal operation has been performed when an unnatural eye movement that normally cannot occur during game play is detected. The data used for such a determination may be stored in the removal determination data 932.

次に、図19A及び図19Bを参照して、HMDとコントローラとの間の相対的な位置関係に基づいてHMD取り外し動作の検知を行う例について説明する。図19Aは、HM
D1902を装着したユーザAが手にコントローラ1904を持っている状態を示している。このときのHMD1902とコントローラ1904との間の距離D1の最大距離は、ユーザAの手の長さによってほぼ決まる。このような状況で、ユーザAがHMD1902を取り外すための準備としてコントローラ1904を少し離れた机上に置くと、机上に置かれたコントローラ1906とHMD1902との間の距離D2は、D1の最大距離よりも大きくなる。したがって、コントローラとHMDとの間の位置関係が所定の条件を満たす(この例では、距離D2が距離D1の最大値よりも大きい)場合に、HMDの取り外し動作が行われた(又は、行われようとしている)と判定することができる。机上ではなく、参照番号1908で示す位置にコントローラが置かれて、コントローラ1908とHMD1902との間の距離D3がD1の最大距離以上になったときも同様の処理を行うことができる。
Next, with reference to FIG. 19A and FIG. 19B, an example in which the HMD removal operation is detected based on the relative positional relationship between the HMD and the controller will be described. FIG. 19A shows HM
A state in which the user A wearing the D1902 holds the controller 1904 in his hand is shown. The maximum distance D1 between the HMD 1902 and the controller 1904 at this time is substantially determined by the length of the hand of the user A. In this situation, when the user A places the controller 1904 on a desk a little away in preparation for removing the HMD 1902, the distance D2 between the controller 1906 placed on the desk and the HMD 1902 is larger than the maximum distance D1. growing. Therefore, when the positional relationship between the controller and the HMD satisfies a predetermined condition (in this example, the distance D2 is larger than the maximum value of the distance D1), the HMD removal operation is performed (or is performed). I am trying to)). The same process can be performed when the controller is placed at the position indicated by reference numeral 1908 instead of on the desk and the distance D3 between the controller 1908 and the HMD 1902 becomes equal to or larger than the maximum distance D1.

他方、図19Bに示すように、ユーザAがコントローラ1904を参照番号1910で示す位置に移動させてHMD1902に近付けると、コントローラ1910とHMD1902との間の距離はある一定距離以下となる。この状態は、ユーザAがHMD1902を取り外そうとして、コントローラを持っている手をHMD1902に近付けた状態であると解釈することができる。したがって、コントローラとHMDとの間の距離が所定の距離以下になるなどの所定の条件が満たされる場合に、HMDの取り外し動作が行われたと判定しても良い。あるいは、ゲームの性質上、コントローラをHMDに近付ける必要がない場合において、コントローラが一定時間以上HMDに近付けられたときに、HMDの取り外し動作が発生したと判定されても良い。   On the other hand, as shown in FIG. 19B, when user A moves controller 1904 to the position indicated by reference numeral 1910 and approaches HMD 1902, the distance between controller 1910 and HMD 1902 becomes a certain distance or less. This state can be interpreted as a state in which the user A is trying to remove the HMD 1902 and the hand holding the controller is brought close to the HMD 1902. Therefore, it may be determined that the removal operation of the HMD is performed when a predetermined condition such as a distance between the controller and the HMD being equal to or less than a predetermined distance is satisfied. Alternatively, when it is not necessary to bring the controller closer to the HMD due to the nature of the game, it may be determined that the HMD removal operation has occurred when the controller has been brought closer to the HMD for a certain period of time or longer.

図19A及び図19Bでは、コントローラとHMDとの間の位置関係が所定の条件を満たすか否かに基づく判定について説明された。別の例として、コントローラとユーザの頭部との間の位置関係が所定の条件を満たすか否かに基づいて、同様の判定を行うことができる。   19A and 19B, the determination based on whether the positional relationship between the controller and the HMD satisfies a predetermined condition has been described. As another example, the same determination can be performed based on whether the positional relationship between the controller and the user's head satisfies a predetermined condition.

次に、図20及び図21を参照して、図11のステップ1108におけるアラート生成の詳細について説明する。   Next, details of the alert generation in step 1108 of FIG. 11 will be described with reference to FIGS. 20 and 21.

図20は、HMD110の表示部112(図9参照)に表示されるアラートの例を示している。アラート2002は、HMD等の取り外し動作の検知をトリガーとして表示され、ユーザからの入力を受け付けるためのユーザ・インターフェース(UI)を提供する。この例では、アラート2002は、「プレイに復帰しますか?」というテキスト表示2004とともに、復帰選択のための「はい」ボタン2006を含んでいる。図11のステップ1110においてプレイへの復帰を選択するとき、ユーザは「はい」ボタン2006を操作すれば良い。また、アラート2002は、「プレイに復帰しない(正常終了)を選択しますか?」というテキスト表示2008とともに、正常終了即ち正常離脱を選択するための「はい」ボタン2010を含んでいる。図11のステップ1112において正常終了を選択するときには、ユーザは「はい」ボタン2010を操作すれば良い。また、アラート2002は、「正常終了しないときには、不正離脱となり、今後のゲームプレイに不利益を受けますので、ご注意下さい。」という、ユーザに対する警告文2012を含んでもよい。当該警告文により、ユーザに対してゲームへの復帰あるいはゲームの正常終了を促すことができる。別の例として、アラート2002は、「30秒以内に復帰して下さい。復帰しない場合にはリタイヤとみなします。」のような警告文を含んでも良い。   FIG. 20 shows an example of the alert displayed on the display unit 112 (see FIG. 9) of the HMD 110. The alert 2002 is displayed with the detection of the removal operation of the HMD or the like as a trigger, and provides a user interface (UI) for receiving an input from the user. In this example, the alert 2002 includes a text display 2004 “Would you like to return to play?” And a “Yes” button 2006 for selecting a return. When selecting the return to the play in step 1110 of FIG. 11, the user may operate the “Yes” button 2006. Further, the alert 2002 includes a text display 2008 “Do you want to select not to return to play (normal end)?” And a “Yes” button 2010 for selecting normal end, that is, normal departure. When selecting normal termination in step 1112 of FIG. 11, the user may operate the “Yes” button 2010. Further, the alert 2002 may include a warning sentence 2012 for the user, "Please note that if you do not end normally, you will be illegally leaving and you will be disadvantaged for future game play." The warning message can prompt the user to return to the game or to normally end the game. As another example, the alert 2002 may include a warning statement such as "Please recover within 30 seconds. If not recovered, it will be considered as a retirement."

図13〜図19で説明した取り外し動作の検知手法は、HMDを取り外す前やHMDの取り外し中に、取り外し動作を検出できる手法(タイミング的には、HMD110の表示部112に表示されるアラート2002をユーザが視認できるケース)と、HMDの取り外しが完了しなければ取り外し動作を検出できない手法(タイミング的には、HMD11
0の表示部112に表示されるアラート2002をユーザが視認できないケース)の両方を含み得る。
The removal operation detection method described with reference to FIGS. 13 to 19 is a method that can detect the removal operation before the HMD is removed or during the removal of the HMD (in terms of timing, an alert 2002 displayed on the display unit 112 of the HMD 110 is displayed. A case where the user can visually recognize) and a method in which the removal operation cannot be detected unless the removal of the HMD is completed (timingally, the HMD 11
The case where the user cannot visually recognize the alert 2002 displayed on the display unit 112 of 0).

図21は、図13〜図19で説明した手法に適用することができる、本開示の実施形態による、重複アラートについて説明する。図20に示したアラート2002はHMD110の表示部112に表示されるので、HMDを外した後、ユーザはアラート2002を見ることができない。従って、HMD等の取り外し動作中、取り外し動作が完了する前にアラートを生成してユーザの注意をより確実に惹き付けるために、上記アラート2002に加えて、追加のアラートを生成しても良い。例えば、図示されるように、ユーザAの机2102上に置かれたVRゲームを実行しているPC2104のディスプレイに、テキストその他のタイプのアラート2106を表示しても良い。この追加のアラート2106は、図20に示される警告文2012のような警告文を含んでもよい。別の例において、追加のアラートは、机2102に置かれたコントローラ2108を振動させることであってもよい。あるいは、追加のアラートは、取り外されたHMD2110に設けられたランプ2112を点灯又は点滅させることであってもよい。また、追加のアラートは、アラーム音を生成し、ユーザが使っているヘッドホン2114を介して当該アラーム音を発することであってもよい。ヘッドホンの代わりにスピーカが使用されている場合には、当該スピーカを介してアラーム音を発してもよい。   FIG. 21 illustrates duplicate alerts according to embodiments of the present disclosure that can be applied to the techniques described in FIGS. 13-19. Since the alert 2002 shown in FIG. 20 is displayed on the display unit 112 of the HMD 110, the user cannot see the alert 2002 after removing the HMD. Therefore, during the removal operation of the HMD or the like, an additional alert may be generated in addition to the above-mentioned alert 2002 in order to generate an alert before the removal operation is completed to attract the user's attention more reliably. For example, as shown, text or some other type of alert 2106 may be displayed on the display of a PC 2104 running a VR game placed on user A's desk 2102. This additional alert 2106 may include a warning statement, such as warning statement 2012 shown in FIG. In another example, the additional alert may be to vibrate the controller 2108 located on the desk 2102. Alternatively, the additional alert may be to turn on or blink a lamp 2112 provided on the removed HMD 2110. Further, the additional alert may be to generate an alarm sound and emit the alarm sound via the headphones 2114 used by the user. When a speaker is used instead of headphones, an alarm sound may be emitted through the speaker.

図21の重複アラートを行うことにより、HMDの取り外しが完了しなければ取り外し動作を検出できない場合であっても、ユーザはアラートに気づくので、再度、HMDを装着して正常に終了させることをユーザに促せる。また、HMDを取り外す前やHMDの取り外し中に取り外し動作を検出できる場合であっても、ユーザが必ずしもアラートに気づくとは限らないので、図21の重複アラートを行うことが有用である。   By performing the duplicate alert of FIG. 21, even if the removal operation cannot be detected unless the removal of the HMD is completed, the user notices the alert. Therefore, it is recommended that the user attach the HMD again and end it normally. Can be urged. In addition, even if the removal operation can be detected before or during removal of the HMD, the user does not always notice the alert, so it is useful to issue the duplicate alert of FIG.

以上、本開示の実施形態を説明したが、これらは例示にすぎず、本開示の範囲を限定するものではないことは理解されるべきである。本開示の趣旨及び範囲から逸脱することなく、実施形態の変更、追加、改良等を適宜行うことができることは理解されるべきである。本開示の範囲は、上述した実施形態のいずれによっても限定されるべきではなく、特許請求の範囲及びその均等物によって規定されるべきである。   Although the embodiments of the present disclosure have been described above, it should be understood that these are merely examples and do not limit the scope of the present disclosure. It should be understood that changes, additions, improvements, etc. of the embodiments can be appropriately made without departing from the spirit and scope of the present disclosure. The scope of the present disclosure should not be limited by any of the above-described embodiments, but should be defined by the claims and their equivalents.

100…HMDシステム、112…表示部、114…センサ、120…HMDセンサ、130…モーションセンサ、140…注視センサ、150…サーバ、160A、160B…コントローラ、190…頭部、192…ネットワーク、200…コンピュータ、202…プロセッサ、204…メモリ、205…通信制御部、206…ストレージ、208…入出力インターフェース、210…通信インターフェース、212…バス、400…仮想空間、402…仮想空間画像、404…仮想カメラ、406…中心、408…基準視線、410…視界領域、800…右コントローラ、802…グリップ、804…フレーム、806…天面、808、810、814、816…ボタン、812…赤外線LED、818…アナログスティック、820、822…ボタン、824R、824L…アナログスティック、902…仮想空間特定部、904…HMD動作検知部、906…視線検知部、908…基準視線決定部、910…視界領域決定部、912…仮想視点特定部、914…視界画像生成部、916…仮想カメラ制御部、918…ゲーム離脱制御部、924…視界画像出力部、926…仮想空間データ、928…オブジェクトデータ、930…アプリケーションデータ、932…取り外し判定データ、934…アラートデータ   100 ... HMD system, 112 ... Display part, 114 ... Sensor, 120 ... HMD sensor, 130 ... Motion sensor, 140 ... Gaze sensor, 150 ... Server, 160A, 160B ... Controller, 190 ... Head, 192 ... Network, 200 ... Computer, 202 ... Processor, 204 ... Memory, 205 ... Communication control unit, 206 ... Storage, 208 ... Input / output interface, 210 ... Communication interface, 212 ... Bus, 400 ... Virtual space, 402 ... Virtual space image, 404 ... Virtual camera , 406 ... Center, 408 ... Reference line of sight, 410 ... View area, 800 ... Right controller, 802 ... Grip, 804 ... Frame, 806 ... Top surface, 808, 810, 814, 816 ... Button, 812 ... Infrared LED, 818 ... Analog stick, 820, 22 ... Button, 824R, 824L ... Analog stick, 902 ... Virtual space specifying unit, 904 ... HMD motion detecting unit, 906 ... Line-of-sight detecting unit, 908 ... Standard line-of-sight determining unit, 910 ... View area determining unit, 912 ... Virtual viewpoint specifying 914 ... View image generation unit, 916 ... Virtual camera control unit, 918 ... Game departure control unit, 924 ... View image output unit, 926 ... Virtual space data, 928 ... Object data, 930 ... Application data, 932 ... Detachment determination Data, 934 ... Alert data

Claims (11)

第1ユーザの頭部に関連付けられた画像表示装置を介して、前記第1ユーザを含む複数のユーザが参加する仮想空間での仮想体験を前記第1ユーザに提供するためのコンピュータに、
前記仮想空間を定義するステップと、
前記画像表示装置を介して前記仮想空間を前記第1ユーザに提供するステップと、
前記画像表示装置を前記第1ユーザが取り外す取り外し動作を検出するステップと、
前記取り外し動作が検出された場合に、前記仮想体験を終了するか否かの入力を促すUI(User Interface)を前記画像表示装置に出力させるステップと、
を実行させるプログラム。
A computer for providing the first user with a virtual experience in a virtual space in which a plurality of users including the first user participate via an image display device associated with the head of the first user,
Defining the virtual space,
Providing the virtual space to the first user via the image display device;
Detecting a removal operation of removing the image display device by the first user,
Output a UI (User Interface) to the image display device to prompt input of whether or not to end the virtual experience when the removal operation is detected,
A program to execute.
前記取り外し動作を検出するステップは、
前記第1ユーザの頭部に含まれる第1部位を検出するステップと、
前記第1部位を検出できないとき、前記取り外し動作が行われたと判定するステップと
を含む、請求項1に記載のプログラム。
The step of detecting the removal operation includes
Detecting a first part included in the head of the first user;
The program according to claim 1, further comprising a step of determining that the removal operation has been performed when the first portion cannot be detected.
前記取り外し動作を検出するステップは、
前記画像表示装置を追跡するステップと、
前記画像表示装置が静止したとき、又は前記画像表示装置が所定の軌道を動いたとき、前記取り外し動作が行われたと判定するステップと
を含む、請求項1に記載のプログラム。
The step of detecting the removal operation includes
Tracking the image display device,
The program according to claim 1, further comprising a step of determining that the removal operation is performed when the image display device is stationary or when the image display device moves along a predetermined trajectory.
前記取り外し動作を検出するステップは、
前記第1ユーザにより使用される操作デバイスを追跡するステップと、
前記操作デバイスが静止したとき、又は前記操作デバイスと前記画像表示装置との間の位置関係が所定の条件を満たしたとき、前記取り外し動作が行われたと判定するステップと
を含む、請求項1に記載のプログラム。
The step of detecting the removal operation includes
Tracking an operating device used by the first user;
Determining that the removal operation has been performed when the operating device is stationary or when the positional relationship between the operating device and the image display device satisfies a predetermined condition. The listed program.
前記コンピュータに、
前記仮想体験を終了する入力を受け付けるステップと、
前記仮想体験を終了する入力が受け付けられたことに応じて、前記第1ユーザを前記仮想体験から正常に離脱させるステップと、
を実行させる、請求項1から4のいずれか1項に記載のプログラム。
On the computer,
Accepting an input to end the virtual experience,
Gracefully leaving the first user from the virtual experience in response to receiving an input to end the virtual experience;
The program according to any one of claims 1 to 4, which executes the program.
前記コンピュータに、
前記仮想体験を終了しない入力を受け付けるステップと、
前記仮想体験を終了しない入力が受け付けられたことに応じて、前記第1ユーザを前記仮想体験に復帰させるステップと、
を実行させる、請求項1から5のいずれか1項に記載のプログラム。
On the computer,
Accepting an input that does not end the virtual experience,
Returning the first user to the virtual experience in response to receiving an input that does not end the virtual experience;
The program according to claim 1, wherein the program is executed.
前記コンピュータに、
前記仮想体験を終了する入力及び前記仮想体験を終了しない入力のいずれも受け付けられなかったことに応じて、前記第1ユーザが前記仮想体験から不正離脱したと判定するステップ
を実行させる、請求項1から6のいずれか1項に記載のプログラム。
On the computer,
The step of determining that the first user has illegally withdrawn from the virtual experience in response to neither input of ending the virtual experience nor input of not ending the virtual experience is executed. The program according to any one of 1 to 6.
前記UIは、前記第1ユーザが前記仮想体験への復帰及び正常離脱のいずれも行わない場合に前記第1ユーザが前記仮想体験から不正離脱したとみなされる旨の警告を含む、請
求項1から7のいずれか1項に記載のプログラム。
The UI includes a warning to the effect that the first user is considered to have been illegally withdrawn from the virtual experience if the first user does not return to the virtual experience or normally exits. 7. The program according to any one of 7.
前記取り外し動作が検出された場合に、前記画像表示装置に関連付けられる音声出力装置及び画像出力装置のうちの少なくとも1つに、前記仮想体験からの正常離脱を促す出力を行わせるステップ
を含む、請求項1から8のいずれか1項に記載のプログラム。
A step of causing at least one of an audio output device and an image output device associated with the image display device to perform an output for urging a normal departure from the virtual experience when the removal operation is detected. The program according to any one of items 1 to 8.
第1ユーザの頭部に関連付けられた画像表示装置を介して、前記第1ユーザを含む複数のユーザが参加する仮想空間での仮想体験を前記第1ユーザに提供するためのコンピュータであって、
前記コンピュータが備えるプロセッサによる制御により、
前記仮想空間を定義するステップと、
前記画像表示装置を介して前記仮想空間を前記第1ユーザに提供するステップと、
前記画像表示装置を前記第1ユーザが取り外す取り外し動作を検出するステップと、
前記取り外し動作が検出された場合に、前記仮想体験を終了するか否かの入力を促すUI(User Interface)を前記画像表示装置に出力させるステップと
が実行される、コンピュータ。
A computer for providing the first user with a virtual experience in a virtual space in which a plurality of users including the first user participate via an image display device associated with the head of the first user,
By the control of the processor included in the computer,
Defining the virtual space,
Providing the virtual space to the first user via the image display device;
Detecting a removal operation of removing the image display device by the first user,
And a step of causing the image display device to output a UI (User Interface) prompting an input as to whether or not to end the virtual experience when the removal operation is detected.
第1ユーザの頭部に関連付けられた画像表示装置を介して、前記第1ユーザを含む複数のユーザが参加する仮想空間での仮想体験を前記第1ユーザに提供するための、コンピュータにより実行される方法であって、
前記仮想空間を定義するステップと、
前記画像表示装置を介して前記仮想空間を前記第1ユーザに提供するステップと、
前記画像表示装置を前記第1ユーザが取り外す取り外し動作を検出するステップと、
前記取り外し動作が検出された場合に、前記仮想体験を終了するか否かの入力を促すUI(User Interface)を前記画像表示装置に出力させるステップと
を含む、方法。
Computer-implemented for providing to the first user a virtual experience in a virtual space in which a plurality of users including the first user participate via an image display device associated with the head of the first user. Method,
Defining the virtual space,
Providing the virtual space to the first user via the image display device;
Detecting a removal operation of removing the image display device by the first user,
Outputting a UI (User Interface) to the image display device for prompting an input as to whether or not to end the virtual experience when the removal operation is detected.
JP2019232273A 2019-12-24 2019-12-24 Program, computer and method for providing user with virtual experience via image display device Pending JP2020064652A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019232273A JP2020064652A (en) 2019-12-24 2019-12-24 Program, computer and method for providing user with virtual experience via image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019232273A JP2020064652A (en) 2019-12-24 2019-12-24 Program, computer and method for providing user with virtual experience via image display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018105456A Division JP6639563B2 (en) 2018-05-31 2018-05-31 Program, computer, and method for providing a virtual experience to a user via an image display device

Publications (1)

Publication Number Publication Date
JP2020064652A true JP2020064652A (en) 2020-04-23

Family

ID=70388369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019232273A Pending JP2020064652A (en) 2019-12-24 2019-12-24 Program, computer and method for providing user with virtual experience via image display device

Country Status (1)

Country Link
JP (1) JP2020064652A (en)

Similar Documents

Publication Publication Date Title
JP6257827B1 (en) Method, program, and information processing apparatus executed by computer to provide virtual space
JP2018190336A (en) Method for providing virtual space, program for executing method in computer, information processing unit for executing program
JP6368411B1 (en) Method, program and computer executed on a computer to provide a virtual experience
JP6257826B1 (en) Method, program, and information processing apparatus executed by computer to provide virtual space
JP2018089228A (en) Information processing method, apparatus, and program for implementing that information processing method on computer
JP2018147465A (en) Information processing method, device, and program for causing computer to execute the method
JP6513241B1 (en) PROGRAM, INFORMATION PROCESSING DEVICE, AND INFORMATION PROCESSING METHOD
JP2018147377A (en) Information processing method, computer, and program for causing computer to execute the method
JP6479933B1 (en) Program, information processing apparatus, and method
JP6495398B2 (en) Method and program for providing virtual space, and information processing apparatus for executing the program
JP6457446B2 (en) Method and apparatus for supporting communication in virtual space, and program for causing computer to execute the method
JP2018101291A (en) Computer-executed method for presenting object in virtual space, program for executing thereof by computer, and computer device
JP6639563B2 (en) Program, computer, and method for providing a virtual experience to a user via an image display device
JP6263292B1 (en) Information processing method, computer, and program for causing computer to execute information processing method
JP6250779B1 (en) Method executed by computer to communicate via virtual space, program causing computer to execute the method, and information processing apparatus
JP2018206340A (en) Method which is executed on computer for providing virtual space, program and information processor
JP2018190390A (en) Method for providing virtual space, program for executing method in computer, information processing unit for executing program
JP2018092592A (en) Information processing method, apparatus, and program for implementing that information processing method on computer
JP2018101293A (en) Method executed by computer to provide head-mounted device with virtual space, program causing computer to execute the same and computer device
JP6330072B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP2020064652A (en) Program, computer and method for providing user with virtual experience via image display device
JP2019145120A (en) Method of providing virtual space, program, and information processing apparatus for executing the program
JP2019155115A (en) Program, information processor and information processing method
JP2020047006A (en) Program, method, and information processing device
JP6522825B1 (en) Program, information processing apparatus, and method