JP2019211868A - Program, computer and method for providing user with virtual experience via image display device - Google Patents

Program, computer and method for providing user with virtual experience via image display device Download PDF

Info

Publication number
JP2019211868A
JP2019211868A JP2018105456A JP2018105456A JP2019211868A JP 2019211868 A JP2019211868 A JP 2019211868A JP 2018105456 A JP2018105456 A JP 2018105456A JP 2018105456 A JP2018105456 A JP 2018105456A JP 2019211868 A JP2019211868 A JP 2019211868A
Authority
JP
Japan
Prior art keywords
user
hmd
image display
display device
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018105456A
Other languages
Japanese (ja)
Other versions
JP6639563B2 (en
Inventor
豪 佐藤
Takeshi Sato
豪 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2018105456A priority Critical patent/JP6639563B2/en
Publication of JP2019211868A publication Critical patent/JP2019211868A/en
Application granted granted Critical
Publication of JP6639563B2 publication Critical patent/JP6639563B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To provide a novel technique for suppressing withdrawal from a game not intended by a user in the game in which a plurality of users participate.SOLUTION: A program according to an embodiment of the present disclosure causes a computer for providing users with a virtual experience in a game in which a plurality of the users participate via respective image display devices to execute steps of: defining a virtual space for providing the virtual experience; providing the users with the virtual space via the respective image display devices; detecting a removal action of the user to remove the image display device associated with a head of the user; and generating output that prompts the user whose removal action is detected, to perform input related to returning to the game.SELECTED DRAWING: Figure 11

Description

本開示は、画像表示装置を介して仮想体験をユーザに提供するためのプログラム、コンピュータ及び方法に関する。より具体的には、本開示は、ゲームにおけるユーザの離脱に関わる処理を実行するためのプログラム、コンピュータ及び方法に関する。   The present disclosure relates to a program, a computer, and a method for providing a virtual experience to a user via an image display device. More specifically, the present disclosure relates to a program, a computer, and a method for executing processing related to a user leaving in a game.

特許文献1には、複数のユーザが参加するゲームにおいて、ゲームに参加した各ユーザが、ゲームに参加した他のユーザのゲーム中のマナーを評価する手法が開示されている。尚、特許文献1に記載されたゲームは、仮想現実(VR:Virtual Reality)技術が適用されたゲームではない。特許文献1の手法によると、各ユーザは、自身に対するマナー評価結果に基づいて、ゲームへの参加が制限されたり、ゲームにおいて不利益を受けたりする。   Patent Document 1 discloses a method in which, in a game in which a plurality of users participate, each user who participates in the game evaluates manners in the game of other users who participate in the game. Note that the game described in Patent Document 1 is not a game to which a virtual reality (VR) technology is applied. According to the method of Patent Document 1, each user is restricted from participating in the game or suffers a disadvantage in the game based on the manner evaluation result for the user.

特許文献1の手法は、ユーザのゲーム参加を制限したり不利益を与えたりすることで、不正離脱のようなマナーの悪い行為をユーザが行うのを間接的に抑制するものである。ここで、「不正離脱」とは、ゲームの状況がユーザにとって不利な状況になった場合などにそのユーザがゲームを途中で終了させるべく、ゲーム端末の通信接続を切断したり、ゲームのホーム画面に戻ったりすることをいう。   The technique of Patent Literature 1 indirectly suppresses the user from performing bad manners such as illegal withdrawal by restricting the user's participation in the game or giving a disadvantage. Here, “unauthorized withdrawal” means that the user disconnects the communication connection of the game terminal or the game home screen so that the user can end the game halfway when the situation of the game becomes disadvantageous for the user. Or to go back to.

特許文献1の手法では、あるユーザが不正離脱した場合に、他のユーザは、この不正離脱が意図的なものか否かを判別することができない。従って、意図的な不正離脱も意図的でない不正離脱も同じマナー評価を受ける。この場合、意図せぬ不正離脱、例えばゲームに習熟していないユーザの意図せぬ不正離脱を、ゲーム参加の制限や不利益を与えることなく抑制することができない。   According to the method of Patent Document 1, when a certain user leaves illegally, other users cannot determine whether or not this illegal leaving is intentional. Therefore, both intentional fraud and unintentional fraud leave receive the same manner rating. In this case, unintentional unauthorized departure, for example, unintentional unauthorized departure of a user who is not familiar with the game cannot be suppressed without giving a restriction or disadvantage to participation in the game.

特許第5679227号公報Japanese Patent No. 5679227

本開示は、複数のユーザが参加する仮想空間での仮想体験において、ユーザの不正離脱を抑制するための新規な手法を提供することを目的とする。   An object of the present disclosure is to provide a novel technique for suppressing unauthorized leaving of a user in a virtual experience in a virtual space in which a plurality of users participate.

本開示の一実施形態によれば、第1ユーザの頭部に関連付けられた画像表示装置を介して、前記第1ユーザを含む複数のユーザが参加する仮想空間での仮想体験を前記第1ユーザに提供するためのコンピュータに、
前記仮想空間を定義するステップと、
前記画像表示装置を介して前記仮想空間を前記第1ユーザに提供するステップと、
前記画像表示装置を前記第1ユーザが取り外す取り外し動作を検出するステップと、
前記取り外し動作が検出された場合に、前記仮想体験を終了するか否かの入力を促すUI(User Interface)を前記画像表示装置に出力させるステップと、
を実行させるプログラムが提供される。
According to an embodiment of the present disclosure, the first user performs a virtual experience in a virtual space in which a plurality of users including the first user participate via an image display device associated with the head of the first user. On the computer to provide to
Defining the virtual space;
Providing the virtual space to the first user via the image display device;
Detecting a removal operation in which the first user removes the image display device;
A step of causing the image display device to output a UI (User Interface) that prompts an input as to whether or not to end the virtual experience when the removal operation is detected;
A program for executing is provided.

本開示の別の実施形態によれば、第1ユーザの頭部に関連付けられた画像表示装置を介して、前記第1ユーザを含む複数のユーザが参加する仮想空間での仮想体験を前記第1ユーザに提供するためのコンピュータであって、
前記コンピュータが備えるプロセッサによる制御により、
前記仮想空間を定義するステップと、
前記画像表示装置を介して前記仮想空間を前記第1ユーザに提供するステップと、
前記画像表示装置を前記第1ユーザが取り外す取り外し動作を検出するステップと、
前記取り外し動作が検出された場合に、前記仮想体験を終了するか否かの入力を促すUI(User Interface)を前記画像表示装置に出力させるステップと
が実行される、コンピュータが提供される。
According to another embodiment of the present disclosure, a virtual experience in a virtual space in which a plurality of users including the first user participates via the image display device associated with the head of the first user. A computer for providing to a user,
By control by a processor included in the computer,
Defining the virtual space;
Providing the virtual space to the first user via the image display device;
Detecting a removal operation in which the first user removes the image display device;
When the removal operation is detected, there is provided a computer in which a step of causing the image display device to output a UI (User Interface) for prompting an input as to whether or not to end the virtual experience is executed.

本開示の別の実施形態によれば、第1ユーザの頭部に関連付けられた画像表示装置を介して、前記第1ユーザを含む複数のユーザが参加する仮想空間での仮想体験を前記第1ユーザに提供するための、コンピュータにより実行される方法であって、
前記仮想空間を定義するステップと、
前記画像表示装置を介して前記仮想空間を前記第1ユーザに提供するステップと、
前記画像表示装置を前記第1ユーザが取り外す取り外し動作を検出するステップと、
前記取り外し動作が検出された場合に、前記仮想体験を終了するか否かの入力を促すUI(User Interface)を前記画像表示装置に出力させるステップと
を含む、方法が提供される。
According to another embodiment of the present disclosure, a virtual experience in a virtual space in which a plurality of users including the first user participates via the image display device associated with the head of the first user. A computer-implemented method for providing to a user comprising:
Defining the virtual space;
Providing the virtual space to the first user via the image display device;
Detecting a removal operation in which the first user removes the image display device;
Causing the image display device to output a user interface (UI) that prompts an input as to whether or not to end the virtual experience when the removal operation is detected.

本開示の実施形態により、複数のユーザがプレイに関与するゲームにおいてユーザの意図しないゲームからの離脱を抑制するための新規な手法を提供することができる。   According to the embodiment of the present disclosure, it is possible to provide a novel technique for suppressing withdrawal from a game not intended by the user in a game in which a plurality of users are involved in play.

本開示のその他の特徴及び利点は、後述する実施形態の説明、添付の図面及び特許請求の範囲の記載から明らかなものとなる。   Other features and advantages of the present disclosure will become apparent from the following description of embodiments, the accompanying drawings, and the appended claims.

HMDシステムの構成を概略的に示す図である。1 is a diagram schematically showing a configuration of an HMD system. 本開示の一実施形態による、コンピュータの基本的なハードウェア構成の例を表すブロック図である。FIG. 3 is a block diagram illustrating an example of a basic hardware configuration of a computer according to an embodiment of the present disclosure. 一実施形態に従う、HMDに設定されるuvw視野座標系を概念的に表す図である。It is a figure which represents notionally the uvw visual field coordinate system set to HMD according to one Embodiment. 一実施形態に従う、仮想空間を表現する一態様を概念的に表す図である。FIG. 3 is a diagram conceptually illustrating one aspect of expressing a virtual space according to an embodiment. 一実施形態に従う、HMDを装着するユーザの頭部を上から表した図である。It is the figure showing the head of the user who wears HMD from the top according to one embodiment. 仮想空間において視認領域をx方向から見たyz断面を表す図である。It is a figure showing the yz cross section which looked at the visual recognition area from the x direction in virtual space. 仮想空間において視認領域をy方向から見たxz断面を表す図である。It is a figure showing the xz cross section which looked at the visual recognition area from the y direction in virtual space. 一実施形態に従う、コントローラの概略構成を表す図である。It is a figure showing the schematic structure of a controller according to one Embodiment. 一実施形態に従う、コントローラの概略構成を表す図である。It is a figure showing the schematic structure of a controller according to one Embodiment. 本開示の一実施形態による、HMDシステムを介してユーザに仮想体験を提供するための、ゲーム離脱制御機能を含むコンピュータの機能を示すブロック図である。FIG. 3 is a block diagram illustrating computer functionality including a game departure control function for providing a virtual experience to a user via an HMD system, according to an embodiment of the present disclosure. ユーザが没入する仮想空間の画像を表示部に表示するための一般的な処理のフロー図である。It is a flowchart of the general process for displaying the image of the virtual space where a user immerses on a display part. 本開示の一実施形態による方法のフローチャートである。3 is a flowchart of a method according to an embodiment of the present disclosure. ユーザA及びユーザBがオンラインマッチプレイをしているときの状況を示す概略図である。It is the schematic which shows a condition when the user A and the user B are performing online match play. ユーザAが、装着しているHMD又は手に持っているコントローラを近くの机の上に置くときの様子を概略的に説明する図である。It is a figure which illustrates a mode when the user A puts HMD with which the user A is mounted | worn or the controller which it has in the hand on the near desk. HMDを取り外すときのHMDの動きの軌跡を利用した取り外し動作検知の様子を概略的に説明する図である。It is a figure which illustrates roughly the mode of the removal operation | movement detection using the locus | trajectory of the movement of HMD when removing HMD. HMDに設けられた着脱センサを用いてHMD取り外し動作検知を行う様子を概略的に説明する図である。It is a figure which illustrates roughly a mode that HMD removal operation | movement detection is performed using the attachment / detachment sensor provided in HMD. HMD等の位置に基づいて取り外し動作を検知するときの様子を概略的に説明する図である。It is a figure which illustrates roughly a mode when a removal operation | movement is detected based on positions, such as HMD. HMD等の動き及び位置の双方に基づいて取り外し動作検知を行うときの様子を概略的に説明する図である。It is a figure which illustrates roughly a mode when removing operation | movement detection is performed based on both motion and positions, such as HMD. HMD等の動き及び位置の双方に基づいて取り外し動作検知を行うときの様子を概略的に説明する図である。It is a figure which illustrates roughly a mode when removing operation | movement detection is performed based on both motion and positions, such as HMD. ユーザの目に基づいて取り外し動作検知を行うときの様子を概略的に説明する図である。It is a figure which illustrates roughly a mode when performing removal operation | movement detection based on a user's eyes. ユーザの目に基づいて取り外し動作検知を行うときの様子を概略的に説明する図である。It is a figure which illustrates roughly a mode when performing removal operation | movement detection based on a user's eyes. HMDとコントローラとの間の位置関係に基づいて取り外し動作検知を行うときの様子を概略的に説明する図である。It is a figure which illustrates roughly a mode when removing operation | movement detection is performed based on the positional relationship between HMD and a controller. HMDとコントローラとの間の位置関係に基づいて取り外し動作検知を行うときの様子を概略的に説明する図である。It is a figure which illustrates roughly a mode when removing operation | movement detection is performed based on the positional relationship between HMD and a controller. HMD110の表示部112に表示される、ユーザ・インターフェースとして提供されるアラートの一例を示す図である。It is a figure which shows an example of the alert provided as a user interface displayed on the display part 112 of HMD110. 追加のアラートを提供するいくつかの方法を示す概略図である。FIG. 6 is a schematic diagram illustrating several ways of providing additional alerts.

[本開示の実施形態の説明]
はじめに、本開示の例示的な実施形態の構成を列記して説明する。本開示の実施形態による方法、プログラム及びコンピュータは、以下のような構成を備えてもよい。
[Description of Embodiment of Present Disclosure]
First, configurations of exemplary embodiments of the present disclosure will be listed and described. The method, the program, and the computer according to the embodiments of the present disclosure may include the following configurations.

(項目1)
第1ユーザの頭部に関連付けられた画像表示装置を介して、前記第1ユーザを含む複数のユーザが参加する仮想空間での仮想体験を前記第1ユーザに提供するためのコンピュータに、
前記仮想空間を定義するステップと、
前記画像表示装置を介して前記仮想空間を前記第1ユーザに提供するステップと、
前記画像表示装置を前記第1ユーザが取り外す取り外し動作を検出するステップと、
前記取り外し動作が検出された場合に、前記仮想体験を終了するか否かの入力を促すUI(User Interface)を前記画像表示装置に出力させるステップと、
を実行させるプログラム。
(Item 1)
A computer for providing the first user with a virtual experience in a virtual space in which a plurality of users including the first user participate via an image display device associated with the head of the first user.
Defining the virtual space;
Providing the virtual space to the first user via the image display device;
Detecting a removal operation in which the first user removes the image display device;
A step of causing the image display device to output a UI (User Interface) that prompts an input as to whether or not to end the virtual experience when the removal operation is detected;
A program that executes

(項目2)
前記取り外し動作を検出するステップは、
前記第1ユーザの頭部に含まれる第1部位を検出するステップと、
前記第1部位を検出できないとき、前記取り外し動作が行われたと判定するステップと
を含む、項目1に記載のプログラム。
(Item 2)
The step of detecting the removal operation includes:
Detecting a first part included in the head of the first user;
The program according to item 1, comprising: a step of determining that the removal operation has been performed when the first part cannot be detected.

(項目3)
前記取り外し動作を検出するステップは、
前記画像表示装置を追跡するステップと、
前記画像表示装置が静止したとき、又は前記画像表示装置が所定の軌道を動いたとき、前記取り外し動作が行われたと判定するステップと
を含む、項目1に記載のプログラム。
(Item 3)
The step of detecting the removal operation includes:
Tracking the image display device;
The program according to item 1, comprising the step of determining that the removal operation has been performed when the image display device is stationary or when the image display device moves along a predetermined trajectory.

(項目4)
前記取り外し動作を検出するステップは、
前記第1ユーザにより使用される操作デバイスを追跡するステップと、
前記操作デバイスが静止したとき、又は前記操作デバイスと前記画像表示装置との間の位置関係が所定の条件を満たしたとき、前記取り外し動作が行われたと判定するステップと
を含む、項目1に記載のプログラム。
(Item 4)
The step of detecting the removal operation includes:
Tracking an operating device used by the first user;
The step of determining that the removal operation has been performed when the operation device is stationary or when a positional relationship between the operation device and the image display device satisfies a predetermined condition. Program.

(項目5)
前記コンピュータに、
前記仮想体験を終了する入力を受け付けるステップと、
前記仮想体験を終了する入力が受け付けられたことに応じて、前記第1ユーザを前記仮想体験から正常に離脱させるステップと、
を実行させる、項目1から4のいずれか1項に記載のプログラム。
(Item 5)
In the computer,
Receiving an input to end the virtual experience;
Detaching the first user from the virtual experience in response to receiving an input to end the virtual experience;
5. The program according to any one of items 1 to 4, wherein the program is executed.

(項目6)
前記コンピュータに、
前記仮想体験を終了しない入力を受け付けるステップと、
前記仮想体験を終了しない入力が受け付けられたことに応じて、前記第1ユーザを前記仮想体験に復帰させるステップと、
を実行させる、項目1から5のいずれか1項に記載のプログラム。
(Item 6)
In the computer,
Receiving an input that does not end the virtual experience;
Returning the first user to the virtual experience in response to receiving an input that does not end the virtual experience;
6. The program according to any one of items 1 to 5, wherein the program is executed.

(項目7)
前記コンピュータに、
前記仮想体験を終了する入力及び前記仮想体験を終了しない入力のいずれも受け付けられなかったことに応じて、前記第1ユーザが前記仮想体験から不正離脱したと判定するステップ
を実行させる、項目1から6のいずれか1項に記載のプログラム。
(Item 7)
In the computer,
From the item 1, the step of determining that the first user has illegally left the virtual experience in response to receiving neither the input for ending the virtual experience nor the input not ending the virtual experience is received. The program according to any one of 6 above.

(項目8)
前記UIは、前記第1ユーザが前記仮想体験への復帰及び正常離脱のいずれも行わない場合に前記第1ユーザが前記仮想体験から不正離脱したとみなされる旨の警告を含む、項目1から7のいずれか1項に記載のプログラム。
(Item 8)
The UI includes items 1 to 7 including a warning that the first user is deemed to have illegally left the virtual experience when the first user does not return to the virtual experience or perform a normal leave. The program according to any one of the above.

(項目9)
前記取り外し動作が検出された場合に、前記画像表示装置に関連付けられる音声出力装置及び画像出力装置のうちの少なくとも1つに、前記仮想体験からの正常離脱を促す出力を行わせるステップ
を含む、項目1から8のいずれか1項に記載のプログラム。
(Item 9)
Including the step of causing at least one of an audio output device and an image output device associated with the image display device to perform an output for encouraging normal departure from the virtual experience when the removal operation is detected. The program according to any one of 1 to 8.

(項目10)
第1ユーザの頭部に関連付けられた画像表示装置を介して、前記第1ユーザを含む複数のユーザが参加する仮想空間での仮想体験を前記第1ユーザに提供するためのコンピュータであって、
前記コンピュータが備えるプロセッサによる制御により、
前記仮想空間を定義するステップと、
前記画像表示装置を介して前記仮想空間を前記第1ユーザに提供するステップと、
前記画像表示装置を前記第1ユーザが取り外す取り外し動作を検出するステップと、
前記取り外し動作が検出された場合に、前記仮想体験を終了するか否かの入力を促すUI(User Interface)を前記画像表示装置に出力させるステップと
が実行される、コンピュータ。
(Item 10)
A computer for providing the first user with a virtual experience in a virtual space in which a plurality of users including the first user participate via an image display device associated with the head of the first user,
By control by a processor included in the computer,
Defining the virtual space;
Providing the virtual space to the first user via the image display device;
Detecting a removal operation in which the first user removes the image display device;
And a step of causing the image display device to output a UI (User Interface) for prompting an input as to whether or not to end the virtual experience when the removal operation is detected.

(項目11)
第1ユーザの頭部に関連付けられた画像表示装置を介して、前記第1ユーザを含む複数のユーザが参加する仮想空間での仮想体験を前記第1ユーザに提供するための、コンピュータにより実行される方法であって、
前記仮想空間を定義するステップと、
前記画像表示装置を介して前記仮想空間を前記第1ユーザに提供するステップと、
前記画像表示装置を前記第1ユーザが取り外す取り外し動作を検出するステップと、
前記取り外し動作が検出された場合に、前記仮想体験を終了するか否かの入力を促すUI(User Interface)を前記画像表示装置に出力させるステップと
を含む、方法。
(Item 11)
Executed by a computer for providing the first user with a virtual experience in a virtual space in which a plurality of users including the first user participate via an image display device associated with the head of the first user. It is a method,
Defining the virtual space;
Providing the virtual space to the first user via the image display device;
Detecting a removal operation in which the first user removes the image display device;
Causing the image display device to output a UI (User Interface) that prompts an input as to whether or not to end the virtual experience when the removal operation is detected.

[本開示の実施形態の詳細]
以下、図面を参照しつつ、本開示の実施形態について説明する。以下の説明では、同様の要素には同様の符号を付してある。それらの名称及び機能も同様である。このような要素については重複する説明が省略される。
[Details of Embodiment of the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In the following description, similar elements are denoted by the same reference numerals. The names and functions are also the same. A duplicate description of such elements is omitted.

図1を参照して、画像表示装置システム100の構成について説明する。以下では、画像表示装置の一例としてヘッドマウントデバイス(Head−Mounted Device:HMD)が用いられるシステムについて具体的に説明する。しかし、HMDだけでなく、ユーザに仮想体験を提供するための様々な装置を本開示の実施形態に適用することができることが当業者に理解されよう。   The configuration of the image display apparatus system 100 will be described with reference to FIG. Hereinafter, a system in which a head-mounted device (HMD) is used as an example of an image display device will be described in detail. However, those skilled in the art will appreciate that various devices for providing a virtual experience to a user, as well as HMDs, can be applied to embodiments of the present disclosure.

図1は、システム100の構成を概略的に示す。一例では、システム100は、家庭用のシステム又は業務用のシステムとして提供される。HMDは、表示部を備える所謂ヘッドマウントディスプレイであってもよく、表示部を有するスマートフォン等の端末を装着可能なヘッドマウント機器であってもよい。   FIG. 1 schematically shows the configuration of the system 100. In one example, the system 100 is provided as a home system or a business system. The HMD may be a so-called head mounted display including a display unit, or may be a head mounted device on which a terminal such as a smartphone having the display unit can be attached.

システム100は、HMD110と、HMDセンサ120と、コントローラ160と、コンピュータ200とを備える。HMD110は、表示部112と、注視センサ140とを含む。コントローラ160は、モーションセンサ130を含んでもよい。   The system 100 includes an HMD 110, an HMD sensor 120, a controller 160, and a computer 200. The HMD 110 includes a display unit 112 and a gaze sensor 140. The controller 160 may include a motion sensor 130.

一例では、コンピュータ200は、インターネット等のネットワーク192に接続可能であってもよく、ネットワーク192に接続されるサーバ150等のコンピュータと通信可能であってもよい。別の態様において、HMD110は、HMDセンサ120の代わりにセンサ114を含んでもよい。   In one example, the computer 200 may be connectable to a network 192 such as the Internet, and may be communicable with a computer such as a server 150 connected to the network 192. In another aspect, the HMD 110 may include a sensor 114 instead of the HMD sensor 120.

HMD110は、ユーザ190の頭部に装着され、動作中に仮想空間をユーザに提供し得る。より具体的には、HMD110は、右目用の画像及び左目用の画像を表示部112にそれぞれ表示する。ユーザの各目がそれぞれの画像を視認すると、ユーザは、両目の視差に基づき当該画像を3次元の画像として認識し得る。   The HMD 110 may be worn on the head of the user 190 and provide a virtual space to the user during operation. More specifically, the HMD 110 displays an image for the right eye and an image for the left eye on the display unit 112, respectively. When each eye of the user visually recognizes each image, the user can recognize the image as a three-dimensional image based on the parallax of both eyes.

表示部112は、例えば、非透過型の表示装置として実現される。一例では、表示部112は、ユーザの両目の前方に位置するように、HMD110の本体に配置される。したがって、ユーザは、表示部112に表示される3次元画像を視認すると、仮想空間に没入することができる。ある実施形態において、仮想空間は、例えば、背景、ユーザが操作可能なオブジェクト、ユーザが選択可能なメニューの画像等を含む。ある実施形態において、表示部112は、スマートフォン等の情報表示端末が備える液晶表示部又は有機EL(Electro Luminescence)表示部として実現され得る。   The display unit 112 is realized as, for example, a non-transmissive display device. In one example, the display unit 112 is disposed on the main body of the HMD 110 so as to be positioned in front of both eyes of the user. Therefore, when the user visually recognizes the three-dimensional image displayed on the display unit 112, the user can be immersed in the virtual space. In an embodiment, the virtual space includes, for example, a background, an object that can be operated by the user, an image of a menu that can be selected by the user, and the like. In an embodiment, the display unit 112 may be realized as a liquid crystal display unit or an organic EL (Electro Luminescence) display unit included in an information display terminal such as a smartphone.

一例では、表示部112は、右目用の画像を表示するためのサブ表示部と、左目用の画像を表示するためのサブ表示部とを含み得る。別の態様において、表示部112は、右目用の画像と左目用の画像とを一体として表示する構成であってもよい。この場合、表示部112は、高速シャッタを含む。高速シャッタは、画像がいずれか一方の目にのみ認識されるように、右目用の画像と左目用の画像とを交互に表示可能に作動する。   In one example, the display unit 112 may include a sub display unit for displaying an image for the right eye and a sub display unit for displaying an image for the left eye. In another aspect, the display unit 112 may be configured to display an image for the right eye and an image for the left eye as a single unit. In this case, the display unit 112 includes a high-speed shutter. The high-speed shutter operates so that an image for the right eye and an image for the left eye can be displayed alternately so that the image is recognized only by one of the eyes.

一例では、HMD110は、複数の光源(図示せず)を含む。各光源は、例えば、赤外線を発するLED(Light Emitting Diode)により実現される。HMDセンサ120は、HMD110の動きを検出するためのポジショントラッキング機能を有する。より具体的には、HMDセンサ120は、HMD110が発する複数の赤外線を読み取り、現実空間内におけるHMD110の位置及び傾きを検出してもよい。   In one example, the HMD 110 includes a plurality of light sources (not shown). Each light source is realized by, for example, an LED (Light Emitting Diode) that emits infrared rays. The HMD sensor 120 has a position tracking function for detecting the movement of the HMD 110. More specifically, the HMD sensor 120 may read a plurality of infrared rays emitted from the HMD 110 and detect the position and inclination of the HMD 110 in the real space.

ある態様において、HMDセンサ120は、カメラにより実現されてもよい。この場合、HMDセンサ120は、カメラから出力されるHMD110の画像情報を用いて、画像解析処理を実行することにより、HMD110の位置及び傾きを検出することができる。   In an aspect, the HMD sensor 120 may be realized by a camera. In this case, the HMD sensor 120 can detect the position and inclination of the HMD 110 by executing image analysis processing using image information of the HMD 110 output from the camera.

別の態様において、HMD110は、位置検出器として、HMDセンサ120の代わりに、センサ114を備えてもよい。HMD110は、センサ114を用いて、HMD110自身の位置及び傾きを検出し得る。例えば、センサ114が角速度センサ、地磁気センサ、加速度センサ、ジャイロセンサ等である場合、HMD110は、HMDセンサ120の代わりに、これらの各センサのいずれかを用いて、自身の位置及び傾きを検出し得る。一例として、センサ114が角速度センサである場合、角速度センサは、現実空間におけるHMD110の3軸周りの角速度を経時的に検出する。HMD110は、各角速度に基づいて、HMD110の3軸周りの角度の時間的変化を算出し、さらに、角度の時間的変化に基づいて、HMD110の傾きを算出する。また、HMD110は、透過型表示装置を備えていても良い。この場合、当該透過型表示装置は、その透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。また、視界画像は、仮想空間を構成する画像の一部に、現実空間を提示する構成を含んでいてもよい。例えば、HMD110に搭載されたカメラで撮影した画像を視界画像の一部に重畳して表示させてもよいし、当該透過型表示装置の一部の透過率を高く設定することにより、視界画像の一部から現実空間を視認可能にしてもよい。   In another aspect, the HMD 110 may include a sensor 114 instead of the HMD sensor 120 as a position detector. The HMD 110 can detect the position and inclination of the HMD 110 itself using the sensor 114. For example, when the sensor 114 is an angular velocity sensor, a geomagnetic sensor, an acceleration sensor, a gyro sensor, or the like, the HMD 110 detects its own position and inclination using any one of these sensors instead of the HMD sensor 120. obtain. As an example, when the sensor 114 is an angular velocity sensor, the angular velocity sensor detects angular velocities around the three axes of the HMD 110 in real space over time. The HMD 110 calculates a temporal change in the angle around the three axes of the HMD 110 based on each angular velocity, and further calculates an inclination of the HMD 110 based on the temporal change in the angle. The HMD 110 may include a transmissive display device. In this case, the transmissive display device may be temporarily configured as a non-transmissive display device by adjusting the transmittance. Moreover, the view field image may include a configuration for presenting the real space in a part of the image configuring the virtual space. For example, an image captured by a camera mounted on the HMD 110 may be displayed so as to be superimposed on a part of the field-of-view image, or a part of the field-of-view image is set by setting a high transmittance of a part of the transmissive display device. Real space may be visible from a part.

注視センサ140は、ユーザ190の右目及び左目の視線が向けられる方向(視線)を検出する。当該方向の検出は、例えば、公知のアイトラッキング機能によって実現される。注視センサ140は、当該アイトラッキング機能を有するセンサにより実現される。ある態様において、注視センサ140は、右目用のセンサ及び左目用のセンサを含むことが好ましい。注視センサ140は、例えば、ユーザ190の右目及び左目に赤外光を照射するとともに、照射光に対する角膜及び虹彩からの反射光を受けることにより各眼球の回転角を検出するセンサであってもよい。注視センサ140は、検出した各回転角に基づいて、ユーザ190の視線を検知することができる。   The gaze sensor 140 detects the direction (line of sight) in which the line of sight of the user 190's right eye and left eye is directed. The detection of the direction is realized by, for example, a known eye tracking function. The gaze sensor 140 is realized by a sensor having the eye tracking function. In one aspect, the gaze sensor 140 preferably includes a right eye sensor and a left eye sensor. The gaze sensor 140 may be, for example, a sensor that irradiates the right eye and the left eye of the user 190 with infrared light and detects the rotation angle of each eyeball by receiving reflected light from the cornea and iris with respect to the irradiated light. . The gaze sensor 140 can detect the line of sight of the user 190 based on each detected rotation angle.

サーバ150は、コンピュータ200にプログラムを送信し得る。別の態様において、サーバ150は、他のユーザによって使用されるHMDに仮想現実を提供するための他のコンピュータ200と通信し得る。例えば、アミューズメント施設において、複数のユーザが参加型のゲームを行う場合、各コンピュータ200は、各ユーザの動作に基づく信号を他のコンピュータ200と通信して、同じ仮想空間において複数のユーザが共通のゲームを楽しむことを可能にする。   Server 150 may send a program to computer 200. In another aspect, the server 150 may communicate with other computers 200 for providing virtual reality to HMDs used by other users. For example, when a plurality of users play a participatory game in an amusement facility, each computer 200 communicates a signal based on each user's operation with another computer 200, and a plurality of users are common in the same virtual space. Allows you to enjoy the game.

コントローラ160は、有線又は無線によりコンピュータ200に接続される。コントローラ160は、ユーザ190からコンピュータ200への命令の入力を受け付ける。ある態様において、コントローラ160は、ユーザ190によって把持可能に構成される。別の態様において、コントローラ160は、ユーザ190の身体又は衣類の一部に装着可能に構成される。別の態様において、コントローラ160は、コンピュータ200から送信される信号に基づいて、振動、音、光のうちの少なくともいずれかを出力するように構成されてもよい。別の態様において、コントローラ160は、ユーザ190から、仮想空間に配置されるオブジェクトの位置や動きを制御するための操作を受け付ける。   The controller 160 is connected to the computer 200 by wire or wireless. The controller 160 receives input of commands from the user 190 to the computer 200. In an aspect, the controller 160 is configured to be gripped by the user 190. In another aspect, the controller 160 is configured to be wearable on the body of the user 190 or a portion of clothing. In another aspect, the controller 160 may be configured to output at least one of vibration, sound, and light based on a signal transmitted from the computer 200. In another aspect, the controller 160 receives an operation from the user 190 for controlling the position and movement of an object arranged in the virtual space.

ある態様において、モーションセンサ130は、ユーザの手に取り付けられて、ユーザの手の動きを検出する。例えば、モーションセンサ130は、手の回転速度、回転数等を検出する。検出された信号は、コンピュータ200に送られる。モーションセンサ130は、例えば、手袋型のコントローラ160Aに設けられる。ある実施形態において、現実空間における安全のため、コントローラ160Aは、手袋型のようにユーザ190の手に装着されることにより容易に飛んで行かないものに装着されるのが望ましい。別の態様において、複数の操作ボタンを有する一般的な構造のコントローラ160Bが用いられてもよい。別の態様において、ユーザ190に装着されないセンサがユーザ190の手の動きを検出してもよい。ユーザ190の身体の様々な部分の位置、向き、動きの方向、動きの距離などを検知する光学式センサが用いられてもよい。例えば、ユーザ190を撮影するカメラの信号が、ユーザ190の動作を表す信号として、コンピュータ200に入力されてもよい。モーションセンサ130とコンピュータ200とは、一例として、無線により互いに接続される。無線の場合、通信形態は特に限られず、例えば、Bluetooth(登録商標)その他の公知の通信手法が用いられる。   In an aspect, the motion sensor 130 is attached to the user's hand to detect movement of the user's hand. For example, the motion sensor 130 detects the rotation speed, rotation speed, etc. of the hand. The detected signal is sent to the computer 200. The motion sensor 130 is provided in, for example, a glove-type controller 160A. In some embodiments, for safety in real space, it is desirable that the controller 160A is attached to something that does not fly easily by being attached to the hand of the user 190, such as a glove shape. In another aspect, a controller 160B having a general structure having a plurality of operation buttons may be used. In another aspect, a sensor that is not worn by the user 190 may detect the movement of the user's 190 hand. Optical sensors that detect the position, orientation, direction of movement, distance of movement, etc. of various parts of the body of the user 190 may be used. For example, a signal from a camera that captures the user 190 may be input to the computer 200 as a signal representing the operation of the user 190. For example, the motion sensor 130 and the computer 200 are connected to each other wirelessly. In the case of wireless communication, the communication form is not particularly limited, and for example, Bluetooth (registered trademark) or other known communication methods are used.

図2を参照して、本開示の実施形態に係るコンピュータ200について説明する。図2は、本開示の一実施形態によるコンピュータ200の基本的なハードウェア構成の例を表すブロック図である。コンピュータ200は、主たる構成要素として、プロセッサ202と、メモリ204と、ストレージ206と、入出力インターフェース208と、通信インターフェース210とを備える。各構成要素は、それぞれ、バス212に接続される。
プロセッサ202は、コンピュータ200に与えられる信号に基づいて、あるいは、予め定められた条件が成立したことに基づいて、メモリ204又はストレージ206に格納されているプログラムに含まれる一連の命令を実行する。ある態様において、プロセッサ202は、CPU(Central Processing Unit)、MPU(Micro Processor Unit)、FPGA(Field−Programmable Gate Array)等のデバイスとして実現される。
A computer 200 according to an embodiment of the present disclosure will be described with reference to FIG. FIG. 2 is a block diagram illustrating an example of a basic hardware configuration of the computer 200 according to an embodiment of the present disclosure. The computer 200 includes a processor 202, a memory 204, a storage 206, an input / output interface 208, and a communication interface 210 as main components. Each component is connected to the bus 212.
The processor 202 executes a series of instructions included in a program stored in the memory 204 or the storage 206 based on a signal given to the computer 200 or when a predetermined condition is satisfied. In one aspect, the processor 202 is realized as a device such as a CPU (Central Processing Unit), an MPU (Micro Processor Unit), or an FPGA (Field-Programmable Gate Array).

メモリ204は、プログラム及びデータを一時的に保存する。プログラムは、例えば、ストレージ206からロードされる。データは、コンピュータ200に入力されたデータと、プロセッサ202によって生成されたデータとを含む。ある態様において、メモリ204は、RAM(Random Access Memory)等の揮発性メモリとして実現される。   The memory 204 temporarily stores programs and data. The program is loaded from the storage 206, for example. The data includes data input to the computer 200 and data generated by the processor 202. In one aspect, the memory 204 is implemented as a volatile memory such as a RAM (Random Access Memory).

ストレージ206は、プログラム及びデータを永続的に保持する。ストレージ206は、例えば、ROM(Read−Only Memory)、ハードディスク装置、フラッシュメモリ等の不揮発性記憶装置として実現される。ストレージ206に格納されるプログラムは、システム100において仮想空間を提供するためのプログラム、シミュレーションプログラム、ゲームプログラム、ユーザ認証プログラム、他のコンピュータ200との通信を実現するためのプログラム等を含む。ストレージ206に格納されるデータは、仮想空間を規定するためのデータ及びオブジェクト等を含む。   The storage 206 holds programs and data permanently. The storage 206 is realized, for example, as a nonvolatile storage device such as a ROM (Read-Only Memory), a hard disk device, or a flash memory. Programs stored in the storage 206 include a program for providing a virtual space in the system 100, a simulation program, a game program, a user authentication program, a program for realizing communication with another computer 200, and the like. Data stored in the storage 206 includes data and objects for defining the virtual space.

別の態様において、ストレージ206は、メモリカードのように着脱可能な記憶装置として実現されてもよい。さらに別の態様において、コンピュータ200に内蔵されたストレージ206の代わりに、外部の記憶装置に保存されているプログラム及びデータを使用する構成が使用されてもよい。このような構成によれば、例えば、アミューズメント施設のように複数のシステム100が使用される場面において、プログラムやデータの更新を一括して行なうことが可能になる。   In another aspect, the storage 206 may be realized as a removable storage device such as a memory card. In still another aspect, a configuration using a program and data stored in an external storage device may be used instead of the storage 206 built in the computer 200. According to such a configuration, for example, in a scene where a plurality of systems 100 are used like an amusement facility, it is possible to update programs and data in a lump.

ある実施形態において、入出力インターフェース208は、HMD110、HMDセンサ120及びモーションセンサ130との間で信号を通信する。ある態様において、入出力インターフェース208は、USB(Universal Serial Bus、USB)、DVI(Digital Visual Interface)、HDMI(登録商標)(High−Definition Multimedia Interface)等の端子を用いて実現される。なお、入出力インターフェース208は上述のものに限られない。   In some embodiments, the input / output interface 208 communicates signals between the HMD 110, the HMD sensor 120, and the motion sensor 130. In one aspect, the input / output interface 208 is realized using a terminal such as USB (Universal Serial Bus, USB), DVI (Digital Visual Interface), HDMI (registered trademark) (High-Definition Multimedia Interface), or the like. The input / output interface 208 is not limited to the above.

ある実施形態において、入出力インターフェース208は、さらに、コントローラ160と通信し得る。例えば、入出力インターフェース208は、コントローラ160及びモーションセンサ130から出力された信号の入力を受ける。別の態様において、入出力インターフェース208は、プロセッサ202から出力された命令を、コントローラ160に送る。当該命令は、振動、音声出力、発光等をコントローラ160に指示する。コントローラ160は、当該命令を受信すると、その命令に応じて、振動、音声出力、発光等を実行する。   In certain embodiments, the input / output interface 208 may further communicate with the controller 160. For example, the input / output interface 208 receives signals output from the controller 160 and the motion sensor 130. In another aspect, the input / output interface 208 sends instructions output from the processor 202 to the controller 160. The command instructs the controller 160 to vibrate, output sound, emit light, and the like. When the controller 160 receives the command, the controller 160 executes vibration, sound output, light emission, and the like according to the command.

通信インターフェース210は、ネットワーク192に接続され、ネットワーク192に接続されている他のコンピュータ(例えば、サーバ150)と通信する。ある態様において、通信インターフェース210は、例えば、LAN(Local Area Network)等の有線通信インターフェース、あるいは、WiFi(Wireless Fidelity)、Bluetooth(登録商標)、NFC(Near Field Communication)等の無線通信インターフェースとして実現される。なお、通信インターフェース210は上述のものに限られない。   The communication interface 210 is connected to the network 192 and communicates with other computers (for example, the server 150) connected to the network 192. In one aspect, the communication interface 210 is implemented as a wired communication interface such as a LAN (Local Area Network), or a wireless communication interface such as WiFi (Wireless Fidelity), Bluetooth (registered trademark), or NFC (Near Field Communication). Is done. The communication interface 210 is not limited to the above.

ある態様において、プロセッサ202は、ストレージ206にアクセスし、ストレージ206に格納されている1つ以上のプログラムをメモリ204にロードし、当該プログラムに含まれる一連の命令を実行する。当該1つ以上のプログラムは、コンピュータ200のオペレーティングシステム、仮想空間を提供するためのアプリケーションプログラム、仮想空間で実行可能なゲームソフトウェア等を含み得る。プロセッサ202は、入出力インターフェース208を介して、仮想空間を提供するための信号をHMD110に送る。HMD110は、その信号に基づいて表示部112に映像を表示する。   In an aspect, the processor 202 accesses the storage 206, loads one or more programs stored in the storage 206 into the memory 204, and executes a series of instructions included in the program. The one or more programs may include an operating system of the computer 200, an application program for providing a virtual space, game software that can be executed in the virtual space, and the like. The processor 202 sends a signal for providing a virtual space to the HMD 110 via the input / output interface 208. The HMD 110 displays an image on the display unit 112 based on the signal.

図2に示される例では、コンピュータ200は、HMD110の外部に設けられている。しかし、別の態様において、コンピュータ200は、HMD110に内蔵されてもよい。一例として、表示部112を含む携帯型の情報通信端末(例えば、スマートフォン)がコンピュータ200として機能してもよい。   In the example shown in FIG. 2, the computer 200 is provided outside the HMD 110. However, in another aspect, the computer 200 may be embedded in the HMD 110. As an example, a portable information communication terminal (for example, a smartphone) including the display unit 112 may function as the computer 200.

また、コンピュータ200は、複数のHMD110に共通して用いられる構成であってもよい。このような構成によれば、例えば、複数のユーザに同一の仮想空間を提供することもできるので、各ユーザは同一の仮想空間で他のユーザと同一のアプリケーションを楽しむことができる。   Further, the computer 200 may be configured to be used in common for a plurality of HMDs 110. According to such a configuration, for example, since the same virtual space can be provided to a plurality of users, each user can enjoy the same application as other users in the same virtual space.

ある実施形態において、システム100では、グローバル座標系が予め設定されている。グローバル座標系は、現実空間における鉛直方向、鉛直方向に直交する水平方向、ならびに、鉛直方向及び水平方向の双方に直交する前後方向にそれぞれ平行な、3つの基準方向(軸)を有する。本実施形態では、グローバル座標系は視点座標系の1つである。そこで、グローバル座標系における水平方向、鉛直方向(上下方向)、及び前後方向は、それぞれ、x軸、y軸、z軸として規定される。より具体的には、グローバル座標系において、x軸は現実空間の水平方向に平行である。y軸は、現実空間の鉛直方向に平行である。z軸は現実空間の前後方向に平行である。   In an embodiment, in the system 100, a global coordinate system is preset. The global coordinate system has three reference directions (axes) parallel to the vertical direction in the real space, the horizontal direction orthogonal to the vertical direction, and the front-rear direction orthogonal to both the vertical direction and the horizontal direction. In the present embodiment, the global coordinate system is one of the viewpoint coordinate systems. Therefore, the horizontal direction, vertical direction (up-down direction), and front-rear direction in the global coordinate system are defined as an x-axis, a y-axis, and a z-axis, respectively. More specifically, in the global coordinate system, the x axis is parallel to the horizontal direction of the real space. The y axis is parallel to the vertical direction of the real space. The z axis is parallel to the front-rear direction of the real space.

ある態様において、HMDセンサ120は、赤外線センサを含む。赤外線センサが、HMD110の各光源から発せられた赤外線をそれぞれ検出すると、HMD110の存在を検出する。HMDセンサ120は、さらに、各点の値(グローバル座標系における各座標値)に基づいて、HMD110を装着したユーザ190の動きに応じた、現実空間内におけるHMD110の位置及び傾きを検出する。より詳しくは、HMDセンサ120は、経時的に検出された各値を用いて、HMD110の位置及び傾きの時間的変化を検出できる。   In certain aspects, the HMD sensor 120 includes an infrared sensor. When the infrared sensor detects the infrared rays emitted from each light source of the HMD 110, the presence of the HMD 110 is detected. The HMD sensor 120 further detects the position and inclination of the HMD 110 in the real space according to the movement of the user 190 wearing the HMD 110 based on the value of each point (each coordinate value in the global coordinate system). More specifically, the HMD sensor 120 can detect temporal changes in the position and inclination of the HMD 110 using each value detected over time.

グローバル座標系は現実空間の座標系と平行である。したがって、HMDセンサ120によって検出されたHMD110の各傾きは、グローバル座標系におけるHMD110の3軸周りの各傾きに相当する。HMDセンサ120は、グローバル座標系におけるHMD110の傾きに基づき、uvw視野座標系をHMD110に設定する。HMD110に設定されるuvw視野座標系は、HMD110を装着したユーザ190が仮想空間において物体を見る際の視点座標系に対応する。   The global coordinate system is parallel to the real space coordinate system. Therefore, each inclination of the HMD 110 detected by the HMD sensor 120 corresponds to each inclination around the three axes of the HMD 110 in the global coordinate system. The HMD sensor 120 sets the uvw visual field coordinate system to the HMD 110 based on the inclination of the HMD 110 in the global coordinate system. The uvw visual field coordinate system set in the HMD 110 corresponds to a viewpoint coordinate system when the user 190 wearing the HMD 110 views an object in the virtual space.

図3を参照して、uvw視野座標系について説明する。図3は、ある実施形態に従うHMD110に設定されるuvw視野座標系を概念的に表す図である。HMDセンサ120は、HMD110の起動時に、グローバル座標系におけるHMD110の位置及び傾きを検出する。プロセッサ202は、検出された値に基づいて、uvw視野座標系をHMD110に設定する。   The uvw visual field coordinate system will be described with reference to FIG. FIG. 3 is a diagram conceptually showing the uvw visual field coordinate system set in the HMD 110 according to an embodiment. The HMD sensor 120 detects the position and inclination of the HMD 110 in the global coordinate system when the HMD 110 is activated. The processor 202 sets the uvw visual field coordinate system to the HMD 110 based on the detected value.

図3に示されるように、HMD110は、HMD110を装着したユーザの頭部を中心(原点)とした3次元のuvw視野座標系を設定する。より具体的には、HMD110は、グローバル座標系を規定する水平方向、鉛直方向、及び前後方向(x軸、y軸、z軸)を、グローバル座標系内においてHMD110の各軸周りの傾きだけ各軸周りにそれぞれ傾けることによって新たに得られる3つの方向を、HMD110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、及びロール方向(w軸)として設定する。   As shown in FIG. 3, the HMD 110 sets a three-dimensional uvw visual field coordinate system with the head (origin) of the user wearing the HMD 110 as the center (origin). More specifically, the HMD 110 includes a horizontal direction, a vertical direction, and a front-rear direction (x-axis, y-axis, and z-axis) that define the global coordinate system by an inclination around each axis of the HMD 110 in the global coordinate system. Three directions newly obtained by tilting around the axis are set as the pitch direction (u-axis), yaw direction (v-axis), and roll direction (w-axis) of the uvw visual field coordinate system in the HMD 110.

ある態様において、HMD110を装着したユーザ190が直立し、かつ、正面を視認している場合、プロセッサ202は、グローバル座標系に平行なuvw視野座標系をHMD110に設定する。この場合、グローバル座標系における水平方向(x軸)、鉛直方向(y軸)、及び前後方向(z軸)は、HMD110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)及びロール方向(w軸)に一致する。   In an aspect, when the user 190 wearing the HMD 110 stands upright and is viewing the front, the processor 202 sets the uvw visual field coordinate system parallel to the global coordinate system to the HMD 110. In this case, the horizontal direction (x-axis), vertical direction (y-axis), and front-back direction (z-axis) in the global coordinate system are the pitch direction (u-axis) and yaw direction (v-axis) of the uvw visual field coordinate system in the HMD 110. And the roll direction (w-axis).

uvw視野座標系がHMD110に設定された後、HMDセンサ120は、HMD110の動きに基づいて、設定されたuvw視野座標系におけるHMD110の傾き(傾きの変化量)を検出できる。この場合、HMDセンサ120は、HMD110の傾きとして、uvw視野座標系におけるHMD110のピッチ角(θu)、ヨー角(θv)及びロール角(θw)をそれぞれ検出する。ピッチ角(θu)は、uvw視野座標系におけるピッチ方向周りのHMD110の傾き角度を表す。ヨー角(θv)は、uvw視野座標系におけるヨー方向周りのHMD110の傾き角度を表す。ロール角(θw)は、uvw視野座標系におけるロール方向周りのHMD110の傾き角度を表す。   After the uvw visual field coordinate system is set to the HMD 110, the HMD sensor 120 can detect the inclination (the amount of change in inclination) of the HMD 110 in the set uvw visual field coordinate system based on the movement of the HMD 110. In this case, the HMD sensor 120 detects the pitch angle (θu), yaw angle (θv), and roll angle (θw) of the HMD 110 in the uvw visual field coordinate system, respectively, as the inclination of the HMD 110. The pitch angle (θu) represents the inclination angle of the HMD 110 around the pitch direction in the uvw visual field coordinate system. The yaw angle (θv) represents the inclination angle of the HMD 110 around the yaw direction in the uvw visual field coordinate system. The roll angle (θw) represents the inclination angle of the HMD 110 around the roll direction in the uvw visual field coordinate system.

HMDセンサ120は、検出されたHMD110の傾き角度に基づいて、HMD110が動いた後のHMD110におけるuvw視野座標系を、HMD110に設定する。HMD110と、HMD110のuvw視野座標系との関係は、HMD110の位置及び傾きに関わらず、常に一定である。HMD110の位置及び傾きが変わると、当該位置及び傾きの変化に連動して、グローバル座標系におけるHMD110のuvw視野座標系の位置及び傾きが変化する。   The HMD sensor 120 sets the uvw visual field coordinate system in the HMD 110 after the HMD 110 has moved to the HMD 110 based on the detected tilt angle of the HMD 110. The relationship between the HMD 110 and the uvw visual field coordinate system of the HMD 110 is always constant regardless of the position and inclination of the HMD 110. When the position and inclination of the HMD 110 change, the position and inclination of the uvw visual field coordinate system of the HMD 110 in the global coordinate system change in conjunction with the change of the position and inclination.

ある態様において、HMDセンサ120は、赤外線センサからの出力に基づいて取得される赤外線の光強度及び複数の点間の相対的な位置関係(例えば、各点間の距離等)に基づいて、HMD110の現実空間内における位置を、HMDセンサ120に対する相対位置として特定してもよい。また、プロセッサ202は、特定された相対位置に基づいて、現実空間内(グローバル座標系)におけるHMD110のuvw視野座標系の原点を決定してもよい。   In one aspect, the HMD sensor 120 is based on the infrared light intensity acquired based on the output from the infrared sensor and the relative positional relationship between the points (for example, the distance between the points). The position in the real space may be specified as a relative position to the HMD sensor 120. Further, the processor 202 may determine the origin of the uvw visual field coordinate system of the HMD 110 in the real space (global coordinate system) based on the specified relative position.

図4を参照して、仮想空間についてさらに説明する。図4は、ある実施形態に従う仮想空間400を表現する一態様を概念的に表す図である。仮想空間400は、中心406の360度方向の全体を覆う全天球状の構造を有する。図4では、説明を複雑にしないために、仮想空間400のうちの上半分の天球が例示されている。仮想空間400では各メッシュが規定される。各メッシュの位置は、仮想空間400に規定されるXYZ座標系における座標値として予め規定されている。コンピュータ200は、仮想空間400に展開可能なコンテンツ(静止画、動画等)を構成する各部分画像を、仮想空間400において対応する各メッシュにそれぞれ対応付けて、ユーザによって視認可能な仮想空間画像が展開される仮想空間400をユーザに提供する。   The virtual space will be further described with reference to FIG. FIG. 4 is a diagram conceptually illustrating one aspect of expressing a virtual space 400 according to an embodiment. The virtual space 400 has a spherical shape that covers the entire 360 ° direction of the center 406. In FIG. 4, the upper half of the celestial sphere in the virtual space 400 is illustrated in order not to complicate the description. In the virtual space 400, each mesh is defined. The position of each mesh is defined in advance as coordinate values in the XYZ coordinate system defined in the virtual space 400. The computer 200 associates each partial image constituting content (still image, moving image, etc.) that can be developed in the virtual space 400 with each corresponding mesh in the virtual space 400 so that a virtual space image that can be visually recognized by the user is obtained. A virtual space 400 to be developed is provided to the user.

ある態様において、仮想空間400では、中心406を原点とするxyz座標系が規定される。xyz座標系は、例えば、グローバル座標系に平行である。xyz座標系は視点座標系の一種であるため、xyz座標系における水平方向、鉛直方向(上下方向)及び前後方向は、それぞれx軸、y軸及びz軸として規定される。したがって、xyz座標系のx軸(水平方向)がグローバル座標系のx軸と平行であり、xyz座標系のy軸(鉛直方向)がグローバル座標系のy軸と平行であり、xyz座標系のz軸(前後方向)がグローバル座標系のz軸と平行である。   In one aspect, the virtual space 400 defines an xyz coordinate system with the center 406 as the origin. The xyz coordinate system is, for example, parallel to the global coordinate system. Since the xyz coordinate system is a kind of viewpoint coordinate system, the horizontal direction, vertical direction (vertical direction), and front-rear direction in the xyz coordinate system are defined as the x-axis, y-axis, and z-axis, respectively. Therefore, the x axis (horizontal direction) of the xyz coordinate system is parallel to the x axis of the global coordinate system, the y axis (vertical direction) of the xyz coordinate system is parallel to the y axis of the global coordinate system, and the xyz coordinate system The z-axis (front-rear direction) is parallel to the global coordinate system z-axis.

HMD110の起動時、すなわちHMD110の初期状態において、仮想カメラ404が、仮想空間400の中心406に配置される。ある態様において、プロセッサ202は、仮想カメラ404が撮影する画像をHMD110の表示部112に表示する。仮想カメラ404は、現実空間におけるHMD110の動きに連動して、仮想空間400を同様に移動する。これにより、現実空間におけるHMD110の位置及び向きの変化が、仮想空間400において同様に再現され得る。   When the HMD 110 is activated, that is, in the initial state of the HMD 110, the virtual camera 404 is disposed at the center 406 of the virtual space 400. In an aspect, the processor 202 displays an image captured by the virtual camera 404 on the display unit 112 of the HMD 110. The virtual camera 404 similarly moves in the virtual space 400 in conjunction with the movement of the HMD 110 in the real space. Thereby, changes in the position and orientation of the HMD 110 in the real space can be similarly reproduced in the virtual space 400.

HMD110の場合と同様に、仮想カメラ404には、uvw視野座標系が規定される。仮想空間400における仮想カメラ404のuvw視野座標系は、現実空間(グローバル座標系)におけるHMD110のuvw視野座標系に連動するように規定される。したがって、HMD110の傾きが変化すると、それに応じて、仮想カメラ404の傾きも変化する。また、仮想カメラ404は、HMD110を装着したユーザの現実空間における移動に連動して、仮想空間400において移動することもできる。   As in the case of the HMD 110, the virtual camera 404 has a uvw visual field coordinate system. The uvw visual field coordinate system of the virtual camera 404 in the virtual space 400 is defined so as to be linked to the uvw visual field coordinate system of the HMD 110 in the real space (global coordinate system). Therefore, when the inclination of the HMD 110 changes, the inclination of the virtual camera 404 changes accordingly. The virtual camera 404 can also move in the virtual space 400 in conjunction with the movement of the user wearing the HMD 110 in the real space.

コンピュータ200のプロセッサ202は、仮想カメラ404の配置位置と、基準視線408とに基づいて、仮想空間400における視界領域410を規定する。視界領域410は、仮想空間400のうち、HMD110を装着したユーザが視認する領域に対応する。   The processor 202 of the computer 200 defines the visual field area 410 in the virtual space 400 based on the arrangement position of the virtual camera 404 and the reference line of sight 408. The visual field area 410 corresponds to an area of the virtual space 400 that is visually recognized by the user wearing the HMD 110.

注視センサ140によって検出されるユーザ190の視線は、ユーザ190が物体を視認する際の視点座標系における方向である。HMD110のuvw視野座標系は、ユーザ190が表示部112を視認する際の視点座標系に等しい。また、仮想カメラ404のuvw視野座標系は、HMD110のuvw視野座標系に連動している。したがって、ある態様に従うシステム100は、注視センサ140によって検出されたユーザ190の視線を、仮想カメラ404のuvw視野座標系におけるユーザの視線とみなすことができる。   The line of sight of the user 190 detected by the gaze sensor 140 is the direction in the viewpoint coordinate system when the user 190 visually recognizes the object. The uvw visual field coordinate system of the HMD 110 is equal to the viewpoint coordinate system when the user 190 visually recognizes the display unit 112. Further, the uvw visual field coordinate system of the virtual camera 404 is linked to the uvw visual field coordinate system of the HMD 110. Therefore, the system 100 according to an aspect can regard the line of sight of the user 190 detected by the gaze sensor 140 as the line of sight of the user in the uvw visual field coordinate system of the virtual camera 404.

図5を参照して、ユーザの視線の決定について説明する。図5は、ある実施形態に従うHMD110を装着するユーザ190の頭部を上から表した図である。   The determination of the user's line of sight will be described with reference to FIG. FIG. 5 is a top view of the head of a user 190 wearing the HMD 110 according to an embodiment.

ある態様において、注視センサ140は、ユーザ190の右目及び左目の各視線を検出する。ある態様において、ユーザ190が近くを見ている場合、注視センサ140は、視線R1及びL1を検出する。別の態様において、ユーザ190が遠くを見ている場合、注視センサ140は、視線R2及びL2を検出する。この場合、ロール方向wに対して視線R2及びL2がなす角度は、ロール方向wに対して視線R1及びL1がなす角度よりも小さい。注視センサ140は、検出結果をコンピュータ200に送信する。   In one aspect, the gaze sensor 140 detects each line of sight of the user's 190 right eye and left eye. In an aspect, when the user 190 is looking nearby, the gaze sensor 140 detects the lines of sight R1 and L1. In another aspect, when the user 190 is looking far away, the gaze sensor 140 detects the lines of sight R2 and L2. In this case, the angle formed by the lines of sight R2 and L2 with respect to the roll direction w is smaller than the angle formed by the lines of sight R1 and L1 with respect to the roll direction w. The gaze sensor 140 transmits the detection result to the computer 200.

コンピュータ200が、視線の検出結果として、視線R1及びL1の検出値を注視センサ140から受信した場合には、その検出値に基づいて、視線R1及びL1の交点である注視点N1を特定する。一方、コンピュータ200は、視線R2及びL2の検出値を注視センサ140から受信した場合には、視線R2及びL2の交点を注視点として特定する。コンピュータ200は、特定した注視点N1の位置に基づき、ユーザ190の視線N0を特定する。コンピュータ200は、例えば、ユーザ190の右目Rと左目Lとを結ぶ直線の中点と、注視点N1とを通る直線の延びる方向を、視線N0として検出する。視線N0は、ユーザ190が両目により実際に視線を向けている方向である。また、視線N0は、視界領域410に対してユーザ190が実際に視線を向けている方向に相当する。   When the computer 200 receives the detection values of the lines of sight R1 and L1 from the gaze sensor 140 as the detection result of the line of sight, the computer 200 specifies the gazing point N1 that is the intersection of the lines of sight R1 and L1. On the other hand, when the detected values of the lines of sight R2 and L2 are received from the gaze sensor 140, the computer 200 specifies the intersection of the lines of sight R2 and L2 as the point of sight. The computer 200 specifies the line of sight N0 of the user 190 based on the specified position of the gazing point N1. For example, the computer 200 detects, as the line of sight N0, the extending direction of the straight line passing through the midpoint of the straight line connecting the right eye R and the left eye L of the user 190 and the gazing point N1. The line of sight N0 is a direction in which the user 190 is actually pointing the line of sight with both eyes. The line of sight N0 corresponds to the direction in which the user 190 is actually pointing the line of sight with respect to the field of view area 410.

別の態様において、システム100は、システム100を構成するいずれかの部分に、マイク及びスピーカを備えてもよい。ユーザは、マイクに発話することにより、仮想空間400に対して、音声による指示を与えることができる。   In another aspect, the system 100 may include a microphone and a speaker in any part of the system 100. The user can give a voice instruction to the virtual space 400 by speaking to the microphone.

また、別の態様において、システム100は、テレビジョン放送受信チューナを備えてもよい。このような構成によれば、システム100は、仮想空間400においてテレビ番組を表示することができる。   In another aspect, system 100 may include a television broadcast receiving tuner. According to such a configuration, the system 100 can display a television program in the virtual space 400.

さらに別の態様において、システム100は、インターネットに接続するための通信回路、あるいは、電話回線に接続するための通話機能を備えていてもよい。   In yet another aspect, the system 100 may include a communication circuit for connecting to the Internet or a call function for connecting to a telephone line.

図6及び図7を参照して、視界領域410について説明する。図6は、仮想空間400において視界領域410をx方向から見たyz断面を表す図である。図7は、仮想空間400において視界領域410をy方向から見たxz断面を表す図である。   The visual field area 410 will be described with reference to FIGS. FIG. 6 is a diagram illustrating a yz cross section of the visual field area 410 viewed from the x direction in the virtual space 400. FIG. 7 is a diagram illustrating an xz cross section of the visual field area 410 viewed from the y direction in the virtual space 400.

図6に示されるように、yz断面における視界領域410は、領域602を含む。領域602は、仮想カメラ404の配置位置と基準視線408と仮想空間400のyz断面とによって定義される。プロセッサ202は、仮想空間おける基準視線408を中心として極角αを含む範囲を、領域602として規定する。   As shown in FIG. 6, the field-of-view region 410 in the yz section includes a region 602. The area 602 is defined by the arrangement position of the virtual camera 404, the reference line of sight 408, and the yz section of the virtual space 400. The processor 202 defines a range including the polar angle α around the reference line of sight 408 in the virtual space as a region 602.

図7に示されるように、xz断面における視界領域410は、領域702を含む。領域702は、仮想カメラ404の配置位置と基準視線408と仮想空間400のxz断面とによって定義される。プロセッサ202は、仮想空間400における基準視線408を中心とした方位角βを含む範囲を、領域702として規定する。極角α及びβは、仮想カメラ404の配置位置と仮想カメラ404の向きとに応じて定まる。   As shown in FIG. 7, the field-of-view region 410 in the xz section includes a region 702. The area 702 is defined by the arrangement position of the virtual camera 404, the reference line of sight 408, and the xz cross section of the virtual space 400. The processor 202 defines a range including the azimuth angle β around the reference line of sight 408 in the virtual space 400 as a region 702. The polar angles α and β are determined according to the arrangement position of the virtual camera 404 and the orientation of the virtual camera 404.

ある態様において、システム100は、コンピュータ200からの信号に基づいて、視界画像を表示部112に表示させることにより、仮想空間における視界をユーザ190に提供する。視界画像は、仮想空間画像402のうち視界領域410に重畳する部分に相当する。ユーザ190が、頭に装着したHMD110を動かすと、その動きに連動して仮想カメラ404も動く。その結果、仮想空間400における視界領域410の位置が変化する。これにより、表示部112に表示される視界画像は、仮想空間画像402のうち、仮想空間400においてユーザが向いた方向の視界領域410に重畳する画像に更新される。ユーザは、仮想空間400における所望の方向を視認することができる。   In an aspect, the system 100 provides the user 190 with a field of view in the virtual space by causing the display unit 112 to display a field of view image based on a signal from the computer 200. The view image corresponds to a portion of the virtual space image 402 that is superimposed on the view region 410. When the user 190 moves the HMD 110 worn on the head, the virtual camera 404 moves in conjunction with the movement. As a result, the position of the visual field area 410 in the virtual space 400 changes. As a result, the view image displayed on the display unit 112 is updated to an image that is superimposed on the view region 410 in the direction in which the user faces in the virtual space 400 in the virtual space image 402. The user can visually recognize a desired direction in the virtual space 400.

このように、仮想カメラ404の向き(傾き)は仮想空間400におけるユーザの視線(基準視線408)に相当し、仮想カメラ404が配置される位置は、仮想空間400におけるユーザの視点に相当する。したがって、仮想カメラ404を移動(配置位置を変える動作、向きを変える動作を含む)させることにより、表示部112に表示される画像が更新され、ユーザ190の視界(視点、視線を含む)が移動される。   Thus, the orientation (tilt) of the virtual camera 404 corresponds to the user's line of sight (reference line of sight 408) in the virtual space 400, and the position where the virtual camera 404 is arranged corresponds to the user's viewpoint in the virtual space 400. Therefore, by moving the virtual camera 404 (including the operation of changing the arrangement position and the operation of changing the orientation), the image displayed on the display unit 112 is updated, and the field of view (including the viewpoint and the line of sight) of the user 190 is moved. Is done.

ユーザ190は、HMD110を装着している間、現実世界を視認することなく、仮想空間400に展開される仮想空間画像402のみを視認できる。そのため、システム100は、仮想空間400への高い没入感覚をユーザに与えることができる。   While wearing the HMD 110, the user 190 can visually recognize only the virtual space image 402 developed in the virtual space 400 without visually recognizing the real world. Therefore, the system 100 can give the user a high sense of immersion in the virtual space 400.

ある態様において、プロセッサ202は、HMD110を装着したユーザ190の現実空間における移動に連動して、仮想空間400において仮想カメラ404を移動し得る。この場合、プロセッサ202は、仮想空間400における仮想カメラ404の位置及び向きに基づいて、HMD110の表示部112に投影される画像領域(すなわち、仮想空間400における視界領域410)を特定する。   In an aspect, the processor 202 may move the virtual camera 404 in the virtual space 400 in conjunction with movement of the user 190 wearing the HMD 110 in real space. In this case, the processor 202 specifies an image region (that is, a view region 410 in the virtual space 400) projected on the display unit 112 of the HMD 110 based on the position and orientation of the virtual camera 404 in the virtual space 400.

ある実施形態に従うと、仮想カメラ404は、2つの仮想カメラ、すなわち、右目用の画像を提供するための仮想カメラと、左目用の画像を提供するための仮想カメラとを含んでもよい。また、ユーザ190が3次元の仮想空間400を認識できるように、適切な視差が、2つの仮想カメラに設定されてもよい。   According to an embodiment, the virtual camera 404 may include two virtual cameras: a virtual camera for providing an image for the right eye and a virtual camera for providing an image for the left eye. Also, appropriate parallax may be set in the two virtual cameras so that the user 190 can recognize the three-dimensional virtual space 400.

図8Aを参照して、コントローラ160の一例であるコントローラ160Aについて説明する。図8Aは、ある実施形態に従うコントローラ160Aの概略構成を表す図である。   A controller 160A, which is an example of the controller 160, will be described with reference to FIG. 8A. FIG. 8A is a diagram illustrating a schematic configuration of a controller 160A according to an embodiment.

ある態様において、コントローラ160Aは、右コントローラと左コントローラとを含み得る。説明を簡単にするために、図8Aにおけるコントローラ160Aは右コントローラを示す。右コントローラは、ユーザ190の右手で操作される。左コントローラは、ユーザ190の左手で操作される。ある態様において、右コントローラと左コントローラとは、別個の装置として対称に構成される。したがって、ユーザ190は、右コントローラを把持した右手と、左コントローラを把持した左手とをそれぞれ自由に動かすことができる。別の態様において、コントローラ160は両手の操作を受け付ける一体型のコントローラであってもよい。以下、右コントローラ160Aについて説明する。   In certain aspects, the controller 160A may include a right controller and a left controller. For ease of explanation, the controller 160A in FIG. 8A represents the right controller. The right controller is operated with the right hand of the user 190. The left controller is operated with the left hand of the user 190. In one aspect, the right controller and the left controller are configured symmetrically as separate devices. Therefore, the user 190 can freely move the right hand holding the right controller and the left hand holding the left controller. In another aspect, the controller 160 may be an integrated controller that accepts operations of both hands. Hereinafter, the right controller 160A will be described.

右コントローラ160Aは、グリップ802と、フレーム804と、天面806とを備える。グリップ802は、ユーザ190の右手によって把持されるように構成されている。例えば、グリップ802は、ユーザ190の右手の掌と3本の指(中指、薬指、小指)とによって保持され得る。   The right controller 160A includes a grip 802, a frame 804, and a top surface 806. The grip 802 is configured to be gripped by the right hand of the user 190. For example, the grip 802 can be held by the palm of the right hand of the user 190 and three fingers (middle finger, ring finger, little finger).

グリップ802は、ボタン808及び810と、モーションセンサ130とを含む。ボタン808は、グリップ802の側面に配置され、右手の中指による操作を受け付ける。ボタン810は、グリップ802の前面に配置され、右手の人差し指による操作を受け付ける。ある態様において、ボタン808、810は、トリガー式のボタンとして構成される。モーションセンサ130は、グリップ802の筐体に内蔵されている。なお、ユーザ190の動作がカメラその他の装置によってユーザ190の周りから検出可能である場合には、グリップ802は、モーションセンサ130を備えなくてもよい。   The grip 802 includes buttons 808 and 810 and a motion sensor 130. The button 808 is disposed on the side surface of the grip 802 and receives an operation with the middle finger of the right hand. The button 810 is disposed on the front surface of the grip 802 and receives an operation with the index finger of the right hand. In some embodiments, the buttons 808, 810 are configured as trigger buttons. The motion sensor 130 is built in the housing of the grip 802. Note that the grip 802 may not include the motion sensor 130 when the operation of the user 190 can be detected from around the user 190 by a camera or other device.

フレーム804は、その円周方向に沿って配置された複数の赤外線LED812を含む。赤外線LED812は、コントローラ160Aを使用するプログラムの実行中に、当該プログラムの進行に合わせて赤外線を発光する。赤外線LED812から発せられた赤外線は、右コントローラ160Aと左コントローラ(図示しない)との各位置や姿勢(傾き、向き)を検出するために使用され得る。図8に示される例では、2列に配置された赤外線LED812が示されているが、配列の数は図8に示されるものに限られない。1列あるいは3列以上の配列が使用されてもよい。   The frame 804 includes a plurality of infrared LEDs 812 arranged along the circumferential direction thereof. The infrared LED 812 emits infrared rays in accordance with the progress of the program during execution of the program using the controller 160A. Infrared rays emitted from the infrared LED 812 can be used to detect the positions and postures (tilt and orientation) of the right controller 160A and the left controller (not shown). In the example shown in FIG. 8, infrared LEDs 812 arranged in two rows are shown, but the number of arrays is not limited to that shown in FIG. 8. An array of one column or three or more columns may be used.

天面806は、ボタン814及び816と、アナログスティック818とを備える。ボタン814及び816は、プッシュ式ボタンとして構成される。ボタン814及び816は、ユーザ190の右手の親指による操作を受け付ける。アナログスティック818は、ある態様において、初期位置(ニュートラルの位置)から360度任意の方向への操作を受け付ける。当該操作は、例えば、仮想空間400に配置されるオブジェクトを移動するための操作を含む。   The top surface 806 includes buttons 814 and 816 and an analog stick 818. Buttons 814 and 816 are configured as push buttons. Buttons 814 and 816 receive an operation with the thumb of the right hand of user 190. In a certain aspect, the analog stick 818 accepts an operation in an arbitrary direction of 360 degrees from the initial position (neutral position). The operation includes, for example, an operation for moving an object arranged in the virtual space 400.

ある態様において、右コントローラ160A及び左コントローラは、赤外線LED812等の部材を駆動するための電池を含む。電池は、1次電池及び2次電池のいずれであってもよく、その形状は、ボタン型、乾電池型等任意であり得る。別の態様において、右コントローラ160Aと左コントローラは、例えば、コンピュータ200のUSBインターフェースに接続され得る。この場合、右コントローラ800及び左コントローラは、USBインターフェースを介して電力を供給され得る。   In an aspect, the right controller 160A and the left controller include a battery for driving a member such as the infrared LED 812. The battery may be either a primary battery or a secondary battery, and the shape thereof may be arbitrary, such as a button type or a dry battery type. In another aspect, the right controller 160A and the left controller may be connected to a USB interface of the computer 200, for example. In this case, the right controller 800 and the left controller may be supplied with power via the USB interface.

図8Bを参照して、コントローラ160の一例であるコントローラ160Bについて説明する。図8Bは、ある実施形態に従うコントローラ160Bの概略構成を表す図である。   A controller 160B, which is an example of the controller 160, will be described with reference to FIG. 8B. FIG. 8B is a diagram illustrating a schematic configuration of a controller 160B according to an embodiment.

コントローラ160Bは、複数のボタン820(820a、820b、820c、820d)及び822(822a、822b、822c、822d)と、左右のアナログスティック824L及び824Rとを備える。各ボタン820及び822は、プッシュ式ボタンとして構成される。ボタン820及び822は、ユーザ190の手の親指による操作を受け付ける。ユーザ190の手の人差し指又は中指による操作を受け付けることが可能な不図示のトリガー式のボタンが、更にコントローラ160Bに設けられてもよい。アナログスティック824L及び824Rは、ある態様において、それぞれ初期位置(ニュートラルの位置)から360度任意の方向への操作を受け付ける。当該操作は、例えば、仮想空間400に配置されるオブジェクトを移動するための操作を含む。ボタン820(820a、820b、820c、820d)及び822(822a、822b、822c、822d)並びにアナログスティック824L及び824R(更に、含まれる場合には不図示のトリガー式ボタン)には、それぞれ別個の操作コマンドが割り当てられる。操作コマンドは、例えば、仮想空間400内のオブジェクトに指令を与えるためのコマンド、ゲームのメニュー画面等において各種の設定を行うためのコマンド、及びユーザ190が仮想空間400を体験している際にコンピュータ200に入力し得る任意の他のコマンドを含む。各ボタン又はアナログスティックに割り当てられた操作コマンドは、例えばゲームの進行や場面の変化に応じて、動的に変更されてもよい。   The controller 160B includes a plurality of buttons 820 (820a, 820b, 820c, 820d) and 822 (822a, 822b, 822c, 822d), and left and right analog sticks 824L and 824R. Each button 820 and 822 is configured as a push button. Buttons 820 and 822 accept an operation with the thumb of the hand of user 190. A trigger-type button (not shown) that can accept an operation with an index finger or a middle finger of the user 190 may be further provided in the controller 160B. The analog sticks 824L and 824R each accept an operation in an arbitrary direction of 360 degrees from the initial position (neutral position) in a certain aspect. The operation includes, for example, an operation for moving an object arranged in the virtual space 400. Buttons 820 (820a, 820b, 820c, 820d) and 822 (822a, 822b, 822c, 822d) and analog sticks 824L and 824R (and, if included, trigger buttons not shown) have separate operations. A command is assigned. The operation command is, for example, a command for giving a command to an object in the virtual space 400, a command for making various settings on a menu screen of a game, and the computer when the user 190 is experiencing the virtual space 400. Any other command that can be entered into 200 is included. The operation command assigned to each button or analog stick may be dynamically changed according to, for example, the progress of the game or the change of the scene.

ある態様において、コントローラ160Bは、その外表面に配置された不図示の複数の赤外線LEDを含んでもよい。赤外線LEDは、コントローラ160Bを使用するプログラムの実行中に、当該プログラムの進行に合わせて赤外線を発光する。赤外線LEDから発せられた赤外線は、コントローラ160Bの位置や姿勢(傾き、向き)を検出するために使用され得る。またコントローラ160Bは、内部の電子部品を駆動するための電池を含む。電池は、1次電池及び2次電池のいずれであってもよく、その形状は、ボタン型、乾電池型等任意であり得る。別の態様において、コントローラ160Bは、例えば、コンピュータ200のUSBインターフェースに接続され得る。この場合、コントローラ160Bは、USBインターフェースを介して電力を供給され得る   In one aspect, the controller 160B may include a plurality of infrared LEDs (not shown) disposed on the outer surface thereof. The infrared LED emits infrared light in accordance with the progress of the program during execution of the program using the controller 160B. Infrared light emitted from the infrared LED can be used to detect the position and orientation (tilt, orientation) of the controller 160B. The controller 160B includes a battery for driving internal electronic components. The battery may be either a primary battery or a secondary battery, and the shape thereof may be arbitrary, such as a button type or a dry battery type. In another aspect, the controller 160B may be connected to a USB interface of the computer 200, for example. In this case, the controller 160B can be powered through the USB interface.


図9は、本開示の一実施形態による、システム100を介してユーザに仮想体験を提供するための、コンピュータ200の機能を示すブロック図である。既に述べたように、本開示の実施形態において、仮想体験をユーザに提供するための様々な画像表示装置を用いることができる。以下に説明する実施形態では、画像表示装置の一例としてHMDが用いられる。
.
FIG. 9 is a block diagram illustrating the functionality of a computer 200 for providing a virtual experience to a user via the system 100 according to one embodiment of the present disclosure. As already mentioned, various image display devices for providing a virtual experience to a user can be used in embodiments of the present disclosure. In the embodiments described below, an HMD is used as an example of an image display device.

コンピュータ200は、主にHMDセンサ120、モーションセンサ130、注視センサ140、コントローラ160からの入力に基づいて、様々な処理を実行する。   The computer 200 executes various processes mainly based on inputs from the HMD sensor 120, the motion sensor 130, the gaze sensor 140, and the controller 160.

コンピュータ200は、プロセッサ202と、メモリ204と、通信制御部205とを備える。プロセッサ202は、仮想空間特定部902と、HMD動作検知部904と、視線検知部906と、基準視線決定部908と、視界領域決定部910と、仮想視点特定部912と、視界画像生成部914と、仮想カメラ制御部916と、ゲーム離脱制御部918と、視界画像出力部924と、を含み得る。メモリ204は様々な情報を格納するように構成され得る。一例では、メモリ204は、仮想空間データ926、オブジェクトデータ928、アプリケーションデータ930、取り外し判定データ932、アラートデータ934、その他のデータ938等を含んでもよい。メモリ204はまた、HMDセンサ120、モーションセンサ130、注視センサ140、コントローラ160等からの入力に対応した出力情報をHMD110に関連付けられる表示部112へ提供するための演算に必要な、各種データを含んでもよい。オブジェクトデータ928は、仮想空間内に配置される様々なオブジェクトに関するデータを含んでもよい。取り外し判定データ932は、ユーザによる画像表示装置(HMD等)の取り外し動作を判定するのに使用される様々なデータを含んでもよい。表示部112は、HMD110に内蔵されてもよいし、HMD110に取り付け可能な別のデバイス(例えば、スマートフォン)のディスプレイであってもよい。   The computer 200 includes a processor 202, a memory 204, and a communication control unit 205. The processor 202 includes a virtual space specifying unit 902, an HMD motion detection unit 904, a line-of-sight detection unit 906, a reference line-of-sight determination unit 908, a visual field region determination unit 910, a virtual viewpoint specification unit 912, and a visual field image generation unit 914. And a virtual camera control unit 916, a game departure control unit 918, and a view field image output unit 924. Memory 204 may be configured to store various information. In one example, the memory 204 may include virtual space data 926, object data 928, application data 930, removal determination data 932, alert data 934, other data 938, and the like. The memory 204 also includes various data necessary for calculation to provide output information corresponding to inputs from the HMD sensor 120, the motion sensor 130, the gaze sensor 140, the controller 160, etc. to the display unit 112 associated with the HMD 110. But you can. The object data 928 may include data related to various objects arranged in the virtual space. The removal determination data 932 may include various data used to determine the removal operation of the image display device (HMD or the like) by the user. The display unit 112 may be built in the HMD 110 or may be a display of another device (for example, a smartphone) that can be attached to the HMD 110.

図9においてプロセッサ202内に含まれるコンポーネントは、プロセッサ202が実行する機能を具体的なモジュールとして表現する1つの例にすぎない。複数のコンポーネントの機能が単一のコンポーネントによって実現されてもよい。プロセッサ202がすべてのコンポーネントの機能を実行するように構成されてもよい。   In FIG. 9, the components included in the processor 202 are just one example of expressing the function executed by the processor 202 as a specific module. The functions of multiple components may be realized by a single component. The processor 202 may be configured to perform the functions of all components.

図10は、ユーザが没入する仮想空間の画像を表示部112に表示するための一般的な処理のフロー図である。   FIG. 10 is a flowchart of a general process for displaying an image of the virtual space in which the user is immersed on the display unit 112.

図9及び図10を参照して、仮想空間の画像を提供するためのシステム100の一般的な処理を説明する。仮想空間400は、HMDセンサ120、注視センサ140及びコンピュータ200等の相互作用によって提供され得る。   A general process of the system 100 for providing an image of the virtual space will be described with reference to FIGS. 9 and 10. The virtual space 400 may be provided by the interaction of the HMD sensor 120, the gaze sensor 140, the computer 200, and the like.

処理はステップ1002において開始する。一例として、アプリケーションデータ930に含まれるゲームアプリケーションがコンピュータ200によって実行されてもよい。ステップ1004において、プロセッサ202(又は、仮想空間特定部902)は、仮想空間データ926を参照するなどして、ユーザが没入する仮想空間400を構成する天球状の仮想空間画像402を生成する。HMDセンサ120によってHMD110の位置や傾きが検知される。HMDセンサ120によって検知された情報はコンピュータ200に送信される。ステップ1006において、HMD動作検知部904は、HMD110の位置情報、傾き情報等を取得する。ステップ1008において、取得された位置情報及び傾き情報に基づいて視界方向が決定される。   Processing begins at step 1002. As an example, a game application included in the application data 930 may be executed by the computer 200. In step 1004, the processor 202 (or the virtual space specifying unit 902) refers to the virtual space data 926 and generates a celestial spherical virtual space image 402 constituting the virtual space 400 in which the user is immersed. The position and inclination of the HMD 110 are detected by the HMD sensor 120. Information detected by the HMD sensor 120 is transmitted to the computer 200. In step 1006, the HMD motion detection unit 904 acquires position information, tilt information, and the like of the HMD 110. In step 1008, the viewing direction is determined based on the acquired position information and tilt information.

注視センサ140がユーザの左右の目の眼球の動きを検出すると、当該情報がコンピュータ200に送信される。ステップ1010において、視線検知部906は、右目及び左目の視線が向けられる方向を特定し、視線方向N0を決定する。ステップ1012において、基準視線決定部908は、HMD110の傾きにより決定された視界方向又はユーザの視線方向N0を基準視線408として決定する。基準視線408はまた、HMD110の位置や傾きに追随する仮想カメラ404の位置及び傾きに基づいて決定されてもよい。   When the gaze sensor 140 detects the movement of the left and right eyeballs of the user, the information is transmitted to the computer 200. In step 1010, the line-of-sight detection unit 906 identifies the direction in which the line of sight of the right eye and the left eye is directed, and determines the line-of-sight direction N0. In step 1012, the reference visual line determination unit 908 determines the visual field direction determined by the inclination of the HMD 110 or the user's visual line direction N0 as the reference visual line 408. The reference line of sight 408 may also be determined based on the position and tilt of the virtual camera 404 that follows the position and tilt of the HMD 110.

ステップ1014において、視界領域決定部910は、仮想空間400における仮想カメラ404の視界領域410を決定する。図4に示すように、視界領域410は、仮想空間画像402のうちユーザの視界を構成する部分である。視界領域410は基準視線408に基づいて決定される。視界領域410をx方向から見たyz断面図及び視界領域410をy方向から見たxz断面図は、既に説明した図6及び図7にそれぞれ示されている。   In step 1014, the view area determination unit 910 determines the view area 410 of the virtual camera 404 in the virtual space 400. As shown in FIG. 4, the visual field area 410 is a part of the virtual space image 402 that constitutes the visual field of the user. The field of view area 410 is determined based on the reference line of sight 408. A yz sectional view of the visual field region 410 viewed from the x direction and an xz sectional view of the visual field region 410 viewed from the y direction are shown in FIGS. 6 and 7 described above, respectively.

ステップ1016において、視界画像生成部914は、視界領域410に基づいて視界画像を生成する。視界画像は、右目用と左目用の2つの2次元画像を含む。これらの2次元画像が表示部112に重畳される(より具体的には、右目用画像が右目用表示部に出力され、左目用画像が左目用表示部に出力される)ことにより、3次元画像としての仮想空間400がユーザに提供される。ステップ1018において、視界画像出力部924は、視界画像に関する情報を表示部112に出力する。表示部112は、受信した視界画像の情報に基づいて、当該視界画像を表示する。処理はステップ1020において終了する。   In step 1016, the visual field image generation unit 914 generates a visual field image based on the visual field region 410. The field-of-view image includes two two-dimensional images for the right eye and the left eye. These two-dimensional images are superimposed on the display unit 112 (more specifically, the right-eye image is output to the right-eye display unit, and the left-eye image is output to the left-eye display unit). A virtual space 400 as an image is provided to the user. In step 1018, the view image output unit 924 outputs information related to the view image to the display unit 112. The display unit 112 displays the view image based on the received view image information. The process ends at step 1020.

図11は、本開示の一実施形態による、ゲーム離脱制御方法1100のフローチャートである。本開示の一実施形態において、コンピュータプログラムが、図11に示される各ステップをプロセッサ202(又はコンピュータ200)に実行させてもよい。また、本開示の別の実施形態は、少なくともプロセッサを備え、当該プロセッサの制御により方法1100を実行するコンピュータとして実施することもできる。   FIG. 11 is a flowchart of a game departure control method 1100 according to an embodiment of the present disclosure. In an embodiment of the present disclosure, a computer program may cause the processor 202 (or the computer 200) to execute the steps illustrated in FIG. Another embodiment of the present disclosure may also be implemented as a computer that includes at least a processor and executes the method 1100 under the control of the processor.

以下、本開示の実施形態について具体的に説明する。ここでは、本開示の実施形態を適用することができる具体例として、ユーザが、当該ユーザに関連付けられるアバター、他のオブジェクト等が配置された仮想空間に没入して楽しむことができるゲームを想定する。しかし、本開示の実施形態は、必ずしもこのような態様に限定されない。本開示の実施形態が、特許請求の範囲において規定される範囲に含まれる様々な態様を取り得ることは、当業者にとって明らかであろう。   Hereinafter, embodiments of the present disclosure will be specifically described. Here, as a specific example to which the embodiment of the present disclosure can be applied, a game is assumed in which a user can immerse and enjoy a virtual space in which an avatar and other objects associated with the user are arranged. . However, embodiments of the present disclosure are not necessarily limited to such an aspect. It will be apparent to those skilled in the art that the embodiments of the present disclosure can take various forms that fall within the scope of the claims.

図12は、複数のユーザ、例えば2人のユーザであるユーザA及びユーザBがオンラインゲームのマッチプレイをしているときの状況を示す概略図である。尚、ゲームに参加するユーザの人数は2人に制限されない。本開示の実施形態は、より多くの数のユーザが参加できるゲームにも適用することができる。ユーザA及びユーザBのそれぞれの場所には、図9に示すシステム100が設置されており、これらシステムが互いにネットワーク192及びサーバ150を介して接続されている。説明を簡略にするために、図12では、ユーザAが装着した上述のHMD110のようなHMD1202と、右手に持った上述のコントローラ(ゲームに関連した可動デバイス)のようなコントローラ1204と、これらHMD1202及びコントローラ1204が接続された、机1206上のパーソナルコンピュータ(PC)1208のみが示されている。しかし、図1又は図9に示した他の要素が備えられていてもよいことは明らかであろう。ユーザBも同様のデバイスを有しているが、簡略化のために当該デバイスは省略されている。以下では、図12に示したユーザA及びユーザBがオンラインマッチプレイをしている状況を想定して、本開示の実施形態について説明する。   FIG. 12 is a schematic diagram illustrating a situation when a plurality of users, for example, two users, user A and user B, are performing a match play of an online game. Note that the number of users participating in the game is not limited to two. The embodiment of the present disclosure can also be applied to a game in which a larger number of users can participate. A system 100 shown in FIG. 9 is installed at each location of the user A and the user B, and these systems are connected to each other via a network 192 and a server 150. In order to simplify the description, in FIG. 12, the HMD 1202 such as the above-described HMD 110 worn by the user A, the controller 1204 such as the above-described controller (movable device related to the game) held in the right hand, and the HMD 1202 Only a personal computer (PC) 1208 on a desk 1206 to which a controller 1204 is connected is shown. However, it will be apparent that other elements shown in FIG. 1 or FIG. 9 may be provided. User B also has a similar device, but the device is omitted for simplicity. Hereinafter, an embodiment of the present disclosure will be described assuming a situation in which the user A and the user B illustrated in FIG. 12 are performing online match play.

図11に戻り、処理は最初にステップ1104に進む。ステップ104において、ゲーム離脱制御部918は、アプリケーションデータ930などから得られる現在プレイされているゲームに関する情報に基づき、ユーザAが、他のユーザも参加しているオンラインマッチをプレイしているかどうかを判定する。ステップ1104においてユーザAがプレイ中でないと判定された場合(ステップ1104の「N」)、処理はステップ1122に進み、終了する。例えば、ユーザAがオンラインマッチプレイ中でない場合、又はユーザAもしくは対戦相手のユーザBがプレイ中のゲームを正常に終了させたときには、この処理が実行される。   Returning to FIG. 11, the process first proceeds to step 1104. In step 104, the game withdrawal control unit 918 determines whether or not the user A is playing an online match in which other users also participate based on information on the currently played game obtained from the application data 930 or the like. judge. If it is determined in step 1104 that the user A is not playing (“N” in step 1104), the process proceeds to step 1122 and ends. For example, this process is executed when the user A is not in online match play, or when the game being played by the user A or the opponent user B is normally terminated.

一方、ユーザAが現在プレイ中である場合(ステップ1104の「Y」)、処理はステップ1106に進む。ステップ1106において、ゲーム離脱制御部918は、ユーザAによるHMD1202等の取り外し動作が検知されたかどうかを判定する。HMD1202等の取り外し動作の検知の詳細については図12〜図19Bを参照して後述する。取り外し動作が検知されなかった場合(ステップ1106の「N」)、処理はステップ1104の前に戻る。他方、取り外し動作が検知された場合(ステップ1106の「Y」)、処理はステップ1108に進む。ステップ1108において、ゲーム離脱制御部918は、アラートデータ934を参照することなどによって、ゲームへの復帰に関する入力を促すための出力として、ユーザAに対するアラートを生成する。このアラートの生成は、ユーザ・インターフェースの生成を含んでもよい。アラートデータ934には、生成されるアラートの内容、形態、生成する場所等のデータが格納されていてもよい。アラートは、表示、音、振動、光などの形態で生成したり、複数の形態で生成したり、重複して生成したりすることができる。アラートの具体例については図20及び図21を参照して後述する。   On the other hand, if user A is currently playing (“Y” in step 1104), the process proceeds to step 1106. In step 1106, the game withdrawal control unit 918 determines whether or not the user A has removed the HMD 1202 or the like. Details of detection of the removal operation of the HMD 1202 and the like will be described later with reference to FIGS. If the removal operation is not detected (“N” in step 1106), the process returns to before step 1104. On the other hand, when the removal operation is detected (“Y” in step 1106), the process proceeds to step 1108. In step 1108, the game departure control unit 918 generates an alert for the user A as an output for prompting an input related to returning to the game by referring to the alert data 934 or the like. The generation of this alert may include the generation of a user interface. The alert data 934 may store data such as the content, form, and location of the generated alert. The alert can be generated in the form of display, sound, vibration, light, etc., can be generated in a plurality of forms, or can be generated in duplicate. A specific example of the alert will be described later with reference to FIGS.

処理はステップ1110に進み、ゲーム離脱制御部918は、ゲームへの復帰に関する入力を促す出力に応答してユーザAがプレイに復帰することを選択したかどうかを判定する。プレイへの復帰が選択されたと判定された場合(ステップ1110の「Y」)、処理はステップ1104に戻る。プレイへの復帰が選択されなかった場合(ステップ1110の「N」)、処理はステップ1112に進む。   The process proceeds to step 1110, and the game withdrawal control unit 918 determines whether or not the user A has selected to return to play in response to an output prompting an input related to returning to the game. If it is determined that the return to play has been selected (“Y” in step 1110), the process returns to step 1104. If return to play is not selected (“N” in step 1110), the process proceeds to step 1112.

ステップ1112において、ゲーム離脱制御部918は、プレイに復帰しないこと、即ち正常終了することが選択されたかどうかを判定する。正常終了が選択された場合(ステップ1112の「Y」)、処理はステップ1114に進む。ステップ1114において、正常終了処理が行われる。一例において、ユーザAがマッチプレイから離脱することを選択した結果として、ユーザAの負け、相手のユーザBの勝ちを決定してゲームを終了させてもよい。複数のユーザが参加するゲームにおいて、一部のユーザが離脱したときにゲームの勝敗をどのように決定するかについては任意に定めてもよい。例えば、ユーザAがユーザBよりも高い得点を有していた場合でも、ユーザAが離脱するときには、ユーザAを負けと決定してもよい。   In step 1112, the game withdrawal control unit 918 determines whether it is selected not to return to play, that is, to end normally. If normal termination is selected (“Y” in step 1112), the process proceeds to step 1114. In step 1114, normal termination processing is performed. In one example, as a result of the user A selecting to leave the match play, the game may be terminated after the user A loses and the opponent user B wins. In a game in which a plurality of users participate, how to determine the game win / loss when some users leave may be arbitrarily determined. For example, even when the user A has a higher score than the user B, when the user A leaves, the user A may be determined to lose.

プレイへ復帰しないこと(正常終了)が選択されなかった場合(ステップ1112の「N」)、処理はステップ1116に進む。ステップ1116において、ゲーム離脱制御部918は、ゲームのプレイに必要な通信接続が切断されたかどうかを判定する。例えば、ネットワークとの接続のための通信ケーブルが抜かれたとき、通信接続が切断されたと判定される。通信接続が切断されたと判定された場合(ステップ1116の「Y」)、処理はステップ1118に進む。ステップ1118において、ゲーム離脱制御部918は不正離脱処理を行った後に処理を終了する。不正離脱処理の一例において、マッチプレイを正常に終了しなかったと判定されたユーザAに対して、上述の正常終了処理においてユーザAに課される不利益に加えて、今後のゲーム参加に対する制限、ペナルティなどの不利益が課されてもよい。不正離脱処理においてどのような不利益をユーザAに課すかは、ゲームの種類、対戦相手が受ける影響等に応じて、任意に定めることができる。   When not returning to play (normal end) is not selected (“N” in step 1112), the process proceeds to step 1116. In step 1116, the game withdrawal control unit 918 determines whether the communication connection necessary for playing the game has been disconnected. For example, when the communication cable for connection with the network is disconnected, it is determined that the communication connection is disconnected. If it is determined that the communication connection has been disconnected (“Y” in step 1116), the process proceeds to step 1118. In step 1118, the game leaving control unit 918 performs the illegal leaving process and ends the process. In an example of the illegal leaving process, in addition to the disadvantages imposed on the user A in the normal end process described above for the user A determined not to end the match play normally, restrictions on future game participation, Penalties and other disadvantages may be imposed. What disadvantages are imposed on the user A in the unauthorized leaving process can be arbitrarily determined according to the type of game, the influence of the opponent, and the like.

他方、通信接続が切断されていないと判定された場合(ステップ1116の「N」)、処理はステップ1120に進む。ステップ1120において、ゲーム離脱制御部918は、所定時間が経過したかどうかを判定する。当該所定時間は、例えば、ステップ1106において取り外し動作が検知されたときから経過した時間について設定されてもよい。あるいは、所定時間は、ステップ1108においてアラートが生成されたときから経過した時間について設定されてもよい。あるいは、所定時間は、ステップ1110、1112又は1116に関連する時点から経過した時間について設定されてもよい。これらの所定時間は、対戦相手であるユーザBがユーザAからの何らかの応答を待っている時間に相当し得る。したがって、所定時間をあまり長い時間とすることは好ましくない。一例として、所定時間は30秒に設定されてもよい。尚、ゲームの種類によっては、所定時間は、より長い時間又はより短い時間であってもよい。このような時間制限を設けることにより、相手プレーヤが無制限に待たされることによって迷惑を被るのを防ぐことができる。   On the other hand, if it is determined that the communication connection has not been disconnected (“N” in step 1116), the process proceeds to step 1120. In step 1120, the game departure control unit 918 determines whether a predetermined time has elapsed. The predetermined time may be set, for example, for the time that has elapsed since the removal operation was detected in step 1106. Alternatively, the predetermined time may be set for the time that has elapsed since the alert was generated in step 1108. Alternatively, the predetermined time may be set for the time elapsed from the time point associated with step 1110, 1112 or 1116. These predetermined times may correspond to the time when the user B who is the opponent is waiting for some response from the user A. Therefore, it is not preferable that the predetermined time is too long. As an example, the predetermined time may be set to 30 seconds. Depending on the type of game, the predetermined time may be a longer time or a shorter time. By providing such a time limit, it is possible to prevent the opponent player from being inconvenienced by waiting indefinitely.

所定時間が経過していない場合(ステップ1120の「N」)、処理はステップ1110の前に戻り、プレイへの復帰が選択されたか否か、プレイへ復帰しないことが選択されたか否か、通信接続が切断されたか否か、所定時間が経過したか否かについての判定が繰り返し実行される。それぞれの判定に関する処理は上述の通りである。ステップ1120において所定時間が経過したと判定されると(ステップ1120の「Y」)、処理はステップ1118に進み、上述の不正離脱処理が実行され、本フローは終了する。   If the predetermined time has not elapsed ("N" in step 1120), the process returns to before step 1110, whether or not return to play is selected, whether or not return to play is selected, and communication is performed. The determination as to whether or not the connection has been disconnected or whether or not a predetermined time has elapsed is repeatedly executed. The process regarding each determination is as described above. If it is determined in step 1120 that the predetermined time has elapsed (“Y” in step 1120), the process proceeds to step 1118, the above-described unauthorized leaving process is executed, and this flow ends.

次に、図13〜図19を参照して、図11のステップ1106におけるHMD等の取り外し動作の検知の具体例について説明する。   Next, a specific example of detection of the removal operation of the HMD or the like in step 1106 of FIG. 11 will be described with reference to FIGS.

先ず図13を用いて、HMDの取り外し又はコントローラを手放すことに基づくHMD取り外し動作の検知の一例について説明する。図示されるように、ユーザAが、装着しているHMD1202を頭から外して近くの机の上に置いた状況を考える。ここで、机の上に置かれたHMDをHMD1302として示す。この場合、HMD1302の動きはほぼ又は完全に静止する。したがって、HMDが動く距離が最小距離以下になったか否かを判定することにより、HMDが完全静止状態又はそれに近い状態にあるか否かが分かる。これにより、ユーザAがHMD1202を取り外したか否かを検知することができる。上記の最小距離は、HMD及びコントローラに関して取り外し判定データ932に予め格納されていても良い。ユーザがHMD1202を装着してゲームをプレイしている間は、多少なりともHMDの動きが発生する。したがって、上記の最小距離を閾値として用いることにより、HMDが完全静止状態又はそれに近い状態になったか否かを判定することができる。HMD1202の位置や動きは、前述のHMDセンサ120のポジショントラッキング機能又はセンサ114によるHMDの位置及び傾き検出機能を用いて検出することができる。尚、このような機能のないHMDの場合には、ジャイロセンサなどのセンサが追加されても良い。また、図13ではHMDが置かれる場所として机が示されたが、HMDが床や椅子などのその他の任意の場所に置かれる場合にも本開示の実施形態を同様に適用することができる。   First, an example of detection of an HMD removal operation based on removal of the HMD or releasing the controller will be described with reference to FIG. As shown in the figure, a situation is considered in which the user A removes the HMD 1202 from the user's head and places it on a nearby desk. Here, the HMD placed on the desk is indicated as HMD1302. In this case, the movement of the HMD 1302 is almost or completely stationary. Therefore, by determining whether or not the distance that the HMD moves is equal to or less than the minimum distance, it can be determined whether or not the HMD is in a completely stationary state or a state close thereto. Thereby, it is possible to detect whether or not the user A has removed the HMD 1202. The minimum distance may be stored in advance in the removal determination data 932 for the HMD and the controller. While the user wears the HMD 1202 and plays a game, the HMD moves somewhat. Therefore, by using the minimum distance as a threshold, it can be determined whether or not the HMD is in a completely stationary state or a state close thereto. The position and movement of the HMD 1202 can be detected using the position tracking function of the HMD sensor 120 described above or the HMD position and tilt detection function of the sensor 114. In the case of an HMD without such a function, a sensor such as a gyro sensor may be added. Further, in FIG. 13, the desk is shown as the place where the HMD is placed, but the embodiment of the present disclosure can be similarly applied when the HMD is placed in any other place such as a floor or a chair.

図13には、ユーザAが手に持っていたコントローラ1204を机の上に置いた状況も示されており、置かれたコントローラはコントローラ1304として図示されている。この場合もまた、コントローラ1304は完全静止状態又はこれに近い状態となる。ユーザがコントローラを手に持ってゲームをプレイしている間は多少なりとも動きが発生する。したがって、コントローラが完全静止状態又はこれに近い状態になったと判定される場合、ユーザがコントローラを手放してどこかに置いたことになる(即ち、取り外し動作が行われたことになる)。コントローラの位置、動き等は、例えば前述のモーションセンサ130によって検出することができる。ユーザによっては、HMDを外す前にコントローラを先に置く場合がある。そのような場合には、コントローラの静止状態に基づいて処理を行うことにより、HMDの動きに基づく処理よりも早く、ユーザによる取り外し動作を検出することができる。   FIG. 13 also shows a situation where the controller 1204 held by the user A is placed on the desk, and the placed controller is shown as a controller 1304. Also in this case, the controller 1304 is in a completely stationary state or a state close thereto. While the user plays the game with the controller in hand, some movement occurs. Therefore, if it is determined that the controller is in a fully stationary state or a state close thereto, the user has released the controller and placed it somewhere (ie, a removal operation has been performed). The position, movement, etc. of the controller can be detected by, for example, the motion sensor 130 described above. Some users place the controller first before removing the HMD. In such a case, the removal operation by the user can be detected earlier than the processing based on the movement of the HMD by performing the processing based on the stationary state of the controller.

次に、図14を参照して、HMDの動きに基づく処理の別の例として、取り外し動作時のHMDの動きの軌跡を利用したHMD取り外し動作検知について説明する。図示されるように、ユーザAが頭1402に装着されたHMD1404を外そうとするとき、ユーザAは、先ずHMD1404を上方向に軌跡1406に沿って持ち上げ、そして持ち上げた位置からどこか別の場所(例えば、机の上)に置くために、HMD1404を下方向に軌跡1408に沿って下げる。このような場合、軌跡1406及び軌跡1408は放物線状の曲線となる。したがって、このような放物線状の軌道に沿ったHMDの動きが検出されたときに、HMDの取り外し動作が行われていると判定することができる。このような場合との比較のために、ユーザAが単に上を向く状況を考えると、HMDは例えば軌跡1410を辿る。軌跡1410の動きの距離は短く、上下方向の移動量が少ないので、軌跡1406又は軌跡1408などの放物線状の動きとはかなり異なることが分かる。したがって、ユーザによるHMDの取り外し動作と、ユーザが単に上を向く動作とは、区別することが可能である。この検知手法によれば、HMDがどこかに置かれて完全に静止状態になるときより前の段階において、取り外し動作を検知することができる。   Next, as another example of the process based on the movement of the HMD, the detection of the HMD removal operation using the locus of the movement of the HMD during the removal operation will be described with reference to FIG. As shown, when user A attempts to remove the HMD 1404 worn on the head 1402, the user A first lifts the HMD 1404 upward along a trajectory 1406 and then somewhere else from the lifted position. The HMD 1404 is lowered downward along the trajectory 1408 for placement (eg, on a desk). In such a case, the trajectory 1406 and the trajectory 1408 are parabolic curves. Therefore, when the movement of the HMD along such a parabolic trajectory is detected, it can be determined that the HMD removal operation is being performed. For comparison with such a case, considering a situation where the user A simply faces upward, the HMD follows a trajectory 1410, for example. Since the distance of the movement of the locus 1410 is short and the amount of movement in the vertical direction is small, it can be seen that it is quite different from the parabolic movement such as the locus 1406 or the locus 1408. Therefore, it is possible to distinguish between an operation of removing the HMD by the user and an operation in which the user simply faces upward. According to this detection method, the removal operation can be detected at a stage before the HMD is placed somewhere and becomes completely stationary.

別の例として、ゲームプレイ中に発生する可能性が低い、ゲームプレイとして不自然なHMDの動きを用いて、HMDの取り外し動作を検知しても良い。例えば、そのような不自然な動きが予めデータとして取り外し判定データ932に格納されていてもよい。検出されたHMDの動きが予め格納された動きと比較して同じであるか又は類似するかを判定することにより、取り外し動作を検知することができる。   As another example, the removal operation of the HMD may be detected by using an unnatural movement of the HMD that is unlikely to occur during game play. For example, such unnatural movement may be stored in the removal determination data 932 as data in advance. By determining whether the detected movement of the HMD is the same as or similar to the movement stored in advance, the removal operation can be detected.

次に、図15を参照して、着脱センサを用いたHMD取り外し動作検知について説明する。この例では、ユーザAの頭1502に装着されたHMD1504に、点線で概略的に示された着脱センサ1506が設けられている。着脱センサ1506を用いて、ユーザAの額が検出されなくなったときにHMD1504が頭から外されたと判定することによって、取り外し動作を検知することができる。着脱センサ1506は、例えば、赤外線を使用するタイプのセンサであってもよいし、機械式スイッチのタイプのセンサ、その他の任意のタイプのセンサであってもよい。   Next, HMD removal operation detection using the attachment / detachment sensor will be described with reference to FIG. In this example, the HMD 1504 attached to the head 1502 of the user A is provided with an attachment / detachment sensor 1506 schematically indicated by a dotted line. By using the detachable sensor 1506 to determine that the HMD 1504 has been removed from the head when the user A's forehead is no longer detected, the detachment operation can be detected. The detachable sensor 1506 may be, for example, a sensor that uses infrared rays, a mechanical switch type sensor, or any other type of sensor.

次に、図16を参照して、HMD等の位置に基づいてHMD取り外し動作を検知する例について説明する。ここで、位置には、HMD等の向きも含むものとする。図示されるように、HMD1602は下向きに置かれた状態であると仮定する。この場合、HMD1602の下向きの状態がある一定時間以上続いたときにHMD1602が取り外された状態にあると判定することによって、取り外し動作の発生を検知することができる。HMD1602が上向きになった状態又はその他の向きになった状態が一定時間以上継続したときも、同様の処理が可能である。HMDの向きが一定時間以上同じままであることは、ゲームプレイ上ほぼあり得ない。したがって、そのような状況が生じた場合、HMDが机、床等に置かれていると判定することができる。同様に、コントローラ1604が特定の向き(例えば、横向き)の状態になったまま、ある一定時間以上が経過したときに、コントローラ1604がユーザの手から放れて机等の上に置かれたと判定されても良い。   Next, an example in which an HMD removal operation is detected based on the position of the HMD or the like will be described with reference to FIG. Here, the position includes the direction of the HMD or the like. As shown, the HMD 1602 is assumed to be placed face down. In this case, the occurrence of the removal operation can be detected by determining that the HMD 1602 is in a removed state when the downward state of the HMD 1602 continues for a certain period of time or longer. The same processing can be performed when the HMD 1602 is in an upward state or in another direction for a certain period or longer. It is almost impossible in game play that the direction of the HMD remains the same for a certain period of time. Therefore, when such a situation occurs, it can be determined that the HMD is placed on a desk, floor, or the like. Similarly, it is determined that the controller 1604 has been released from the user's hand and placed on a desk or the like when a certain period of time has elapsed while the controller 1604 remains in a specific orientation (for example, landscape orientation). May be.

以上、HMD等の動き及び位置の一方に基づいてHMD取り外し動作の検知を行う例について説明した。しかし、本開示の実施形態はこのような態様に限定されない。HMD等の動きと位置の双方に基づいて、取り外し動作の検知が行われても良い。例えば、所定の位置からの所定の動きによる移動が生じたこと、所定の動きによる所定の位置への移動が生じたこと、所定の動きが所定の位置において生じたことなどに基づいて、取り外し動作の検知が行われても良い。   In the above, the example which detects the HMD removal operation based on one of the movement and position of the HMD or the like has been described. However, the embodiment of the present disclosure is not limited to such an aspect. The detection of the removal operation may be performed based on both the movement and the position of the HMD or the like. For example, a removal operation based on a movement from a predetermined position due to a predetermined movement, a movement to a predetermined position due to a predetermined movement, a predetermined movement occurring at a predetermined position, etc. May be detected.

図17A及び図17Bを参照して、HMD等の動き及び位置の双方に基づいてHMD取り外し動作検知を行う例について説明する。図17A及び図17Bにおいては、簡単化のために、HMDの向きが白抜きの太い矢印で示されている。図示されるように、図17AのHMD1702は、前向きの状態で上方向にある距離以上動かされる。この動きは、HMD1702を頭上へ外す動きとして解釈することができる。他方、図17BのHMD1704は、下向きの状態下方向へある距離以上動かされる。この動きは、HMD1704を床等に置く動きとして解釈することができる。このようにHMDの動きを解釈することに基づいて、HMDの取り外し動作を検知しても良い。   With reference to FIG. 17A and FIG. 17B, an example in which HMD removal operation detection is performed based on both the movement and position of the HMD or the like will be described. In FIG. 17A and FIG. 17B, the direction of the HMD is indicated by a thick white arrow for simplification. As shown, the HMD 1702 of FIG. 17A is moved more than a certain distance in the upward direction in a forward-facing state. This movement can be interpreted as a movement to remove the HMD 1702 overhead. On the other hand, the HMD 1704 in FIG. 17B is moved a certain distance or more downward in the downward state. This movement can be interpreted as a movement of placing the HMD 1704 on the floor or the like. Based on the interpretation of the movement of the HMD as described above, the removal operation of the HMD may be detected.

以上においては、HMD等を頭から外すとき、机に置くとき等を予め想定してHMD等の取り外し動作検知を行う例について説明した。別の例として、HMDのポジショントラッキングを行うことによってHMDの動きの追跡を続けていると、HMDの動きに関するデータが蓄積される。そして、ユーザがどのような動きをしているときに取り外し動作を行っているかを示す教師データを取得して、人工知能(AI)を用いた機械学習に利用することができる。その場合、予め想定されていなかった動き及び位置に基づいて取り外し動作を検知することも可能となり得る。   In the above, an example in which the removal operation detection of the HMD or the like is performed on the assumption that the HMD or the like is removed from the head or placed on a desk has been described. As another example, if tracking of HMD movement is continued by performing position tracking of HMD, data relating to movement of HMD is accumulated. Then, it is possible to acquire teacher data indicating what kind of movement the user is performing the removal operation and use it for machine learning using artificial intelligence (AI). In that case, it may be possible to detect the removal operation based on the movement and position that were not assumed in advance.

次に、図18A及び図18Bを参照して、ユーザの頭部及び目の少なくとも一方の位置及び動きの少なくとも一方に基づいてHMD取り外し動作の検知を行う例について説明する。尚、ユーザの頭部の動き及び位置は、HMDを装着しているときにはHMDの位置及び動きとして特定することができるので、ここでは特に、目の位置及び動きに基づく処理について説明する。図18A及び図18Bに示すように、HMD1802は、前述の注視センサ140のような注視センサ1804(概略的に示す)を備え、ユーザの目のアイトラッキングを行う。図18Aでは、ユーザがHMD1802を頭に装着した状態を想定している。このときには、注視センサ1804によってユーザの目をトラッキングすることが可能である。他方、図18Bにおいて、HMDを頭から外すためにユーザがHMDを頭上に持ち上げたときには、注視センサ1804はユーザの目をトラッキングすることができなくなる。このように、目の位置及び/又は動きを検出することができないとき、取り外し動作が行われたと判定されてもよい。さらに、ゲームプレイにおいて通常起きえないような不自然な目の動きを検出したときにも、取り外し動作が行われたと判定されても良い。このような判定に用いるデータは、取り外し判定データ932に格納されていても良い。   Next, with reference to FIG. 18A and FIG. 18B, an example in which an HMD removal operation is detected based on at least one of the position and movement of the user's head and eyes will be described. Since the movement and position of the user's head can be specified as the position and movement of the HMD when the HMD is worn, processing based on the position and movement of the eyes will be particularly described here. As shown in FIGS. 18A and 18B, the HMD 1802 includes a gaze sensor 1804 (shown schematically) such as the gaze sensor 140 described above, and performs eye tracking of the user's eyes. In FIG. 18A, it is assumed that the user wears the HMD 1802 on the head. At this time, the eyes of the user can be tracked by the gaze sensor 1804. On the other hand, in FIG. 18B, when the user lifts the HMD above the head to remove the HMD from the head, the gaze sensor 1804 cannot track the user's eyes. Thus, when the position and / or movement of the eyes cannot be detected, it may be determined that the removal operation has been performed. Furthermore, it may be determined that the removal operation has been performed when an unnatural eye movement that cannot normally occur in game play is detected. Data used for such determination may be stored in the removal determination data 932.

次に、図19A及び図19Bを参照して、HMDとコントローラとの間の相対的な位置関係に基づいてHMD取り外し動作の検知を行う例について説明する。図19Aは、HMD1902を装着したユーザAが手にコントローラ1904を持っている状態を示している。このときのHMD1902とコントローラ1904との間の距離D1の最大距離は、ユーザAの手の長さによってほぼ決まる。このような状況で、ユーザAがHMD1902を取り外すための準備としてコントローラ1904を少し離れた机上に置くと、机上に置かれたコントローラ1906とHMD1902との間の距離D2は、D1の最大距離よりも大きくなる。したがって、コントローラとHMDとの間の位置関係が所定の条件を満たす(この例では、距離D2が距離D1の最大値よりも大きい)場合に、HMDの取り外し動作が行われた(又は、行われようとしている)と判定することができる。机上ではなく、参照番号1908で示す位置にコントローラが置かれて、コントローラ1908とHMD1902との間の距離D3がD1の最大距離以上になったときも同様の処理を行うことができる。   Next, with reference to FIG. 19A and FIG. 19B, an example of detecting the HMD removal operation based on the relative positional relationship between the HMD and the controller will be described. FIG. 19A shows a state where the user A wearing the HMD 1902 has the controller 1904 in his hand. At this time, the maximum distance D1 between the HMD 1902 and the controller 1904 is substantially determined by the length of the hand of the user A. In this situation, when the user A puts the controller 1904 on a desk a little away in preparation for removing the HMD 1902, the distance D2 between the controller 1906 and the HMD 1902 placed on the desk is larger than the maximum distance of D1. growing. Therefore, when the positional relationship between the controller and the HMD satisfies a predetermined condition (in this example, the distance D2 is larger than the maximum value of the distance D1), the HMD removal operation is performed (or performed). Can be determined). The same process can be performed when the controller is placed not at the desk but at the position indicated by reference numeral 1908 and the distance D3 between the controller 1908 and the HMD 1902 is equal to or greater than the maximum distance of D1.

他方、図19Bに示すように、ユーザAがコントローラ1904を参照番号1910で示す位置に移動させてHMD1902に近付けると、コントローラ1910とHMD1902との間の距離はある一定距離以下となる。この状態は、ユーザAがHMD1902を取り外そうとして、コントローラを持っている手をHMD1902に近付けた状態であると解釈することができる。したがって、コントローラとHMDとの間の距離が所定の距離以下になるなどの所定の条件が満たされる場合に、HMDの取り外し動作が行われたと判定しても良い。あるいは、ゲームの性質上、コントローラをHMDに近付ける必要がない場合において、コントローラが一定時間以上HMDに近付けられたときに、HMDの取り外し動作が発生したと判定されても良い。   On the other hand, as shown in FIG. 19B, when the user A moves the controller 1904 to the position indicated by the reference number 1910 and approaches the HMD 1902, the distance between the controller 1910 and the HMD 1902 becomes a certain distance or less. This state can be interpreted as a state in which the user A tries to remove the HMD 1902 and the hand holding the controller is brought close to the HMD 1902. Therefore, it may be determined that the removal operation of the HMD has been performed when a predetermined condition is satisfied such that the distance between the controller and the HMD is equal to or less than the predetermined distance. Alternatively, when it is not necessary to bring the controller close to the HMD due to the nature of the game, it may be determined that the removal operation of the HMD has occurred when the controller is close to the HMD for a certain time or more.

図19A及び図19Bでは、コントローラとHMDとの間の位置関係が所定の条件を満たすか否かに基づく判定について説明された。別の例として、コントローラとユーザの頭部との間の位置関係が所定の条件を満たすか否かに基づいて、同様の判定を行うことができる。   In FIG. 19A and FIG. 19B, the determination based on whether the positional relationship between the controller and the HMD satisfies a predetermined condition has been described. As another example, a similar determination can be made based on whether the positional relationship between the controller and the user's head satisfies a predetermined condition.

次に、図20及び図21を参照して、図11のステップ1108におけるアラート生成の詳細について説明する。   Next, details of alert generation in step 1108 of FIG. 11 will be described with reference to FIGS.

図20は、HMD110の表示部112(図9参照)に表示されるアラートの例を示している。アラート2002は、HMD等の取り外し動作の検知をトリガーとして表示され、ユーザからの入力を受け付けるためのユーザ・インターフェース(UI)を提供する。この例では、アラート2002は、「プレイに復帰しますか?」というテキスト表示2004とともに、復帰選択のための「はい」ボタン2006を含んでいる。図11のステップ1110においてプレイへの復帰を選択するとき、ユーザは「はい」ボタン2006を操作すれば良い。また、アラート2002は、「プレイに復帰しない(正常終了)を選択しますか?」というテキスト表示2008とともに、正常終了即ち正常離脱を選択するための「はい」ボタン2010を含んでいる。図11のステップ1112において正常終了を選択するときには、ユーザは「はい」ボタン2010を操作すれば良い。また、アラート2002は、「正常終了しないときには、不正離脱となり、今後のゲームプレイに不利益を受けますので、ご注意下さい。」という、ユーザに対する警告文2012を含んでもよい。当該警告文により、ユーザに対してゲームへの復帰あるいはゲームの正常終了を促すことができる。別の例として、アラート2002は、「30秒以内に復帰して下さい。復帰しない場合にはリタイヤとみなします。」のような警告文を含んでも良い。   FIG. 20 illustrates an example of an alert displayed on the display unit 112 (see FIG. 9) of the HMD 110. The alert 2002 is displayed with detection of the removal operation of the HMD or the like as a trigger, and provides a user interface (UI) for receiving an input from the user. In this example, the alert 2002 includes a “Yes” button 2006 for return selection together with a text display 2004 “Do you want to return to play?”. When selecting return to play in step 1110 in FIG. 11, the user may operate the “Yes” button 2006. The alert 2002 includes a text display 2008 “Do you want to return to play (select normal end)?” And a “Yes” button 2010 for selecting normal end, that is, normal departure. When selecting normal end in step 1112 of FIG. 11, the user may operate the “Yes” button 2010. In addition, the alert 2002 may include a warning statement 2012 for the user, “Please note that if it does not end normally, it will result in illegal withdrawal and a disadvantage for future game play”. The warning message can prompt the user to return to the game or finish the game normally. As another example, the alert 2002 may include a warning message such as “Return within 30 seconds. If not returned, retired”.

図13〜図19で説明した取り外し動作の検知手法は、HMDを取り外す前やHMDの取り外し中に、取り外し動作を検出できる手法(タイミング的には、HMD110の表示部112に表示されるアラート2002をユーザが視認できるケース)と、HMDの取り外しが完了しなければ取り外し動作を検出できない手法(タイミング的には、HMD110の表示部112に表示されるアラート2002をユーザが視認できないケース)の両方を含み得る。   The removal operation detection method described with reference to FIGS. 13 to 19 is a method that can detect the removal operation before removing the HMD or during removal of the HMD (in terms of timing, an alert 2002 displayed on the display unit 112 of the HMD 110 is displayed. A case in which the user can visually recognize) and a method in which the removal operation cannot be detected unless the removal of the HMD is completed (when the alert 2002 displayed on the display unit 112 of the HMD 110 is not visible to the user). obtain.

図21は、図13〜図19で説明した手法に適用することができる、本開示の実施形態による、重複アラートについて説明する。図20に示したアラート2002はHMD110の表示部112に表示されるので、HMDを外した後、ユーザはアラート2002を見ることができない。従って、HMD等の取り外し動作中、取り外し動作が完了する前にアラートを生成してユーザの注意をより確実に惹き付けるために、上記アラート2002に加えて、追加のアラートを生成しても良い。例えば、図示されるように、ユーザAの机2102上に置かれたVRゲームを実行しているPC2104のディスプレイに、テキストその他のタイプのアラート2106を表示しても良い。この追加のアラート2106は、図20に示される警告文2012のような警告文を含んでもよい。別の例において、追加のアラートは、机2102に置かれたコントローラ2108を振動させることであってもよい。あるいは、追加のアラートは、取り外されたHMD2110に設けられたランプ2112を点灯又は点滅させることであってもよい。また、追加のアラートは、アラーム音を生成し、ユーザが使っているヘッドホン2114を介して当該アラーム音を発することであってもよい。ヘッドホンの代わりにスピーカが使用されている場合には、当該スピーカを介してアラーム音を発してもよい。   FIG. 21 illustrates a duplicate alert according to an embodiment of the present disclosure that can be applied to the techniques described in FIGS. Since the alert 2002 shown in FIG. 20 is displayed on the display unit 112 of the HMD 110, the user cannot see the alert 2002 after removing the HMD. Therefore, during the removal operation of the HMD or the like, an additional alert may be generated in addition to the alert 2002 in order to generate an alert before the removal operation is completed to attract the user's attention more reliably. For example, as shown, text or other types of alerts 2106 may be displayed on the display of the PC 2104 running the VR game placed on the desk 2102 of the user A. This additional alert 2106 may include a warning text such as the warning text 2012 shown in FIG. In another example, the additional alert may be to vibrate the controller 2108 placed on the desk 2102. Alternatively, the additional alert may be to light or blink the lamp 2112 provided on the removed HMD 2110. Further, the additional alert may be to generate an alarm sound and emit the alarm sound via the headphones 2114 used by the user. When a speaker is used instead of the headphones, an alarm sound may be emitted through the speaker.

図21の重複アラートを行うことにより、HMDの取り外しが完了しなければ取り外し動作を検出できない場合であっても、ユーザはアラートに気づくので、再度、HMDを装着して正常に終了させることをユーザに促せる。また、HMDを取り外す前やHMDの取り外し中に取り外し動作を検出できる場合であっても、ユーザが必ずしもアラートに気づくとは限らないので、図21の重複アラートを行うことが有用である。   By performing the duplicate alert of FIG. 21, even if the removal operation cannot be detected unless the removal of the HMD is completed, the user notices the alert. I can urge you to. Even if the removal operation can be detected before removing the HMD or during removal of the HMD, the user does not always notice the alert, so it is useful to perform the duplicate alert of FIG.

以上、本開示の実施形態を説明したが、これらは例示にすぎず、本開示の範囲を限定するものではないことは理解されるべきである。本開示の趣旨及び範囲から逸脱することなく、実施形態の変更、追加、改良等を適宜行うことができることは理解されるべきである。本開示の範囲は、上述した実施形態のいずれによっても限定されるべきではなく、特許請求の範囲及びその均等物によって規定されるべきである。   As mentioned above, although embodiment of this indication was described, it should be understood that these are only illustrations and do not limit the scope of this indication. It should be understood that changes, additions, improvements, and the like of the embodiments can be made as appropriate without departing from the spirit and scope of the present disclosure. The scope of the present disclosure should not be limited by any of the above-described embodiments, but should be defined by the claims and their equivalents.

100…HMDシステム、112…表示部、114…センサ、120…HMDセンサ、130…モーションセンサ、140…注視センサ、150…サーバ、160A、160B…コントローラ、190…頭部、192…ネットワーク、200…コンピュータ、202…プロセッサ、204…メモリ、205…通信制御部、206…ストレージ、208…入出力インターフェース、210…通信インターフェース、212…バス、400…仮想空間、402…仮想空間画像、404…仮想カメラ、406…中心、408…基準視線、410…視界領域、800…右コントローラ、802…グリップ、804…フレーム、806…天面、808、810、814、816…ボタン、812…赤外線LED、818…アナログスティック、820、822…ボタン、824R、824L…アナログスティック、902…仮想空間特定部、904…HMD動作検知部、906…視線検知部、908…基準視線決定部、910…視界領域決定部、912…仮想視点特定部、914…視界画像生成部、916…仮想カメラ制御部、918…ゲーム離脱制御部、924…視界画像出力部、926…仮想空間データ、928…オブジェクトデータ、930…アプリケーションデータ、932…取り外し判定データ、934…アラートデータ   DESCRIPTION OF SYMBOLS 100 ... HMD system, 112 ... Display part, 114 ... Sensor, 120 ... HMD sensor, 130 ... Motion sensor, 140 ... Gaze sensor, 150 ... Server, 160A, 160B ... Controller, 190 ... Head, 192 ... Network, 200 ... Computer, 202 ... Processor, 204 ... Memory, 205 ... Communication control unit, 206 ... Storage, 208 ... I / O interface, 210 ... Communication interface, 212 ... Bus, 400 ... Virtual space, 402 ... Virtual space image, 404 ... Virtual camera 406 ... center, 408 ... reference line of sight, 410 ... field of view, 800 ... right controller, 802 ... grip, 804 ... frame, 806 ... top, 808,810,814,816 ... button, 812 ... infrared LED, 818 ... Analog stick, 820, 22 ... button, 824R, 824L ... analog stick, 902 ... virtual space specifying unit, 904 ... HMD motion detecting unit, 906 ... gaze detecting unit, 908 ... reference gaze determining unit, 910 ... visual field region determining unit, 912 ... virtual viewpoint specifying Unit 914 ... view image generation unit 916 ... virtual camera control unit 918 ... game leaving control unit 924 ... view image output unit 926 ... virtual space data, 928 ... object data, 930 ... application data, 932 ... removal determination Data, 934 ... alert data

Claims (11)

第1ユーザの頭部に関連付けられた画像表示装置を介して、前記第1ユーザを含む複数のユーザが参加する仮想空間での仮想体験を前記第1ユーザに提供するためのコンピュータに、
前記仮想空間を定義するステップと、
前記画像表示装置を介して前記仮想空間を前記第1ユーザに提供するステップと、
前記画像表示装置を前記第1ユーザが取り外す取り外し動作を検出するステップと、
前記取り外し動作が検出された場合に、前記仮想体験を終了するか否かの入力を促すUI(User Interface)を前記画像表示装置に出力させるステップと、
を実行させるプログラム。
A computer for providing the first user with a virtual experience in a virtual space in which a plurality of users including the first user participate via an image display device associated with the head of the first user.
Defining the virtual space;
Providing the virtual space to the first user via the image display device;
Detecting a removal operation in which the first user removes the image display device;
A step of causing the image display device to output a UI (User Interface) that prompts an input as to whether or not to end the virtual experience when the removal operation is detected;
A program that executes
前記取り外し動作を検出するステップは、
前記第1ユーザの頭部に含まれる第1部位を検出するステップと、
前記第1部位を検出できないとき、前記取り外し動作が行われたと判定するステップと
を含む、請求項1に記載のプログラム。
The step of detecting the removal operation includes:
Detecting a first part included in the head of the first user;
The program according to claim 1, further comprising: determining that the removal operation has been performed when the first part cannot be detected.
前記取り外し動作を検出するステップは、
前記画像表示装置を追跡するステップと、
前記画像表示装置が静止したとき、又は前記画像表示装置が所定の軌道を動いたとき、前記取り外し動作が行われたと判定するステップと
を含む、請求項1に記載のプログラム。
The step of detecting the removal operation includes:
Tracking the image display device;
The program according to claim 1, further comprising: determining that the removal operation has been performed when the image display device is stationary or when the image display device moves along a predetermined trajectory.
前記取り外し動作を検出するステップは、
前記第1ユーザにより使用される操作デバイスを追跡するステップと、
前記操作デバイスが静止したとき、又は前記操作デバイスと前記画像表示装置との間の位置関係が所定の条件を満たしたとき、前記取り外し動作が行われたと判定するステップと
を含む、請求項1に記載のプログラム。
The step of detecting the removal operation includes:
Tracking an operating device used by the first user;
The step of determining that the removal operation has been performed when the operation device is stationary or when a positional relationship between the operation device and the image display apparatus satisfies a predetermined condition. The listed program.
前記コンピュータに、
前記仮想体験を終了する入力を受け付けるステップと、
前記仮想体験を終了する入力が受け付けられたことに応じて、前記第1ユーザを前記仮想体験から正常に離脱させるステップと、
を実行させる、請求項1から4のいずれか1項に記載のプログラム。
In the computer,
Receiving an input to end the virtual experience;
Detaching the first user from the virtual experience in response to receiving an input to end the virtual experience;
The program according to any one of claims 1 to 4, wherein the program is executed.
前記コンピュータに、
前記仮想体験を終了しない入力を受け付けるステップと、
前記仮想体験を終了しない入力が受け付けられたことに応じて、前記第1ユーザを前記仮想体験に復帰させるステップと、
を実行させる、請求項1から5のいずれか1項に記載のプログラム。
In the computer,
Receiving an input that does not end the virtual experience;
Returning the first user to the virtual experience in response to receiving an input that does not end the virtual experience;
The program according to any one of claims 1 to 5, wherein the program is executed.
前記コンピュータに、
前記仮想体験を終了する入力及び前記仮想体験を終了しない入力のいずれも受け付けられなかったことに応じて、前記第1ユーザが前記仮想体験から不正離脱したと判定するステップ
を実行させる、請求項1から6のいずれか1項に記載のプログラム。
In the computer,
The step of determining that the first user has illegally left the virtual experience in response to receiving neither an input that ends the virtual experience nor an input that does not end the virtual experience is performed. The program according to any one of 6 to 6.
前記UIは、前記第1ユーザが前記仮想体験への復帰及び正常離脱のいずれも行わない場合に前記第1ユーザが前記仮想体験から不正離脱したとみなされる旨の警告を含む、請求項1から7のいずれか1項に記載のプログラム。   The UI includes a warning that the first user is deemed to have left the virtual experience if the first user does not return to the virtual experience and does not leave the virtual experience. 8. The program according to any one of items 7. 前記取り外し動作が検出された場合に、前記画像表示装置に関連付けられる音声出力装置及び画像出力装置のうちの少なくとも1つに、前記仮想体験からの正常離脱を促す出力を行わせるステップ
を含む、請求項1から8のいずれか1項に記載のプログラム。
And a step of causing at least one of an audio output device and an image output device associated with the image display device to perform an output for encouraging normal departure from the virtual experience when the removal operation is detected. Item 9. The program according to any one of Items 1 to 8.
第1ユーザの頭部に関連付けられた画像表示装置を介して、前記第1ユーザを含む複数のユーザが参加する仮想空間での仮想体験を前記第1ユーザに提供するためのコンピュータであって、
前記コンピュータが備えるプロセッサによる制御により、
前記仮想空間を定義するステップと、
前記画像表示装置を介して前記仮想空間を前記第1ユーザに提供するステップと、
前記画像表示装置を前記第1ユーザが取り外す取り外し動作を検出するステップと、
前記取り外し動作が検出された場合に、前記仮想体験を終了するか否かの入力を促すUI(User Interface)を前記画像表示装置に出力させるステップと
が実行される、コンピュータ。
A computer for providing the first user with a virtual experience in a virtual space in which a plurality of users including the first user participate via an image display device associated with the head of the first user,
By control by a processor included in the computer,
Defining the virtual space;
Providing the virtual space to the first user via the image display device;
Detecting a removal operation in which the first user removes the image display device;
And a step of causing the image display device to output a UI (User Interface) for prompting an input as to whether or not to end the virtual experience when the removal operation is detected.
第1ユーザの頭部に関連付けられた画像表示装置を介して、前記第1ユーザを含む複数のユーザが参加する仮想空間での仮想体験を前記第1ユーザに提供するための、コンピュータにより実行される方法であって、
前記仮想空間を定義するステップと、
前記画像表示装置を介して前記仮想空間を前記第1ユーザに提供するステップと、
前記画像表示装置を前記第1ユーザが取り外す取り外し動作を検出するステップと、
前記取り外し動作が検出された場合に、前記仮想体験を終了するか否かの入力を促すUI(User Interface)を前記画像表示装置に出力させるステップと
を含む、方法。
Executed by a computer for providing the first user with a virtual experience in a virtual space in which a plurality of users including the first user participate via an image display device associated with the head of the first user. It is a method,
Defining the virtual space;
Providing the virtual space to the first user via the image display device;
Detecting a removal operation in which the first user removes the image display device;
Causing the image display device to output a UI (User Interface) that prompts an input as to whether or not to end the virtual experience when the removal operation is detected.
JP2018105456A 2018-05-31 2018-05-31 Program, computer, and method for providing a virtual experience to a user via an image display device Active JP6639563B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018105456A JP6639563B2 (en) 2018-05-31 2018-05-31 Program, computer, and method for providing a virtual experience to a user via an image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018105456A JP6639563B2 (en) 2018-05-31 2018-05-31 Program, computer, and method for providing a virtual experience to a user via an image display device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019232273A Division JP2020064652A (en) 2019-12-24 2019-12-24 Program, computer and method for providing user with virtual experience via image display device

Publications (2)

Publication Number Publication Date
JP2019211868A true JP2019211868A (en) 2019-12-12
JP6639563B2 JP6639563B2 (en) 2020-02-05

Family

ID=68846809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018105456A Active JP6639563B2 (en) 2018-05-31 2018-05-31 Program, computer, and method for providing a virtual experience to a user via an image display device

Country Status (1)

Country Link
JP (1) JP6639563B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021100809A1 (en) 2019-11-22 2021-05-27 キヤノン株式会社 Member for electrophotography, process cartridge, and electrophotographic image forming apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016502201A (en) * 2012-11-29 2016-01-21 マイクロソフト テクノロジー ライセンシング,エルエルシー Resource management for head mounted display
JP2017134601A (en) * 2016-01-27 2017-08-03 株式会社コーエーテクモゲームス Information processing device, setting screen display method, and setting screen display program
JP2017156513A (en) * 2016-03-01 2017-09-07 キヤノン株式会社 Information processor, control method of information processor, and program
KR20170126331A (en) * 2016-05-09 2017-11-17 주식회사 토비스 a control panel possible to communication of game infomation, and a game apparatus having the same
JP2018032384A (en) * 2017-07-18 2018-03-01 株式会社コロプラ Method and device for assisting communication in virtual space and program enabling computer to execute method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016502201A (en) * 2012-11-29 2016-01-21 マイクロソフト テクノロジー ライセンシング,エルエルシー Resource management for head mounted display
JP2017134601A (en) * 2016-01-27 2017-08-03 株式会社コーエーテクモゲームス Information processing device, setting screen display method, and setting screen display program
JP2017156513A (en) * 2016-03-01 2017-09-07 キヤノン株式会社 Information processor, control method of information processor, and program
KR20170126331A (en) * 2016-05-09 2017-11-17 주식회사 토비스 a control panel possible to communication of game infomation, and a game apparatus having the same
JP2018032384A (en) * 2017-07-18 2018-03-01 株式会社コロプラ Method and device for assisting communication in virtual space and program enabling computer to execute method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021100809A1 (en) 2019-11-22 2021-05-27 キヤノン株式会社 Member for electrophotography, process cartridge, and electrophotographic image forming apparatus

Also Published As

Publication number Publication date
JP6639563B2 (en) 2020-02-05

Similar Documents

Publication Publication Date Title
JP6257827B1 (en) Method, program, and information processing apparatus executed by computer to provide virtual space
JP6290467B1 (en) Information processing method, apparatus, and program causing computer to execute information processing method
JP2018190336A (en) Method for providing virtual space, program for executing method in computer, information processing unit for executing program
JP6257826B1 (en) Method, program, and information processing apparatus executed by computer to provide virtual space
JP2019000174A (en) Information processing method, program, and computer
JP2018089228A (en) Information processing method, apparatus, and program for implementing that information processing method on computer
JP2018125003A (en) Information processing method, apparatus, and program for implementing that information processing method in computer
JP6513241B1 (en) PROGRAM, INFORMATION PROCESSING DEVICE, AND INFORMATION PROCESSING METHOD
JP6479933B1 (en) Program, information processing apparatus, and method
JP6495398B2 (en) Method and program for providing virtual space, and information processing apparatus for executing the program
JP6457446B2 (en) Method and apparatus for supporting communication in virtual space, and program for causing computer to execute the method
JP6278546B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6250779B1 (en) Method executed by computer to communicate via virtual space, program causing computer to execute the method, and information processing apparatus
JP6639563B2 (en) Program, computer, and method for providing a virtual experience to a user via an image display device
JP6382928B2 (en) Method executed by computer to control display of image in virtual space, program for causing computer to realize the method, and computer apparatus
JP2018170013A (en) Method executed by computer to control display of image in virtual space, program for causing computer to achieve the method, and computer device
JP2018206340A (en) Method which is executed on computer for providing virtual space, program and information processor
JP2018190390A (en) Method for providing virtual space, program for executing method in computer, information processing unit for executing program
JP2018032384A (en) Method and device for assisting communication in virtual space and program enabling computer to execute method
JP2019033906A (en) Information processing method, program, and computer
JP2018092592A (en) Information processing method, apparatus, and program for implementing that information processing method on computer
JP2018101293A (en) Method executed by computer to provide head-mounted device with virtual space, program causing computer to execute the same and computer device
JP2018147375A (en) Information processing method, computer, and program for causing computer to execute the method
JP2019155115A (en) Program, information processor and information processing method
JP2020064652A (en) Program, computer and method for providing user with virtual experience via image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191224

R150 Certificate of patent or registration of utility model

Ref document number: 6639563

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250