JP7041484B2 - Programs, information processing devices, information processing systems, and information processing methods - Google Patents

Programs, information processing devices, information processing systems, and information processing methods Download PDF

Info

Publication number
JP7041484B2
JP7041484B2 JP2017184868A JP2017184868A JP7041484B2 JP 7041484 B2 JP7041484 B2 JP 7041484B2 JP 2017184868 A JP2017184868 A JP 2017184868A JP 2017184868 A JP2017184868 A JP 2017184868A JP 7041484 B2 JP7041484 B2 JP 7041484B2
Authority
JP
Japan
Prior art keywords
user
avatar
hmd
action
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017184868A
Other languages
Japanese (ja)
Other versions
JP2019058324A (en
Inventor
俊己 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2017184868A priority Critical patent/JP7041484B2/en
Priority to US15/908,899 priority patent/US10438394B2/en
Publication of JP2019058324A publication Critical patent/JP2019058324A/en
Application granted granted Critical
Publication of JP7041484B2 publication Critical patent/JP7041484B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本開示は、プログラム、情報処理装置、情報処理システム、および情報処理方法に関する。 The present disclosure relates to programs, information processing devices, information processing systems, and information processing methods.

非特許文献1のように、仮想空間を共有する複数のユーザ間で、仮想手等を用いてボディランゲージを交えたコミュニケーションを楽しむことができるサービスが知られている。 As in Non-Patent Document 1, there is known a service that allows a plurality of users sharing a virtual space to enjoy communication with body language using a virtual hand or the like.

“Social VR Demo - Selfie Stick and 360 Photo Spheres - Oculus”、[online]、平成28年4月13日、Oculus、[平成29年8月10日検索]、インターネット<https://youtu.be/-pumFtAjgLY?t=5>"Social VR Demo --Selfie Stick and 360 Photo Spheres --Oculus", [online], April 13, 2016, Oculus, [Search on August 10, 2017], Internet <https://youtu.be/ -pumFtAjgLY? t = 5 >

しかしながら、上記の非特許文献1のようなサービスにおいては、ユーザの仮想体験を向上させるためには改善の余地がある。 However, in the service as described in Non-Patent Document 1, there is room for improvement in order to improve the virtual experience of the user.

本開示は、ユーザの仮想体験を向上させることを目的とする。 The present disclosure is intended to improve the virtual experience of the user.

本開示が示すプログラムの一態様によれば、
ユーザに仮想体験を提供するためのコンピュータに、
前記ユーザの身体の一部の動きに応じて、仮想空間内で操作オブジェクトを動かすステップと、
前記ユーザとは異なる他のユーザの動きに基づいて前記仮想空間内での動作が制御可能な仮想オブジェクトに対して、前記操作オブジェクトによる第1アクションを実行するステップと、
前記第1アクションの実行に基づいて、前記他のユーザに対する第2アクションを実行するステップと、
を実行させる。
According to one aspect of the program presented in the present disclosure.
On a computer to provide a virtual experience to the user,
The step of moving the operation object in the virtual space according to the movement of a part of the user's body,
A step of executing a first action by the operation object on a virtual object whose operation in the virtual space can be controlled based on the movement of another user different from the user.
A step of executing the second action for the other user based on the execution of the first action, and
To execute.

本開示によれば、ユーザの仮想体験を向上させることができる。 According to the present disclosure, it is possible to improve the virtual experience of the user.

本発明の実施形態(以下、単に本実施形態という。)に係る仮想空間配信システムを示す概略図である。It is a schematic diagram which shows the virtual space distribution system which concerns on embodiment of this invention (hereinafter, simply referred to as this embodiment). ユーザ端末を示す概略図である。It is a schematic diagram which shows the user terminal. HMDを装着したユーザの頭部を示す図である。It is a figure which shows the head of the user who wears an HMD. 制御装置のハードウェア構成を示す図である。It is a figure which shows the hardware configuration of a control device. 視野画像をHMDに表示する処理を示すフローチャートである。It is a flowchart which shows the process of displaying a field of view image on an HMD. 仮想空間の一例を示すxyz空間図である。It is an xyz space diagram which shows an example of a virtual space. 状態(a)は、図6に示す仮想空間のyx平面図である。状態(b)は、図6に示す仮想空間のzx平面図である。The state (a) is a yx plan view of the virtual space shown in FIG. The state (b) is a zx plan view of the virtual space shown in FIG. HMDに表示された視野画像の一例を示す図である。It is a figure which shows an example of the field of view image displayed on the HMD. 図1に示すサーバのハードウェア構成を示す図である。It is a figure which shows the hardware configuration of the server shown in FIG. 状態(a)は、ユーザAに提供される仮想空間を示す図である。状態(b)は、ユーザBに提供される仮想空間を示す図である。The state (a) is a diagram showing a virtual space provided to the user A. The state (b) is a diagram showing a virtual space provided to the user B. ユーザ端末間において各アバターの動きを同期させる処理の一例を説明するためのシーケンス図である。It is a sequence diagram for demonstrating an example of the process of synchronizing the movement of each avatar between user terminals. ユーザAがHMDを取り外した場合における本実施形態に係る情報処理方法を説明するためのフローチャートの一例である。This is an example of a flowchart for explaining the information processing method according to the present embodiment when the user A removes the HMD. 状態(a)は、HMDセンサを用いてユーザAがHMDを取り外したかどうかを判定するための処理を説明するためのフローチャートの一例である。状態(b)は、装着センサを用いてユーザAがHMDを取り外したかどうかを判定するための処理を説明するためのフローチャートの一例である。The state (a) is an example of a flowchart for explaining a process for determining whether or not the user A has removed the HMD by using the HMD sensor. The state (b) is an example of a flowchart for explaining a process for determining whether or not the user A has removed the HMD by using the wearing sensor. 本実施形態に係る情報処理方法を説明するためのユーザBに提供される仮想空間の一例を示す図である。It is a figure which shows an example of the virtual space provided to the user B for explaining the information processing method which concerns on this embodiment. 本実施形態に係る情報処理方法を説明するためのユーザBに提供される仮想空間の他の一例を示す図である。It is a figure which shows another example of the virtual space provided to the user B for explaining the information processing method which concerns on this embodiment. ユーザAがHMDを再び装着した場合における本実施形態に係る情報処理方法を説明するためのフローチャートの一例である。This is an example of a flowchart for explaining the information processing method according to the present embodiment when the user A reattaches the HMD. 本実施形態に係る情報処理方法を説明するためのユーザBに提供される仮想空間の他の一例を示す図である。It is a figure which shows another example of the virtual space provided to the user B for explaining the information processing method which concerns on this embodiment. 変形例1に係る情報処理方法を説明するためのフローチャートの一例である。This is an example of a flowchart for explaining the information processing method according to the first modification. 変形例1に係る情報処理方法を説明するためのユーザBに提供される仮想空間200Bの一例を示す図である。It is a figure which shows an example of the virtual space 200B provided to the user B for explaining the information processing method which concerns on modification 1. FIG. 変形例1に係る情報処理方法を説明するためのユーザBに提供される仮想空間200Bの一例を示す図である。It is a figure which shows an example of the virtual space 200B provided to the user B for explaining the information processing method which concerns on modification 1. FIG. 変形例1に係る情報処理方法を説明するためのユーザAに関連付けられたユーザ端末5の表示例を示す図である。It is a figure which shows the display example of the user terminal 5 associated with the user A for demonstrating the information processing method which concerns on modification 1. FIG. 変形例1に係る情報処理方法を説明するためのユーザBに提供される仮想空間200Bの一例を示す図である。It is a figure which shows an example of the virtual space 200B provided to the user B for explaining the information processing method which concerns on modification 1. FIG. 変形例1に係る情報処理方法を説明するためのユーザBに提供される仮想空間200Bの一例を示す図である。It is a figure which shows an example of the virtual space 200B provided to the user B for explaining the information processing method which concerns on modification 1. FIG. ユーザAが既読情報の受信から一定時間内にHMDを装着していない場合における変形例1に係る情報処理方法を説明するためのフローチャートの一例である。This is an example of a flowchart for explaining the information processing method according to the first modification when the user A does not wear the HMD within a certain period of time after receiving the read information. 変形例2に係る情報処理方法を説明するためのフローチャートの一例である。It is an example of the flowchart for explaining the information processing method which concerns on modification 2. 変形例2に係る情報処理方法を説明するためのユーザBに提供される仮想空間200Bの一例を示す図である。It is a figure which shows an example of the virtual space 200B provided to the user B for explaining the information processing method which concerns on modification 2. FIG. 変形例2に係る情報処理方法を説明するためのユーザBに提供される仮想空間200Bの一例を示す図である。It is a figure which shows an example of the virtual space 200B provided to the user B for explaining the information processing method which concerns on modification 2. FIG. 変形例2に係る情報処理方法を説明するためのユーザBに提供される仮想空間200Bの一例を示す図である。It is a figure which shows an example of the virtual space 200B provided to the user B for explaining the information processing method which concerns on modification 2. FIG.

[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)第1ユーザの頭部に装着される第1ヘッドマウントデバイスを有する第1ユーザ端末と、第2ユーザの頭部に装着される第2ヘッドマウントデバイスを有する第2ユーザ端末と、を備えた仮想空間配信システムにおいてコンピュータによって実行される情報処理方法であって、
前記情報処理方法は、
(a)前記第1ユーザに関連付けられた第1アバターと、前記第2ユーザに関連付けられた第2アバターとを含む仮想空間を規定する仮想空間データを生成するステップと、
(b)前記第2ヘッドマウントデバイスの動きと前記仮想空間データに基づいて、前記第2ヘッドマウントデバイスに表示される視野画像を更新するステップと、
(d)前記第1ユーザが前記第1ヘッドマウントデバイスを装着していないことを示す非装着情報を受信した場合に、前記第1ユーザが前記第1ヘッドマウントデバイスを装着していないことを前記第2ユーザ端末によって前記第2ユーザに提示するステップと、を含む、情報処理方法。
[Explanation of Embodiments Shown in the Present Disclosure]
An outline of the embodiments shown in the present disclosure will be described.
(1) A first user terminal having a first head mount device mounted on the head of a first user and a second user terminal having a second head mount device mounted on the head of a second user. It is an information processing method executed by a computer in a virtual space distribution system provided.
The information processing method is
(A) A step of generating virtual space data defining a virtual space including the first avatar associated with the first user and the second avatar associated with the second user.
(B) A step of updating the field image displayed on the second head mount device based on the movement of the second head mount device and the virtual space data.
(D) When the first user receives the non-wearing information indicating that the first head mount device is not worn, the first user does not wear the first head mount device. An information processing method including a step of presenting to the second user by the second user terminal.

上記方法によれば、第1ユーザが第1ヘッドマウントデバイス(以下、第1HMD)を装着していないことを示す非装着情報が受信された場合に、第2ユーザ端末によって第1ユーザが第1HMDを装着していないことが第2ユーザに提示される。このように、第2ユーザは、仮想空間上において第1ユーザとコミュニケーションを行っているときに、第1ユーザが第1HMDを装着していないことを容易に把握することができる。従って、ユーザにリッチな仮想体験を提供することができる。 According to the above method, when the non-wearing information indicating that the first user is not wearing the first head mount device (hereinafter referred to as the first HMD) is received, the first user is the first HMD by the second user terminal. It is presented to the second user that the device is not worn. In this way, the second user can easily grasp that the first user is not wearing the first HMD while communicating with the first user in the virtual space. Therefore, it is possible to provide the user with a rich virtual experience.

特に、第2ユーザは、第1ユーザが第1HMDを装着していないことを把握してなければ、リアクションを示さない第1ユーザに対して違和感を抱く場合がある。このように、第1ユーザが第1HMDを装着していないことを第2ユーザに把握させることで、第2ユーザがリアクションを示さない第1ユーザに対して違和感を抱くといった状況を回避することが可能となる。 In particular, the second user may feel uncomfortable with the first user who does not show a reaction unless he / she knows that the first user is not wearing the first HMD. In this way, by letting the second user know that the first user is not wearing the first HMD, it is possible to avoid a situation in which the second user feels uncomfortable with the first user who does not show a reaction. It will be possible.

(2)前記ステップ(d)は、
前記非装着情報を受信した場合に、前記第1ユーザが前記第1ヘッドマウントデバイスを装着していないことを前記第2ヘッドマウントデバイスに表示される視野画像上において可視化するステップを含む、項目(1)に記載の情報処理方法。
(2) The step (d) is
An item (including a step of visualizing on a field image displayed on the second head mount device that the first user is not wearing the first head mount device when the non-wearing information is received. The information processing method described in 1).

上記方法によれば、第1ユーザが第1ヘッドマウントデバイス(第1HMD)を装着していないことを示す非装着情報が受信された場合に、第1ユーザが第1HMDを装着していないことを示す情報が第2ヘッドマウントデバイス(第2HMD)に表示される視野画像上において可視化される。このように、第2ユーザは、仮想空間上において第1ユーザとコミュニケーションを行っているときに、第2HMDを通じて第1ユーザが第1HMDを装着していないことを示す情報を視認することで、第1ユーザが第1HMDを装着していないことを容易に把握することができる。 According to the above method, when the non-wearing information indicating that the first user is not wearing the first head mount device (first HMD) is received, the first user is not wearing the first HMD. The information shown is visualized on the field image displayed on the second head mount device (second HMD). In this way, when the second user is communicating with the first user in the virtual space, the second user visually recognizes the information indicating that the first user is not wearing the first HMD through the second HMD. It can be easily grasped that one user does not wear the first HMD.

(3)(e)前記第1アバターの顔の表情を示す顔情報を受信した場合に、前記顔情報に基づいて、前記第1アバターの顔の表情を更新するステップをさらに含み、
前記ステップ(d)は、
前記非装着情報を受信した場合に、表情が第1の態様に設定された第1アバターを前記第2ヘッドマウントデバイスに表示される視野画像上において可視化するステップを含む、項目(1)又は(2)に記載の情報処理方法。
(3) (e) Further includes a step of updating the facial expression of the first avatar based on the facial information when the facial information indicating the facial expression of the first avatar is received.
The step (d) is
Item (1) or (including the step of visualizing the first avatar whose facial expression is set in the first aspect on the field image displayed on the second head mount device when the non-wearing information is received. The information processing method described in 2).

上記方法によれば、第1ユーザが第1ヘッドマウントデバイス(第1HMD)を装着していないことを示す非装着情報が受信された場合に、表情が第1の態様に設定された第1アバターが第2ヘッドマウントデバイス(第2HMD)に表示される視野画像上において可視化される。このように、第2ユーザは、仮想空間上において第1ユーザとコミュニケーションを行っているときに、第1アバターの顔の表情が所定の表情となっていることを視認することで、第1ユーザが第1HMDを装着していないことを容易に把握することができる。 According to the above method, when the non-wearing information indicating that the first user is not wearing the first head mount device (first HMD) is received, the first avatar whose facial expression is set to the first aspect is received. Is visualized on the field image displayed on the second head mount device (second HMD). In this way, when the second user is communicating with the first user in the virtual space, the first user visually recognizes that the facial expression of the first avatar is a predetermined facial expression. Can easily grasp that the first HMD is not attached.

特に、第1ユーザが第1HMDを装着していない場合には、第1アバターの顔の表情が全く更新されない。このため、第2ユーザは、第1ユーザが第1HMDを装着していないことを把握してなければ、第1ユーザに対して違和感を抱く場合がある。このように、第1ユーザが第1HMDを装着していないことを第2ユーザに把握させることで、第2ユーザがリアクションを示さない第1ユーザに対して違和感を抱くといった状況を回避することが可能となる。 In particular, when the first user does not wear the first HMD, the facial expression of the first avatar is not updated at all. Therefore, the second user may feel uncomfortable with the first user unless he / she knows that the first user is not wearing the first HMD. In this way, by letting the second user know that the first user is not wearing the first HMD, it is possible to avoid a situation in which the second user feels uncomfortable with the first user who does not show a reaction. It will be possible.

(4)前記第1の態様は、デフォルト設定された前記第1アバターの顔の表情である、項目(3)に記載の情報処理方法。 (4) The information processing method according to item (3), wherein the first aspect is a facial expression of the first avatar set by default.

上記方法によれば、第1ユーザが第1ヘッドマウントデバイス(第1HMD)を装着していないことを示す非装着情報が受信された場合に、第1アバターの顔の表情がデフォルト設定された第1アバターの顔の表情となる。このように、第2ユーザは、仮想空間上において第1ユーザとコミュニケーションを行っているときに、第1アバターの顔の表情がデフォルト設定された顔の表情になっていることを視認することで、第1ユーザが第1HMDを装着していないことを容易に把握することができる。 According to the above method, when the non-wearing information indicating that the first user is not wearing the first head mount device (first HMD) is received, the facial expression of the first avatar is set by default. 1 It becomes the facial expression of the avatar. In this way, the second user visually recognizes that the facial expression of the first avatar is the default facial expression when communicating with the first user in the virtual space. , It can be easily grasped that the first user does not wear the first HMD.

(5)前記第1の態様は、前記第1ユーザが前記第1ヘッドマウントデバイスを装着していないことを示す態様として予め選択された表情である、項目(3)に記載の情報処理方法。 (5) The information processing method according to item (3), wherein the first aspect is a facial expression selected in advance as an aspect indicating that the first user is not wearing the first head mount device.

上記方法によれば、第1ユーザが第1ヘッドマウントデバイス(第1HMD)を装着していないことを示す非装着情報が受信された場合に、第1アバターの顔の表情が第1ユーザが第1ヘッドマウントデバイスを装着していないことを示す態様として第1ユーザによって予め選択された表情(以下、選択表情という。)に設定される。このように、第2ユーザは、仮想空間上において第1ユーザとコミュニケーションを行っているときに、第1アバターの顔の表情が選択表情になっていることを視認することで、第1ユーザが第1HMDを装着していないことを容易に把握することができる。 According to the above method, when the non-wearing information indicating that the first user is not wearing the first head mount device (first HMD) is received, the facial expression of the first avatar is the first user. 1 The facial expression selected in advance by the first user (hereinafter referred to as a selected facial expression) is set as an embodiment indicating that the head mount device is not attached. In this way, when the second user is communicating with the first user in the virtual space, the first user visually recognizes that the facial expression of the first avatar is the selected facial expression, so that the first user can use it. It can be easily grasped that the first HMD is not attached.

(6)前記第1ユーザ端末は、前記第1ユーザが前記第1ヘッドマウントデバイスを装着しているかどうかを検出するように構成された装着センサをさらに備え、
前記第1ユーザが前記第1ヘッドマウントデバイスを装着していないことを前記装着センサが検出した場合に、前記第1ユーザ端末は、前記非装着情報を出力し、前記第2ユーザ端末は、出力された前記非装着情報を前記第1ユーザ端末から受信する、項目(1)から(5)のうちいずれか一項に記載の情報処理方法。
(6) The first user terminal further includes a mounting sensor configured to detect whether or not the first user is wearing the first head mount device.
When the mounting sensor detects that the first user is not wearing the first head mount device, the first user terminal outputs the non-wearing information, and the second user terminal outputs the non-wearing information. The information processing method according to any one of items (1) to (5), wherein the non-wearing information is received from the first user terminal.

上記方法によれば、第1ユーザ端末の装着センサから送信された情報に応じて、第1ユーザが第1ヘッドマウントデバイス(第1HMD)を装着していないことが特定される。その後、第1ユーザが第1HMDを装着していないことを示す非装着情報が送信される。このように、第1ユーザ端末の装着センサから出力された情報に応じて、第1ユーザが第1HMDを装着していないことを自動的に特定することが可能となる。 According to the above method, it is specified that the first user is not wearing the first head mount device (first HMD) according to the information transmitted from the wearing sensor of the first user terminal. After that, non-wearing information indicating that the first user is not wearing the first HMD is transmitted. In this way, it is possible to automatically identify that the first user is not wearing the first HMD according to the information output from the wearing sensor of the first user terminal.

(7)(f)前記第1ヘッドマウントデバイスが前記第1ユーザから取り外された後に再び装着されたことを示す装着情報を受信した場合、前記第1ユーザが前記第1ヘッドマウントデバイスを装着していることを前記第2ユーザ端末によって前記第2ユーザに提示するステップをさらに含む、項目(1)から(6)のうちいずれか一項に記載の情報処理方法。 (7) (f) When the first user receives the mounting information indicating that the first head mount device has been removed from the first user and then mounted again, the first user wears the first head mount device. The information processing method according to any one of items (1) to (6), further comprising a step of presenting the information processing to the second user by the second user terminal.

上記方法によれば、第1ヘッドマウントデバイス(第1HMD)が第1ユーザから取り外された後に再び装着されたことを示す装着情報が受信された場合、第2ユーザ端末によって第1ユーザが第1HMDを装着していることが第2ユーザに提示される。このように、第2ユーザは、第1ユーザが第1HMDを再び装着したことを容易に把握することができる。従って、ユーザにリッチな仮想体験を提供することができる。 According to the above method, when the mounting information indicating that the first head mount device (first HMD) has been removed from the first user and then mounted again is received, the first user is sent to the first HMD by the second user terminal. Is presented to the second user. In this way, the second user can easily know that the first user has reattached the first HMD. Therefore, it is possible to provide the user with a rich virtual experience.

(8)項目(1)から(7)のうちいずれか一項に記載の情報処理方法をコンピュータに実行させるためのプログラム。 (8) A program for causing a computer to execute the information processing method according to any one of items (1) to (7).

上記プログラムによれば、ユーザにリッチな仮想体験を提供することができる。 According to the above program, a rich virtual experience can be provided to the user.

(9)第1ユーザの頭部に装着される第1ヘッドマウントデバイスを有する第1ユーザ端末と、第2ユーザの頭部に装着される第2ヘッドマウントデバイスを有する第2ユーザ端末と、を備え、項目(1)から(7)のうちいずれか一項に記載の情報処理方法を実行するように構成された、仮想空間配信システム。 (9) A first user terminal having a first head mount device mounted on the head of a first user and a second user terminal having a second head mount device mounted on the head of a second user. A virtual space distribution system configured to execute the information processing method according to any one of items (1) to (7).

上記仮想空間配信システムによれば、ユーザにリッチな仮想体験を提供することができる。 According to the virtual space distribution system, it is possible to provide a rich virtual experience to the user.

(10)プロセッサと、
コンピュータ可読命令を記憶するメモリと、を備えた装置であって、
前記コンピュータ可読命令が前記プロセッサにより実行されると、前記装置は項目(1)から(7)のうちいずれか一項に記載の情報処理方法を実行する、装置。
(10) Processor and
A device equipped with a memory for storing computer-readable instructions.
A device that, when the computer-readable instruction is executed by the processor, executes the information processing method according to any one of items (1) to (7).

上記装置によれば、ユーザにリッチな仮想体験を提供することができる。 According to the above device, it is possible to provide a rich virtual experience to the user.

(11)ユーザに仮想体験を提供するためのコンピュータに、
前記ユーザの身体の一部の動きに応じて、仮想空間内で操作オブジェクトを動かすステップと、
前記ユーザとは異なる他のユーザの動きに基づいて前記仮想空間内での動作が制御可能な仮想オブジェクトに対して、前記操作オブジェクトによる第1アクションを実行するステップと、
前記第1アクションの実行に基づいて、前記他のユーザに対する第2アクションを実行するステップと、
を実行させるための、プログラム。
(11) A computer for providing a virtual experience to the user
The step of moving the operation object in the virtual space according to the movement of a part of the user's body,
A step of executing a first action by the operation object on a virtual object whose operation in the virtual space can be controlled based on the movement of another user different from the user.
A step of executing the second action for the other user based on the execution of the first action, and
A program to execute.

上記プログラムによれば、ユーザの仮想体験を向上させることができる。特に、操作オブジェクトを用いた直感的な操作により仮想空間を共有する複数のユーザ間でアクションを実行することで、仮想空間におけるコミュニケーションを、没入感を損なうことなく円滑に行うことができる。 According to the above program, the virtual experience of the user can be improved. In particular, by executing an action among a plurality of users who share a virtual space by intuitive operation using an operation object, communication in the virtual space can be smoothly performed without impairing the immersive feeling.

(12)前記他のユーザにより前記仮想オブジェクトが制御されていない状態において前記第1アクションが実行された場合に、前記第2アクションを実行する、項目(11)に記載のプログラム。 (12) The program according to item (11), which executes the second action when the first action is executed in a state where the virtual object is not controlled by the other user.

上記プログラムによれば、制御されていない状態の仮想オブジェクトに対して第2アクションを実行することで、他のユーザを仮想空間へ誘引させることができる。 According to the above program, another user can be attracted to the virtual space by executing the second action on the virtual object in the uncontrolled state.

(13)前記第1アクションは、前記操作オブジェクトの反復運動の過程で前記仮想オブジェクトに接触する動作を含む、項目(11)または(12)に記載のプログラム。 (13) The program according to item (11) or (12), wherein the first action includes an action of touching the virtual object in the process of repetitive motion of the operation object.

(14)前記第1アクションは、一定値以上の加速度での前記反復運動の過程における前記仮想オブジェクトへの接触動作を含む、項目(13)に記載のプログラム。 (14) The program according to item (13), wherein the first action includes a contact operation with the virtual object in the process of the repetitive motion at an acceleration of a certain value or more.

(15)前記第1アクションは、前記仮想オブジェクトに関連付けられた相対座標を一定時間内に所定の回数以上通過する動作を含む、項目(13)または(14)に記載のプログラム。 (15) The program according to item (13) or (14), wherein the first action includes an action of passing through relative coordinates associated with the virtual object a predetermined number of times or more within a certain period of time.

これらのプログラムによれば、誤って操作オブジェクトが仮想オブジェクトに接触してしまった場合を勘案しないことで、操作オブジェクトの動作の誤検知を防止することができる。 According to these programs, it is possible to prevent erroneous detection of the operation of the operation object by not considering the case where the operation object accidentally touches the virtual object.

(16)前記第2アクションは、前記他のユーザの前記仮想空間への参加を促す通知を含む、項目(11)から(15)のいずれかに記載のプログラム。 (16) The program according to any one of items (11) to (15), wherein the second action includes a notification for encouraging the other user to participate in the virtual space.

上記プログラムによれば、仮想空間を共有する他のユーザに対して、例えばマルチプレイが打診されていることを容易に認識させることができ、マルチプレイの利用を促進させることができる。 According to the above program, it is possible to easily make other users who share the virtual space recognize that, for example, multiplayer is being consulted, and it is possible to promote the use of multiplayer.

(17)前記第2アクションに対するリアクションが行われた場合に、前記仮想オブジェクトを第1状態から第2状態へと遷移させるステップと、
前記第2状態への遷移後に、一定時間内に前記他のユーザにより前記仮想オブジェクトが制御されている状態になった場合には、前記仮想オブジェクトを第3状態へと遷移させるステップと、
をさらに前記コンピュータに実行させるための、項目(16)に記載のプログラム。
(17) A step of transitioning the virtual object from the first state to the second state when a reaction to the second action is performed.
If the virtual object is controlled by the other user within a certain period of time after the transition to the second state, the step of transitioning the virtual object to the third state and the step.
The program according to item (16) for further causing the computer to execute the program.

上記プログラムによれば、他のユーザからリアクションがあったことや、他のユーザにより仮想オブジェクトが制御された状態となったことを、第1アクションを実行したユーザが容易に把握することができる。 According to the above program, the user who has executed the first action can easily grasp that there has been a reaction from another user and that the virtual object has been controlled by the other user.

(18)前記第2状態への遷移後に、一定時間内に前記他のユーザにより前記仮想オブジェクトが制御されている状態にならない場合には、前記仮想オブジェクトを前記第1状態へ戻すステップをさらに前記コンピュータに実行させるための、項目(17)に記載のプログラム。 (18) If the virtual object is not controlled by the other user within a certain period of time after the transition to the second state, the step of returning the virtual object to the first state is further described. The program according to item (17) for causing a computer to execute.

上記プログラムによれば、第2アクションを実行したにも関わらず他のユーザにより仮想オブジェクトが制御されている状態にならないことを、第1アクションを実行したユーザが容易に把握することができる。 According to the above program, the user who executed the first action can easily grasp that the virtual object is not controlled by another user even though the second action is executed.

(19)前記仮想オブジェクトに対する前記第1アクションの動作の強度と前記第1アクションの種類との少なくとも一方に応じて、前記通知の内容が異なっている、項目(16)から(18)のいずれかに記載のプログラム。 (19) Any of items (16) to (18), wherein the content of the notification differs depending on at least one of the intensity of the operation of the first action and the type of the first action with respect to the virtual object. The program described in.

上記方法によれば、他のユーザは、第1アクションを実行したユーザからのマルチプレイの要望度の高低を把握することができ、要望度の高さに応じて仮想空間へ参加するかどうかを決定することができる。 According to the above method, other users can grasp the degree of request for multiplayer from the user who executed the first action, and decide whether to participate in the virtual space according to the degree of request. can do.

(20)前記仮想空間内での動作がコンピュータ制御可能な他の仮想オブジェクトに対し、前記操作オブジェクトにより前記第1アクションを実行するステップと、
前記第1アクションの実行に基づいて、前記仮想空間において提供されるゲームを第1シーンから第2シーンへと遷移させるステップと、
をさらに前記コンピュータに実行させるための、項目(11)から(19)のいずれかに記載のプログラム。
(20) A step of executing the first action by the operation object with respect to another virtual object whose operation in the virtual space can be controlled by a computer.
A step of transitioning the game provided in the virtual space from the first scene to the second scene based on the execution of the first action.
The program according to any one of items (11) to (19) for further causing the computer to execute the program.

上記プログラムによれば、ユーザの仮想空間への没入感を損なわずにゲームを進行させることができる。 According to the above program, the game can be advanced without impairing the user's immersive feeling in the virtual space.

(21)ユーザに仮想体験を提供するための情報処理装置であって、
前記情報処理装置が備えるプロセッサの制御により、
前記ユーザの身体の一部の動きに応じて、仮想空間内で操作オブジェクトを動かすステップと、
前記ユーザとは異なる他のユーザの動きに基づいて前記仮想空間内での動作が制御可能な仮想オブジェクトに対して、前記操作オブジェクトによる第1アクションを実行するステップと、
前記第1アクションの実行に基づいて、前記他のユーザに対する第2アクションを実行するステップと、
が実行される、情報処理装置。
(21) An information processing device for providing a virtual experience to a user.
By controlling the processor included in the information processing device
The step of moving the operation object in the virtual space according to the movement of a part of the user's body,
A step of executing a first action by the operation object on a virtual object whose operation in the virtual space can be controlled based on the movement of another user different from the user.
A step of executing the second action for the other user based on the execution of the first action, and
Is executed, an information processing device.

上記情報処理装置によれば、ユーザの仮想体験を向上させることができる。 According to the information processing device, the virtual experience of the user can be improved.

(22)ユーザに仮想体験を提供するための情報処理システムであって、
前記情報処理システムが備える複数のプロセッサの制御により、
前記ユーザの身体の一部の動きに応じて、仮想空間内で操作オブジェクトを動かすステップと、
前記ユーザとは異なる他のユーザの動きに基づいて前記仮想空間内での動作が制御可能な仮想オブジェクトに対して、前記操作オブジェクトによる第1アクションを実行するステップと、
前記第1アクションの実行に基づいて、前記他のユーザに対する第2アクションを実行するステップと、
が実行される、情報処理システム。
(22) An information processing system for providing a virtual experience to a user.
By controlling a plurality of processors included in the information processing system
The step of moving the operation object in the virtual space according to the movement of a part of the user's body,
A step of executing a first action by the operation object on a virtual object whose operation in the virtual space can be controlled based on the movement of another user different from the user.
A step of executing the second action for the other user based on the execution of the first action, and
Is executed, an information processing system.

上記情報処理システムによれば、ユーザの仮想体験を向上させることができる。 According to the above information processing system, the virtual experience of the user can be improved.

(23)ユーザに仮想体験を提供するためにコンピュータによって実行される情報処理方法であって、
前記ユーザの身体の一部の動きに応じて、仮想空間内で操作オブジェクトを動かすステップと、
前記ユーザとは異なる他のユーザの動きに基づいて前記仮想空間内での動作が制御可能な仮想オブジェクトに対して、前記操作オブジェクトによる第1アクションを実行するステップと、
前記第1アクションの実行に基づいて、前記他のユーザに対する第2アクションを実行するステップと、
を含む、情報処理方法。
(23) An information processing method executed by a computer to provide a virtual experience to a user.
The step of moving the operation object in the virtual space according to the movement of a part of the user's body,
A step of executing a first action by the operation object on a virtual object whose operation in the virtual space can be controlled based on the movement of another user different from the user.
A step of executing the second action for the other user based on the execution of the first action, and
Information processing methods, including.

上記情報処理方法によれば、ユーザの仮想体験を向上させることができる。 According to the above information processing method, the virtual experience of the user can be improved.

(24)ユーザに仮想体験を提供するためのコンピュータに、
仮想空間内で第1アクションを実行するステップと、
前記第1アクションの実行に基づいて、前記ユーザとは異なる他のユーザに対する第2アクションを実行するステップと、
前記第2アクションに対するリアクションに基づいて、前記仮想空間内で第3アクションを実行するステップと、
を実行させるための、プログラム。
(24) On a computer to provide a virtual experience to the user,
The step to execute the first action in the virtual space,
Based on the execution of the first action, a step of executing a second action for a user different from the user, and a step of executing the second action.
A step of executing the third action in the virtual space based on the reaction to the second action, and
A program to execute.

上記プログラムによれば、ユーザの仮想体験を向上させることができる。特に、他のユーザに対して実行される第2アクションに対するリアクションに基づいて仮想空間内で第3アクションを実行することで、現実空間と仮想空間との境界がシームレスとなる新規な仮想体験を提供することができる。 According to the above program, the virtual experience of the user can be improved. In particular, by executing the third action in the virtual space based on the reaction to the second action executed for other users, a new virtual experience is provided in which the boundary between the real space and the virtual space becomes seamless. can do.

(25)前記第1アクションは、前記他のユーザを特定するためのアクションであり、前記第3アクションは、前記仮想空間内において前記他のユーザに関連付けられた仮想オブジェクトが実行するアクションである、項目(24)に記載のプログラム。 (25) The first action is an action for identifying the other user, and the third action is an action executed by a virtual object associated with the other user in the virtual space. The program described in item (24).

上記プログラムによれば、仮想空間を共有する複数のユーザ間でアクションが実行されることで、仮想空間におけるコミュニケーションを円滑に行うことができる。 According to the above program, communication in the virtual space can be smoothly performed by executing an action between a plurality of users who share the virtual space.

(26)前記ユーザの身体の一部の動きに応じて、前記仮想空間内で操作オブジェクトを動かすステップを、さらに前記コンピュータに実行させ、
前記第1アクションは前記操作オブジェクトを用いて実行される、項目(24)または(25)に記載のプログラム。
(26) The computer is further made to perform a step of moving an operation object in the virtual space according to the movement of a part of the user's body.
The program according to item (24) or (25), wherein the first action is executed using the operation object.

上記プログラムによれば、仮想空間を共有する複数のユーザ間で、操作オブジェクトを用いた直感的な操作によりアクションを実行することができ、ユーザの没入感を損なうことない。 According to the above program, actions can be executed by intuitive operations using operation objects among a plurality of users sharing a virtual space, and the user's immersive feeling is not impaired.

(27)前記第2アクションは、前記他のユーザの前記仮想空間への参加を促す通知を含む、項目(24)から(26)のいずれかに記載のプログラム。 (27) The program according to any one of items (24) to (26), wherein the second action includes a notification for encouraging the other user to participate in the virtual space.

上記プログラムによれば、仮想空間を共有する他のユーザに対して、例えばマルチプレイが打診されていることを容易に認識させることができ、マルチプレイの利用を促進させることができる。 According to the above program, it is possible to easily make other users who share the virtual space recognize that, for example, multiplayer is being consulted, and it is possible to promote the use of multiplayer.

(28)前記第3アクションは、前記仮想空間内において前記他のユーザに関連付けられた仮想オブジェクトが実行するアクションを、第1状態から第2状態へと遷移させることを含む、項目(24)から(27)のいずれかに記載のプログラム。 (28) From the item (24), the third action includes transitioning an action executed by a virtual object associated with the other user in the virtual space from the first state to the second state. The program according to any one of (27).

上記方法によれば、他のユーザによるリアクションの有無を、第1アクションを実行したユーザが容易に把握することができる。 According to the above method, the user who has executed the first action can easily grasp whether or not there is a reaction by another user.

(29)ユーザに仮想体験を提供するための情報処理装置であって、
前記情報処理装置が備えるプロセッサの制御により、
仮想空間内で第1アクションを実行するステップと、
前記第1アクションの実行に基づいて、前記ユーザとは異なる他のユーザに対する第2アクションを実行するステップと、
前記第2アクションに対するリアクションに基づいて、前記仮想空間内で第3アクションを実行するステップと、
が実行される、情報処理装置。
(29) An information processing device for providing a virtual experience to a user.
By controlling the processor included in the information processing device
The step to execute the first action in the virtual space,
Based on the execution of the first action, a step of executing a second action for a user different from the user, and a step of executing the second action.
A step of executing the third action in the virtual space based on the reaction to the second action, and
Is executed, an information processing device.

上記情報処理装置によれば、ユーザの仮想体験を向上させることができる。 According to the information processing device, the virtual experience of the user can be improved.

(30)ユーザに仮想体験を提供するための情報処理システムであって、
前記情報処理システムが備える複数のプロセッサの制御により、
仮想空間内で第1アクションを実行するステップと、
前記第1アクションの実行に基づいて、前記ユーザとは異なる他のユーザに対する第2アクションを実行するステップと、
前記第2アクションに対するリアクションに基づいて、前記仮想空間内で第3アクションを実行するステップと、
が実行される、情報処理システム。
(30) An information processing system for providing a virtual experience to a user.
By controlling a plurality of processors included in the information processing system
The step to execute the first action in the virtual space,
Based on the execution of the first action, a step of executing a second action for a user different from the user, and a step of executing the second action.
A step of executing the third action in the virtual space based on the reaction to the second action, and
Is executed, an information processing system.

上記情報処理システムによれば、ユーザの仮想体験を向上させることができる。 According to the above information processing system, the virtual experience of the user can be improved.

(31)ユーザに仮想体験を提供するためにコンピュータによって実行される情報処理方法であって、
仮想空間内で第1アクションを実行するステップと、
前記第1アクションの実行に基づいて、前記ユーザとは異なる他のユーザに対する第2アクションを実行するステップと、
前記第2アクションに対するリアクションに基づいて、前記仮想空間内で第3アクションを実行するステップと、
を含む、情報処理方法。
(31) An information processing method executed by a computer to provide a virtual experience to a user.
The step to execute the first action in the virtual space,
Based on the execution of the first action, a step of executing a second action for a user different from the user, and a step of executing the second action.
A step of executing the third action in the virtual space based on the reaction to the second action, and
Information processing methods, including.

上記情報処理方法によれば、ユーザの仮想体験を向上させることができる。 According to the above information processing method, the virtual experience of the user can be improved.

[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。尚、本実施形態の説明において既に説明された要素と同一の参照番号を有する要素については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Shown in the Present Disclosure]
Hereinafter, embodiments shown in the present disclosure will be described with reference to the drawings. For convenience of explanation, the description of the element having the same reference number as the element already described in the description of the present embodiment will not be repeated.

最初に、仮想空間配信システム100の構成の概略について図1を参照して説明する。図1は、仮想空間配信システム100(以下、単に配信システム100という。)の概略図である。図1に示すように、配信システム100は、ヘッドマウントデバイス(HMD)110(第1HMD)を装着したユーザA(第1ユーザ)によって操作されるユーザ端末1A(第1ユーザ端末)と、HMD110(第2HMD)を装着したユーザB(第2ユーザ)によって操作されるユーザ端末1B(第2ユーザ端末)と、サーバ2とを備える。ユーザ端末1A,1Bは、インターネット等の通信ネットワーク3を介してサーバ2に通信可能に接続されている。尚、本実施形態において、仮想空間とは、VR(Virtual Reality)空間を含むものである。また、以降では、説明の便宜上、各ユーザ端末1A,1Bを単にユーザ端末1と総称する場合がある。さらに、各ユーザA,Bを単にユーザUと総称する場合がある。また、本実施形態では、ユーザ端末1A,1Bは、同一の構成を備えているものとする。 First, the outline of the configuration of the virtual space distribution system 100 will be described with reference to FIG. FIG. 1 is a schematic diagram of a virtual space distribution system 100 (hereinafter, simply referred to as a distribution system 100). As shown in FIG. 1, the distribution system 100 includes a user terminal 1A (first user terminal) operated by a user A (first user) equipped with a head-mounted device (HMD) 110 (first HMD), and an HMD 110 (first user terminal). It includes a user terminal 1B (second user terminal) operated by a user B (second user) equipped with a second HMD), and a server 2. The user terminals 1A and 1B are communicably connected to the server 2 via a communication network 3 such as the Internet. In the present embodiment, the virtual space includes a VR (Virtual Reality) space. In the following, for convenience of explanation, the user terminals 1A and 1B may be collectively referred to as the user terminal 1. Further, each user A and B may be collectively referred to as a user U. Further, in the present embodiment, it is assumed that the user terminals 1A and 1B have the same configuration.

次に、図2を参照してユーザ端末1の構成について説明する。図2は、ユーザ端末1を示す概略図である。図2に示すように、ユーザ端末1は、ユーザUの頭部に装着されたヘッドマウントデバイス(HMD)110と、ヘッドフォン116と、フェイスカメラ117と、マイク118と、位置センサ130と、外部コントローラ320と、制御装置120とを備える。 Next, the configuration of the user terminal 1 will be described with reference to FIG. FIG. 2 is a schematic view showing a user terminal 1. As shown in FIG. 2, the user terminal 1 includes a head-mounted device (HMD) 110 mounted on the head of the user U, a headphone 116, a face camera 117, a microphone 118, a position sensor 130, and an external controller. It includes 320 and a control device 120.

HMD110は、表示部112と、HMDセンサ114と、注視センサ140と、フェイスカメラ113と、装着センサ115とを備えている。表示部112は、HMD110を装着したユーザUの視界(視野)を完全に覆うように構成された非透過型の表示装置を備えている。これにより、ユーザUは、表示部112に表示された視野画像のみを見ることで仮想空間に没入することができる。尚、表示部112は、ユーザUの左目に画像を提供するように構成された左目用表示部と、ユーザUの右目に画像を提供するように構成された右目用表示部とから構成されてもよい。また、HMD110は、透過型の表示装置を備えてもよい。この場合、透過型の表示装置は、その透過率を調整することで、一時的に非透過型の表示装置として構成されてもよい。 The HMD 110 includes a display unit 112, an HMD sensor 114, a gaze sensor 140, a face camera 113, and a mounting sensor 115. The display unit 112 includes a non-transparent display device configured to completely cover the field of view (field of view) of the user U wearing the HMD 110. As a result, the user U can immerse himself in the virtual space by seeing only the visual field image displayed on the display unit 112. The display unit 112 includes a left-eye display unit configured to provide an image to the left eye of the user U, and a right-eye display unit configured to provide an image to the right eye of the user U. May be good. Further, the HMD 110 may be provided with a transmissive display device. In this case, the transmissive display device may be temporarily configured as a non-transparent display device by adjusting its transmittance.

HMDセンサ114は、HMD110の表示部112の近傍に搭載される。HMDセンサ114は、地磁気センサ、加速度センサ、傾きセンサ(角速度センサやジャイロセンサ等)のうちの少なくとも1つを含み、ユーザUの頭部に装着されたHMD110の各種動き(傾き等)を検出することができる。 The HMD sensor 114 is mounted in the vicinity of the display unit 112 of the HMD 110. The HMD sensor 114 includes at least one of a geomagnetic sensor, an acceleration sensor, and a tilt sensor (angular velocity sensor, gyro sensor, etc.), and detects various movements (tilts, etc.) of the HMD 110 mounted on the head of the user U. be able to.

注視センサ140は、ユーザUの視線を検出するアイトラッキング機能を有する。注視センサ140は、例えば、右目用注視センサと、左目用注視センサを備えてもよい。右目用注視センサは、ユーザUの右目に例えば赤外光を照射して、右目(特に、角膜や虹彩)から反射された反射光を検出することで、右目の眼球の回転角に関する情報を取得してもよい。一方、左目用注視センサは、ユーザUの左目に例えば赤外光を照射して、左目(特に、角膜や虹彩)から反射された反射光を検出することで、左目の眼球の回転角に関する情報を取得してもよい。 The gaze sensor 140 has an eye tracking function for detecting the line of sight of the user U. The gaze sensor 140 may include, for example, a gaze sensor for the right eye and a gaze sensor for the left eye. The gaze sensor for the right eye acquires information on the angle of rotation of the eyeball of the right eye by irradiating the user U's right eye with, for example, infrared light and detecting the reflected light reflected from the right eye (particularly the cornea or iris). You may. On the other hand, the gaze sensor for the left eye irradiates the left eye of the user U with infrared light, for example, and detects the reflected light reflected from the left eye (particularly the cornea or the iris) to obtain information on the angle of rotation of the eyeball of the left eye. May be obtained.

フェイスカメラ113は、HMD110がユーザUに装着された状態でユーザUの目(左目と右目)とまゆげ(左まゆげと右まゆげ)が表示された画像(特に、動画像)を取得するように構成されている。フェイスカメラ113は、ユーザUの目とまゆげを撮像可能なようにHMD110の内側の所定箇所に配置されている。フェイスカメラ113によって取得される動画像のフレームレートは、HMD110に表示される視野画像(後述する)のフレームレートよりも大きくてもよい。 The face camera 113 is configured to acquire an image (particularly a moving image) in which the eyes (left eye and right eye) and eyebrows (left eyebrows and right eyebrows) of the user U are displayed while the HMD 110 is attached to the user U. Has been done. The face camera 113 is arranged at a predetermined position inside the HMD 110 so that the eyes and eyebrows of the user U can be imaged. The frame rate of the moving image acquired by the face camera 113 may be larger than the frame rate of the field image (described later) displayed on the HMD 110.

装着センサ115は、ユーザUがHMD110を装着しているかどうかを示すためのイベント情報を生成するように構成されている。具体的には、ユーザUがHMD110を取り外したときに(HMD110の状態が装着状態から非装着状態に遷移したときに)、装着センサ115は、イベント情報を生成した上で、当該イベント情報を制御装置120に送信する。また、ユーザUがHMD110を装着したときに(HMD110の状態が非装着状態から装着状態に遷移したときに)、装着センサ115は、イベント情報を生成した上で、当該イベント情報を制御装置120に送信する。また、装着センサ115の構成は特に限定されない。例えば、ユーザUがHMD110を装着したときに、HMD110に設けられたバネの弾性力が変化すると仮定する。この場合、装着センサ115は、このバネの弾性力の変化に基づいて、イベント情報を生成してもよい。さらに、ユーザUがHMD110を装着したときに、HMD110に設けられた身体の一部(鼻部分)に接触する2つのパッド間を流れる電流が変化すると仮定する。この場合、装着センサ115は、この2つのパッド間を流れる電流の変化に基づいて、イベント情報を生成してもよい。 The mounting sensor 115 is configured to generate event information to indicate whether the user U is wearing the HMD 110. Specifically, when the user U removes the HMD 110 (when the state of the HMD 110 changes from the mounted state to the non-mounted state), the mounting sensor 115 generates event information and then controls the event information. It is transmitted to the device 120. Further, when the user U wears the HMD 110 (when the state of the HMD 110 changes from the non-wearing state to the wearing state), the mounting sensor 115 generates event information and then transfers the event information to the control device 120. Send. Further, the configuration of the mounting sensor 115 is not particularly limited. For example, it is assumed that the elastic force of the spring provided in the HMD 110 changes when the user U wears the HMD 110. In this case, the mounting sensor 115 may generate event information based on the change in the elastic force of the spring. Further, it is assumed that when the user U wears the HMD 110, the current flowing between the two pads in contact with a part of the body (nose portion) provided on the HMD 110 changes. In this case, the mounting sensor 115 may generate event information based on the change in the current flowing between the two pads.

ヘッドフォン116(音声出力部)は、ユーザUの左耳と右耳にそれぞれ装着されている。ヘッドフォン116は、制御装置120から音声データ(電気信号)を受信し、当該受信した音声データに基づいて音声を出力するように構成されている。マイク118(音声入力部)は、ユーザUから発声された音声を収集し、当該収集された音声に基づいて音声データ(電気信号)を生成するように構成されている。さらに、マイク118は、音声データを制御装置120に送信するように構成されている。 The headphone 116 (audio output unit) is attached to the left ear and the right ear of the user U, respectively. The headphone 116 is configured to receive voice data (electrical signal) from the control device 120 and output voice based on the received voice data. The microphone 118 (voice input unit) is configured to collect voice uttered by the user U and generate voice data (electrical signal) based on the collected voice. Further, the microphone 118 is configured to transmit voice data to the control device 120.

フェイスカメラ117は、ユーザUの口及びその周辺が表示された画像(特に、動画像)を取得するように構成されている。フェイスカメラ117は、ユーザUの口及びその周辺を撮像可能なようにユーザUの口に対向する位置に配置されてもよい。また、フェイスカメラ117は、HMD110と連結されていてもよい。フェイスカメラ117によって取得される動画像のフレームレートは、HMD110に表示される視野画像のフレームレートよりも大きくてもよい。 The face camera 117 is configured to acquire an image (particularly, a moving image) in which the mouth of the user U and its surroundings are displayed. The face camera 117 may be arranged at a position facing the mouth of the user U so that the mouth of the user U and its surroundings can be imaged. Further, the face camera 117 may be connected to the HMD 110. The frame rate of the moving image acquired by the face camera 117 may be larger than the frame rate of the field image displayed on the HMD 110.

位置センサ130は、例えば、ポジション・トラッキング・カメラにより構成され、HMD110と外部コントローラ320の位置を検出するように構成されている。位置センサ130は、制御装置120に無線又は有線により通信可能に接続されており、HMD110に設けられた図示しない複数の検知点の位置、傾き又は発光強度に関する情報を検出するように構成されている。さらに、位置センサ130は、外部コントローラ320に設けられた図示しない複数の検知点の位置、傾き及び/又は発光強度に関する情報を検出するように構成されている。検知点は、例えば、赤外線や可視光を放射する発光部である。また、位置センサ130は、赤外線センサや複数の光学カメラを含んでもよい。 The position sensor 130 is configured, for example, by a position tracking camera and is configured to detect the positions of the HMD 110 and the external controller 320. The position sensor 130 is wirelessly or wiredly connected to the control device 120 and is configured to detect information regarding the position, inclination, or emission intensity of a plurality of detection points (not shown) provided on the HMD 110. .. Further, the position sensor 130 is configured to detect information regarding the positions, tilts and / or emission intensities of a plurality of detection points (not shown) provided on the external controller 320. The detection point is, for example, a light emitting unit that emits infrared rays or visible light. Further, the position sensor 130 may include an infrared sensor and a plurality of optical cameras.

外部コントローラ320は、ユーザUの身体の一部(頭部以外の部位であり、本実施形態においてはユーザUの手)の動きを検知することにより、仮想空間内に表示されるアバターの手の動作を制御するために使用される。外部コントローラ320は、ユーザUの右手によって操作される右手用外部コントローラ320R(以下、単にコントローラ320Rという。)と、ユーザUの左手によって操作される左手用外部コントローラ320L(以下、単にコントローラ320Lという。)と、を有する。コントローラ320Rは、ユーザUの右手の位置や右手の手指の動きを示す装置である。また、コントローラ320Rの動きに応じて仮想空間内に存在するアバターの右手が動く。コントローラ320Lは、ユーザUの左手の位置や左手の手指の動きを示す装置である。また、コントローラ320Lの動きに応じて仮想空間内に存在するアバターの左手が動く。 The external controller 320 detects the movement of a part of the body of the user U (a part other than the head, and the hand of the user U in this embodiment), so that the hand of the avatar displayed in the virtual space is displayed. Used to control behavior. The external controller 320 is referred to as a right-handed external controller 320R operated by the right hand of the user U (hereinafter, simply referred to as a controller 320R) and a left-handed external controller 320L operated by the left hand of the user U (hereinafter, simply referred to as a controller 320L). ) And. The controller 320R is a device that indicates the position of the right hand of the user U and the movement of the fingers of the right hand. Further, the right hand of the avatar existing in the virtual space moves according to the movement of the controller 320R. The controller 320L is a device that indicates the position of the left hand of the user U and the movement of the fingers of the left hand. Further, the left hand of the avatar existing in the virtual space moves according to the movement of the controller 320L.

制御装置120は、HMD110を制御するように構成されたコンピュータである。制御装置120は、位置センサ130から取得された情報に基づいて、HMD110の位置情報を特定し、当該特定された位置情報に基づいて、仮想空間における仮想カメラの位置(アバターの位置)と、現実空間におけるHMD110を装着したユーザUの位置を正確に対応付けることができる。さらに、制御装置120は、位置センサ130及び/又は外部コントローラ320に内蔵されたセンサから取得された情報に基づいて、外部コントローラ320の動作を特定し、当該特定された外部コントローラ320の動作に基づいて、仮想空間内に表示されるアバターの手の動作と現実空間における外部コントローラ320の動作を正確に対応付けることができる。特に、制御装置120は、位置センサ130及び/又はコントローラ320Lに内蔵されたセンサから取得された情報に基づいて、コントローラ320Lの動作を特定し、当該特定されたコントローラ320Lの動作に基づいて、仮想空間内に表示されるアバターの左手の動作と現実空間におけるコントローラ320Lの動作(ユーザUの左手の動作)を正確に対応付けることができる。同様に、制御装置120は、位置センサ及び/コントローラ320Rに内蔵されたセンサから取得された情報に基づいて、コントローラ320Rの動作を特定し、当該特定されたコントローラ320Rの動作に基づいて、仮想空間内に表示されるアバターの右手の動作と現実空間におけるコントローラ320Rの動作(ユーザUの右手の動作)を正確に対応付けることができる。 The control device 120 is a computer configured to control the HMD 110. The control device 120 identifies the position information of the HMD 110 based on the information acquired from the position sensor 130, and based on the specified position information, the position of the virtual camera (the position of the avatar) in the virtual space and the reality. The position of the user U wearing the HMD 110 in space can be accurately associated. Further, the control device 120 identifies the operation of the external controller 320 based on the information acquired from the sensor built in the position sensor 130 and / or the external controller 320, and is based on the operation of the specified external controller 320. Therefore, the movement of the avatar's hand displayed in the virtual space can be accurately associated with the movement of the external controller 320 in the real space. In particular, the control device 120 identifies the operation of the controller 320L based on the information acquired from the sensor built in the position sensor 130 and / or the controller 320L, and virtualizes based on the operation of the specified controller 320L. The movement of the left hand of the avatar displayed in the space and the movement of the controller 320L in the real space (the movement of the left hand of the user U) can be accurately associated with each other. Similarly, the control device 120 identifies the operation of the controller 320R based on the information acquired from the position sensor and / the sensor built in the controller 320R, and the virtual space is based on the operation of the specified controller 320R. The movement of the right hand of the avatar displayed inside and the movement of the controller 320R in the real space (the movement of the right hand of the user U) can be accurately associated with each other.

また、制御部121は、フェイスカメラ113,117によって取得された動画像に基づいて、ユーザUの顔の表情(状態)とユーザUのアバターの顔の表情(状態)を対応付けることができる。ユーザUの顔の表情とアバターの顔の表情を互いに対応づける処理の詳細については後述する。 Further, the control unit 121 can associate the facial expression (state) of the user U with the facial expression (state) of the avatar of the user U based on the moving images acquired by the face cameras 113 and 117. The details of the process of associating the facial expression of the user U with the facial expression of the avatar will be described later.

また、制御装置120は、注視センサ140(左目用注視センサと右目用注視センサ)から送信された情報に基づいて、ユーザUの右目の視線と左目の視線をそれぞれ特定し、当該右目の視線と当該左目の視線の交点である注視点を特定することができる。さらに、制御装置120は、特定された注視点に基づいて、ユーザUの両目の視線(ユーザUの視線)を特定することができる。ここで、ユーザUの視線は、ユーザUの両目の視線であって、ユーザUの右目と左目を結ぶ線分の中点と注視点を通る直線の方向に一致する。 Further, the control device 120 identifies the line of sight of the user U's right eye and the line of sight of the left eye based on the information transmitted from the gaze sensor 140 (the gaze sensor for the left eye and the gaze sensor for the right eye), and sets the line of sight of the right eye. The gaze point, which is the intersection of the line of sight of the left eye, can be specified. Further, the control device 120 can specify the line of sight of both eyes of the user U (the line of sight of the user U) based on the specified gaze point. Here, the line of sight of the user U is the line of sight of both eyes of the user U, and coincides with the direction of the straight line passing through the midpoint of the line segment connecting the right eye and the left eye of the user U and the gazing point.

次に、図3を参照して、HMD110の位置や傾きに関する情報を取得する方法について説明する。図3は、HMD110を装着したユーザUの頭部を示す図である。HMD110を装着したユーザUの頭部の動きに連動したHMD110の位置や傾きに関する情報は、位置センサ130及び/又はHMD110に搭載されたHMDセンサ114により検出可能である。図2に示すように、HMD110を装着したユーザUの頭部を中心として、3次元座標(uvw座標)が規定される。ユーザUが直立する垂直方向をv軸として規定し、v軸と直交しHMD110の中心を通る方向をw軸として規定し、v軸およびw軸と直交する方向をu軸として規定する。位置センサ130及び/又はHMDセンサ114は、各uvw軸回りの角度(すなわち、v軸を中心とする回転を示すヨー角、u軸を中心とした回転を示すピッチ角、w軸を中心とした回転を示すロール角で決定される傾き)を検出する。制御装置120は、検出された各uvw軸回りの角度変化に基づいて、仮想カメラの視軸を制御するための角度情報を決定する。 Next, a method of acquiring information regarding the position and inclination of the HMD 110 will be described with reference to FIG. FIG. 3 is a diagram showing the head of the user U wearing the HMD 110. Information regarding the position and tilt of the HMD 110 linked to the movement of the head of the user U wearing the HMD 110 can be detected by the position sensor 130 and / or the HMD sensor 114 mounted on the HMD 110. As shown in FIG. 2, three-dimensional coordinates (uvw coordinates) are defined centering on the head of the user U wearing the HMD 110. The vertical direction in which the user U stands upright is defined as the v-axis, the direction orthogonal to the v-axis and passing through the center of the HMD 110 is defined as the w-axis, and the v-axis and the direction orthogonal to the w-axis are defined as the u-axis. The position sensor 130 and / or the HMD sensor 114 has an angle around each uvw axis (that is, a yaw angle indicating rotation about the v-axis, a pitch angle indicating rotation about the u-axis, and a w-axis as the center. The tilt determined by the roll angle indicating rotation) is detected. The control device 120 determines the angle information for controlling the visual axis of the virtual camera based on the detected angle change around each uvw axis.

次に、図4を参照することで、制御装置120のハードウェア構成について説明する。図4は、制御装置120のハードウェア構成を示す図である。図4に示すように、制御装置120は、制御部121と、記憶部123と、I/O(入出力)インターフェース124と、通信インターフェース125と、バス126とを備える。制御部121と、記憶部123と、I/Oインターフェース124と、通信インターフェース125は、バス126を介して互いに通信可能に接続されている。 Next, the hardware configuration of the control device 120 will be described with reference to FIG. FIG. 4 is a diagram showing a hardware configuration of the control device 120. As shown in FIG. 4, the control device 120 includes a control unit 121, a storage unit 123, an I / O (input / output) interface 124, a communication interface 125, and a bus 126. The control unit 121, the storage unit 123, the I / O interface 124, and the communication interface 125 are communicably connected to each other via the bus 126.

制御装置120は、HMD110とは別体に、パーソナルコンピュータ、スマートフォン、ファブレット、タブレット又はウェアラブルデバイスとして構成されてもよいし、HMD110に内蔵されていてもよい。また、制御装置120の一部の機能がHMD110に搭載されると共に、制御装置120の残りの機能がHMD110とは別体の他の装置に搭載されてもよい。 The control device 120 may be configured as a personal computer, a smartphone, a phablet, a tablet, or a wearable device separately from the HMD 110, or may be built in the HMD 110. Further, a part of the functions of the control device 120 may be mounted on the HMD 110, and the remaining functions of the control device 120 may be mounted on another device separate from the HMD 110.

制御部121は、メモリとプロセッサを備えている。メモリは、例えば、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)及び/又はGPU(Graphics Processing Unit)であって、ROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。 The control unit 121 includes a memory and a processor. The memory is composed of, for example, a ROM (Read Only Memory) in which various programs and the like are stored, a RAM (Random Access Memory) having a plurality of work areas in which various programs and the like executed by the processor are stored, and the like. The processor is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit) and / or a GPU (Graphics Processing Unit), and expands a program specified from various programs embedded in the ROM onto the RAM and develops the RAM. It is configured to execute various processes in collaboration with.

特に、プロセッサが制御プログラムをRAM上に展開し、RAMとの協働で制御プログラムを実行することで、制御部121は、制御装置120の各種動作を制御してもよい。制御部121は、視野画像データに基づいてHMD110の表示部112に視野画像を表示する。これにより、ユーザUは、仮想空間に没入することができる。 In particular, the control unit 121 may control various operations of the control device 120 by the processor deploying the control program on the RAM and executing the control program in cooperation with the RAM. The control unit 121 displays the field of view image on the display unit 112 of the HMD 110 based on the field of view image data. As a result, the user U can immerse himself in the virtual space.

記憶部(ストレージ)123は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、USBフラッシュメモリ等の記憶装置であって、プログラムや各種データを格納するように構成されている。記憶部123は、本実施形態に係る情報処理方法の少なくとも一部をコンピュータに実行させるための制御プログラムや、複数のユーザによる仮想空間の共有を実現するための制御プログラムを格納してもよい。また、記憶部123には、ユーザUの認証プログラムや各種画像やオブジェクト(例えば、アバター等)に関するデータが格納されてもよい。さらに、記憶部123には、各種データを管理するためのテーブルを含むデータベースが構築されてもよい。 The storage unit (storage) 123 is, for example, a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a USB flash memory, and is configured to store programs and various data. The storage unit 123 may store a control program for causing a computer to execute at least a part of the information processing method according to the present embodiment, and a control program for realizing sharing of a virtual space by a plurality of users. Further, the storage unit 123 may store data related to the user U authentication program and various images and objects (for example, an avatar). Further, a database including a table for managing various data may be constructed in the storage unit 123.

I/Oインターフェース124は、HMD110と、位置センサ130と、外部コントローラ320と、ヘッドフォン116と、フェイスカメラ117と、マイク118とをそれぞれ制御装置120に通信可能に接続するように構成されており、例えば、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High―Definition Multimedia Interface)端子等により構成されている。尚、制御装置120は、HMD110と、位置センサ130と、外部コントローラ320と、ヘッドフォン116と、フェイスカメラ117と、マイク118とのそれぞれと無線接続されていてもよい。 The I / O interface 124 is configured to connect the HMD 110, the position sensor 130, the external controller 320, the headphones 116, the face camera 117, and the microphone 118 to the control device 120 so as to be communicable. For example, it is composed of a USB (Universal Serial Bus) terminal, a DVI (Digital Visual Interface) terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) terminal, and the like. The control device 120 may be wirelessly connected to the HMD 110, the position sensor 130, the external controller 320, the headphones 116, the face camera 117, and the microphone 118, respectively.

通信インターフェース125は、制御装置120をLAN(Local Area Network)、WAN(Wide Area Network)又はインターネット等の通信ネットワーク3に接続させるように構成されている。通信インターフェース125は、通信ネットワーク3を介してサーバ2等の外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んでおり、通信ネットワーク3を介して通信するための通信規格に適合するように構成されている。 The communication interface 125 is configured to connect the control device 120 to a communication network 3 such as a LAN (Local Area Network), a WAN (Wide Area Network), or the Internet. The communication interface 125 includes various wired connection terminals for communicating with an external device such as a server 2 via the communication network 3 and various processing circuits for wireless connection, and is for communicating via the communication network 3. It is configured to meet the communication standards of.

次に、図5から図8を参照することで視野画像をHMD110に表示するための処理について説明する。図5は、視野画像をHMD110に表示する処理を示すフローチャートである。図6は、仮想空間200の一例を示すxyz空間図である。図7の状態(a)は、図6に示す仮想空間200のyx平面図である。図7の状態(b)は、図6に示す仮想空間200のzx平面図である。図8は、HMD110に表示された視野画像Vの一例を示す図である。 Next, a process for displaying the field image on the HMD 110 will be described with reference to FIGS. 5 to 8. FIG. 5 is a flowchart showing a process of displaying a field image on the HMD 110. FIG. 6 is an xyz space diagram showing an example of the virtual space 200. The state (a) of FIG. 7 is a yx plan view of the virtual space 200 shown in FIG. The state (b) of FIG. 7 is a zx plan view of the virtual space 200 shown in FIG. FIG. 8 is a diagram showing an example of the field image V displayed on the HMD 110.

図5に示すように、ステップS1において、制御部121(図4参照)は、仮想カメラ300と、各種オブジェクトとを含む仮想空間200を示す仮想空間データを生成する。図6に示すように、仮想空間200は、中心位置210を中心とした全天球として規定される(図6では、上半分の天球のみが図示されている)。また、仮想空間200では、中心位置210を原点とするxyz座標系が設定されている。仮想カメラ300は、HMD110に表示される視野画像V(図8参照)を特定するための視軸Lを規定している。仮想カメラ300の視野を定義するuvw座標系は、現実空間におけるユーザUの頭部を中心として規定されたuvw座標系に連動するように決定される。また、HMD110を装着したユーザUの現実空間における移動に連動して、制御部121は、仮想カメラ300を仮想空間200内で移動させてもよい。 As shown in FIG. 5, in step S1, the control unit 121 (see FIG. 4) generates virtual space data indicating the virtual space 200 including the virtual camera 300 and various objects. As shown in FIG. 6, the virtual space 200 is defined as a spherical image centered on the central position 210 (in FIG. 6, only the upper half of the celestial sphere is shown). Further, in the virtual space 200, an xyz coordinate system with the center position 210 as the origin is set. The virtual camera 300 defines a visual axis L for specifying the visual field image V (see FIG. 8) displayed on the HMD 110. The uvw coordinate system that defines the field of view of the virtual camera 300 is determined to be linked to the uvw coordinate system defined around the head of the user U in the real space. Further, the control unit 121 may move the virtual camera 300 in the virtual space 200 in conjunction with the movement of the user U wearing the HMD 110 in the real space.

次に、ステップS2において、制御部121は、仮想カメラ300の視野CV(図7参照)を特定する。具体的には、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の状態を示すデータに基づいて、HMD110の位置や傾きに関する情報を取得する。次に、制御部121は、HMD110の位置や傾きに関する情報に基づいて、仮想空間200内における仮想カメラ300の位置や向きを特定する。次に、制御部121は、仮想カメラ300の位置や向きから仮想カメラ300の視軸Lを決定し、決定された視軸Lから仮想カメラ300の視野CVを特定する。ここで、仮想カメラ300の視野CVは、HMD110を装着したユーザUが視認可能な仮想空間200の一部の領域に相当する(換言すれば、HMD110に表示される仮想空間200の一部の領域に相当する)。また、視野CVは、図7の状態(a)に示すxy平面において、視軸Lを中心とした極角αの角度範囲として設定される第1領域CVaと、図7の状態(b)に示すxz平面において、視軸Lを中心とした方位角βの角度範囲として設定される第2領域CVbとを有する。尚、制御部121は、注視センサ140から送信されたユーザUの視線を示すデータに基づいてユーザUの視線を特定し、特定されたユーザUの視線とHMD110の位置や傾きに関する情報に基づいて、仮想カメラ300の向き(仮想カメラの視軸L)を決定してもよい。また、後述するように、制御部121は、HMD110の位置や傾きに関する情報に基づいて、ユーザUのアバターの顔の向きを決定してもよい。 Next, in step S2, the control unit 121 specifies the field of view CV (see FIG. 7) of the virtual camera 300. Specifically, the control unit 121 acquires information on the position and inclination of the HMD 110 based on the data indicating the state of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. Next, the control unit 121 specifies the position and orientation of the virtual camera 300 in the virtual space 200 based on the information regarding the position and inclination of the HMD 110. Next, the control unit 121 determines the visual axis L of the virtual camera 300 from the position and orientation of the virtual camera 300, and identifies the visual field CV of the virtual camera 300 from the determined visual axis L. Here, the visual field CV of the virtual camera 300 corresponds to a part of the virtual space 200 that can be visually recognized by the user U wearing the HMD 110 (in other words, a part of the virtual space 200 displayed on the HMD 110). Equivalent to). Further, the visual field CV is set to the first region CVa set as the angle range of the polar angle α about the visual axis L in the xy plane shown in the state (a) of FIG. 7 and the state (b) of FIG. In the xz plane shown, it has a second region CVb set as an angle range of the azimuth angle β about the visual axis L. The control unit 121 identifies the line of sight of the user U based on the data indicating the line of sight of the user U transmitted from the gaze sensor 140, and based on the information regarding the specified line of sight of the user U and the position and inclination of the HMD 110. , The orientation of the virtual camera 300 (the visual axis L of the virtual camera) may be determined. Further, as will be described later, the control unit 121 may determine the orientation of the face of the user U's avatar based on the information regarding the position and inclination of the HMD 110.

このように、制御部121は、位置センサ130及び/又はHMDセンサ114からのデータに基づいて、仮想カメラ300の視野CVを特定することができる。ここで、HMD110を装着したユーザUが動くと、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の動きを示すデータに基づいて、仮想カメラ300の視野CVを更新することができる。つまり、制御部121は、HMD110の動きに応じて、視野CVを更新することができる。同様に、ユーザUの視線が変化すると、制御部121は、注視センサ140から送信されたユーザUの視線を示すデータに基づいて、仮想カメラ300の視野CVを更新してもよい。つまり、制御部121は、ユーザUの視線の変化に応じて、視野CVを変化させてもよい。 In this way, the control unit 121 can specify the field of view CV of the virtual camera 300 based on the data from the position sensor 130 and / or the HMD sensor 114. Here, when the user U equipped with the HMD 110 moves, the control unit 121 updates the field of view CV of the virtual camera 300 based on the data indicating the movement of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. be able to. That is, the control unit 121 can update the visual field CV according to the movement of the HMD 110. Similarly, when the line of sight of the user U changes, the control unit 121 may update the field of view CV of the virtual camera 300 based on the data indicating the line of sight of the user U transmitted from the gaze sensor 140. That is, the control unit 121 may change the visual field CV according to the change in the line of sight of the user U.

次に、ステップS3において、制御部121は、HMD110の表示部112に表示される視野画像Vを示す視野画像データを生成する。具体的には、制御部121は、仮想空間200を規定する仮想空間データと、仮想カメラ300の視野CVとに基づいて、視野画像データを生成する。 Next, in step S3, the control unit 121 generates visual field image data indicating the visual field image V displayed on the display unit 112 of the HMD 110. Specifically, the control unit 121 generates visual field image data based on the virtual space data defining the virtual space 200 and the visual field CV of the virtual camera 300.

次に、ステップS4において、制御部121は、視野画像データに基づいて、HMD110の表示部112に視野画像Vを表示する(図7参照)。このように、HMD110を装着しているユーザUの動きに応じて、仮想カメラ300の視野CVが変化し、HMD110の表示部112に表示される視野画像Vが変化するので、ユーザUは仮想空間200に没入することができる。 Next, in step S4, the control unit 121 displays the visual field image V on the display unit 112 of the HMD 110 based on the visual field image data (see FIG. 7). In this way, the field of view CV of the virtual camera 300 changes according to the movement of the user U wearing the HMD 110, and the field of view image V displayed on the display unit 112 of the HMD 110 changes, so that the user U is in the virtual space. You can immerse yourself in 200.

尚、仮想カメラ300は、左目用仮想カメラと右目用仮想カメラを含んでもよい。この場合、制御部121は、仮想空間データと左目用仮想カメラの視野に基づいて、左目用の視野画像を示す左目用視野画像データを生成する。さらに、制御部121は、仮想空間データと、右目用仮想カメラの視野に基づいて、右目用の視野画像を示す右目用視野画像データを生成する。その後、制御部121は、左目用視野画像データに基づいて、左目用表示部に左目用の視野画像を表示すると共に、右目用視野画像データに基づいて、右目用表示部に右目用の視野画像を表示する。このようにして、ユーザUは、左目用視野画像と右目用視野画像との間の視差により、視野画像を3次元的に視認することができる。尚、仮想カメラは、後述するように、ユーザによって操作されるアバターの目の位置に配置されてもよい。例えば、左目用仮想カメラは、アバターの左目に配置される一方で、右目用仮想カメラは、アバターの右目に配置されてもよい。 The virtual camera 300 may include a virtual camera for the left eye and a virtual camera for the right eye. In this case, the control unit 121 generates left-eye field-of-view image data showing the field-of-view image for the left eye based on the virtual space data and the field of view of the left-eye virtual camera. Further, the control unit 121 generates right-eye field image data showing a field image for the right eye based on the virtual space data and the field of view of the right-eye virtual camera. After that, the control unit 121 displays the visual field image for the left eye on the left eye display unit based on the left eye visual field image data, and displays the visual field image for the right eye on the right eye display unit based on the right eye visual field image data. Is displayed. In this way, the user U can visually recognize the visual field image three-dimensionally by the parallax between the visual field image for the left eye and the visual field image for the right eye. The virtual camera may be placed at the eye position of the avatar operated by the user, as will be described later. For example, the left-eye virtual camera may be placed in the left eye of the avatar, while the right-eye virtual camera may be placed in the right eye of the avatar.

また、図5に示すステップS1~S4の処理は1フレーム(動画を構成する静止画像)毎に実行されてもよい。例えば、動画のフレームレートが90fpsである場合、ステップS1~S4の処理はΔT=1/90(秒)間隔で繰り返し実行されてもよい。このように、ステップS1~S4の処理が所定間隔ごとに繰り返し実行されるため、HMD110の動作に応じて仮想カメラ300の視野が更新されると共に、HMD110の表示部112に表示される視野画像Vが更新される。 Further, the processes of steps S1 to S4 shown in FIG. 5 may be executed for each frame (still image constituting the moving image). For example, when the frame rate of the moving image is 90 fps, the processes of steps S1 to S4 may be repeatedly executed at intervals of ΔT = 1/90 (seconds). In this way, since the processes of steps S1 to S4 are repeatedly executed at predetermined intervals, the field of view of the virtual camera 300 is updated according to the operation of the HMD 110, and the field of view image V displayed on the display unit 112 of the HMD 110 is updated. Is updated.

次に、図1に示すサーバ2のハードウェア構成について図9を参照して説明する。図9は、サーバ2のハードウェア構成を示す図である。図9に示すように、サーバ2は、制御部23と、記憶部22と、通信インターフェース21と、バス24とを備える。制御部23と、記憶部22と、通信インターフェース21は、バス24を介して互いに通信可能に接続されている。制御部23は、メモリとプロセッサを備えており、メモリは、例えば、ROM及びRAM等から構成されると共に、プロセッサは、例えば、CPU、MPU及び/又はGPUにより構成される。 Next, the hardware configuration of the server 2 shown in FIG. 1 will be described with reference to FIG. FIG. 9 is a diagram showing a hardware configuration of the server 2. As shown in FIG. 9, the server 2 includes a control unit 23, a storage unit 22, a communication interface 21, and a bus 24. The control unit 23, the storage unit 22, and the communication interface 21 are connected to each other so as to be able to communicate with each other via the bus 24. The control unit 23 includes a memory and a processor, and the memory is composed of, for example, a ROM and a RAM, and the processor is composed of, for example, a CPU, an MPU, and / or a GPU.

記憶部(ストレージ)22は、例えば、大容量のHDD等である。記憶部22は、本実施形態に係る情報処理方法の少なくとも一部をコンピュータに実行させるための制御プログラムや、複数のユーザによる仮想空間の共有を実現させるための制御プログラムを格納してもよい。また、記憶部22は、各ユーザを管理するためのユーザ管理情報や各種画像やオブジェクト(例えば、アバター等)に関するデータを格納してもよい。通信インターフェース21は、サーバ2を通信ネットワーク3に接続させるように構成されている。 The storage unit (storage) 22 is, for example, a large-capacity HDD or the like. The storage unit 22 may store a control program for causing a computer to execute at least a part of the information processing method according to the present embodiment, or a control program for realizing sharing of a virtual space by a plurality of users. Further, the storage unit 22 may store user management information for managing each user and data related to various images and objects (for example, an avatar). The communication interface 21 is configured to connect the server 2 to the communication network 3.

次に、図1,10及び11を参照してユーザ端末1Aとユーザ端末1B間において各アバター4A,4Bの動きを同期させる処理の一例について説明する。図10の状態(a)は、ユーザAに提供される仮想空間200Aを示す図である。図10の状態(b)は、ユーザBに提供される仮想空間200Bを示す図である。図11は、ユーザ端末1Aとユーザ端末1B間において各アバター4A,4Bの動きを同期させる処理の一例を説明するためのシーケンス図である。本説明では、前提条件として、図10に示すように、ユーザ端末1A(ユーザA)に関連付けられたアバター4A(第1アバター)と、ユーザ端末1B(ユーザB)に関連付けられたアバター4B(第2アバター)が同一の仮想空間を共有しているものとする。つまり、通信ネットワーク3を介してユーザAとユーザBが一つの仮想空間を共有するものとする。 Next, an example of the process of synchronizing the movements of the avatars 4A and 4B between the user terminal 1A and the user terminal 1B will be described with reference to FIGS. 1, 10 and 11. The state (a) of FIG. 10 is a diagram showing a virtual space 200A provided to the user A. The state (b) of FIG. 10 is a diagram showing a virtual space 200B provided to the user B. FIG. 11 is a sequence diagram for explaining an example of a process of synchronizing the movements of the avatars 4A and 4B between the user terminal 1A and the user terminal 1B. In this description, as a prerequisite, as shown in FIG. 10, the avatar 4A (first avatar) associated with the user terminal 1A (user A) and the avatar 4B (first avatar) associated with the user terminal 1B (user B). It is assumed that 2 avatars) share the same virtual space. That is, it is assumed that the user A and the user B share one virtual space via the communication network 3.

図10の状態(a)に示すように、ユーザAの仮想空間200Aは、アバター4Aと、アバター4Bとを含む。アバター4Aは、ユーザAによって操作されると共に、ユーザAの動作に連動する。アバター4Aは、ユーザ端末1Aのコントローラ320Lの動作(ユーザAの左手の動作)に連動する左手(アバター4Aの仮想身体の一部)と、ユーザ端末1Aのコントローラ320Rの動作(ユーザAの右手の動作)に連動する右手と、表情がユーザAの顔の表情に連動する顔を有する。アバター4Aの顔は、複数の顔パーツ(例えば、目、まゆげ、口等)を有する。アバター4Bは、ユーザBによって操作されると共に、ユーザBの動作に連動する。アバター4Bは、ユーザBの左手の動作を示すユーザ端末1Bのコントローラ320Lの動作に連動する左手と、ユーザBの右手の動作を示すユーザ端末1Bのコントローラ320Rの動作に連動する右手と、表情がユーザBの顔の表情と連動する顔を有する。アバター4Bの顔は、複数の顔パーツ(例えば、目、まゆげ、口等)を有する。 As shown in the state (a) of FIG. 10, the virtual space 200A of the user A includes the avatar 4A and the avatar 4B. The avatar 4A is operated by the user A and is linked to the operation of the user A. The avatar 4A has a left hand (a part of the virtual body of the avatar 4A) linked to the operation of the controller 320L of the user terminal 1A (the operation of the left hand of the user A) and the operation of the controller 320R of the user terminal 1A (the right hand of the user A). It has a right hand linked to the operation) and a face whose facial expression is linked to the facial expression of the user A. The face of Avatar 4A has a plurality of face parts (eg, eyes, eyebrows, mouth, etc.). The avatar 4B is operated by the user B and is linked to the operation of the user B. The avatar 4B has a left hand linked to the operation of the controller 320L of the user terminal 1B indicating the operation of the left hand of the user B and a right hand linked to the operation of the controller 320R of the user terminal 1B indicating the operation of the right hand of the user B. It has a face linked to the facial expression of the user B. The face of Avatar 4B has a plurality of face parts (for example, eyes, eyebrows, mouth, etc.).

尚、ユーザAに提供される仮想空間200Aでは、アバター4Aが可視化されない場合も想定される。この場合、仮想空間200Aに配置されるアバター4Aは、少なくともユーザ端末1AのHMD110の動きに連動する仮想カメラ300を含む。 In the virtual space 200A provided to the user A, it is assumed that the avatar 4A is not visualized. In this case, the avatar 4A arranged in the virtual space 200A includes at least a virtual camera 300 linked to the movement of the HMD 110 of the user terminal 1A.

また、ユーザ端末1A,1BのHMD110の位置に応じてアバター4A,4Bの位置が特定されてもよい。同様に、ユーザ端末1A,1BのHMD110の傾きに応じてアバター4A,4Bの顔の向きが特定されてもよい。さらに、ユーザ端末1A,1Bの外部コントローラ320の動作に応じてアバター4A,4Bの手の動作が特定されてもよい。特に、ユーザ端末1A,1Bのコントローラ320Lの動作に応じてアバター4A,4Bの左手の動作が特定されると共に、ユーザ端末1A,1Bのコントローラ320Rの動作に応じてアバター4A,4Bの右手の動作が特定されてもよい。また、ユーザA,Bの顔の表情(状態)に応じてアバター4A,4Bの顔の表情が特定されてもよい。 Further, the positions of the avatars 4A and 4B may be specified according to the positions of the HMD 110s of the user terminals 1A and 1B. Similarly, the orientation of the face of the avatars 4A and 4B may be specified according to the inclination of the HMD 110 of the user terminals 1A and 1B. Further, the hand movements of the avatars 4A and 4B may be specified according to the movements of the external controllers 320 of the user terminals 1A and 1B. In particular, the operation of the left hand of the avatars 4A and 4B is specified according to the operation of the controllers 320L of the user terminals 1A and 1B, and the operation of the right hand of the avatars 4A and 4B according to the operation of the controllers 320R of the user terminals 1A and 1B. May be specified. Further, the facial expressions of the avatars 4A and 4B may be specified according to the facial expressions (states) of the users A and B.

また、アバター4A,4Bの各々の目には、仮想カメラ300(図6)が配置されてもよい。特に、アバター4A,4Bの左目には、左目用仮想カメラが配置されると共に、アバター4A,4Bの右目には、右目用仮想カメラが配置されてもよい。尚、以降の説明では、仮想カメラ300は、アバター4A,4Bの目に配置されているものとする。このため、アバター4Aの視野CVは、アバター4Aに配置された仮想カメラ300の視野CV(図7参照)と一致するものとする。同様に、アバター4Bの視野CVは、アバター4Bに配置された仮想カメラ300の視野CV(図7参照)と一致するものとする。 Further, a virtual camera 300 (FIG. 6) may be arranged in each eye of the avatars 4A and 4B. In particular, a virtual camera for the left eye may be arranged in the left eye of the avatars 4A and 4B, and a virtual camera for the right eye may be arranged in the right eye of the avatars 4A and 4B. In the following description, it is assumed that the virtual camera 300 is placed in the eyes of the avatars 4A and 4B. Therefore, the field of view CV of the avatar 4A is assumed to match the field of view CV of the virtual camera 300 arranged in the avatar 4A (see FIG. 7). Similarly, the field of view CV of the avatar 4B is assumed to match the field of view CV (see FIG. 7) of the virtual camera 300 arranged in the avatar 4B.

図10の状態(b)に示すように、ユーザBの仮想空間200Bは、アバター4Aと、アバター4Bとを含む。仮想空間200A内におけるアバター4A,4Bの位置は、仮想空間200B内におけるアバター4A,4Bの位置に対応してもよい。 As shown in the state (b) of FIG. 10, the virtual space 200B of the user B includes the avatar 4A and the avatar 4B. The positions of the avatars 4A and 4B in the virtual space 200A may correspond to the positions of the avatars 4A and 4B in the virtual space 200B.

尚、ユーザBに提供される仮想空間200Bでは、アバター4Bが可視化されない場合も想定される。この場合、仮想空間200Bに配置されるアバター4Bは、少なくともユーザ端末1BのHMD110の動きに連動する仮想カメラ300を含む。 In the virtual space 200B provided to the user B, it is assumed that the avatar 4B is not visualized. In this case, the avatar 4B arranged in the virtual space 200B includes at least a virtual camera 300 linked to the movement of the HMD 110 of the user terminal 1B.

次に、図11を参照すると、ステップS10において、ユーザ端末1Aの制御部121は、ユーザAの音声データを生成する。例えば、ユーザAがユーザ端末1Aのマイク118(音声入力部)に音声を入力したときに、マイク118は、入力された音声を示す音声データを生成する。その後、マイク118は生成された音声データをI/Oインターフェース124を介して制御部121に送信する。 Next, referring to FIG. 11, in step S10, the control unit 121 of the user terminal 1A generates the voice data of the user A. For example, when the user A inputs voice to the microphone 118 (voice input unit) of the user terminal 1A, the microphone 118 generates voice data indicating the input voice. After that, the microphone 118 transmits the generated voice data to the control unit 121 via the I / O interface 124.

次に、ステップS11において、ユーザ端末1Aの制御部121は、アバター4Aの制御情報を生成した上で、当該生成したアバター4Aの制御情報とユーザAの音声を示す音声データ(ユーザAの音声データ)をサーバ2に送信する。その後、サーバ2の制御部23は、ユーザ端末1Aからアバター4Aの制御情報とユーザAの音声データを受信する(ステップS12)。 Next, in step S11, the control unit 121 of the user terminal 1A generates the control information of the avatar 4A, and then the control information of the generated avatar 4A and the voice data indicating the voice of the user A (voice data of the user A). ) Is sent to the server 2. After that, the control unit 23 of the server 2 receives the control information of the avatar 4A and the voice data of the user A from the user terminal 1A (step S12).

ここで、アバター4Aの制御情報は、アバター4Aの動作を制御するために必要な情報である。アバター4Aの制御情報は、アバター4Aの位置に関する情報(位置情報)と、アバター4Aの顔の向きに関する情報(顔向き情報)と、アバター4Aの手(左手と右手)の状態に関する情報(手情報)と、アバター4Aの顔の表情に関する情報(顔情報)とを含んでもよい。 Here, the control information of the avatar 4A is information necessary for controlling the operation of the avatar 4A. The control information of the avatar 4A includes information on the position of the avatar 4A (position information), information on the orientation of the face of the avatar 4A (face orientation information), and information on the state of the hands (left hand and right hand) of the avatar 4A (hand information). ) And information (face information) regarding the facial expression of the avatar 4A may be included.

アバター4Aの顔情報は、複数の顔パーツの状態を示す情報を有する。複数の顔パーツの状態を示す情報は、アバター4Aの目の状態(白目の形状及び白目に対する黒目の位置等)を示す情報(目情報)と、アバター4Aのまゆげの情報(まゆげの位置及び形状等)を示す情報(まゆげ情報)と、アバター4Aの口の状態(口の位置及び形状等)を示す情報(口情報)を有する。 The face information of the avatar 4A has information indicating the state of a plurality of face parts. Information indicating the state of a plurality of face parts includes information indicating the state of the eyes of the avatar 4A (shape of the white eyes and the position of the black eyes with respect to the white eyes) (eye information) and information on the eyebrows of the avatar 4A (position and shape of the eyebrows). Etc.) and information (eyebrow information) indicating the state of the mouth of the avatar 4A (position and shape of the mouth, etc.).

詳細には、アバター4Aの目情報は、アバター4Aの左目の状態を示す情報と、アバター4Aの右目の状態を示す情報を有する。アバター4Aのまゆげ情報は、アバター4Aの左まゆげの状態を示す情報と、アバター4Aの右まゆげの状態を示す情報を有する。 Specifically, the eye information of the avatar 4A has information indicating the state of the left eye of the avatar 4A and information indicating the state of the right eye of the avatar 4A. The eyebrow information of the avatar 4A has information indicating the state of the left eyebrow of the avatar 4A and information indicating the state of the right eyebrow of the avatar 4A.

ユーザ端末1Aの制御部121は、HMD110に搭載されたフェイスカメラ113からユーザAの目(左目と右目)とまゆげ(左まゆげと右まゆげ)を示す画像を取得した上で、当該取得された画像と所定の画像処理アルゴリズムに基づいてユーザAの目(左目と右目)とまゆげ(左まゆげと右まゆげ)の状態を特定する。次に、制御部121は、特定されたユーザAの目とまゆげの状態に基づいて、アバター4Aの目(左目と右目)の状態を示す情報とアバター4Aのまゆげ(左まゆげと右まゆげ)の状態を示す情報をそれぞれ生成する。 The control unit 121 of the user terminal 1A acquires an image showing the eyes (left eye and right eye) and eyebrows (left eyebrow and right eyebrow) of the user A from the face camera 113 mounted on the HMD 110, and then obtains the acquired image. And, based on a predetermined image processing algorithm, the states of the eyes (left eye and right eye) and eyebrows (left eyebrows and right eyebrows) of the user A are specified. Next, the control unit 121 uses information indicating the state of the eyes (left eye and right eye) of the avatar 4A and the eyebrows (left eyebrow and right eyebrow) of the avatar 4A based on the specified eye and eyebrow states of the user A. Generate information indicating the status respectively.

同様に、ユーザ端末1Aの制御部121は、フェイスカメラ117からユーザAの口及びその周辺を示す画像を取得した上で、当該取得された画像と所定の画像処理アルゴリズムに基づいてユーザAの口の状態を特定する。次に、制御部121は、特定されたユーザAの口の状態に基づいて、アバター4Aの口の状態を示す情報を生成する。 Similarly, the control unit 121 of the user terminal 1A acquires an image showing the mouth of the user A and its surroundings from the face camera 117, and then based on the acquired image and a predetermined image processing algorithm, the mouth of the user A. Identify the state of. Next, the control unit 121 generates information indicating the mouth state of the avatar 4A based on the mouth state of the specified user A.

このように、ユーザ端末1Aの制御部121は、ユーザAの目に対応するアバター4Aの目情報と、ユーザAのまゆげに対応するアバター4Aのまゆげ情報と、ユーザAの口に対応するアバター4Aの口情報を生成することが可能となる。 As described above, the control unit 121 of the user terminal 1A has the eye information of the avatar 4A corresponding to the eyes of the user A, the eyebrow information of the avatar 4A corresponding to the eyebrows of the user A, and the avatar 4A corresponding to the mouth of the user A. It becomes possible to generate the mouth information of.

また、制御部121は、フェイスカメラ113によって撮像された画像と、フェイスカメラ117によって撮像された画像と、所定の画像処理アルゴリズムに基づいて、記憶部123又はメモリに記憶された複数の種類の顔の表情(例えば、笑顔、悲しい表情、無表情、怒りの表情、驚いた表情、困った表情等)の中からユーザAの顔の表情(例えば、笑顔)を特定してもよい。その後、制御部121は、特定されたユーザAの顔の表情に基づいて、アバター4Aの顔の表情(例えば、笑顔)を示す顔情報を生成することが可能となる。この場合、アバター4Aの複数の種類の顔の表情と、各々が当該複数の種類の顔の表情の一つに関連付けられた複数のアバター4Aの顔情報を含む表情データが記憶部123に保存されてもよい。 Further, the control unit 121 has an image captured by the face camera 113, an image captured by the face camera 117, and a plurality of types of facial expressions stored in the storage unit 123 or the memory based on a predetermined image processing algorithm. The facial expression (for example, smile) of the user A may be specified from the facial expressions (for example, smile, sad expression, expressionless expression, angry expression, surprised expression, troubled expression, etc.). After that, the control unit 121 can generate facial information indicating the facial expression (for example, a smile) of the avatar 4A based on the specified facial expression of the user A. In this case, facial expression data including facial expressions of a plurality of types of the avatar 4A and facial information of the plurality of avatars 4A each associated with one of the facial expressions of the plurality of types is stored in the storage unit 123. You may.

例えば、制御部121は、アバター4Aの顔の表情を笑顔として特定した場合、アバター4Aの顔の表情(笑顔)と表情データに基づいて、アバター4Aの笑顔を示す顔情報を取得する。ここで、アバター4Aの笑顔を示す顔情報は、アバター4Aの顔の表情が笑顔のときのアバター4Aの目情報、まゆげ情報及び口情報を含む。 For example, when the facial expression of the avatar 4A is specified as a smile, the control unit 121 acquires face information indicating the smile of the avatar 4A based on the facial expression (smile) of the avatar 4A and the facial expression data. Here, the face information indicating the smile of the avatar 4A includes eye information, eyebrow information, and mouth information of the avatar 4A when the facial expression of the avatar 4A is a smile.

次に、ステップS13において、ユーザ端末1Bの制御部121は、アバター4Bの制御情報を生成した上で、当該生成したアバター4Bの制御情報をサーバ2に送信する。その後、サーバ2の制御部23は、ユーザ端末1Bからアバター4Bの制御情報を受信する(ステップS14)。 Next, in step S13, the control unit 121 of the user terminal 1B generates the control information of the avatar 4B, and then transmits the control information of the generated avatar 4B to the server 2. After that, the control unit 23 of the server 2 receives the control information of the avatar 4B from the user terminal 1B (step S14).

ここで、アバター4Bの制御情報は、アバター4Bの動作を制御するために必要な情報である。アバター4Bの制御情報は、アバター4Bの位置に関する情報(位置情報)と、アバター4Bの顔の向きに関する情報(顔向き情報)と、アバター4Bの手(左手と右手)の状態に関する情報(手情報)と、アバター4Bの顔の表情に関する情報(顔情報)とを含んでもよい。 Here, the control information of the avatar 4B is information necessary for controlling the operation of the avatar 4B. The control information of the avatar 4B includes information on the position of the avatar 4B (position information), information on the orientation of the face of the avatar 4B (face orientation information), and information on the state of the hands (left hand and right hand) of the avatar 4B (hand information). ) And information (face information) regarding the facial expression of the avatar 4B may be included.

アバター4Bの顔情報は、複数の顔パーツの状態を示す情報を有する。複数の顔パーツの状態を示す情報は、アバター4Bの目の状態(白目の形状及び白目に対する黒目の位置等)を示す情報(目情報)と、アバター4Bのまゆげの情報(まゆげの位置及び形状等)を示す情報(まゆげ情報)と、アバター4Bの口の状態(口の位置及び形状等)を示す情報(口情報)を有する。アバター4Bの顔情報の取得方法は、アバター4Aの顔情報の取得方法と同様である。 The face information of the avatar 4B has information indicating the state of a plurality of face parts. The information indicating the state of a plurality of face parts includes information indicating the state of the eyes of the avatar 4B (shape of the white eyes and the position of the black eyes with respect to the white eyes) (eye information) and information on the eyebrows of the avatar 4B (position and shape of the eyebrows). Etc.) and information (eyebrow information) indicating the state of the mouth of the avatar 4B (position and shape of the mouth, etc.). The method of acquiring the face information of the avatar 4B is the same as the method of acquiring the face information of the avatar 4A.

次に、サーバ2は、アバター4Bの制御情報をユーザ端末1Aに送信する一方(ステップS15)、アバター4Aの制御情報とユーザAの音声データをユーザ端末1Bに送信する(ステップS19)。その後、ユーザ端末1Aの制御部121は、ステップS16においてアバター4Bの制御情報を受信した後に、アバター4A,4Bの制御情報に基づいて、アバター4A,4Bの状態を更新した上で、仮想空間200A(図10の状態(a)参照)を示す仮想空間データを更新する(ステップS17)。 Next, the server 2 transmits the control information of the avatar 4B to the user terminal 1A (step S15), while transmitting the control information of the avatar 4A and the voice data of the user A to the user terminal 1B (step S19). After that, the control unit 121 of the user terminal 1A receives the control information of the avatar 4B in step S16, updates the states of the avatars 4A and 4B based on the control information of the avatars 4A and 4B, and then the virtual space 200A. The virtual space data indicating (see the state (a) in FIG. 10) is updated (step S17).

詳細には、ユーザ端末1Aの制御部121は、アバター4A,4Bの位置情報に基づいて、アバター4A,4Bの位置を更新する。制御部121は、アバター4A,4Bの顔向き情報に基づいて、アバター4A,4Bの顔の向きを更新する。制御部121は、アバター4A,4Bの手情報に基づいて、アバター4A,4Bの手を更新する。制御部121は、アバター4A,4Bの顔情報に基づいて、アバター4A,4Bの顔の表情を更新する。このように、更新されたアバター4A,4Bを含む仮想空間200Aを示す仮想空間データが更新される。 Specifically, the control unit 121 of the user terminal 1A updates the positions of the avatars 4A and 4B based on the position information of the avatars 4A and 4B. The control unit 121 updates the face orientation of the avatars 4A and 4B based on the face orientation information of the avatars 4A and 4B. The control unit 121 updates the hands of the avatars 4A and 4B based on the hand information of the avatars 4A and 4B. The control unit 121 updates the facial expressions of the avatars 4A and 4B based on the facial information of the avatars 4A and 4B. In this way, the virtual space data indicating the virtual space 200A including the updated avatars 4A and 4B is updated.

その後、ユーザ端末1Aの制御部121は、HMD110の位置や傾きに応じてアバター4A(仮想カメラ300)の視野CVを特定した上で、更新された仮想空間データと、アバター4Aの視野CVとに基づいて、HMD110に表示される視野画像を更新する(ステップS18)。 After that, the control unit 121 of the user terminal 1A identifies the field of view CV of the avatar 4A (virtual camera 300) according to the position and tilt of the HMD 110, and then sets the updated virtual space data and the field of view CV of the avatar 4A. Based on this, the visual field image displayed on the HMD 110 is updated (step S18).

一方、ユーザ端末1Bの制御部121は、ステップS20においてアバター4Aの制御情報とユーザAの音声データを受信した後に、アバター4A,4Bの制御情報に基づいて、アバター4A,4Bの状態を更新した上で、仮想空間200B(図10の状態(b)参照)を示す仮想空間データを更新する(ステップS21)。 On the other hand, the control unit 121 of the user terminal 1B updates the states of the avatars 4A and 4B based on the control information of the avatars 4A and 4B after receiving the control information of the avatar 4A and the voice data of the user A in step S20. Above, the virtual space data indicating the virtual space 200B (see the state (b) in FIG. 10) is updated (step S21).

詳細には、ユーザ端末1Bの制御部121は、アバター4A,4Bの位置情報に基づいて、アバター4A,4Bの位置を更新する。制御部121は、アバター4A,4Bの顔向き情報に基づいて、アバター4A,4Bの顔の向きを更新する。制御部121は、アバター4A,4Bの手情報に基づいて、アバター4A,4Bの手を更新する。制御部121は、アバター4A,4Bの顔情報に基づいて、アバター4A,4Bの顔の表情を更新する。このように、更新されたアバター4A,4Bを含む仮想空間を示す仮想空間データが更新される。 Specifically, the control unit 121 of the user terminal 1B updates the positions of the avatars 4A and 4B based on the position information of the avatars 4A and 4B. The control unit 121 updates the face orientation of the avatars 4A and 4B based on the face orientation information of the avatars 4A and 4B. The control unit 121 updates the hands of the avatars 4A and 4B based on the hand information of the avatars 4A and 4B. The control unit 121 updates the facial expressions of the avatars 4A and 4B based on the facial information of the avatars 4A and 4B. In this way, the virtual space data indicating the virtual space including the updated avatars 4A and 4B is updated.

その後、ユーザ端末1Bの制御部121は、HMD110の位置や傾きに応じてアバター4B(仮想カメラ300)の視野CVを特定した上で、更新された仮想空間データと、アバター4Bの視野CVとに基づいて、HMD110に表示される視野画像を更新する(ステップS22)。 After that, the control unit 121 of the user terminal 1B identifies the field of view CV of the avatar 4B (virtual camera 300) according to the position and tilt of the HMD 110, and then sets the updated virtual space data and the field of view CV of the avatar 4B. Based on this, the visual field image displayed on the HMD 110 is updated (step S22).

その後、ユーザ端末1Bの制御部121は、受信したユーザAの音声データと、アバター4Aの制御情報に含まれるアバター4Aの位置に関する情報と、アバター4Bの位置に関する情報と、所定の音声処理アルゴリズムに基づいてユーザAの音声データを加工する。その後、制御部121は、加工された音声データをヘッドフォン116(音声出力部)に送信した上で、ヘッドフォン116は、加工された音声データに基づいてユーザAの音声を出力する(ステップS23)。このように、仮想空間上においてユーザ間(アバター間)の音声チャット(VRチャット)を実現することができる。 After that, the control unit 121 of the user terminal 1B uses the received voice data of the user A, the information regarding the position of the avatar 4A included in the control information of the avatar 4A, the information regarding the position of the avatar 4B, and a predetermined voice processing algorithm. Based on this, the voice data of user A is processed. After that, the control unit 121 transmits the processed voice data to the headphone 116 (voice output unit), and the headphone 116 outputs the voice of the user A based on the processed voice data (step S23). In this way, voice chat (VR chat) between users (between avatars) can be realized in the virtual space.

本実施形態では、ユーザ端末1A,1Bがサーバ2にアバター4Aの制御情報とアバター4Bの制御情報をそれぞれ送信した後に、サーバ2がアバター4Aの制御情報をユーザ端末1Bに送信する一方、アバター4Bの制御情報をユーザ端末1Aに送信する。このように、ユーザ端末1Aとユーザ端末1B間において各アバター4A,4Bの動きを同期させることが可能となる。 In the present embodiment, after the user terminals 1A and 1B transmit the control information of the avatar 4A and the control information of the avatar 4B to the server 2, the server 2 transmits the control information of the avatar 4A to the user terminal 1B, while the avatar 4B. Control information is transmitted to the user terminal 1A. In this way, it is possible to synchronize the movements of the avatars 4A and 4B between the user terminal 1A and the user terminal 1B.

次に、図12及び図14を主に参照することで、ユーザAのHMD110を取り外した場合における本実施形態に係る情報処理方法について説明する。図12は、ユーザAがHMD110を取り外した場合における本実施形態に係る情報処理方法を説明するためのフローチャートの一例である。図14は、本実施形態に係る情報処理方法を説明するためのユーザBに提供される仮想空間200Bの一例を示す図である。尚、図12に示すフローチャートでは、ユーザ端末1Aの制御部121がアバター4Aの制御情報をサーバ2に送信する処理やユーザ端末1Bの制御部121がアバター4Bの制御情報をサーバ2に送信する処理については説明の便宜上省略している。 Next, by mainly referring to FIGS. 12 and 14, the information processing method according to the present embodiment when the HMD 110 of the user A is removed will be described. FIG. 12 is an example of a flowchart for explaining an information processing method according to the present embodiment when the user A removes the HMD 110. FIG. 14 is a diagram showing an example of a virtual space 200B provided to the user B for explaining the information processing method according to the present embodiment. In the flowchart shown in FIG. 12, the control unit 121 of the user terminal 1A transmits the control information of the avatar 4A to the server 2, and the control unit 121 of the user terminal 1B transmits the control information of the avatar 4B to the server 2. Is omitted for convenience of explanation.

本実施形態では、前提条件として、図14に示すように、アバター4Aと、アバター4Bが同一の仮想空間を共有しているものとする。つまり、通信ネットワーク3を介してユーザA,Bが一つの仮想空間を共有するものとする。 In this embodiment, as a precondition, it is assumed that the avatar 4A and the avatar 4B share the same virtual space as shown in FIG. That is, it is assumed that the users A and B share one virtual space via the communication network 3.

ユーザBの仮想空間200Bは、アバター4Aと、アバター4Bとを含む。ユーザ端末1Bの制御部121は、仮想空間200Bを示す仮想空間データを更新する。本説明では、説明の便宜上、アバター4Aに提供される仮想空間200Aの図示は省略する。 The virtual space 200B of the user B includes the avatar 4A and the avatar 4B. The control unit 121 of the user terminal 1B updates the virtual space data indicating the virtual space 200B. In this description, for convenience of explanation, the illustration of the virtual space 200A provided to the avatar 4A is omitted.

図12を参照すると、ステップS30において、ユーザ端末1Aの制御部121は、ユーザAがHMD110を取り外したかどうかを判定する。この点において、制御部121は、HMDセンサ114から送信されたHMD110の傾き情報又は装着センサ115から送信されたイベント情報に基づいて、ユーザAがHMD110を取り外したかどうかを判定してもよい。HMD114と装着センサ115は、HMD110を装着しているかどうかを検出するように構成されたセンサとして機能する。 Referring to FIG. 12, in step S30, the control unit 121 of the user terminal 1A determines whether or not the user A has removed the HMD 110. In this respect, the control unit 121 may determine whether or not the user A has removed the HMD 110 based on the tilt information of the HMD 110 transmitted from the HMD sensor 114 or the event information transmitted from the mounting sensor 115. The HMD 114 and the mounting sensor 115 function as sensors configured to detect whether or not the HMD 110 is mounted.

図13の状態(a)を参照して、HMDセンサ114を用いてユーザAがHMD110を取り外したかどうかを判定する処理について説明する。図13の状態(a)は、HMDセンサ114を用いてユーザAがHMD110を取り外したかどうかを判定するための処理を説明するためのフローチャートの一例である。図13の状態(a)に示すように、制御部121は、HMDセンサ114からHMD110の傾き(ロール角、ヨー角、ピッチ角)を示す傾き情報を受信する(ステップS301)。次に、制御部121は、受信した傾き情報に基づいて、HMD110の傾きが所定の傾きよりも大きいかどうかを判定する(S302)。ここで、所定の傾きは、ユーザによって適宜設定されてもよい。ユーザAがHMD110を装着している間では、HMD110の傾きが所定の傾きよりも大きくなることがないものとする。つまり、ユーザAがHMD110を装着している間では、HMD110の傾きは所定の傾き以下となる一方で、ユーザAがHMD110を取り外すときは、HMD110が大きく傾くため、HMD110の傾きが所定の傾きを超えることがある。このような観点より、所定の傾きが設定される。 With reference to the state (a) of FIG. 13, a process of determining whether or not the user A has removed the HMD 110 by using the HMD sensor 114 will be described. The state (a) in FIG. 13 is an example of a flowchart for explaining a process for determining whether or not the user A has removed the HMD 110 by using the HMD sensor 114. As shown in the state (a) of FIG. 13, the control unit 121 receives tilt information indicating the tilt (roll angle, yaw angle, pitch angle) of the HMD 110 from the HMD sensor 114 (step S301). Next, the control unit 121 determines whether or not the inclination of the HMD 110 is larger than the predetermined inclination based on the received inclination information (S302). Here, the predetermined inclination may be appropriately set by the user. While the user A is wearing the HMD 110, it is assumed that the inclination of the HMD 110 does not become larger than the predetermined inclination. That is, while the user A is wearing the HMD 110, the tilt of the HMD 110 is equal to or less than the predetermined tilt, while when the user A removes the HMD 110, the HMD 110 is greatly tilted, so that the tilt of the HMD 110 has a predetermined tilt. May exceed. From this point of view, a predetermined inclination is set.

例えば、制御部121は、HMD110の傾きの一例として、HMD110のピッチ角θが所定の角度θthよりも大きいと判定した場合に(ステップS302でYES)、ユーザAがHMD110を取り外した(換言すれば、ユーザAがHMD110を装着していない)ことを特定した上で、ステップS31の処理を実行する。一方、制御部121は、HMD110のピッチ角θが所定の角度θth以下であると判定した場合に(ステップS302でNO)、ユーザAがHMD110を装着していることを特定した上で、HMDセンサ114からのHMD110の傾き情報を受信するまで待機する。 For example, when the control unit 121 determines that the pitch angle θ of the HMD 110 is larger than the predetermined angle θth (YES in step S302) as an example of the inclination of the HMD 110, the user A removes the HMD 110 (in other words,). , User A is not wearing the HMD 110), and then the process of step S31 is executed. On the other hand, when the control unit 121 determines that the pitch angle θ of the HMD 110 is equal to or less than the predetermined angle θth (NO in step S302), the control unit 121 identifies that the user A is wearing the HMD 110, and then the HMD sensor. It waits until the tilt information of the HMD 110 from 114 is received.

次に、図13の状態(b)を参照して、装着センサ115を用いてユーザAがHMD110を取り外したかどうかを判定する処理について説明する。図13の状態(b)は、装着センサ115を用いてユーザAがHMD110を取り外したかどうかを判定するための処理を説明するためのフローチャートの一例である。図13の状態(b)に示すように、制御部121は、装着センサ115からイベント情報を受信したかどうかを判定する(ステップS303)。ここで、装着センサ115から送信されたイベント情報は、ユーザ端末1AのHMD110の状態が装着状態と非装着状態との間で変化したことを示す情報である。例えば、ユーザAがHMD110を取り外したときに(HMD110の状態が装着状態から非装着状態に遷移したときに)、装着センサ115はイベント情報を出力する。また、ユーザAがHMD110を装着したときに(HMD110の状態が非装着状態から装着状態に遷移したときに)、装着センサ115はイベント情報を出力する。 Next, with reference to the state (b) of FIG. 13, a process of determining whether or not the user A has removed the HMD 110 by using the mounting sensor 115 will be described. The state (b) in FIG. 13 is an example of a flowchart for explaining a process for determining whether or not the user A has removed the HMD 110 by using the mounting sensor 115. As shown in the state (b) of FIG. 13, the control unit 121 determines whether or not the event information has been received from the mounting sensor 115 (step S303). Here, the event information transmitted from the wearing sensor 115 is information indicating that the state of the HMD 110 of the user terminal 1A has changed between the wearing state and the non-wearing state. For example, when the user A removes the HMD 110 (when the state of the HMD 110 changes from the mounted state to the non-mounted state), the mounting sensor 115 outputs event information. Further, when the user A wears the HMD 110 (when the state of the HMD 110 changes from the non-wearing state to the wearing state), the wearing sensor 115 outputs the event information.

制御部121は、装着センサ115からイベント情報を受信したと判定した場合に(ステップS303でYES)、ユーザAがHMD110を取り外した(換言すれば、ユーザAがHMD110を装着していない)ことを特定した上で、ステップS31の処理を実行する。一方、制御部121は、装着センサ115からイベント情報を受信していないと判定した場合に(ステップS303でNO)、ユーザAはHMD110を装着していることを特定した上で、イベント情報を装着センサ115から受信するまで待機する。 When the control unit 121 determines that the event information has been received from the mounting sensor 115 (YES in step S303), the control unit 121 determines that the user A has removed the HMD 110 (in other words, the user A has not mounted the HMD 110). After specifying, the process of step S31 is executed. On the other hand, when the control unit 121 determines that the event information has not been received from the mounting sensor 115 (NO in step S303), the user A identifies that the HMD 110 is mounted, and then mounts the event information. It waits until it receives from the sensor 115.

次に、図12に戻ると、制御部121は、ユーザAがHMD110を取り外した(換言すれば、ユーザAがHMD110を装着していない)と判定した場合に(ステップS30YES)、ユーザAがHMD110を装着していないことを示す情報(非装着情報)を生成する(ステップS31)。その後、制御部121は、通信ネットワーク3を介して非装着情報をサーバ2に送信する(ステップS32)。 Next, returning to FIG. 12, when the control unit 121 determines that the user A has removed the HMD 110 (in other words, the user A does not wear the HMD 110) (step S30YES), the user A determines that the HMD 110 is not attached (step S30YES). Generates information (non-wearing information) indicating that the device is not mounted (step S31). After that, the control unit 121 transmits the non-wearing information to the server 2 via the communication network 3 (step S32).

次に、サーバ2は、非装着情報をユーザ端末1Aから受信した後に、通信ネットワーク3を介して非装着情報をユーザ端末1Bに送信する(ステップS33)。その後、ユーザ端末1Bの制御部121は、非装着情報をサーバ2から受信した後に、仮想空間200Bに配置されたアバター4Aの顔の表情をデフォルトの顔の表情(換言すれば、デフォルト設定された顔の表情)に設定する(ステップS34)。ここで、アバター4Aのデフォルトの顔の表情とは、アバター4Aの顔の表情の更新を開始する前の初期状態におけるアバター4Aの顔の表情をいう。デフォルトの顔の表情が笑顔の場合、図14に示すように、アバター4Aの顔の表情は笑顔に設定される。また、制御部121は、アバター4Bの制御情報に基づいて、アバター4Bの動作(アバター4Bの顔の表情を含む)を更新する。 Next, the server 2 receives the non-wearing information from the user terminal 1A, and then transmits the non-wearing information to the user terminal 1B via the communication network 3 (step S33). After that, the control unit 121 of the user terminal 1B receives the non-wearing information from the server 2, and then sets the facial expression of the avatar 4A arranged in the virtual space 200B as the default facial expression (in other words, the default setting). (Facial expression) is set (step S34). Here, the default facial expression of the avatar 4A means the facial expression of the avatar 4A in the initial state before the update of the facial expression of the avatar 4A is started. When the default facial expression is a smile, the facial expression of Avatar 4A is set to smile, as shown in FIG. Further, the control unit 121 updates the operation of the avatar 4B (including the facial expression of the avatar 4B) based on the control information of the avatar 4B.

尚、ステップS34において、制御部121は、ユーザAがHMD110を装着していないことを示す態様として、アバター4Aの顔の表情をユーザAによって予め選択された表情に設定してもよい。この場合、ユーザAによって選択されたアバター4Aの表情に関する情報がユーザ端末1Aからユーザ端末1Bに送信された上で、ユーザ端末1Bの記憶部123に予め保存されてもよい。 In step S34, the control unit 121 may set the facial expression of the avatar 4A to the facial expression selected in advance by the user A as an embodiment indicating that the user A is not wearing the HMD 110. In this case, information regarding the facial expression of the avatar 4A selected by the user A may be transmitted from the user terminal 1A to the user terminal 1B and then stored in advance in the storage unit 123 of the user terminal 1B.

次に、制御部121は、図14に示すように、アバター4Aに関連付けられた吹き出しオブジェクト42Aを仮想空間200Bに生成する。吹き出しオブジェクト42Aには、ユーザAがHMD110を装着していないことを示す情報(例えば、「ユーザAは退席中です。」等)が表示される。 Next, as shown in FIG. 14, the control unit 121 creates a balloon object 42A associated with the avatar 4A in the virtual space 200B. Information indicating that the user A is not wearing the HMD 110 (for example, "User A is absent") is displayed on the balloon object 42A.

尚、制御部121は、吹き出しオブジェクト42Aの代わりに、テロップオブジェクト43Aを仮想空間200Bに生成してもよい(図15参照)。図15に示すように、テロップオブジェクト43Aには、ユーザAがHMD110を装着していないことを示す情報(例えば、「ユーザAは退席中です。」等)が表示される。テロップオブジェクト43Aは、アバター4Aの近くに配置されてもよいし、アバター4Bの視野CV内に常に配置されるように、アバター4Bの視野CVの動きに連動してもよい。さらに、ユーザAがHMD110を装着していないことを示す情報を示すテロップがHMD110に表示される視野画像上に重畳されてもよい。 The control unit 121 may generate the telop object 43A in the virtual space 200B instead of the balloon object 42A (see FIG. 15). As shown in FIG. 15, the telop object 43A displays information indicating that the user A is not wearing the HMD 110 (for example, "user A is absent"). The telop object 43A may be placed near the avatar 4A, or may be interlocked with the movement of the field of view CV of the avatar 4B so that it is always placed within the field of view CV of the avatar 4B. Further, a telop indicating information indicating that the user A is not wearing the HMD 110 may be superimposed on the visual field image displayed on the HMD 110.

その後、制御部121は、仮想空間200Bを示す仮想空間データを更新すると共に、ユーザ端末1BのHMD110の動きに応じてアバター4Bの視野CVを更新する。次に、制御部121は、更新された仮想空間データと更新されたアバター4Bの視野CVに基づいて視野画像データを更新した上で、更新された視野画像データに基づいて視野画像をHMD110に表示する(ステップS36)。 After that, the control unit 121 updates the virtual space data indicating the virtual space 200B, and updates the visual field CV of the avatar 4B according to the movement of the HMD 110 of the user terminal 1B. Next, the control unit 121 updates the field of view image data based on the updated virtual space data and the updated field of view CV of the avatar 4B, and then displays the field of view image on the HMD 110 based on the updated field of view image data. (Step S36).

一方、ユーザ端末1Aの制御部121は、通信ネットワーク3を介して非装着情報をサーバ2に送信した後に、アクティブモードからスリープモードに移行する(ステップS37)。この場合、制御部121のモードがスリープモードである一方、センサ(装着センサ115又はHMDセンサ114)のモードはアクティブモードであることが好ましい。 On the other hand, the control unit 121 of the user terminal 1A shifts from the active mode to the sleep mode after transmitting the non-wearing information to the server 2 via the communication network 3 (step S37). In this case, it is preferable that the mode of the control unit 121 is the sleep mode, while the mode of the sensor (mounted sensor 115 or the HMD sensor 114) is the active mode.

本実施形態によれば、ユーザAがHMD110を装着していない場合に、ユーザ端末1BによってユーザAがHMD110を装着していないことがユーザBに提示される。特に、本実施形態によれば、ユーザAがHMD110を装着していない場合に、ユーザAがHMD110を装着していないことを示す情報がユーザ端末1BのHMD110に表示される視野画像上において可視化される。この点において、表情がデフォルトの表情に設定されたアバター4Aと吹き出しオブジェクト42Aがユーザ端末1BのHMD110に表示される視野画像上において可視化される。 According to the present embodiment, when the user A is not wearing the HMD 110, the user terminal 1B presents to the user B that the user A is not wearing the HMD 110. In particular, according to the present embodiment, when the user A is not wearing the HMD 110, information indicating that the user A is not wearing the HMD 110 is visualized on the field image displayed on the HMD 110 of the user terminal 1B. To. In this respect, the avatar 4A and the balloon object 42A whose facial expressions are set to the default facial expressions are visualized on the visual field image displayed on the HMD 110 of the user terminal 1B.

このように、ユーザBは、仮想空間200B上においてユーザAとコミュニケーションを行っているときに、アバター4Aのデフォルトの表情(例えば、笑顔)及び吹き出しオブジェクト42Aに表示された情報を視認することで、ユーザAがHMD110を装着していないことを容易に把握することができる。従って、ユーザにリッチな仮想体験を提供することができる。 In this way, the user B visually recognizes the default facial expression (for example, a smile) of the avatar 4A and the information displayed on the balloon object 42A while communicating with the user A on the virtual space 200B. It can be easily grasped that the user A does not wear the HMD 110. Therefore, it is possible to provide the user with a rich virtual experience.

特に、ユーザBは、ユーザAがHMD110を装着していないことを把握してなければ、リアクションを示さないユーザAに対して違和感を抱く場合がある。このように、ユーザAがHMD100を装着していないことをユーザBに把握させることで、ユーザBがリアクションを示さないユーザAに対して違和感(例えば、不気味の谷現象)を抱くといった状況を回避することが可能となる。 In particular, the user B may feel uncomfortable with the user A who does not show a reaction unless he / she knows that the user A is not wearing the HMD 110. In this way, by letting the user B know that the user A is not wearing the HMD 100, it is possible to avoid a situation in which the user B feels uncomfortable (for example, the uncanny valley phenomenon) with respect to the user A who does not show a reaction. It becomes possible to do.

また、本実施形態によれば、ユーザ端末1Aのセンサ(HMDセンサ114又は装着センサ115)から送信された情報(傾き情報又はイベント情報)に応じて、ユーザAがHMD110を装着していないことが特定される。その後、ユーザAがHMD110を装着していないことを示す非装着情報がサーバ2に送信される。このように、ユーザ端末1Aのセンサから出力された情報に応じて、ユーザAがHMD110を装着していないことを自動的に特定することが可能となる。 Further, according to the present embodiment, the user A does not wear the HMD 110 according to the information (tilt information or event information) transmitted from the sensor (HMD sensor 114 or the mounting sensor 115) of the user terminal 1A. Be identified. After that, non-wearing information indicating that the user A is not wearing the HMD 110 is transmitted to the server 2. In this way, it is possible to automatically identify that the user A is not wearing the HMD 110 according to the information output from the sensor of the user terminal 1A.

尚、本実施形態では、ユーザ端末1Aは、サーバ2を介して非装着情報をユーザ端末1Bに送信しているが、非装着情報に代わって、HMDセンサ114から送信された傾き情報をユーザ端末1Bに送信してもよい。この場合、ユーザ端末1Bの制御部121は、受信した傾き情報に基づいて、ユーザAがHMD110を装着していないことを特定した上で、ステップS34からS36に規定される処理を実行してもよい。 In the present embodiment, the user terminal 1A transmits the non-wearing information to the user terminal 1B via the server 2, but instead of the non-wearing information, the user terminal 1A sends the tilt information transmitted from the HMD sensor 114 to the user terminal. It may be transmitted to 1B. In this case, the control unit 121 of the user terminal 1B may execute the processes specified in steps S34 to S36 after specifying that the user A is not wearing the HMD 110 based on the received tilt information. good.

次に、図16及び図17を主に参照することで、HMD110を取り外したユーザAがHMD110を再び装着した場合における本実施形態に係る情報処理方法について説明する。図16は、ユーザAがHMD110を再び装着した場合における本実施形態に係る情報処理方法を説明するためのフローチャートの一例である。図17は、本実施形態に係る情報処理方法を説明するためのユーザBに提供される仮想空間200Bの一例を示す図である。 Next, by mainly referring to FIGS. 16 and 17, the information processing method according to the present embodiment when the user A who has removed the HMD 110 reattaches the HMD 110 will be described. FIG. 16 is an example of a flowchart for explaining an information processing method according to the present embodiment when the user A reattaches the HMD 110. FIG. 17 is a diagram showing an example of a virtual space 200B provided to the user B for explaining the information processing method according to the present embodiment.

図16を参照すると、ステップS40において、ユーザ端末1Aの制御部121は、ユーザAが再びHMD110を装着したかどうかを判定する。この点において、制御部121は、HMDセンサ114から送信されたHMD110の傾き情報又は装着センサ115から送信されたイベント情報に基づいて、ユーザAがHMD110を再び装着したかどうかを判定してもよい。例えば、制御部121は、装着センサ115からイベント情報を受信したと判定した場合に、ユーザAがHMD110を装着したことを特定した上で、ステップS41の処理を実行する。一方、制御部121は、装着センサ115からイベント情報を受信していないと判定した場合に、ユーザAはHMD110を装着していないことを特定した上で、イベント情報を装着センサ115から受信するまで待機する。 Referring to FIG. 16, in step S40, the control unit 121 of the user terminal 1A determines whether or not the user A wears the HMD 110 again. In this respect, the control unit 121 may determine whether or not the user A has remounted the HMD 110 based on the tilt information of the HMD 110 transmitted from the HMD sensor 114 or the event information transmitted from the mounting sensor 115. .. For example, when it is determined that the event information has been received from the mounting sensor 115, the control unit 121 identifies that the user A has mounted the HMD 110, and then executes the process of step S41. On the other hand, when the control unit 121 determines that the event information is not received from the mounting sensor 115, the user A specifies that the HMD 110 is not mounted, and then receives the event information from the mounting sensor 115. stand by.

ステップS40の判定結果がYESの場合、制御部121は、スリープモードからアクティブモードに移行する(ステップS41)。次に、アクティブモードに移行した制御部121は、アバター4Aの制御情報を生成すると共に、ユーザAがHMD110を装着したことを示す装着情報を生成する(ステップS42)。その後、制御部121は、通信ネットワーク3を介してアバター4Aの制御情報と装着情報をサーバ2に送信する(ステップS43)。 If the determination result in step S40 is YES, the control unit 121 shifts from the sleep mode to the active mode (step S41). Next, the control unit 121 that has transitioned to the active mode generates control information for the avatar 4A and also generates wearing information indicating that the user A has worn the HMD 110 (step S42). After that, the control unit 121 transmits the control information and the wearing information of the avatar 4A to the server 2 via the communication network 3 (step S43).

次に、サーバ2は、アバター4Aの制御情報と装着情報をユーザ端末1Aから受信した後に、通信ネットワーク3を介してアバター4Aの制御情報と装着情報をユーザ端末1Bに送信する(ステップS44)。その後、ユーザ端末1Bの制御部121は、アバター4Aの制御情報に基づいてアバター4Aの動作を更新する共に、アバター4Bの制御情報に基づいてアバター4Bの動作を更新する(ステップS45)。特に、制御部121は、アバター4Aの制御情報に含まれるアバター4Aの顔情報に基づいて、アバター4Aの顔の表情を更新すると共に、アバター4Bの制御情報に含まれるアバター4Bの顔情報に基づいて、アバター4Bの顔の表情を更新する。 Next, the server 2 receives the control information and the wearing information of the avatar 4A from the user terminal 1A, and then transmits the control information and the wearing information of the avatar 4A to the user terminal 1B via the communication network 3 (step S44). After that, the control unit 121 of the user terminal 1B updates the operation of the avatar 4A based on the control information of the avatar 4A, and updates the operation of the avatar 4B based on the control information of the avatar 4B (step S45). In particular, the control unit 121 updates the facial expression of the avatar 4A based on the face information of the avatar 4A included in the control information of the avatar 4A, and is based on the face information of the avatar 4B included in the control information of the avatar 4B. Then, the facial expression of Avatar 4B is updated.

次に、制御部121は、図17に示すように、アバター4Aに関連付けられた吹き出しオブジェクト44Aを仮想空間200Bに生成する(ステップS46)。吹き出しオブジェクト44Aには、ユーザAがHMD110を装着したことを示す情報(例えば、「ユーザAは席に戻りました。」等)が表示される。 Next, as shown in FIG. 17, the control unit 121 creates a balloon object 44A associated with the avatar 4A in the virtual space 200B (step S46). Information indicating that the user A has attached the HMD 110 (for example, "User A has returned to his / her seat") is displayed on the balloon object 44A.

その後、制御部121は、仮想空間200Bを示す仮想空間データを更新すると共に、ユーザ端末1BのHMD110の動きに応じてアバター4Bの視野CVを更新する。次に、制御部121は、更新された仮想空間データと更新されたアバター4Bの視野CVに基づいて視野画像データを更新した上で、更新された視野画像データに基づいて視野画像をHMD110に表示する(ステップS47)。 After that, the control unit 121 updates the virtual space data indicating the virtual space 200B, and updates the visual field CV of the avatar 4B according to the movement of the HMD 110 of the user terminal 1B. Next, the control unit 121 updates the field of view image data based on the updated virtual space data and the updated field of view CV of the avatar 4B, and then displays the field of view image on the HMD 110 based on the updated field of view image data. (Step S47).

本実施形態によれば、ユーザAがHMD110を取り外した後に再び装着した場合、ユーザ端末1BによってユーザAがHMD110を装着していることがユーザBに提示される。このように、ユーザBは、更新されたアバター4Aの表情と吹き出しオブジェクト44Aを視認することで、ユーザAがHMD110を再び装着したことを容易に把握することができる。従って、ユーザにリッチな仮想体験を提供することができる。 According to the present embodiment, when the user A removes the HMD 110 and then reattaches it, the user terminal 1B indicates to the user B that the user A is wearing the HMD 110. In this way, the user B can easily grasp that the user A has reattached the HMD 110 by visually recognizing the updated facial expression of the avatar 4A and the balloon object 44A. Therefore, it is possible to provide the user with a rich virtual experience.

尚、本実施形態の説明では、ユーザAがHMD110を装着したこと又は装着していないことを示す情報が視野画像上に可視化されているが、本実施形態はこれには限定されない。例えば、ユーザAがHMD110を装着していないことを示す音声案内(例えば、「ユーザAは退席しました。」等)やユーザAがHMD110を装着したことを示す音声案内(例えば、「ユーザAは席に戻りました。」等)がユーザ端末1Bのヘッドフォン116(音声出力部)から出力されてもよい。この場合、ユーザ端末1Aの制御部121は、サーバ2を介して非装着情報(又は装着情報)と共に音声案内データをユーザ端末1Bに送信する。 In the description of the present embodiment, information indicating that the user A has or has not worn the HMD 110 is visualized on the visual field image, but the present embodiment is not limited to this. For example, a voice guidance indicating that the user A does not wear the HMD 110 (for example, "User A has left") or a voice guidance indicating that the user A wears the HMD 110 (for example, "User A has left"). "I have returned to my seat." Etc.) may be output from the headphone 116 (audio output unit) of the user terminal 1B. In this case, the control unit 121 of the user terminal 1A transmits voice guidance data to the user terminal 1B together with the non-wearing information (or wearing information) via the server 2.

また、本実施形態の説明では、仮想空間200Bを示す仮想空間データがユーザ端末1B側で更新されていることを前提としているが、仮想空間データはサーバ2側で更新されてもよい。さらに、視野画像に対応する視野画像データがユーザ端末1B側で更新されていることを前提としているが、視野画像データはサーバ2側で更新されてもよい。この場合、ユーザ端末1Bは、サーバ2から送信された視野画像データに基づいて、HMD110に視野画像を表示する。 Further, in the description of the present embodiment, it is assumed that the virtual space data indicating the virtual space 200B is updated on the user terminal 1B side, but the virtual space data may be updated on the server 2 side. Further, although it is assumed that the visual field image data corresponding to the visual field image is updated on the user terminal 1B side, the visual field image data may be updated on the server 2 side. In this case, the user terminal 1B displays the field of view image on the HMD 110 based on the field of view image data transmitted from the server 2.

また、図12及び16に示す各ステップで規定される処理の順番はあくまでも一例であって、これらのステップの順番は適宜変更可能である。 Further, the order of processing defined in each step shown in FIGS. 12 and 16 is only an example, and the order of these steps can be changed as appropriate.

(変形例1)
次に、図18から図25を参照して、ユーザAのHMD110を取り外した場合における本実施形態に係る情報処理方法の変形例1について説明する。図18は、変形例1に係る情報処理方法を説明するためのフローチャートの一例である。図19、20、22及び23は、変形例1に係る情報処理方法を説明するためのユーザBに提供される仮想空間200Bの一例を示す図である。図21は、変形例1に係る情報処理方法を説明するためのユーザAに関連付けられたユーザ端末5の表示例を示す図である。図24は、ユーザAが既読情報の受信から一定時間内にHMDを装着していない場合における変形例1に係る情報処理方法を説明するためのフローチャートの一例である。
(Modification 1)
Next, with reference to FIGS. 18 to 25, a modification 1 of the information processing method according to the present embodiment when the HMD 110 of the user A is removed will be described. FIG. 18 is an example of a flowchart for explaining the information processing method according to the modified example 1. 19, 20, 22 and 23 are diagrams showing an example of the virtual space 200B provided to the user B for explaining the information processing method according to the modification 1. FIG. 21 is a diagram showing a display example of a user terminal 5 associated with the user A for explaining the information processing method according to the modification 1. FIG. 24 is an example of a flowchart for explaining an information processing method according to the first modification when the user A does not wear the HMD within a certain period of time after receiving the read information.

図18を参照すると、ユーザ端末1Aの制御部121は、ユーザAがHMD110を取り外したかどうかを判定する(ステップS50)。HMDセンサ114を用いてユーザAがHMD110を取り外したかどうかを判定する処理については、上記の実施形態において説明した通りであるため、その詳細な説明は省略する。 Referring to FIG. 18, the control unit 121 of the user terminal 1A determines whether or not the user A has removed the HMD 110 (step S50). Since the process of determining whether or not the user A has removed the HMD 110 by using the HMD sensor 114 is as described in the above embodiment, the detailed description thereof will be omitted.

ステップS50において、ユーザAがHMD110を取り外した(換言すれば、ユーザAがHMD110を装着していない)と判定した場合に(ステップS50のYES)、制御部121は、ユーザAがHMD110を装着していないことを示す情報(非装着情報)を生成する(ステップS51)。その後、制御部121は、通信ネットワーク3を介して非装着情報をサーバ2に送信する(ステップS52)。尚、ステップS51において、制御部121は、HMD110と外部コントローラ320との位置関係を示す位置関係情報を生成し、当該位置関係情報を非装着情報と共にサーバ2に送信してもよい。 When it is determined in step S50 that the user A has removed the HMD 110 (in other words, the user A has not attached the HMD 110) (YES in step S50), the control unit 121 has the user A attached the HMD 110. Information (non-attachment information) indicating that the information is not installed is generated (step S51). After that, the control unit 121 transmits the non-wearing information to the server 2 via the communication network 3 (step S52). In step S51, the control unit 121 may generate positional relationship information indicating the positional relationship between the HMD 110 and the external controller 320, and transmit the positional relationship information to the server 2 together with the non-wearing information.

次に、サーバ2は、非装着情報をユーザ端末1Aから受信した後に、通信ネットワーク3を介して非装着情報をユーザ端末1Bに送信する(ステップS53)。 Next, the server 2 receives the non-wearing information from the user terminal 1A, and then transmits the non-wearing information to the user terminal 1B via the communication network 3 (step S53).

一方、ユーザ端末1Aの制御部121は、通信ネットワーク3を介して非装着情報をサーバ2に送信した後に、アクティブモードからスリープモードに移行する(ステップS54)。この場合、制御部121のモードがスリープモードである一方、センサ(装着センサ115又はHMDセンサ114)のモードはアクティブモードであることが好ましい。 On the other hand, the control unit 121 of the user terminal 1A shifts from the active mode to the sleep mode after transmitting the non-wearing information to the server 2 via the communication network 3 (step S54). In this case, it is preferable that the mode of the control unit 121 is the sleep mode, while the mode of the sensor (mounted sensor 115 or the HMD sensor 114) is the active mode.

次に、ユーザ端末1Bの制御部121は、サーバ2から受信した非装着情報に基づいて、仮想空間200Bに配置されたアバター4Aの姿勢をデフォルトの姿勢(換言すれば、デフォルト設定された姿勢)に設定する(ステップS55)。変形例1では、仮想空間が、マルチプレイの相手を探す場であるルームである場合を想定して説明するが、これに限定されるものではない。ここで、アバター4Aのデフォルトの姿勢とは、アバター4Aの初期状態における姿勢をいう。デフォルトの姿勢が、横たわった状態である場合、図19に示すように、アバター4Aの姿勢は床に横たわった状態に設定される。 Next, the control unit 121 of the user terminal 1B sets the posture of the avatar 4A arranged in the virtual space 200B as the default posture (in other words, the default set posture) based on the non-wearing information received from the server 2. (Step S55). In the first modification, the virtual space will be described assuming that it is a room where a multiplayer partner is searched for, but the present invention is not limited to this. Here, the default posture of the avatar 4A means the posture in the initial state of the avatar 4A. When the default posture is the lying state, the posture of the avatar 4A is set to the lying state as shown in FIG.

尚、ステップS55において、制御部121は、ユーザAがHMD110を装着していないことを示す態様として、アバター4Aの姿勢をユーザAによって予め選択された姿勢に設定してもよい。この場合、ユーザAによって選択されたアバター4Aの姿勢に関する情報がユーザ端末1Aからユーザ端末1Bに送信された上で、ユーザ端末1Bの記憶部123に予め保存されてもよい。 In step S55, the control unit 121 may set the posture of the avatar 4A to the posture previously selected by the user A as an embodiment indicating that the user A is not wearing the HMD 110. In this case, the information regarding the posture of the avatar 4A selected by the user A may be transmitted from the user terminal 1A to the user terminal 1B and then stored in advance in the storage unit 123 of the user terminal 1B.

また、ユーザ1Bが、HMD110と外部コントローラ320との位置関係を示す位置関係情報を受信している場合には、ステップS55において、制御部121は、アバター4Aの姿勢を当該位置関係情報に基づいて設定してもよい。すなわち、ユーザAがHMD110を装着していない場合には、HMD110および外部コントローラ320が現実空間の床や机に置かれている場合が多い。この場合は、仮想空間200Bのアバター4Aは、HMD110と外部コントローラ320との位置関係情報に基づいて、床の上に潰れているような姿勢となるように設定され得る。 Further, when the user 1B has received the positional relationship information indicating the positional relationship between the HMD 110 and the external controller 320, in step S55, the control unit 121 changes the posture of the avatar 4A based on the positional relationship information. It may be set. That is, when the user A does not wear the HMD 110, the HMD 110 and the external controller 320 are often placed on the floor or desk in the real space. In this case, the avatar 4A of the virtual space 200B may be set to have a posture of being crushed on the floor based on the positional relationship information between the HMD 110 and the external controller 320.

次に、ユーザ端末1Bの制御部121は、仮想空間200Bに配置されたアバター4Aの顔の表情をデフォルトの顔の表情(換言すれば、デフォルト設定された顔の表情)に設定する(ステップS56)。デフォルトの顔の表情が目を閉じた状態である場合、図19に示すように、アバター4Aの顔の表情は目を閉じた状態に設定される。 Next, the control unit 121 of the user terminal 1B sets the facial expression of the avatar 4A arranged in the virtual space 200B to the default facial expression (in other words, the default facial expression) (step S56). ). When the default facial expression is the state with the eyes closed, the facial expression of the avatar 4A is set to the state with the eyes closed, as shown in FIG.

尚、ステップS56において、制御部121は、ユーザAがHMD110を装着していないことを示す態様として、アバター4Aの顔の表情をユーザAによって予め選択された表情に設定してもよい。この場合、ユーザAによって選択されたアバター4Aの表情に関する情報がユーザ端末1Aからユーザ端末1Bに送信された上で、ユーザ端末1Bの記憶部123に予め保存されてもよい。 In step S56, the control unit 121 may set the facial expression of the avatar 4A to the facial expression selected in advance by the user A as an embodiment indicating that the user A is not wearing the HMD 110. In this case, information regarding the facial expression of the avatar 4A selected by the user A may be transmitted from the user terminal 1A to the user terminal 1B and then stored in advance in the storage unit 123 of the user terminal 1B.

次に、制御部121は、仮想空間200Bを示す仮想空間データを更新すると共に、ユーザ端末1BのHMD110の動きに応じてアバター4Bの視野CVを更新する。次に、制御部121は、更新された仮想空間データと更新されたアバター4Bの視野CVに基づいて視野画像データを更新した上で、更新された視野画像データに基づいて視野画像をHMD110に表示する(ステップS57)。 Next, the control unit 121 updates the virtual space data indicating the virtual space 200B, and updates the visual field CV of the avatar 4B according to the movement of the HMD 110 of the user terminal 1B. Next, the control unit 121 updates the field of view image data based on the updated virtual space data and the updated field of view CV of the avatar 4B, and then displays the field of view image on the HMD 110 based on the updated field of view image data. (Step S57).

このように、仮想空間200Bにおいてアバター4Aの姿勢および顔の表示がデフォルト設定の状態(目を閉じて横たわった状態)で表示されていることで、ユーザBは、ユーザAがHMD110を装着しておらず、仮想空間200Bに提供されるコンテンツに参加していないことを容易に認識することができる。 In this way, in the virtual space 200B, the posture and face display of the avatar 4A are displayed in the default setting state (the state in which the eyes are closed and lying down), so that the user B wears the HMD 110 and the user A wears the HMD 110. It can be easily recognized that the user does not participate in the content provided in the virtual space 200B.

次に、ユーザ端末1Bの制御部121は、ステップS56で視野画像を更新した後に、仮想空間200Bにおいて、ユーザBに関連付けられたアバター4BがユーザAに関連付けられたアバター4Aに対して特定アクション(第1アクションの一例)を実行したかどうかを判定する(ステップS58)。 Next, the control unit 121 of the user terminal 1B updates the field image in step S56, and then, in the virtual space 200B, the avatar 4B associated with the user B performs a specific action (the avatar 4B associated with the user A) with respect to the avatar 4A associated with the user A. It is determined whether or not (an example of the first action) has been executed (step S58).

アバター4Bがアバター4Aに対して実行する特定アクションは、例えば、アバター4Aとアバター4Bとの身体的干渉を伴う動作を含む。アバター4Aとアバター4Bとの身体的干渉は、他のオブジェクトとの衝突を検出するためのコライダ(コリジョンオブジェクト)を用いて検知される。図示は省略するが、コライダは、アバター4A,4Bの身体に関連付けられており、アバター4Aとアバター4Bとのコリジョン判定(当たり判定)に供される。例えば、コライダが設定されたアバター4Bの仮想手400がコライダが設定されたアバター4Aに接触することで、アバター4Bとアバター4Aとが接触したことが判定される。コライダは、アバター4A,4Bの身体の全体範囲に設定されてもよく、アバター4A,4Bの身体の特定箇所(例えば、手、足、頭、肩、腰など)に設定されてもよい。特に、仮想手400においては各指先にコライダが設定されており、当たり判定もそれぞれの指において独立に検知されることが好ましい。これにより、他のオブジェクトと指との当たり判定を正確に行うことができる。尚、コライダは、透明体として構成されており、視野画像V(図8)内に表示されるものではない。 The specific action performed by Avatar 4B on Avatar 4A includes, for example, an action involving physical interference between Avatar 4A and Avatar 4B. The physical interference between the avatar 4A and the avatar 4B is detected by using a collider (collider object) for detecting a collision with another object. Although not shown, the collider is associated with the bodies of the avatars 4A and 4B, and is used for collision determination (hit determination) between the avatar 4A and the avatar 4B. For example, when the virtual hand 400 of the avatar 4B in which the collider is set comes into contact with the avatar 4A in which the collider is set, it is determined that the avatar 4B and the avatar 4A are in contact with each other. The collider may be set in the entire body range of the avatars 4A, 4B, or may be set in a specific part of the body of the avatars 4A, 4B (for example, hands, feet, head, shoulders, hips, etc.). In particular, in the virtual hand 400, it is preferable that a collider is set for each fingertip and the collision determination is also detected independently for each finger. This makes it possible to accurately determine the collision between another object and the finger. The collider is configured as a transparent body and is not displayed in the visual field image V (FIG. 8).

尚、上記の例では、制御部121は、アバター4Bの動き(例えば、仮想手400の動き)に基づいてアバター4Aに対するアバター4Bの当たり判定を特定しているが、この例に限られない。例えば、制御部121は、ユーザBの動き(例えば、ユーザBの手の動き)に基づいてアバター4Aに対する当たり判定を特定してもよい。 In the above example, the control unit 121 specifies the collision determination of the avatar 4B with respect to the avatar 4A based on the movement of the avatar 4B (for example, the movement of the virtual hand 400), but the present invention is not limited to this example. For example, the control unit 121 may specify the collision determination for the avatar 4A based on the movement of the user B (for example, the movement of the hand of the user B).

身体的干渉を伴う動作を含む特定アクションとは、例えば、アバター4Bが仮想手400を用いてアバター4Aに触れる動作の他、アバター4Aの身体を掴んで揺さぶる動作や、アバター4Aを叩く(例えば、アバター4Aの顔や肩を平手打ちする)動作等を含み得る。特定アクションは、反復運動を含んだ動作、すなわち、仮想手400の反復運動の過程でアバター4Aに接触する動作としてもよい。このようにすれば、アバター4BがユーザBの誤操作により誤ってアバター4Aに触れてしまった場合であっても、特定アクションではないことを検知でき、仮想手400の動作の誤検知を防止することができる。 Specific actions including actions involving physical interference include, for example, the action of the avatar 4B touching the avatar 4A using the virtual hand 400, the action of grabbing and shaking the body of the avatar 4A, and the action of hitting the avatar 4A (for example,). It may include an action (slap the face or shoulder of Avatar 4A) and the like. The specific action may be an action including a repetitive motion, that is, an motion of touching the avatar 4A in the process of the repetitive motion of the virtual hand 400. By doing so, even if the avatar 4B accidentally touches the avatar 4A due to the erroneous operation of the user B, it can be detected that it is not a specific action, and the erroneous detection of the operation of the virtual hand 400 can be prevented. Can be done.

例えば、図20に示すように、アバター4Bが仮想手400によりアバター4Aの身体(例えば、胴体)を掴んだ状態で、仮想手400の反復運動がなされた場合には、制御部121は、特定アクションとして揺さぶり動作が実行されたと特定する。仮想手400によるアバター4Aの身体の掴み(選択)は、例えば、仮想手400のコライダとアバター4Aの身体のコライダとが接触された状態で、ユーザBが外部コントローラ320の図示せぬキーを操作(押下)することで実現できる。この揺さぶり動作は、一定値以上の加速度での仮想手400の反復運動の過程におけるアバター4Aへの接触動作を含んでもよい。例えば、図20に示す状態の場合、仮想手400でアバター4Aの身体を掴んだ状態で、仮想手400をz軸方向に往復移動させ、+z軸方向における加速度が一定値以上であり、かつ、-z軸方向における加速度が一定値以上である状態が連続して所定回数以上続く場合、揺さぶり動作としてもよい。但し、仮想手400を往復移動させる方向はz軸方向に限定されるものではなく、任意の方向でよい。また、揺さぶり動作は、仮想手400がアバター4Aに関連付けられた1以上の相対座標を一定時間内に所定の回数以上往復する動作を含んでもよい。例えば、図20に示す状態の場合、1以上の相対座標は、仮想手400で掴まれたアバター4Aの身体の箇所を基準に、+z軸方向の任意の位置に設けられた第1の相対座標、及び-z軸方向の任意の位置に設けられた第2の相対座標が挙げられる。この例では、仮想手400でアバター4Aの身体を掴んだ状態で、仮想手400をz軸方向に往復移動させ、第1の相対座標を一定時間内に所定の回数以上往復するとともに、第2の相対座標を一定時間内に所定の回数以上往復する場合、揺さぶり動作としてもよい。但し、仮想手400を往復移動させる方向はz軸方向に限定されるものではなく、任意の方向でよい。この場合、仮想手400に対する相対座標も、任意の方向に対して設ければよい。 For example, as shown in FIG. 20, when the virtual hand 400 is repeatedly moved while the avatar 4B is holding the body (for example, the torso) of the avatar 4A by the virtual hand 400, the control unit 121 specifies. Identify that the shaking action was performed as an action. In grasping (selecting) the body of the avatar 4A by the virtual hand 400, for example, the user B operates a key (not shown) of the external controller 320 in a state where the collider of the virtual hand 400 and the collider of the body of the avatar 4A are in contact with each other. This can be achieved by pressing (pressing). This shaking motion may include a contact motion with the avatar 4A in the process of repetitive motion of the virtual hand 400 at an acceleration of a certain value or more. For example, in the state shown in FIG. 20, the virtual hand 400 is reciprocated in the z-axis direction while the body of the avatar 4A is grasped by the virtual hand 400, the acceleration in the + z-axis direction is equal to or higher than a certain value, and the virtual hand 400 is reciprocated. When the state in which the acceleration in the −z-axis direction is equal to or higher than a certain value continues for a predetermined number of times or more, the shaking operation may be performed. However, the direction in which the virtual hand 400 is reciprocated is not limited to the z-axis direction, and may be any direction. Further, the shaking motion may include an motion in which the virtual hand 400 reciprocates one or more relative coordinates associated with the avatar 4A a predetermined number of times or more within a fixed time. For example, in the state shown in FIG. 20, the relative coordinates of 1 or more are the first relative coordinates provided at arbitrary positions in the + z-axis direction with respect to the body portion of the avatar 4A grasped by the virtual hand 400. , And a second relative coordinate provided at an arbitrary position in the −z axis direction. In this example, while the body of the avatar 4A is grasped by the virtual hand 400, the virtual hand 400 is reciprocated in the z-axis direction, the first relative coordinates are reciprocated a predetermined number of times or more within a certain time, and the second. When the relative coordinates of the above are reciprocated more than a predetermined number of times within a certain time, the shaking operation may be performed. However, the direction in which the virtual hand 400 is reciprocated is not limited to the z-axis direction, and may be any direction. In this case, the relative coordinates with respect to the virtual hand 400 may also be provided in any direction.

尚、ユーザB自身が揺さぶりと認識して行った動作について、特定アクションが実行されたと判定することが好ましい。つまり、揺さぶる方向は、画一的ではなく、ユーザによって異なることが想定されるため、仮想手400の移動方向はいずれの方向であってもよく、特定の方向に限定する必要はない。ただし、特定アクションの動作を厳密に判定したり、アバター4Bの動作にリアリティを持たせたりする(例えば、仮想手400のアバター4Aに対するめり込み等を防止する)必要がある場合には、制御部121は、仮想手400の移動方向を加味して、特定の方向に反復運動がなされた場合に揺さぶり動作があったものと判定してもよい。 It is preferable to determine that the specific action has been executed for the operation performed by the user B himself / herself as a shaking. That is, since the shaking direction is not uniform and is assumed to differ depending on the user, the moving direction of the virtual hand 400 may be any direction and does not need to be limited to a specific direction. However, when it is necessary to strictly determine the operation of a specific action or to give reality to the operation of the avatar 4B (for example, to prevent the virtual hand 400 from getting stuck in the avatar 4A), the control unit 121 May determine that there was a shaking motion when the repetitive motion was performed in a specific direction in consideration of the moving direction of the virtual hand 400.

一方、アバター4Bが仮想手400によりアバター4Aの身体を掴んでいない状態で、仮想手400が一定加速度以上でアバター4Aへ接触(コライダ衝突)した場合には、制御部121は、特定アクションとして叩き動作が実行されたと特定する。仮想手400の動作の誤検知を防止するため、叩き動作は、特に仮想手400の一定加速度以上の反復運動がなされると共に当該反復運動の過程におけるアバター4Aへの複数回の接触動作(コライダ衝突)を含むことが好ましい(具体的には、往復ビンタ動作)。例えば、図19に示す状態の場合、仮想手400をy軸方向に往復移動させ、+y軸方向における加速度が一定値以上であり、かつ、-y軸方向における加速度が一定値以上である状態で、仮想手400のコライダとアバター4Aの顔のコライダとの接触が所定回数以上起こると、叩き動作としてもよい。但し、仮想手400を往復移動させる方向はy軸方向に限定されるものではなく、任意の方向でよい。この往復ビンタ動作は、例えば、アバター4Bの仮想手400がアバター4Aに関連付けられた相対座標を一定時間内に所定の回数以上往復するとともに、一定時間内にアバター4Aへの複数回の接触動作(当たり判定)があったことにより特定されてもよい。例えば、図19に示す状態の場合、1以上の相対座標は、アバター4Aの顔を基準に、+y軸方向の任意の位置に設けられた第1の相対座標、及び-y軸方向の任意の位置に設けられた第2の相対座標が挙げられる。この例では、仮想手400をy軸方向に往復移動させ、第1の相対座標を一定時間内に所定の回数以上往復するとともに、第2の相対座標を一定時間内に所定の回数以上往復する状態で、仮想手400のコライダとアバター4Aの顔のコライダとの接触が所定回数以上起こると、叩き動作としてもよい。但し、仮想手400を往復移動させる方向はy軸方向に限定されるものではなく、任意の方向でよい。この場合、仮想手400に対する相対座標も、任意の方向に対して設ければよい。ただし、制御部121は、仮想手400の移動方向を加味して、特定の方向に反復運動がなされた場合に叩き動作があったものと判定してもよい。 On the other hand, when the avatar 4B does not grasp the body of the avatar 4A by the virtual hand 400 and the virtual hand 400 contacts the avatar 4A (collider collision) at a certain acceleration or higher, the control unit 121 strikes as a specific action. Identify that the action was performed. In order to prevent erroneous detection of the motion of the virtual hand 400, the slap motion is particularly a repetitive motion of the virtual hand 400 having a certain acceleration or more, and a plurality of contact motions (colider collision) with the avatar 4A in the process of the repetitive motion. ) Is preferably included (specifically, reciprocating slap operation). For example, in the state shown in FIG. 19, the virtual hand 400 is reciprocated in the y-axis direction, and the acceleration in the + y-axis direction is at least a certain value and the acceleration in the −y-axis direction is at least a certain value. When the collider of the virtual hand 400 and the collider of the face of the avatar 4A come into contact with each other more than a predetermined number of times, the tapping motion may be performed. However, the direction in which the virtual hand 400 is reciprocated is not limited to the y-axis direction, and may be any direction. In this round-trip slap operation, for example, the virtual hand 400 of the avatar 4B reciprocates the relative coordinates associated with the avatar 4A a predetermined number of times or more within a fixed time, and the virtual hand 400 touches the avatar 4A a plurality of times within a fixed time. It may be specified by the fact that there is a hit determination). For example, in the state shown in FIG. 19, the relative coordinates of 1 or more are the first relative coordinates provided at an arbitrary position in the + y-axis direction with respect to the face of the avatar 4A, and any arbitrary coordinates in the −y-axis direction. A second relative coordinate provided at the position can be mentioned. In this example, the virtual hand 400 is reciprocated in the y-axis direction, the first relative coordinates are reciprocated a predetermined number of times or more within a fixed time, and the second relative coordinates are reciprocated a predetermined number of times or more within a fixed time. In the state, when the collider of the virtual hand 400 and the collider of the face of the avatar 4A occur more than a predetermined number of times, the tapping operation may be performed. However, the direction in which the virtual hand 400 is reciprocated is not limited to the y-axis direction, and may be any direction. In this case, the relative coordinates with respect to the virtual hand 400 may also be provided in any direction. However, the control unit 121 may determine that the tapping motion is performed when the repetitive motion is performed in a specific direction in consideration of the moving direction of the virtual hand 400.

尚、アバター4Aは、アバター4Bの動きに追従して動作するように設定されてもよい。例えば、図20に示すように、アバター4Bがアバター4Aに対して揺さぶり動作を実行した場合には、制御部121は、アバター4Aが当該揺さぶり動作に追従して揺さぶられるようにアバター4Aの動きを設定し得る。ただし、アバター4Bがアバター4Aに対して揺さぶり動作や叩き動作を行った場合に、アバター4Aがその動きに追従しない、すなわち、動かないように設定してもよい。 The avatar 4A may be set to follow the movement of the avatar 4B. For example, as shown in FIG. 20, when the avatar 4B executes the shaking motion with respect to the avatar 4A, the control unit 121 moves the avatar 4A so that the avatar 4A is shaken following the shaking motion. Can be set. However, when the avatar 4B performs a shaking motion or a tapping motion with respect to the avatar 4A, the avatar 4A may be set not to follow the motion, that is, to not move.

次に、制御部121は、アバター4Bがアバター4Aに対して特定アクションを実行したと判定した場合に(ステップS58のYES)、ユーザBにより当該特定アクションが実行されたことを示す情報(アクション実行情報)を生成する(ステップS60)。その後、制御部121は、通信ネットワーク3を介してアクション実行情報をサーバ2に送信する(ステップS61)。 Next, when the control unit 121 determines that the avatar 4B has executed the specific action on the avatar 4A (YES in step S58), the information indicating that the specific action has been executed by the user B (action execution). Information) is generated (step S60). After that, the control unit 121 transmits the action execution information to the server 2 via the communication network 3 (step S61).

次に、サーバ2は、ユーザ端末1Bから受信したアクション実行情報に基づいて、ユーザAに仮想空間200で提供されるコンテンツへの参加を打診するための参加打診通知に関する情報(参加打診通知情報)を生成する(ステップS62)。参加打診通知とは、HMD110を取り外しているユーザAに、仮想空間200で提供されるコンテンツへ参加することを打診するための通知である。参加打診通知情報には、例えば、特定アクションを実行したアバター4Bの識別情報、特定アクションを受けたアバター4Aの識別情報に加えて、特定アクションの種類や特定アクションの動作の強度等が含まれてもよい。 Next, the server 2 uses information regarding the participation consultation notification for asking the user A to participate in the content provided in the virtual space 200 based on the action execution information received from the user terminal 1B (participation consultation notification information). Is generated (step S62). The participation consultation notification is a notification for asking the user A who has removed the HMD 110 to participate in the content provided in the virtual space 200. The participation consultation notification information includes, for example, the identification information of the avatar 4B that executed the specific action, the identification information of the avatar 4A that received the specific action, the type of the specific action, the strength of the action of the specific action, and the like. May be good.

次に、サーバ2は、生成された参加打診通知情報に基づき、ユーザAの個人情報を特定する(ステップS63)。例えば、ユーザAの個人情報(例えば、メールアドレスやSNS(Social Networking Service)アドレス等)がサーバ2の記憶部22に記憶された情報テーブルに予め登録され、アバター4Aの識別情報と関連付けられて管理されている。ステップS63において、サーバ2は、記憶部22に記憶された情報テーブルを参照して、参加打診通知情報に含まれるアバター4Aの識別情報に基づき、ユーザAの個人情報を取得する。但し、ユーザAの個人情報は、サーバ2とは異なるサーバで管理されていてもよい。サーバ2とは異なるサーバとしては、例えば、個人情報が登録されたユーザに対してゲームプログラムを配信可能なサーバ、即ち、ゲーム配信のプラットフォームの役割を担うサーバなどが挙げられるが、これに限定されるものではない。 Next, the server 2 identifies the personal information of the user A based on the generated participation consultation notification information (step S63). For example, the personal information of the user A (for example, an e-mail address, an SNS (Social Networking Service) address, etc.) is registered in advance in an information table stored in the storage unit 22 of the server 2, and is managed in association with the identification information of the avatar 4A. Has been done. In step S63, the server 2 refers to the information table stored in the storage unit 22 and acquires the personal information of the user A based on the identification information of the avatar 4A included in the participation consultation notification information. However, the personal information of the user A may be managed by a server different from the server 2. Examples of the server different from the server 2 include, for example, a server capable of distributing a game program to a user in which personal information is registered, that is, a server playing the role of a game distribution platform, and the like, but the server is limited to this. It's not something.

次に、サーバ2は、ステップS63において取得した送信先(例えば、ユーザAのメールアドレス)へ、参加打診通知情報を送信する(ステップS64)。ユーザAへの参加打診通知情報の送信方法としては、例えば、電子メール、チャット、SNS等のコミュニケーションツールを用いることができる。 Next, the server 2 transmits the participation consultation notification information to the destination (for example, the email address of the user A) acquired in step S63 (step S64). As a method of transmitting the participation consultation notification information to the user A, for example, a communication tool such as e-mail, chat, or SNS can be used.

次に、ユーザ端末5は、参加打診通知情報をコミュニケーションツールにより受信し、参加打診通知情報の受信通知を表示部6に表示する(ステップS65)。ユーザ端末5は、ユーザAが所有する端末機器であり、例えば、スマートフォン、PDA(Personal Digital Assistant)、タブレットまたはファブレット型コンピュータ、ウェアラブルデバイス等の携帯可能な端末であってもよいし、パーソナルコンピュータ、ビデオゲーム機器等であってもよい。 Next, the user terminal 5 receives the participation consultation notification information by the communication tool, and displays the reception notification of the participation consultation notification information on the display unit 6 (step S65). The user terminal 5 is a terminal device owned by the user A, and may be a portable terminal such as a smartphone, a PDA (Personal Digital Assistant), a tablet or a fablet type computer, a wearable device, or a personal computer. , A video game device, or the like.

次に、ユーザ端末5は、受信通知を見たユーザAによる入力操作に基づき、コミュニケーションツールを起動し、図21に示すように、メッセージM1を表示部6に表示する(ステップS66)。メッセージM1は、ユーザBがユーザAに対して仮想空間200への参加を打診していることを示す情報(例えば、「たった今、[コンテンツ名(例えば、仮想空間200に提供されるコンテンツの名前)]の中で[相手プレイヤ名(例えば、ユーザB)]からコミュニケーションを受けています。[コンテンツ]を起動させて、会いに行きましょう!」等)を含む。尚、ユーザ端末5がパーソナルコンピュータやビデオゲーム機器であり、これらの機器のディスプレイにも仮想空間200で提供されるコンテンツの映像が表示されている場合には、そのディスプレイ上に参加打診通知に関するメッセージを表示してもよい。また、メッセージM1は、ユーザ端末1AのHMD110の装着をユーザAに促すメッセージであってもよい。 Next, the user terminal 5 activates the communication tool based on the input operation by the user A who sees the reception notification, and displays the message M1 on the display unit 6 as shown in FIG. 21 (step S66). The message M1 is information indicating that the user B is asking the user A to participate in the virtual space 200 (for example, "just now [content name (for example, the name of the content provided in the virtual space 200)). ], The communication is received from [the other player's name (for example, user B)]. Start [Content] and go to see you! "). If the user terminal 5 is a personal computer or a video game device, and the display of these devices also displays an image of the content provided in the virtual space 200, a message regarding the participation consultation notification is displayed on the display. May be displayed. Further, the message M1 may be a message prompting the user A to attach the HMD 110 of the user terminal 1A.

次に、ユーザ端末5は、メッセージM1が表示部6に表示されたことに基づき、ユーザAがメッセージM1を読了したと判定し、メッセージM1が既読となったことを示す既読情報を生成する(ステップS67)。既読情報は、メッセージM1に対するユーザAのリアクションに基づいて生成されるものであり、例えば、メール返信や「いいね!」ポイントの付与等に基づいて生成されてもよい。その後、ユーザ端末5は、通信ネットワークを介して既読情報をサーバ2に送信する(ステップS68)。 Next, the user terminal 5 determines that the user A has read the message M1 based on the fact that the message M1 is displayed on the display unit 6, and generates read information indicating that the message M1 has been read. (Step S67). The read information is generated based on the reaction of the user A to the message M1, and may be generated, for example, based on a mail reply, a "like" point, or the like. After that, the user terminal 5 transmits the read information to the server 2 via the communication network (step S68).

次に、サーバ2は、既読情報をユーザ端末5から受信した後に、通信ネットワーク3を介して既読情報をユーザ端末1Bに送信する(ステップS69)。 Next, the server 2 receives the read information from the user terminal 5, and then transmits the read information to the user terminal 1B via the communication network 3 (step S69).

次に、ユーザ端末1Bの制御部121は、サーバ2から受信した既読情報に基づいて、仮想空間200Bに配置されたアバター4Aの顔の表情を更新された顔の表情に設定する(ステップS70)。例えば、制御部121は、図22に示すように、目を閉じた状態(第1状態の一例)であったアバター4Aの表情を、目を開けた状態(第2状態の一例)に更新する。 Next, the control unit 121 of the user terminal 1B sets the facial expression of the avatar 4A arranged in the virtual space 200B to the updated facial expression based on the read information received from the server 2 (step S70). ). For example, as shown in FIG. 22, the control unit 121 updates the facial expression of the avatar 4A, which was in the state where the eyes are closed (an example of the first state), to the state where the eyes are open (an example of the second state). ..

尚、ステップS70において、制御部121は、サーバ2から受信した既読情報に基づいて、アバター4Aの姿勢を更新してもよい。例えば、横たわっていた状態のアバター4Aの姿勢を座っている状態に更新してもよい。 In step S70, the control unit 121 may update the posture of the avatar 4A based on the read information received from the server 2. For example, the posture of the avatar 4A in the lying state may be updated to the sitting state.

次に、制御部121は、仮想空間200Bを示す仮想空間データを更新すると共に、ユーザ端末1BのHMD110の動きに応じてアバター4Bの視野CVを更新する。次に、制御部121は、更新された仮想空間データと更新されたアバター4Bの視野CVに基づいて視野画像データを更新した上で、更新された視野画像データに基づいて視野画像をHMD110に表示する(ステップS71)。これにより、ユーザBは、アバター4Aが目を開けた状態となったことを視認することで、ユーザAが参加打診通知に対するリアクションを行ったことを容易に把握することができる。 Next, the control unit 121 updates the virtual space data indicating the virtual space 200B, and updates the visual field CV of the avatar 4B according to the movement of the HMD 110 of the user terminal 1B. Next, the control unit 121 updates the field of view image data based on the updated virtual space data and the updated field of view CV of the avatar 4B, and then displays the field of view image on the HMD 110 based on the updated field of view image data. (Step S71). As a result, the user B can easily grasp that the user A has made a reaction to the participation consultation notification by visually recognizing that the avatar 4A is in the open state.

一方、ステップS72において、サーバ2は、ユーザ端末1Bに加えて、ユーザ端末1Aに対しても既読情報を送信する。 On the other hand, in step S72, the server 2 transmits the read information to the user terminal 1A in addition to the user terminal 1B.

次に、ユーザ端末1Aの制御部121は、既読情報の受信から一定時間内に、ユーザAがHMD110を装着したかどうかを判定する(ステップS73)。制御部121は、HMDセンサ114から送信されたHMD110の傾き情報又は装着センサ115から送信されたイベント情報に基づいて、ユーザAがHMD110を装着したかどうかを判定してもよい。ユーザAがHMD110を装着したかどうかの判定は、HMDセンサ114で取得されるHMD110の傾き(ロール角、ヨー角、ピッチ角)を示す傾き情報に基づいて、HMD110の傾きが所定の傾きよりも小さいかどうかで判定し得る。上述の通り、ユーザAがHMD110を装着している間では、HMD110の傾きは所定の傾き以下となるため、HMD110の傾きが所定の傾きよりも小さい場合には、ユーザAがHMD110を装着していることが特定される。 Next, the control unit 121 of the user terminal 1A determines whether or not the user A wears the HMD 110 within a certain period of time after receiving the read information (step S73). The control unit 121 may determine whether or not the user A has attached the HMD 110 based on the tilt information of the HMD 110 transmitted from the HMD sensor 114 or the event information transmitted from the attachment sensor 115. The determination of whether or not the user A has attached the HMD 110 is based on the inclination information indicating the inclination (roll angle, yaw angle, pitch angle) of the HMD 110 acquired by the HMD sensor 114, and the inclination of the HMD 110 is larger than the predetermined inclination. It can be judged by whether it is small or not. As described above, while the user A is wearing the HMD 110, the inclination of the HMD 110 is equal to or less than the predetermined inclination. Therefore, when the inclination of the HMD 110 is smaller than the predetermined inclination, the user A wears the HMD 110. Is identified.

ステップS73においてユーザAがHMD110を装着したと判定された場合には(ステップS73のYES)、ユーザ端末1Aの制御部121は、スリープモードからアクティブモードに移行する(ステップS74)。次に、アクティブモードに移行した制御部121は、アバター4Aの制御情報を生成すると共に、ユーザAがHMD110を装着したことを示す装着情報を生成する(ステップS75)。その後、制御部121は、通信ネットワーク3を介してアバター4Aの制御情報と装着情報をサーバ2に送信する(ステップS76)。 When it is determined in step S73 that the user A has attached the HMD 110 (YES in step S73), the control unit 121 of the user terminal 1A shifts from the sleep mode to the active mode (step S74). Next, the control unit 121 that has transitioned to the active mode generates control information for the avatar 4A and also generates wearing information indicating that the user A has worn the HMD 110 (step S75). After that, the control unit 121 transmits the control information and the wearing information of the avatar 4A to the server 2 via the communication network 3 (step S76).

次に、サーバ2は、アバター4Aの制御情報と装着情報をユーザ端末1Aから受信した後に、通信ネットワーク3を介してアバター4Aの制御情報と装着情報をユーザ端末1Bに送信する(ステップS77)。 Next, the server 2 receives the control information and the wearing information of the avatar 4A from the user terminal 1A, and then transmits the control information and the wearing information of the avatar 4A to the user terminal 1B via the communication network 3 (step S77).

次に、ユーザ端末1Bの制御部121は、アバター4Aの制御情報に基づいてアバター4Aの動作を更新する共に、アバター4Bの制御情報に基づいてアバター4Bの動作を更新する(ステップS78)。特に、制御部121は、アバター4Aの装着情報に基づいて、アバター4Aの姿勢を更新する。また制御部121は、アバター4Bの制御情報に含まれるアバター4Bの顔情報に基づいて、アバター4Bの顔の表情を更新してもよい。具体的には、制御部121は、例えば、図23に示すように、アバター4Aの姿勢を、起き上がった状態(第3状態の一例)に設定する。 Next, the control unit 121 of the user terminal 1B updates the operation of the avatar 4A based on the control information of the avatar 4A, and updates the operation of the avatar 4B based on the control information of the avatar 4B (step S78). In particular, the control unit 121 updates the posture of the avatar 4A based on the wearing information of the avatar 4A. Further, the control unit 121 may update the facial expression of the avatar 4B based on the face information of the avatar 4B included in the control information of the avatar 4B. Specifically, the control unit 121 sets the posture of the avatar 4A to a raised state (an example of a third state), for example, as shown in FIG. 23.

尚、図17に示す実施形態と同様に、制御部121は、アバター4Aに関連付けられた吹き出しオブジェクトを仮想空間200Bに生成してもよい。吹き出しオブジェクトには、ユーザAがHMD110を装着したことを示す情報(例えば、「ユーザAは席に戻りました。」等)が表示される。 As in the embodiment shown in FIG. 17, the control unit 121 may generate a balloon object associated with the avatar 4A in the virtual space 200B. Information indicating that the user A has attached the HMD 110 (for example, "User A has returned to the seat", etc.) is displayed in the balloon object.

その後、制御部121は、仮想空間200Bを示す仮想空間データを更新すると共に、ユーザ端末1BのHMD110の動きに応じてアバター4Bの視野CVを更新する。次に、制御部121は、更新された仮想空間データと更新されたアバター4Bの視野CVに基づいて視野画像データを更新した上で、更新された視野画像データに基づいて視野画像をHMD110に表示する(ステップS79)。 After that, the control unit 121 updates the virtual space data indicating the virtual space 200B, and updates the visual field CV of the avatar 4B according to the movement of the HMD 110 of the user terminal 1B. Next, the control unit 121 updates the field of view image data based on the updated virtual space data and the updated field of view CV of the avatar 4B, and then displays the field of view image on the HMD 110 based on the updated field of view image data. (Step S79).

一方、ステップS73において、既読情報の受信から一定時間内に、ユーザAがHMD110を装着していないと判定された場合には(ステップS73のNO)、図24の処理に進む。次に、図24に示すように、制御部121は、ユーザAがHMD110を装着していないことを示す非装着情報を生成する(ステップS80)。その後、制御部121は、通信ネットワーク3を介して非装着情報をサーバ2に送信する(ステップS81)。 On the other hand, if it is determined in step S73 that the user A is not wearing the HMD 110 within a certain period of time from the reception of the read information (NO in step S73), the process proceeds to FIG. 24. Next, as shown in FIG. 24, the control unit 121 generates non-wearing information indicating that the user A is not wearing the HMD 110 (step S80). After that, the control unit 121 transmits the non-wearing information to the server 2 via the communication network 3 (step S81).

次に、サーバ2は、非装着情報をユーザ端末1Aから受信した後に、通信ネットワーク3を介して非装着情報をユーザ端末1Bに送信する(ステップS82)。 Next, the server 2 receives the non-wearing information from the user terminal 1A, and then transmits the non-wearing information to the user terminal 1B via the communication network 3 (step S82).

次に、ユーザ端末1Bの制御部121は、サーバ2から受信した非装着情報に基づいて、仮想空間200Bに配置されたアバター4Aの顔の表情をデフォルトの表情に設定する(ステップS83)。例えば、デフォルトの顔の表情が目を閉じた状態である場合、図19に示すように、アバター4Aの顔の表情は目を閉じた状態に更新される。なお、ステップS83の処理は、ユーザ端末1Bの制御部121が、既読情報の受信から一定時間を計測し、一定時間内にアバター4Aの制御情報と装着情報を受信しなければ、アバター4Aの顔の表情をデフォルトの表情に設定するようにしてもよい。尚、図18のステップS70において既読情報に基づいてアバター4Aの目が開いた状態となっている場合には、本ステップS83においてアバター4Aの顔の表情は目を閉じた状態に戻される。一方、参加打診通知が既読になっていない場合(ステップS66のNOの場合)には、アバター4Aは目を閉じた状態が維持されているため、本ステップS83においてアバター4Aの顔の表情は変更されない。 Next, the control unit 121 of the user terminal 1B sets the facial expression of the avatar 4A arranged in the virtual space 200B to the default facial expression based on the non-wearing information received from the server 2 (step S83). For example, when the default facial expression is a state in which the eyes are closed, the facial expression of the avatar 4A is updated to the state in which the eyes are closed, as shown in FIG. In the process of step S83, if the control unit 121 of the user terminal 1B measures a certain time from the reception of the read information and does not receive the control information and the wearing information of the avatar 4A within a certain time, the avatar 4A The facial expression may be set to the default facial expression. If the eyes of the avatar 4A are open based on the read information in step S70 of FIG. 18, the facial expression of the avatar 4A is returned to the closed state in the step S83. On the other hand, when the participation consultation notification has not been read (NO in step S66), the facial expression of the avatar 4A is changed in this step S83 because the avatar 4A is kept in a closed state. Not changed.

その後、制御部121は、仮想空間200Bを示す仮想空間データを更新すると共に、ユーザ端末1BのHMD110の動きに応じてアバター4Bの視野CVを更新する。次に、制御部121は、更新された仮想空間データと更新されたアバター4Bの視野CVに基づいて視野画像データを更新した上で、更新された視野画像データに基づいて視野画像をHMD110に表示する(ステップS84)。 After that, the control unit 121 updates the virtual space data indicating the virtual space 200B, and updates the visual field CV of the avatar 4B according to the movement of the HMD 110 of the user terminal 1B. Next, the control unit 121 updates the field of view image data based on the updated virtual space data and the updated field of view CV of the avatar 4B, and then displays the field of view image on the HMD 110 based on the updated field of view image data. (Step S84).

以上説明したように、変形例1に係る情報処理方法によれば、ユーザBの動きに応じて仮想空間200内で仮想手400を動かすステップと、ユーザAの動きに基づいて仮想空間200内での動作が制御可能なアバター4Aに対して、仮想手400による揺さぶり動作等のアクション(第1アクション)を実行するステップと、当該アクションの実行に基づいて、ユーザA(に関連付けられたユーザ端末5)に対して仮想空間200への参加を打診する参加打診通知の送信(第2アクション)を実行するステップと、を含む。この方法によれば、仮想手400を用いた直感的な操作により、仮想空間200を共有する複数のユーザA,B間で所定のアクションを実行することで、仮想空間200内でのコミュニケーションを、ユーザの没入感を損なうことなく円滑に行うことができる。このように、変形例1によれば、ユーザ間でのコミュニケーションのために、メニュー操作やキー操作を必要としないユーザ・インタフェース(いわゆる、ダイエジェティックUI)を提供することで、ユーザの仮想体験を向上させることができる。 As described above, according to the information processing method according to the first modification, the step of moving the virtual hand 400 in the virtual space 200 according to the movement of the user B and the step in the virtual space 200 based on the movement of the user A. Based on the step of executing an action (first action) such as a shaking motion by the virtual hand 400 on the avatar 4A whose movement can be controlled, and the execution of the action, the user terminal 5 associated with the user A (is associated with). ) To send a participation consultation notification (second action) to ask for participation in the virtual space 200, and the like. According to this method, communication in the virtual space 200 can be performed by executing a predetermined action between a plurality of users A and B sharing the virtual space 200 by an intuitive operation using the virtual hand 400. It can be performed smoothly without impairing the user's immersive feeling. As described above, according to the first modification, the user's virtual experience is provided by providing a user interface (so-called dietic UI) that does not require menu operations or key operations for communication between users. Can be improved.

特に、ユーザBからアバター4Aに対して実行された特定アクションに基づいてユーザAに関連付けられたユーザ端末5へ参加打診通知を送信することで、ユーザBから仮想空間200に提供されるコンテンツへの参加が打診されていることをユーザAが容易に認識することができる。これにより、仮想空間200において複数ユーザが同時にプレイする必要のあるコンテンツ(例えば、マルチプレイゲーム)の利用を促進させることができる。 In particular, by transmitting the participation consultation notification from the user B to the user terminal 5 associated with the user A based on the specific action executed for the avatar 4A, the content provided from the user B to the virtual space 200 can be obtained. The user A can easily recognize that the participation has been consulted. This makes it possible to promote the use of content (for example, a multiplayer game) that needs to be played by a plurality of users at the same time in the virtual space 200.

また、変形例1に係る情報処理方法においては、ユーザAによりアバター4Aが制御されていない状態(すなわち、ユーザAがHMD110を装着していない状態)においてユーザBによるアバター4Aに対する特定アクションが実行された場合に、参加打診通知がユーザAに送信される。そのため、HMD110を装着していない状態のユーザAを仮想空間200で提供されるコンテンツへ誘引させることができ、コンテンツへの参加をさらに促進させることができる。特に、VRゲームでは、ルームに待機しているユーザ(アバター)が少ない場合、即ち、マルチプレイの相手の候補者が少ない場合、ユーザ(アバター)はとりあえずルームに入室するが、マルチプレイの候補者が現れるまでHMDを外して待機することが多いので、このような待機中のユーザをVRゲームのマルチプレイに効果的に誘引できる。 Further, in the information processing method according to the first modification, the user B executes a specific action on the avatar 4A in a state where the avatar 4A is not controlled by the user A (that is, a state in which the user A does not wear the HMD 110). If so, the participation consultation notification is sent to the user A. Therefore, the user A in the state where the HMD 110 is not attached can be attracted to the content provided in the virtual space 200, and the participation in the content can be further promoted. In particular, in a VR game, when there are few users (avatars) waiting in the room, that is, when there are few candidates for multiplayer opponents, the users (avatars) enter the room for the time being, but multiplayer candidates appear. Since the HMD is often removed and the user waits until, such a waiting user can be effectively attracted to the multiplayer of the VR game.

また、変形例1に係る情報処理方法は、参加打診通知に対してユーザAからリアクションが行われた場合(例えば、メッセージM1が既読になった場合)に、仮想空間200B内のアバター4Aを、目を閉じた状態(第1状態)から目を開けた状態(第2状態)へと遷移させるステップと、アバター4Aが目を開けた状態へ遷移した後に、一定時間内にユーザAによりアバター4Aが制御されている状態になった場合には、仮想空間200Bにおけるアバター4Aを起立した状態(第3状態)へと遷移させるステップと、をさらに含んでもよい。これにより、ユーザAからリアクションがあったことや、ユーザAがHMD110を装着してアバター4Aが制御されている状態となったことを、ユーザBが容易に把握することができる。 Further, in the information processing method according to the modification 1, when the user A reacts to the participation consultation notification (for example, when the message M1 is read), the avatar 4A in the virtual space 200B is used. , The step of transitioning from the closed eyes state (first state) to the open eyes state (second state), and after the transition of the avatar 4A to the open eyes state, the avatar by the user A within a certain period of time. When the 4A is in the controlled state, the step of transitioning the avatar 4A in the virtual space 200B to the upright state (third state) may be further included. As a result, the user B can easily grasp that there is a reaction from the user A and that the user A wears the HMD 110 and the avatar 4A is controlled.

一方で、アバター4Aが目を開けた状態へ遷移した後に、一定時間内にユーザAによりアバター4Aが制御されている状態にならない場合には、仮想空間200Bにおけるアバター4Aを、目を閉じた状態へと戻してもよい。これにより、参加打診通知を送信したにも関わらずユーザAによりアバター4Aが制御されている状態にならない(すなわち、ユーザAがコンテンツに参加していない)ことを、ユーザBが容易に把握することができる。そのため、ユーザBは、アバター4Aを再び揺さぶって仮想空間への参加を再度打診したり、仮想空間200を共有するユーザA以外の他のユーザに関連付けられたアバターに対して仮想空間への参加を打診したりすることができる。 On the other hand, if the avatar 4A is not controlled by the user A within a certain period of time after the avatar 4A transitions to the open state, the avatar 4A in the virtual space 200B is closed. You may return to. As a result, the user B can easily grasp that the avatar 4A is not controlled by the user A even though the participation consultation notification is transmitted (that is, the user A does not participate in the content). Can be done. Therefore, the user B shakes the avatar 4A again to ask for participation in the virtual space again, or the user B participates in the virtual space for an avatar associated with a user other than the user A who shares the virtual space 200. You can consult with them.

尚、ユーザAによりアバター4Aが制御されていない状態とは、ユーザAがHMD110を外している場合だけでなく、ユーザAが仮想空間200に提供されるコンテンツにそもそもログインしていない場合も含まれ得る。尚、ユーザAがコンテンツにログインしていない場合は、通常、アバター4Aは、ユーザBのユーザ端末1Bで提供される仮想空間200Bには存在しないが、ユーザBがユーザAをフレンド登録していれば、ユーザAが当該コンテンツにログインしていなくてもユーザAのアバター4Aは仮想空間200Bに存在させることができる。このフレンド登録の有無は、例えば、各ユーザの個人情報とともにサーバ2などに登録しておけばよい。この場合に、ユーザ端末1Bの制御部121は、ユーザAがコンテンツにログインしていないことに基づいて、仮想空間200Bに配置されたアバター4Aの姿勢および表情をデフォルト設定することができる(図18のステップS54)。このように、コンテンツにログインしていない状態のユーザAに関連付けられたアバター4Aを仮想空間200Bに存在させておき、アバター4Bからアバター4Aへの特定アクションの実行に基づいて、ユーザAへ参加打診通知を送信することで、ユーザAをコンテンツへログインさせるための動機づけを提供することができる。 The state in which the avatar 4A is not controlled by the user A includes not only the case where the user A has removed the HMD 110 but also the case where the user A has not logged in to the content provided in the virtual space 200 in the first place. obtain. If the user A is not logged in to the content, the avatar 4A does not normally exist in the virtual space 200B provided by the user terminal 1B of the user B, but the user B should register the user A as a friend. For example, the avatar 4A of the user A can exist in the virtual space 200B even if the user A is not logged in to the content. Whether or not this friend is registered may be registered in the server 2 or the like together with the personal information of each user, for example. In this case, the control unit 121 of the user terminal 1B can set the posture and facial expression of the avatar 4A arranged in the virtual space 200B by default based on the fact that the user A is not logged in to the content (FIG. 18). Step S54). In this way, the avatar 4A associated with the user A who is not logged in to the content is made to exist in the virtual space 200B, and the user A is consulted based on the execution of the specific action from the avatar 4B to the avatar 4A. By sending the notification, the motivation for user A to log in to the content can be provided.

また、アバター4Bによるアバター4Aに対する特定アクションの動作の強度に応じて、参加打診通知(メッセージM1)の内容が異なっていてもよい。例えば、仮想手400による動作の加速度に対して、複数のしきい値を段階的に設け、その加速度のしきい値に応じて、メッセージM1の内容を変更してもよい。例えば、メッセージM1に参加要望度に関する情報を含め、揺さぶり動作の強さに応じて、参加要望度に関する情報を変更してもよい。具体的には、揺さぶり動作が激しい場合には、メッセージM1としてユーザBからの参加要望度が高いことを示す内容(例えば、「参加要望度:☆☆☆(星3つ)」)を表示するようにしてもよい。尚、仮想手400がアバター4Aに関連付けられた相対座標を通過する回数について所定のしきい値を設け、その通過回数のしきい値に応じて、特定アクションの動作の強度を特定してもよい。 Further, the content of the participation consultation notification (message M1) may be different depending on the strength of the action of the specific action for the avatar 4A by the avatar 4B. For example, a plurality of threshold values may be set stepwise with respect to the acceleration of the operation by the virtual hand 400, and the content of the message M1 may be changed according to the threshold value of the acceleration. For example, the message M1 may include information on the degree of request for participation, and the information on the degree of request for participation may be changed according to the strength of the shaking motion. Specifically, when the shaking motion is intense, the content indicating that the participation request from the user B is high (for example, "participation request: ☆☆☆ (3 stars)") is displayed as the message M1. You may do so. It should be noted that a predetermined threshold value may be set for the number of times the virtual hand 400 passes through the relative coordinates associated with the avatar 4A, and the intensity of the action of the specific action may be specified according to the threshold value of the number of times of passing. ..

また、アバター4Aに対して複数のアバターが同時に(あるいは協働して)特定アクションを行った場合に、メッセージM1の内容を変更してもよい。この場合は、アバターAを複数のアバターにより同時に掴むことができるように、アバターAの身体の特定箇所ごとに専用のコライダを設けておくことが好ましい。これにより、複数のアバターによるアバター4Aの揺さぶり動作が可能となる。なお、このケースでは、アバター4Aに対して特定アクションを行うユーザ数が多いほど、参加要望度を高くすることが好ましい。 Further, when a plurality of avatars simultaneously (or collaborate) perform a specific action on the avatar 4A, the content of the message M1 may be changed. In this case, it is preferable to provide a dedicated collider for each specific part of the body of the avatar A so that the avatar A can be grasped by a plurality of avatars at the same time. This enables the shaking operation of the avatar 4A by a plurality of avatars. In this case, it is preferable that the larger the number of users who perform a specific action on the avatar 4A, the higher the degree of request for participation.

また、アバター4Aに対して実行される特定アクションの種類に応じて、メッセージM1の内容が異なっていてもよい。例えば、アバター4Bがアバター4Aを平手打ちした場合には、アバター4Bがアバター4Aを揺さぶった場合に比べて、メッセージM1に表示される参加要望度を高くしてもよい。 Further, the content of the message M1 may be different depending on the type of the specific action executed on the avatar 4A. For example, when the avatar 4B slaps the avatar 4A, the degree of participation request displayed in the message M1 may be higher than when the avatar 4B shakes the avatar 4A.

このように、アバター4Bによるアバター4Aに対する特定アクションの動作の強度や特定アクションの種類に応じて、参加打診通知の内容を異ならせることにより、ユーザAは、ユーザBからのコンテンツへの参加要望度の高低を把握することができる。そのため、ユーザAは、要望度の高さに応じてコンテンツへ参加するかどうかを決めることができる。 In this way, by making the content of the participation consultation notification different according to the strength of the action of the specific action for the avatar 4B by the avatar 4B and the type of the specific action, the user A is requested to participate in the content from the user B. You can grasp the height of. Therefore, the user A can decide whether or not to participate in the content according to the high degree of request.

また、本実施形態においては、アバター4Bによるアバター4Aに対する特定アクションとして、身体的干渉を伴うアクションを例示しているが、この例に限られない。特定アクションは、ユーザAを特定するためのアクションであればよく、例えば、アバター4Bからアバター4Aに対して実行される特定アクションは、視線、声、レーザポインタ、顔の表情(笑顔、睨む等)、拍手などにより特定されてもよい。また、仮想空間200Bに表示されるアバター一覧(ユーザ一覧)からユーザBがコンテンツへの参加を打診したいアバター(ユーザ)を選択するようにしてもよい。すなわち、アバター4Bが実行する特定アクションは、アバター4Aに対する直接的なアクションでもよく、間接的なアクションでもよい。また、直接的なアクションと間接的なアクションとを組み合わせてもよい。 Further, in the present embodiment, an action accompanied by physical interference is exemplified as a specific action for the avatar 4A by the avatar 4B, but the action is not limited to this example. The specific action may be an action for identifying the user A. For example, the specific action executed from the avatar 4B to the avatar 4A is a line of sight, a voice, a laser pointer, a facial expression (smile, glaring, etc.). , Applause, etc. may be specified. Further, the user B may select an avatar (user) who wants to ask for participation in the content from the avatar list (user list) displayed in the virtual space 200B. That is, the specific action executed by the avatar 4B may be a direct action or an indirect action on the avatar 4A. Further, a direct action and an indirect action may be combined.

また、仮想空間200に提供されるコンテンツの内容に応じて、参加打診通知の送信タイミングを異ならせてもよい。例えば、マルチプレイの開始に必要なユーザの人数が3人以上である場合には、ユーザ端末1Bの制御部121は、ユーザBが、マルチプレイの開始に必要な人数の複数のアバターのうち最後のアバターに対して特定アクションを実行したと判定した場合に、ユーザ端末1Bの制御部121は、特定アクションを実行した複数のアバターにそれぞれ関連付けられた各ユーザに対して、まとめて参加打診通知を送信するようにしてもよい。尚、マルチプレイの開始に必要なユーザの人数が3人以上である場合であっても、ユーザ端末1Bの制御部121は、アバター4Bが各アバターに特定アクションを実行したタイミングで、各アバターに対して個別に参加打診通知を送信するようにしてもよい。 Further, the transmission timing of the participation consultation notification may be different depending on the content of the content provided in the virtual space 200. For example, when the number of users required to start multiplayer is three or more, the control unit 121 of the user terminal 1B is the last avatar among the plurality of avatars required to start multiplayer. When it is determined that the specific action has been executed, the control unit 121 of the user terminal 1B collectively sends a participation consultation notification to each user associated with the plurality of avatars that have executed the specific action. You may do so. Even if the number of users required to start multiplayer is three or more, the control unit 121 of the user terminal 1B performs a specific action on each avatar at the timing when the avatar 4B performs a specific action on each avatar. You may also send the participation consultation notification individually.

また、上記の実施形態においては、参加打診通知に対するユーザAのリアクション(例えば、参加打診通知に関するメッセージM1が既読となったこと)に基づいて、目を閉じていたアバター4Aの顔の表情を、目を開けた状態に更新しているが、この例に限られない。例えば、アバター4Bによるアバター4Aに対する特定アクションが実行されたことに基づいて、アバター4Aの目を開けた状態に更新してもよい。これにより、アバター4Aに対して特定アクションが適切に実行されたことを、ユーザBが容易に把握することができる。尚、ユーザAがHMD110を装着したことに基づいて、アバター4Aの目を開けた状態に更新してもよい。 Further, in the above embodiment, the facial expression of the avatar 4A with closed eyes is displayed based on the reaction of the user A to the participation consultation notification (for example, the message M1 regarding the participation consultation notification has been read). , I'm updating with my eyes open, but it's not limited to this example. For example, the avatar 4A may be updated with the eyes open based on the execution of the specific action on the avatar 4A by the avatar 4B. As a result, the user B can easily grasp that the specific action has been appropriately executed for the avatar 4A. It should be noted that, based on the fact that the user A wears the HMD 110, the avatar 4A may be updated with the eyes open.

また、変形例1に係る情報処理方法は、仮想空間200内でユーザBからユーザAに対して身体的干渉を伴う所定のアクション(第1アクションの一例)を実行するステップと、当該アクションの実行に基づいて、ユーザAに対する参加打診通知(第2アクションの一例)を実行するステップと、参加打診通知に対するユーザAのリアクション(例えば、参加打診通知に関するメッセージM1が既読となったこと)に基づいて、仮想空間200内でアバター4Aの姿勢および/または顔の表情の更新(第3アクションの一例)を実行するステップと、を含む。この方法によれば、ユーザAへ送信される参加打診通知に対するユーザAのリアクションに基づいて、ユーザAに関連付けられたアバター4Aの仮想空間200Bにおける姿勢や顔の表情を更新することで、仮想空間200内でのユーザA,B間でのコミュニケーションを円滑に行うことができる。このように、現実空間での参加打診通知に対するユーザAのリアクションを仮想空間200へ反映させることで、現実空間と仮想空間との境界を曖昧にするようなシームレスな仮想体験を提供することができる。 Further, the information processing method according to the modification 1 includes a step of executing a predetermined action (an example of the first action) accompanied by physical interference from the user B to the user A in the virtual space 200, and execution of the action. Based on the step of executing the participation consultation notification to the user A (an example of the second action) and the reaction of the user A to the participation consultation notification (for example, the message M1 regarding the participation consultation notification has been read). A step of executing the update of the posture and / or the facial expression of the avatar 4A (an example of the third action) in the virtual space 200 is included. According to this method, the posture and facial expression of the avatar 4A associated with the user A in the virtual space 200B are updated based on the reaction of the user A to the participation consultation notification transmitted to the user A, thereby updating the virtual space. Communication between users A and B within 200 can be smoothly performed. In this way, by reflecting the reaction of the user A to the participation consultation notification in the real space in the virtual space 200, it is possible to provide a seamless virtual experience that blurs the boundary between the real space and the virtual space. ..

(変形例2)
次に、図25から図28を参照して、本実施形態に係る情報処理方法の変形例2について説明する。変形例2では、仮想空間200(200B)においてユーザBのみがプレイするゲーム(いわゆるシングルプレイゲーム)が提供される場合のゲーム開始時の情報処理方法を例示する。図25は、変形例2に係る情報処理方法を説明するためのフローチャートの一例である。図26から図28は、変形例2に係る情報処理方法を説明するためのユーザBに提供される仮想空間200Bの一例を示す図である。なお、図26に示すように、変形例2においては、仮想空間200Bは、アバター4Bとアバター4Cとを含んでいる。アバター4Cは、サーバ2により制御可能なアバター4C(いわゆる、Non Player Character(NPC))である。
(Modification 2)
Next, a modification 2 of the information processing method according to the present embodiment will be described with reference to FIGS. 25 to 28. Modification 2 exemplifies an information processing method at the start of a game when a game (so-called single play game) played only by user B is provided in the virtual space 200 (200B). FIG. 25 is an example of a flowchart for explaining the information processing method according to the modified example 2. 26 to 28 are diagrams showing an example of the virtual space 200B provided to the user B for explaining the information processing method according to the modification 2. As shown in FIG. 26, in the second modification, the virtual space 200B includes the avatar 4B and the avatar 4C. The avatar 4C is an avatar 4C (so-called Non Player Character (NPC)) that can be controlled by the server 2.

図25を参照して、まず、ユーザ端末1Bの制御部121は、ユーザBによる操作に基づいて、ゲーム開始入力を受け付ける(ステップS100)。次に、制御部121は、通信ネットワーク3を介して、サーバ2へゲーム開始入力情報を送信する(ステップS101)。 With reference to FIG. 25, first, the control unit 121 of the user terminal 1B accepts the game start input based on the operation by the user B (step S100). Next, the control unit 121 transmits the game start input information to the server 2 via the communication network 3 (step S101).

次に、サーバ2は、制御部121から受信したゲーム開始入力情報に基づいて、記憶部22からオープニングムービーのデータを読み出す(ステップS102)。なお、オープニングムービーは、ゲーム開始時に導入されるシナリオシーン(第1シーンの一例)として仮想空間200Bで再生される映像である。次に、サーバ2は、通信ネットワーク3を介して、ユーザ端末1Bの制御部121へ、オープニングムービーのデータを送信する(ステップS103)。 Next, the server 2 reads the data of the opening movie from the storage unit 22 based on the game start input information received from the control unit 121 (step S102). The opening movie is a video reproduced in the virtual space 200B as a scenario scene (an example of the first scene) introduced at the start of the game. Next, the server 2 transmits the data of the opening movie to the control unit 121 of the user terminal 1B via the communication network 3 (step S103).

次に、ユーザ端末1Bの制御部121は、サーバ2から受信したオープニングムービーのデータに基づき、仮想空間200Bにおいてオープニングムービーを再生する(ステップS104)。 Next, the control unit 121 of the user terminal 1B plays the opening movie in the virtual space 200B based on the data of the opening movie received from the server 2 (step S104).

オープニングムービーの再生中または再生後に、ユーザ端末1Bの制御部121は、アバター4Cの姿勢および顔の表情をデフォルトの姿勢および顔の表情に設定する(ステップS105)。デフォルトの姿勢が横たわった状態であり、デフォルトの顔の表情が目を閉じた状態であるとすると、図26に示すように、アバター4Cの姿勢は横たわった状態に設定され、アバター4Cの顔の表情は目を閉じた状態に設定される。 During or after the opening movie is being played back, the control unit 121 of the user terminal 1B sets the posture and facial expression of the avatar 4C to the default posture and facial expression (step S105). Assuming that the default posture is lying down and the default facial expression is the closed eyes, the posture of Avatar 4C is set to lying down and the face of Avatar 4C is set as shown in FIG. The facial expression is set with the eyes closed.

次に、制御部121は、仮想空間200Bを示す仮想空間データを更新すると共に、ユーザ端末1BのHMD110の動きに応じてアバター4Bの視野CVを更新する。次に、制御部121は、更新された仮想空間データと更新されたアバター4Bの視野CVに基づいて視野画像データを更新した上で、更新された視野画像データに基づいて視野画像をHMD110に表示する(ステップS106)。 Next, the control unit 121 updates the virtual space data indicating the virtual space 200B, and updates the visual field CV of the avatar 4B according to the movement of the HMD 110 of the user terminal 1B. Next, the control unit 121 updates the field of view image data based on the updated virtual space data and the updated field of view CV of the avatar 4B, and then displays the field of view image on the HMD 110 based on the updated field of view image data. (Step S106).

次に、ステップS106での視野画像の更新の後で、制御部121は、ユーザBに関連付けられたアバター4Bが、サーバ2に関連付けられたアバター4Cに対して特定アクション(第1アクションの一例)を実行したか否かを判定する(ステップS107)。特定アクションの判定処理については変形例1と同様であるためその詳細な説明は省略する。尚、アバター4Bによるアバター4Cへの特定アクションの実行を促すため、制御部121は、ステップS104におけるオープニングムービーの再生後に、「アバター4Cを起こしてください。」といった内容のメッセージを仮想空間200Bへ表示してもよい。 Next, after updating the visual field image in step S106, the control unit 121 causes the avatar 4B associated with the user B to perform a specific action on the avatar 4C associated with the server 2 (an example of the first action). Is determined (step S107). Since the determination process of the specific action is the same as that of the first modification, the detailed description thereof will be omitted. In order to encourage the avatar 4B to execute a specific action on the avatar 4C, the control unit 121 displays a message such as "Please wake up the avatar 4C" in the virtual space 200B after playing the opening movie in step S104. You may.

次に、制御部121は、アバター4Bがアバター4Cに対して特定アクションを実行したと判定した場合に(ステップS107のYES)、ユーザBにより特定アクションが実行されたことを示すアクション実行情報を生成する(ステップS108)。その後、制御部121は、通信ネットワーク3を介してアクション実行情報をサーバ2に送信する(ステップS109)。 Next, when the control unit 121 determines that the avatar 4B has executed the specific action on the avatar 4C (YES in step S107), the control unit 121 generates action execution information indicating that the specific action has been executed by the user B. (Step S108). After that, the control unit 121 transmits the action execution information to the server 2 via the communication network 3 (step S109).

次に、サーバ2は、ユーザ端末1Bから受信したアクション実行情報に基づいて、シーン遷移情報を生成する(ステップS110)。シーン遷移情報とは、仮想空間200Bに提供されるゲームを、シナリオシーンからゲームシーン(第2シーンの一例)へと遷移させるための情報である。次に、サーバ2は、通信ネットワーク3を介して、シーン遷移情報をユーザ端末1Bの制御部121へ送信する(ステップS111)。 Next, the server 2 generates scene transition information based on the action execution information received from the user terminal 1B (step S110). The scene transition information is information for transitioning the game provided in the virtual space 200B from the scenario scene to the game scene (an example of the second scene). Next, the server 2 transmits the scene transition information to the control unit 121 of the user terminal 1B via the communication network 3 (step S111).

次に、ユーザ端末1Bの制御部121は、サーバ2から受信したシーン遷移情報に基づき、アバター4Cの姿勢と顔の表情の設定を更新する(ステップS112)。具体的には、例えば、図28に示すように、アバター4Cの姿勢は起き上がった状態に設定され、アバター4Cの顔の表情は目を開けた状態に設定される。 Next, the control unit 121 of the user terminal 1B updates the posture and facial expression settings of the avatar 4C based on the scene transition information received from the server 2 (step S112). Specifically, for example, as shown in FIG. 28, the posture of the avatar 4C is set to the raised state, and the facial expression of the avatar 4C is set to the state of opening the eyes.

次に、制御部121は、アバター4Cに関連付けられた吹き出しオブジェクト45Aを仮想空間200Bに生成する(ステップS113)。吹き出しオブジェクト45Aには、アバター4Cがアバター4Bの仲間に加わったことを示す情報(例えば、「アバター4Cが仲間に加わりました。」等)が表示される。 Next, the control unit 121 creates a balloon object 45A associated with the avatar 4C in the virtual space 200B (step S113). Information indicating that the avatar 4C has joined the group of the avatar 4B (for example, "Avatar 4C has joined the group") is displayed on the balloon object 45A.

その後、制御部121は、仮想空間200Bを示す仮想空間データを更新すると共に、ユーザ端末1BのHMD110の動きに応じてアバター4Bの視野CVを更新する。次に、制御部121は、更新された仮想空間データと更新されたアバター4Bの視野CVに基づいて視野画像データを更新した上で、更新された視野画像データに基づいて視野画像をHMD110に表示する(ステップS114)。 After that, the control unit 121 updates the virtual space data indicating the virtual space 200B, and updates the visual field CV of the avatar 4B according to the movement of the HMD 110 of the user terminal 1B. Next, the control unit 121 updates the field of view image data based on the updated virtual space data and the updated field of view CV of the avatar 4B, and then displays the field of view image on the HMD 110 based on the updated field of view image data. (Step S114).

その後、シーン遷移情報に基づいて、制御部121は、ゲームシーンの表示を開始する(ステップS115)。 After that, the control unit 121 starts displaying the game scene based on the scene transition information (step S115).

以上説明したように、変形例2に係る情報処理方法は、仮想空間200B内での動作がコンピュータ制御可能なアバター4Cに対し、仮想手400により揺さぶり動作等の特定アクションを実行するステップと、特定アクションの実行に基づいて仮想空間200Bにおいて提供されるゲームをシナリオシーン(第1シーン)からゲームシーン(第2シーン)へと遷移させるステップと、を含む。従来、ゲームシーンを開始するためにはシナリオシーンの再生後にゲームを進行させるためのユーザ・インタフェース(例えば、「Press Any Button」)が表示され、ユーザが外部コントローラ320の所定のボタンを押下することによりゲームシーンが開始されていた。これに対して、変形例2に係る方法によれば、アバター4Cに対するユーザBの特定アクションの実行に基づいてゲームシーンが開始されるため、ユーザBの仮想空間200Bへの没入感を損なわずにゲームを進行させることができる。なお、変形例2では、変形例2の処理がサーバ2とユーザ端末1Bとを有するシステムで実行される場合を例にとり説明したが、これに限定されず、ユーザ端末1B単独で実行されてもよい。 As described above, the information processing method according to the modification 2 is specified as a step of executing a specific action such as a shaking motion by the virtual hand 400 for the avatar 4C whose operation in the virtual space 200B can be controlled by a computer. It includes a step of transitioning the game provided in the virtual space 200B from the scenario scene (first scene) to the game scene (second scene) based on the execution of the action. Conventionally, in order to start a game scene, a user interface for advancing the game after playing the scenario scene (for example, "Press Any Button") is displayed, and the user presses a predetermined button on the external controller 320. The game scene was started by. On the other hand, according to the method according to the second modification, the game scene is started based on the execution of the specific action of the user B with respect to the avatar 4C, so that the user B's immersive feeling in the virtual space 200B is not impaired. You can advance the game. In the second modification, the case where the processing of the second modification is executed in a system having the server 2 and the user terminal 1B has been described as an example, but the present invention is not limited to this, and the processing may be executed by the user terminal 1B alone. good.

また、変形例2に係るゲームを進行させるための情報処理方法は、ゲームを開始する際の場面に限られず、ゲームの途中においてゲームを再開させる場面にも適用可能である。例えば、複数のアバター(例えば、アバター4Bとアバター4C)により編成されたパーティにより行われるゲームが仮想空間200Bに提供される場合において、ゲーム進行の中断後に、アバター4Bからアバター4Cへ特定アクションが実行されたと判定された場合に、ゲームを再開するようにしてもよい。具体的には、パーティが宿屋に宿泊したシーンにおいて、翌朝になってもアバター4Cが寝ている状態となっているとする。この状態で、アバター4Bがアバター4Cに対して揺さぶり動作や叩き動作等の特定アクションを実行することで、アバター4Cが目覚めゲームの進行が再開するようにしてもよい。このような方法によれば、ユーザBの仮想空間200Bへの没入感を損なわずにゲームの進行を再開させることができる。 Further, the information processing method for advancing the game according to the second modification is not limited to the scene when the game is started, but can also be applied to the scene where the game is restarted in the middle of the game. For example, when a game played by a party composed of a plurality of avatars (for example, avatar 4B and avatar 4C) is provided to the virtual space 200B, a specific action is executed from the avatar 4B to the avatar 4C after the game progress is interrupted. If it is determined that the game has been played, the game may be restarted. Specifically, in the scene where the party stayed at the inn, it is assumed that the avatar 4C is sleeping even the next morning. In this state, the avatar 4B may perform a specific action such as a shaking motion or a tapping motion on the avatar 4C so that the avatar 4C awakens and the progress of the game is restarted. According to such a method, the progress of the game can be restarted without impairing the immersive feeling of the user B in the virtual space 200B.

また、図18、図24及び図25に示す各ステップで規定される処理の順番はあくまでも一例であって、これらのステップの順番は適宜変更可能である。 Further, the order of processing defined in each step shown in FIGS. 18, 24 and 25 is only an example, and the order of these steps can be changed as appropriate.

また、上記の実施形態や変形例の説明では、HMD110の装着の有無を、HMDセンサ114から送信されたHMD110の傾き情報又は装着センサ115から送信されたイベント情報で検知することを前提としているが、この例に限られない。例えば、ユーザ端末の制御部121は、位置センサ130及び/又はHMDセンサ114によりHMD110の動きを検知して、当該動きが所定の軌道を描いた場合に、ユーザがHMD110を装着したこと、あるいはHMD110を取り外したことを特定してもよい。また、制御部121は、位置センサ130及び/又はHMDセンサ114によりHMD110の動きの有無を検知して、例えば、HMD110の位置が一定時間の間に全く変化しない場合には、ユーザがHMD110を装着していないと特定してもよい。さらに、制御部121は、HMD110と外部コントローラ320との相対的位置関係を検知することで、HMD110の装着の有無を検知してもよい。例えば、制御部121は、HMD110と外部コントローラ320とが一定距離以上離れている場合には、ユーザがHMD110を装着していないと特定してもよい。 Further, in the description of the above-described embodiment and modification, it is premised that the presence / absence of mounting of the HMD 110 is detected by the tilt information of the HMD 110 transmitted from the HMD sensor 114 or the event information transmitted from the mounting sensor 115. , Not limited to this example. For example, the control unit 121 of the user terminal detects the movement of the HMD 110 by the position sensor 130 and / or the HMD sensor 114, and when the movement follows a predetermined trajectory, the user wears the HMD 110, or the HMD 110. You may specify that you have removed it. Further, the control unit 121 detects the presence or absence of movement of the HMD 110 by the position sensor 130 and / or the HMD sensor 114, and for example, when the position of the HMD 110 does not change at all within a certain period of time, the user wears the HMD 110. It may be specified that it has not been done. Further, the control unit 121 may detect whether or not the HMD 110 is attached by detecting the relative positional relationship between the HMD 110 and the external controller 320. For example, when the HMD 110 and the external controller 320 are separated by a certain distance or more, the control unit 121 may specify that the user does not wear the HMD 110.

また、上記の実施形態や変形例の説明では、仮想空間200Bを示す仮想空間データがユーザ端末1B側で更新されていることを前提としているが、仮想空間データはサーバ2側で更新されてもよい。さらに、視野画像に対応する視野画像データがユーザ端末1B側で更新されていることを前提としているが、視野画像データはサーバ2側で更新されてもよい。この場合、ユーザ端末1Bは、サーバ2から送信された視野画像データに基づいて、HMD110に視野画像を表示する。 Further, in the description of the above-described embodiment and modification, it is assumed that the virtual space data indicating the virtual space 200B is updated on the user terminal 1B side, but even if the virtual space data is updated on the server 2 side. good. Further, although it is assumed that the visual field image data corresponding to the visual field image is updated on the user terminal 1B side, the visual field image data may be updated on the server 2 side. In this case, the user terminal 1B displays the field of view image on the HMD 110 based on the field of view image data transmitted from the server 2.

また、図12及び16に示す各ステップで規定される処理の順番はあくまでも一例であって、これらのステップの順番は適宜変更可能である。 Further, the order of processing defined in each step shown in FIGS. 12 and 16 is only an example, and the order of these steps can be changed as appropriate.

また、本実施形態においては、HMD装置によってユーザが没入する仮想空間(VR空間)を例示して説明したが、HMD装置として、透過型のHMD装置を採用してもよい。この場合、透過型のHMD装置を介してユーザが視認する現実空間に仮想空間を構成する画像の一部を合成した視界画像を出力することにより、拡張現実(AR:Augumented Reality)空間または複合現実(MR:Mixed Reality)空間における仮想体験をユーザに提供してもよい。この場合、仮想手に代えて、ユーザの手の動きに基づいて、仮想空間内における対象オブジェクトへの作用を生じさせてもよい。具体的には、プロセッサは、現実空間におけるユーザの手の位置の座標情報を特定するとともに、仮想空間内における対象オブジェクトの位置を現実空間における座標情報との関係で定義してもよい。これにより、プロセッサは、現実空間におけるユーザの手と仮想空間2における対象オブジェクトとの位置関係を把握し、ユーザの手と対象オブジェクトとの間で上述したコリジョン制御等に対応する処理を実行可能となる。その結果、ユーザの手の動きに基づいて対象オブジェクトに作用を与えることが可能となる。 Further, in the present embodiment, the virtual space (VR space) in which the user is immersed by the HMD device has been described as an example, but a transmissive HMD device may be adopted as the HMD device. In this case, an augmented reality (AR) space or mixed reality is output by outputting a view image obtained by synthesizing a part of the image constituting the virtual space in the real space visually recognized by the user via the transmissive HMD device. (MR: Mixed Reality) A virtual experience in space may be provided to the user. In this case, instead of the virtual hand, an action on the target object in the virtual space may be generated based on the movement of the user's hand. Specifically, the processor may specify the coordinate information of the position of the user's hand in the real space, and may define the position of the target object in the virtual space in relation to the coordinate information in the real space. As a result, the processor can grasp the positional relationship between the user's hand in the real space and the target object in the virtual space 2, and can execute the process corresponding to the collision control and the like described above between the user's hand and the target object. Become. As a result, it becomes possible to give an action to the target object based on the movement of the user's hand.

また、ユーザ端末1の制御部121によって実行される各種処理をソフトウェアによって実現するために、各種処理をコンピュータ(プロセッサ)に実行させるための制御プログラムが記憶部123又はメモリに予め組み込まれていてもよい。または、制御プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD-ROM,DVD-ROM、Blu-ray(登録商標)ディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体が制御装置120に接続されることで、当該記憶媒体に格納された制御プログラムが、記憶部123に組み込まれる。そして、記憶部123に組み込まれた制御プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部121は各種処理を実行する。 Further, in order to realize various processes executed by the control unit 121 of the user terminal 1 by software, even if a control program for causing a computer (processor) to execute various processes is preliminarily incorporated in the storage unit 123 or the memory. good. Alternatively, the control program includes a magnetic disk (HDD, floppy disk), an optical disk (CD-ROM, DVD-ROM, Blu-ray (registered trademark) disk, etc.), a magneto-optical disk (MO, etc.), a flash memory (SD card, SD card, etc.). It may be stored in a computer-readable storage medium such as a USB memory, SSD, etc.). In this case, by connecting the storage medium to the control device 120, the control program stored in the storage medium is incorporated into the storage unit 123. Then, the control program incorporated in the storage unit 123 is loaded onto the RAM, and the processor executes the loaded program, so that the control unit 121 executes various processes.

また、制御プログラムは、通信ネットワーク3上のコンピュータから通信インターフェース125を介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該制御プログラムが記憶部123に組み込まれる。 Further, the control program may be downloaded from the computer on the communication network 3 via the communication interface 125. In this case as well, the downloaded control program is incorporated into the storage unit 123.

以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。 Although the embodiments of the present disclosure have been described above, the technical scope of the present invention should not be construed as being limited by the description of the present embodiments. This embodiment is an example, and it is understood by those skilled in the art that various embodiments can be modified within the scope of the invention described in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the scope thereof.

1,1A,1B:ユーザ端末
2:サーバ
3:通信ネットワーク
4A,4B:アバター
21:通信インターフェース
22:記憶部
23:制御部
24:バス
42A,44A,45A:吹き出しオブジェクト
43A:テロップオブジェクト
100:仮想空間配信システム(配信システム)
110:HMD(ヘッドマウントデバイス)
112:表示部
113:フェイスカメラ
114:HMDセンサ
115:装着センサ
116:ヘッドフォン
117:フェイスカメラ
118:マイク
120:制御装置
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
140:注視センサ
200,200A,200B:仮想空間
210:中心位置
300:仮想カメラ
320:外部コントローラ
320L:左手用外部コントローラ(コントローラ)
320R:右手用外部コントローラ(コントローラ)
400:仮想手
U,A,B:ユーザ
M1:メッセージ
1,1A, 1B: User terminal 2: Server 3: Communication network 4A, 4B: Avatar 21: Communication interface 22: Storage unit 23: Control unit 24: Bus 42A, 44A, 45A: Blowout object 43A: Telop object 100: Virtual Spatial distribution system (distribution system)
110: HMD (Head Mounted Device)
112: Display unit 113: Face camera 114: HMD sensor 115: Wearing sensor 116: Headphones 117: Face camera 118: Microphone 120: Control device 123: Storage unit 124: I / O interface 125: Communication interface 126: Bus 130: Position Sensor 140: Gaze sensor 200, 200A, 200B: Virtual space 210: Center position 300: Virtual camera 320: External controller 320L: External controller for left hand (controller)
320R: External controller for right hand (controller)
400: Virtual hand U, A, B: User M1: Message

Claims (12)

ユーザの頭部に関連付けられた画像表示装置を介して前記ユーザに仮想体験を提供するためのコンピュータに、
前記ユーザの身体の一部の動きに応じて、仮想空間内で操作オブジェクトを動かすステップと、
前記ユーザとは異なる他のユーザの動きに基づいて前記仮想空間内での動作が制御可能な仮想オブジェクトに対して、前記操作オブジェクトによる第1アクションを実行するステップと、
前記他のユーザが当該他のユーザの頭部に関連付けられた第二画像表示装置を装着していない状態である場合において前記第1アクションが実行された場合に、前記他のユーザに対する第2アクションを実行するステップと、
を実行させるための、プログラム。
To a computer for providing a virtual experience to the user via an image display device associated with the user's head .
The step of moving the operation object in the virtual space according to the movement of a part of the user's body,
A step of executing a first action by the operation object on a virtual object whose operation in the virtual space can be controlled based on the movement of another user different from the user.
When the first action is executed when the other user is not wearing the second image display device associated with the head of the other user, the second action for the other user is performed. And the steps to perform
A program to execute.
前記第1アクションは、前記操作オブジェクトの反復運動の過程で前記仮想オブジェクトに接触する動作を含む、請求項1に記載のプログラム。 The program according to claim 1 , wherein the first action includes an action of contacting the virtual object in the process of repetitive motion of the operation object. 前記第1アクションは、一定値以上の加速度での前記反復運動の過程における前記仮想オブジェクトへの接触動作を含む、請求項に記載のプログラム。 The program according to claim 2 , wherein the first action includes a contact operation with the virtual object in the process of the repetitive motion at an acceleration of a certain value or more. 前記第1アクションは、前記仮想オブジェクトに関連付けられた相対座標を一定時間内に所定の回数以上通過する動作を含む、請求項またはに記載のプログラム。 The program according to claim 2 or 3 , wherein the first action includes an operation of passing through relative coordinates associated with the virtual object a predetermined number of times or more within a certain period of time. 前記第2アクションは、前記他のユーザの前記仮想空間への参加を促す通知を含む、請求項1からのいずれか一項に記載のプログラム。 The program according to any one of claims 1 to 4 , wherein the second action includes a notification for encouraging the other user to participate in the virtual space. 前記第2アクションに対するリアクションが行われた場合に、前記仮想オブジェクトを第1状態から第2状態へと遷移させるステップと、
前記第2状態への遷移後に、一定時間内に前記他のユーザにより前記仮想オブジェクトが制御されている状態になった場合には、前記仮想オブジェクトを第3状態へと遷移させるステップと、
をさらに前記コンピュータに実行させるための、請求項に記載のプログラム。
A step of transitioning the virtual object from the first state to the second state when a reaction to the second action is performed.
If the virtual object is controlled by the other user within a certain period of time after the transition to the second state, the step of transitioning the virtual object to the third state and the step.
The program according to claim 5 , further causing the computer to execute the program.
前記第2状態への遷移後に、一定時間内に前記他のユーザにより前記仮想オブジェクトが制御されている状態にならない場合には、前記仮想オブジェクトを前記第1状態へ戻すステップをさらに前記コンピュータに実行させるための、請求項に記載のプログラム。 If the virtual object is not controlled by the other user within a certain period of time after the transition to the second state, the computer further executes a step of returning the virtual object to the first state. The program according to claim 6 . 前記仮想オブジェクトに対する前記第1アクションの動作の強度と前記第1アクションの種類との少なくとも一方に応じて、前記通知の内容が異なっている、請求項からのいずれか一項に記載のプログラム。 The program according to any one of claims 5 to 7 , wherein the content of the notification differs depending on at least one of the intensity of the operation of the first action and the type of the first action with respect to the virtual object. .. 前記仮想空間内での動作がコンピュータ制御可能な他の仮想オブジェクトに対し、前記操作オブジェクトにより前記第1アクションを実行するステップと、
前記第1アクションの実行に基づいて、前記仮想空間において提供されるゲームを第1シーンから第2シーンへと遷移させるステップと、
をさらに前記コンピュータに実行させるための、請求項1からのいずれか一項に記載のプログラム。
A step of executing the first action by the operation object with respect to another virtual object whose operation in the virtual space can be controlled by a computer.
A step of transitioning the game provided in the virtual space from the first scene to the second scene based on the execution of the first action.
The program according to any one of claims 1 to 8 , further causing the computer to execute the program.
ユーザの頭部に関連付けられた画像表示装置を介して前記ユーザに仮想体験を提供するための情報処理装置であって、
前記情報処理装置が備えるプロセッサの制御により、
前記ユーザの身体の一部の動きに応じて、仮想空間内で操作オブジェクトを動かすステップと、
前記ユーザとは異なる他のユーザの動きに基づいて前記仮想空間内での動作が制御可能な仮想オブジェクトに対して、前記操作オブジェクトによる第1アクションを実行するステップと、
前記他のユーザが当該他のユーザの頭部に関連付けられた第二画像表示装置を装着していない状態である場合において前記第1アクションが実行された場合に、前記他のユーザに対する第2アクションを実行するステップと、
が実行される、情報処理装置。
An information processing device for providing a virtual experience to the user via an image display device associated with the user's head .
By controlling the processor included in the information processing device
The step of moving the operation object in the virtual space according to the movement of a part of the user's body,
A step of executing a first action by the operation object on a virtual object whose operation in the virtual space can be controlled based on the movement of another user different from the user.
When the first action is executed when the other user is not wearing the second image display device associated with the head of the other user, the second action for the other user is performed. And the steps to perform
Is executed, an information processing device.
ユーザの頭部に関連付けられた画像表示装置を介して前記ユーザに仮想体験を提供するための情報処理システムであって、
前記情報処理システムが備える複数のプロセッサの制御により、
前記ユーザの身体の一部の動きに応じて、仮想空間内で操作オブジェクトを動かすステップと、
前記ユーザとは異なる他のユーザの動きに基づいて前記仮想空間内での動作が制御可能な仮想オブジェクトに対して、前記操作オブジェクトによる第1アクションを実行するステップと、
前記他のユーザが当該他のユーザの頭部に関連付けられた第二画像表示装置を装着していない状態である場合において前記第1アクションが実行された場合に、前記他のユーザに対する第2アクションを実行するステップと、
が実行される、情報処理システム。
An information processing system for providing a virtual experience to the user via an image display device associated with the user's head .
By controlling a plurality of processors included in the information processing system
The step of moving the operation object in the virtual space according to the movement of a part of the user's body,
A step of executing a first action by the operation object on a virtual object whose operation in the virtual space can be controlled based on the movement of another user different from the user.
When the first action is executed when the other user is not wearing the second image display device associated with the head of the other user, the second action for the other user is performed. And the steps to perform
Is executed, an information processing system.
ユーザの頭部に関連付けられた画像表示装置を介して前記ユーザに仮想体験を提供するためにコンピュータによって実行される情報処理方法であって、
前記ユーザの身体の一部の動きに応じて、仮想空間内で操作オブジェクトを動かすステップと、
前記ユーザとは異なる他のユーザの動きに基づいて前記仮想空間内での動作が制御可能な仮想オブジェクトに対して、前記操作オブジェクトによる第1アクションを実行するステップと、
前記他のユーザが当該他のユーザの頭部に関連付けられた第二画像表示装置を装着していない状態である場合において前記第1アクションが実行された場合に、前記他のユーザに対する第2アクションを実行するステップと、
を含む、情報処理方法。
A method of information processing performed by a computer to provide a virtual experience to the user via an image display device associated with the user's head .
The step of moving the operation object in the virtual space according to the movement of a part of the user's body,
A step of executing a first action by the operation object on a virtual object whose operation in the virtual space can be controlled based on the movement of another user different from the user.
When the first action is executed when the other user is not wearing the second image display device associated with the head of the other user, the second action for the other user is performed. And the steps to perform
Information processing methods, including.
JP2017184868A 2017-03-02 2017-09-26 Programs, information processing devices, information processing systems, and information processing methods Active JP7041484B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017184868A JP7041484B2 (en) 2017-09-26 2017-09-26 Programs, information processing devices, information processing systems, and information processing methods
US15/908,899 US10438394B2 (en) 2017-03-02 2018-03-01 Information processing method, virtual space delivering system and apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017184868A JP7041484B2 (en) 2017-09-26 2017-09-26 Programs, information processing devices, information processing systems, and information processing methods

Publications (2)

Publication Number Publication Date
JP2019058324A JP2019058324A (en) 2019-04-18
JP7041484B2 true JP7041484B2 (en) 2022-03-24

Family

ID=66175769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017184868A Active JP7041484B2 (en) 2017-03-02 2017-09-26 Programs, information processing devices, information processing systems, and information processing methods

Country Status (1)

Country Link
JP (1) JP7041484B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111781656B (en) * 2020-07-30 2023-09-15 广州市南方人力资源评价中心有限公司 Wearing state detection method, device, equipment and medium of head-mounted display equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014006873A (en) 2012-05-31 2014-01-16 Konami Digital Entertainment Co Ltd Image creation system, image creation application server, image creation method and program
JP2015505249A (en) 2011-05-27 2015-02-19 マイクロソフト コーポレーション Avatar of a friend who plays a non-player character

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015505249A (en) 2011-05-27 2015-02-19 マイクロソフト コーポレーション Avatar of a friend who plays a non-player character
JP2014006873A (en) 2012-05-31 2014-01-16 Konami Digital Entertainment Co Ltd Image creation system, image creation application server, image creation method and program

Also Published As

Publication number Publication date
JP2019058324A (en) 2019-04-18

Similar Documents

Publication Publication Date Title
US10438394B2 (en) Information processing method, virtual space delivering system and apparatus therefor
JP6244593B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6240301B1 (en) Method for communicating via virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
JP6462059B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6290467B1 (en) Information processing method, apparatus, and program causing computer to execute information processing method
JP2024045446A (en) Program, information processing device, information processing system, and information processing method
JP2018089227A (en) Information processing method, device, and program for implementing that information processing method on computer
JP6240353B1 (en) Method for providing information in virtual space, program therefor, and apparatus therefor
JP5980404B1 (en) Method of instructing operation to object in virtual space, and program
JP6257826B1 (en) Method, program, and information processing apparatus executed by computer to provide virtual space
JP2018124665A (en) Information processing method, computer, and program for allowing computer to execute information processing method
JP6201028B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6212666B1 (en) Information processing method, program, virtual space distribution system, and apparatus
JP2018125003A (en) Information processing method, apparatus, and program for implementing that information processing method in computer
JP2018124981A (en) Information processing method, information processing device and program causing computer to execute information processing method
JP2019106220A (en) Program executed by computer to provide virtual space via head mount device, method, and information processing device
JP2019032844A (en) Information processing method, device, and program for causing computer to execute the method
JP6203346B1 (en) Method, program, and recording medium for providing virtual space
JP7041484B2 (en) Programs, information processing devices, information processing systems, and information processing methods
JP2019036239A (en) Information processing method, information processing program, information processing system, and information processing device
JP2019030638A (en) Information processing method, device, and program for causing computer to execute information processing method
JP6999538B2 (en) Information processing methods, information processing programs, information processing systems, and information processing equipment
JP2018092635A (en) Information processing method, device, and program for implementing that information processing method on computer
JP2018206340A (en) Method which is executed on computer for providing virtual space, program and information processor
JP2018092592A (en) Information processing method, apparatus, and program for implementing that information processing method on computer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210609

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220124

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220124

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220202

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220311

R150 Certificate of patent or registration of utility model

Ref document number: 7041484

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150