JP2019036239A - Information processing method, information processing program, information processing system, and information processing device - Google Patents

Information processing method, information processing program, information processing system, and information processing device Download PDF

Info

Publication number
JP2019036239A
JP2019036239A JP2017158642A JP2017158642A JP2019036239A JP 2019036239 A JP2019036239 A JP 2019036239A JP 2017158642 A JP2017158642 A JP 2017158642A JP 2017158642 A JP2017158642 A JP 2017158642A JP 2019036239 A JP2019036239 A JP 2019036239A
Authority
JP
Japan
Prior art keywords
user
information processing
virtual space
content
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2017158642A
Other languages
Japanese (ja)
Inventor
大介 津留
Daisuke Tsuru
大介 津留
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2017158642A priority Critical patent/JP2019036239A/en
Publication of JP2019036239A publication Critical patent/JP2019036239A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an information processing method capable of further improving user experience in a virtual space.SOLUTION: An information processing method is executed by a computer in an information processing system comprising a user terminal including a HMD 110 worn on a head of a user and a server connected to enable communication with the user terminal. The information processing method includes the steps of: (a) generating visual field image data indicating the visual field image displayed in the HMD 110 on the basis of the virtual space data for defining the virtual space and the movement of the HMD 110; (b) identifying the feeling of the user; and (c) updating an evaluation value of the content associated with the virtual space on the basis of the identified feeling of the user.SELECTED DRAWING: Figure 13

Description

本開示は、情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置に関する。   The present disclosure relates to an information processing method, an information processing program, an information processing system, and an information processing apparatus.

ヘッドマウントデバイス(Head Mounted Device:以下、単にHMDという。)を装着した複数のユーザ間でネットワークを介して仮想空間を共有することが知られている。例えば、非特許文献1は、複数のユーザ間で一つのVR空間を共有した上で、複数ユーザの動作に応じて当該複数ユーザに関連付けられた複数アバターの動作を制御する技術を開示している。特に、非特許文献1では、各アバターの表情を豊かに表現することで、仮想空間内における複数のユーザ間のコミュニケーションを促進させる技術が開示されている。   It is known to share a virtual space via a network among a plurality of users wearing a head mounted device (hereinafter simply referred to as HMD). For example, Non-Patent Document 1 discloses a technique for controlling the operations of a plurality of avatars associated with a plurality of users in accordance with the operations of the plurality of users after sharing one VR space among the plurality of users. . In particular, Non-Patent Document 1 discloses a technology that promotes communication among a plurality of users in a virtual space by expressing the expression of each avatar richly.

” Facebook Social VR Demo - Oculus Connect 2016”,[online]、平成28年10月6日、Road to VR、[平成29年4月21日検索]、インターネット<https://www.youtube.com/watch?v=YuIgyKLPt3s>“Facebook Social VR Demo-Oculus Connect 2016”, [online], October 6, 2016, Road to VR, [Search April 21, 2017], Internet <https://www.youtube.com/ watch? v = YuIgyKLPt3s>

ところで、非特許文献1では、ユーザの表情を当該ユーザに関連付けられたアバターの表情に反映させることで、仮想空間内におけるユーザ間のコミュニケーションを促進させることが開示されている一方で、ユーザの感情やユーザのコミュニケーション行動を特定した上で、当該特定されたユーザの感情やコミュニケーション行動を仮想空間におけるユーザ体験に活用することについては何ら検討されていない。特に、ユーザの感情やコニュニケーション行動に基づいて仮想空間のコンテンツを評価することで、仮想空間におけるユーザ体験をさらに改善する余地がある。   By the way, Non-Patent Document 1 discloses that the user's facial expression is reflected in the facial expression of the avatar associated with the user, thereby promoting communication between the users in the virtual space. In addition, the use of the identified user's emotion and communication behavior for the user experience in the virtual space after specifying the user's communication behavior is not studied. In particular, there is room for further improving the user experience in the virtual space by evaluating the contents of the virtual space based on the user's emotions and communication behavior.

本開示は、仮想空間におけるユーザ体験をさらに向上させることが可能な情報処理方法を提供することを目的とする。さらに、本開示は、仮想空間におけるユーザ体験をさらに向上させることが可能な情報処理プログラム、情報処理システム及び情報処理装置を提供することを目的とする。   An object of this indication is to provide the information processing method which can further improve the user experience in virtual space. Furthermore, this indication aims at providing the information processing program, information processing system, and information processing apparatus which can further improve the user experience in virtual space.

ユーザの頭部に装着されるヘッドマウントデバイスを有するユーザ端末と、前記ユーザ端末に通信可能に接続されたサーバとを備える情報処理システムにおいてコンピュータによって実行される情報処理方法であって、
(a)仮想空間を規定する仮想空間データと前記ヘッドマウントデバイスの動きに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを生成するステップと、
(b)前記ユーザの感情を特定するステップと、
(c)前記特定されたユーザの感情に基づいて、前記仮想空間に関連付けられたコンテンツの評価値を更新するステップと、
を含む、情報処理方法。
An information processing method executed by a computer in an information processing system including a user terminal having a head-mounted device mounted on a user's head and a server connected to the user terminal so as to be communicable,
(A) generating visual field image data indicating a visual field image displayed on the head mounted device based on virtual space data defining a virtual space and movement of the head mounted device;
(B) identifying the user's emotion;
(C) updating the evaluation value of the content associated with the virtual space based on the identified user's emotion;
Including an information processing method.

本開示によれば、仮想空間におけるユーザ体験をさらに向上させることできる。   According to the present disclosure, the user experience in the virtual space can be further improved.

本発明の実施形態(以下、単に本実施形態という。)に係る仮想空間配信システムを示す概略図である。It is the schematic which shows the virtual space delivery system which concerns on embodiment (henceforth this embodiment only) of this invention. ユーザ端末を示す概略図である。It is the schematic which shows a user terminal. HMDを装着したユーザの頭部を示す図である。It is a figure which shows the head of the user with which HMD was mounted | worn. 制御装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a control apparatus. 外部コントローラの具体的構成の一例を示す図である。It is a figure which shows an example of the specific structure of an external controller. 視野画像をHMDに表示する処理を示すフローチャートである。It is a flowchart which shows the process which displays a visual field image on HMD. 仮想空間の一例を示すxyz空間図である。It is xyz space figure which shows an example of virtual space. 状態(a)は、図7に示す仮想空間のyx平面図である。状態(b)は、図7に示す仮想空間のzx平面図である。The state (a) is a yx plan view of the virtual space shown in FIG. The state (b) is a zx plan view of the virtual space shown in FIG. HMDに表示された視野画像の一例を示す図である。It is a figure which shows an example of the visual field image displayed on HMD. 図1に示すサーバのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the server shown in FIG. 状態(a)は、ユーザAに提供される仮想空間を示す図である。状態(b)は、ユーザBに提供される仮想空間を示す図である。The state (a) is a diagram showing a virtual space provided to the user A. The state (b) is a diagram showing a virtual space provided to the user B. ユーザ端末間において各アバターの動きを同期させる処理の一例を説明するためのシーケンス図である。It is a sequence figure for explaining an example of processing which synchronizes movement of each avatar between user terminals. 第1実施形態に係る情報処理方法を説明するためのユーザAに提供される仮想空間の一例を示す図である。It is a figure which shows an example of the virtual space provided to the user A for demonstrating the information processing method which concerns on 1st Embodiment. 第1実施形態に係る情報処理方法の一例を説明するためのシーケンス図である。It is a sequence diagram for demonstrating an example of the information processing method which concerns on 1st Embodiment. 第1実施形態におけるコンテンツ評価テーブルの一例を示す図である。It is a figure which shows an example of the content evaluation table in 1st Embodiment. 笑ったユーザの数が所定の閾値以上である場合に、ユーザAに提供される仮想空間の一部が更新される様子を示す図である。It is a figure which shows a mode that a part of virtual space provided to the user A is updated when the number of the laughing users is more than a predetermined threshold value. 第2実施形態に係る情報処理方法の一例を説明するためのシーケンス図である。It is a sequence diagram for demonstrating an example of the information processing method which concerns on 2nd Embodiment. 第2実施形態におけるコンテンツ評価テーブルの一例を示す図である。It is a figure which shows an example of the content evaluation table in 2nd Embodiment. 第3実施形態に係る情報処理方法を説明するためのユーザDに提供される仮想空間の一例である。It is an example of the virtual space provided to the user D for demonstrating the information processing method which concerns on 3rd Embodiment. 第3実施形態に係る情報処理方法を説明するためのシーケンス図である。It is a sequence diagram for demonstrating the information processing method which concerns on 3rd Embodiment. ユーザDが装着するHMDに表示された視野画像の一例を示す図である。It is a figure which shows an example of the visual field image displayed on HMD which the user D wears.

[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)ユーザの頭部に装着されるヘッドマウントデバイスを有するユーザ端末と、前記ユーザ端末に通信可能に接続されたサーバとを備える情報処理システムにおいてコンピュータによって実行される情報処理方法であって、
(a)仮想空間を規定する仮想空間データと前記ヘッドマウントデバイスの動きに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを生成するステップと、
(b)前記ユーザの感情を特定するステップと、
(c)前記特定されたユーザの感情に基づいて、前記仮想空間に関連付けられたコンテンツの評価値を更新するステップと、
を含む、情報処理方法。
[Description of Embodiments Presented by the Present Disclosure]
An overview of an embodiment indicated by the present disclosure will be described.
(1) An information processing method executed by a computer in an information processing system including a user terminal having a head mounted device mounted on a user's head and a server connected to the user terminal so as to be communicable,
(A) generating visual field image data indicating a visual field image displayed on the head mounted device based on virtual space data defining a virtual space and movement of the head mounted device;
(B) identifying the user's emotion;
(C) updating the evaluation value of the content associated with the virtual space based on the identified user's emotion;
Including an information processing method.

上記方法によれば、ユーザのコンテンツに対するリアルな反応をコンテンツ評価に反映させることができる。従って、仮想空間におけるユーザ体験が向上される。   According to the above method, a real reaction to the user's content can be reflected in the content evaluation. Therefore, the user experience in the virtual space is improved.

(2)前記ステップ(b)は、
前記ユーザの顔の表情と、前記ユーザから出力される音声と、前記ユーザの手の動きのうちの少なくとも一つに基づいて、前記ユーザの感情を特定するステップを含む、
項目(1)に記載の情報処理方法。
(2) The step (b)
Identifying the user's emotion based on at least one of the facial expression of the user, voice output from the user, and movement of the user's hand,
The information processing method according to item (1).

上記方法によれば、ユーザの顔の表情と、ユーザから出力される音声と、ユーザの手の動きのうちの少なくとも一つを用いることでユーザの感情を正確に特定することができる。   According to the above method, the user's emotion can be accurately specified by using at least one of the facial expression of the user, the voice output from the user, and the movement of the user's hand.

(3)前記ステップ(b)は、
前記ユーザの感情が第1の感情であるかどうかを判定するステップを含み、
前記ステップ(c)は、
前記特定されたユーザの感情が前記第1の感情である場合に、前記コンテンツの評価値を更新するステップを含む、
項目(1)または(2)に記載の情報処理方法。
(3) The step (b)
Determining whether the user's emotion is a first emotion,
The step (c)
Updating the evaluation value of the content when the identified user's emotion is the first emotion,
The information processing method according to item (1) or (2).

上記方法によれば、ユーザの第1の感情をコンテンツ評価に反映させることができる。   According to the above method, the user's first emotion can be reflected in the content evaluation.

(4)前記仮想空間は、複数のユーザにより視聴され、
前記コンテンツの評価値は、前記複数のユーザのうち前記第1の感情を有するユーザの数に対応する、
項目(3)に記載の情報処理方法。
(4) The virtual space is viewed by a plurality of users,
The evaluation value of the content corresponds to the number of users having the first emotion among the plurality of users.
The information processing method according to item (3).

上記方法によれば、コンテンツの評価値が第1の感情(例えば、笑いの感情)を有するユーザの数に対応するので、第1の感情を有するユーザの数に基づいてコンテンツを評価することができる。   According to the above method, since the evaluation value of the content corresponds to the number of users having a first emotion (for example, laughing emotion), the content can be evaluated based on the number of users having the first emotion. it can.

(5)前記コンテンツの評価値は、前記複数のユーザのうち、前記第1の感情を有すると共に、前記仮想空間の第1の領域に視線を向けているユーザの数に対応する、項目(4)に記載の情報処理方法。   (5) The evaluation value of the content corresponds to an item (4) corresponding to the number of users having the first emotion and having a line of sight toward the first area of the virtual space among the plurality of users. The information processing method described in).

上記方法によれば、第1の感情を有すると共に、仮想空間中の同一の領域(例えば、パフォーマンスを行うアバターが存在する領域)に視線を向けたユーザの数に基づいて、コンテンツを評価することができる。特に、同一の領域に視線を向けたユーザの数がコンテンツ評価に影響を与えるため、より正確にコンテンツを評価することが可能となる。   According to the above method, content is evaluated based on the number of users who have a first emotion and have their eyes directed to the same region in the virtual space (for example, a region where an avatar performing) exists. Can do. In particular, since the number of users who look at the same area affects the content evaluation, it is possible to evaluate the content more accurately.

(6)前記ステップ(b)は、
前記ユーザの第1の感情のレベルを特定するステップを含み、
前記ステップ(c)は、
前記特定された第1の感情のレベルに基づいて、前記コンテンツの評価値を更新するステップを含む、
項目(1)または(2)に記載の情報処理方法。
(6) The step (b)
Identifying a level of the user's first emotion,
The step (c)
Updating an evaluation value of the content based on the identified first emotion level;
The information processing method according to item (1) or (2).

上記方法によれば、ユーザの第1の感情のレベルをコンテンツ評価にダイレクトに反映させることができるので、より詳細にコンテンツを評価することができる。   According to the above method, since the level of the first emotion of the user can be directly reflected in the content evaluation, the content can be evaluated in more detail.

(7)前記仮想空間は複数のユーザにより視聴され、
前記コンテンツの評価値は、各ユーザの前記第1の感情のレベルの累積値に対応する、項目(6)に記載の情報処理方法。
(7) The virtual space is viewed by a plurality of users,
The information evaluation method according to item (6), wherein the evaluation value of the content corresponds to a cumulative value of the first emotion level of each user.

上記方法によれば、各ユーザの第1の感情のレベルの累積値に基づいてコンテンツを評価することができるので、より詳細にコンテンツを評価することができる。   According to the above method, the content can be evaluated based on the accumulated value of the first emotion level of each user, so that the content can be evaluated in more detail.

(8)(d)前記コンテンツの評価値に基づいて、前記仮想空間データの少なくとも一部を更新するステップをさらに含む、項目(1)から(7)のうちいずれか一項に記載の情報処理方法。   (8) (d) The information processing according to any one of items (1) to (7), further including a step of updating at least a part of the virtual space data based on the evaluation value of the content. Method.

上記方法によれば、例えば、コンテンツ評価値に基づいて、仮想空間のシーンが変更され、又は仮想空間中に所定のオブジェクトを配置することで、仮想空間において所定の演出が実行される。このように、コンテンツの評価値に基づいて仮想空間データの少なくとも一部が更新されるので、仮想空間のエンターテイメント性を向上させることが可能となる。   According to the above method, for example, a scene in the virtual space is changed based on the content evaluation value, or a predetermined effect is executed in the virtual space by arranging a predetermined object in the virtual space. Thus, since at least a part of the virtual space data is updated based on the evaluation value of the content, it is possible to improve the entertainment property of the virtual space.

(9)前記ステップ(d)は、
前記コンテンツの評価値が第1の値に達した場合に、前記仮想空間データの少なくとも一部を更新するステップを含む、項目(8)に記載の情報処理方法。
(9) The step (d)
The information processing method according to item (8), including a step of updating at least a part of the virtual space data when the evaluation value of the content reaches a first value.

上記方法によれば、ユーザは、更新された仮想空間を見ることで、コンテンツ評価値が第1の値に達したことを認識することができる。さらに、コンテンツの評価値が第1の値以上である場合に、仮想空間データの少なくとも一部が更新されるので、仮想空間のエンターテイメント性を向上させることが可能となる。   According to the above method, the user can recognize that the content evaluation value has reached the first value by looking at the updated virtual space. Furthermore, since at least a part of the virtual space data is updated when the evaluation value of the content is equal to or higher than the first value, the entertainment property of the virtual space can be improved.

(10)(e)前記ユーザ端末からの送信要求に応じて、前記サーバに保存された前記コンテンツに関連するデータを前記ユーザ端末に送信するステップをさらに含む、項目(1)から(7)のうちいずれか一項に記載の情報処理方法。   (10) (e) In response to a transmission request from the user terminal, the method further includes a step of transmitting data related to the content stored in the server to the user terminal. The information processing method as described in any one of them.

上記方法によれば、ユーザがサーバから配信されたコンテンツを視聴する場合において、コンテンツを視聴するユーザの感情に基づいてコンテンツの評価値が更新される。したがって、ユーザの感情に基づいてコンテンツを評価することができるので、ユーザのリアルな感情(反応)をコンテンツ評価に反映させることができると共に、ユーザによるコンテンツ評価に対する操作の手間を省くことが可能となる。特に、ユーザは、動画配信プラットフォームに設けられた評価ボタン(「イイネ」ボタン等)を押すことでコンテンツを評価する必要がないため、コンテンツ評価に対するユーザ操作の手間を省くことが可能となる。   According to the above method, when the user views the content distributed from the server, the content evaluation value is updated based on the emotion of the user viewing the content. Accordingly, since the content can be evaluated based on the user's emotion, the user's real feeling (reaction) can be reflected in the content evaluation, and it is possible to save time and effort for the user for the content evaluation. Become. In particular, it is not necessary for the user to evaluate the content by pressing an evaluation button (such as a “like” button) provided on the moving image distribution platform, so that it is possible to save the user operation for content evaluation.

(11)前記ステップ(e)は、
前記サーバに保存された前記コンテンツに関連したデータと前記コンテンツの評価値に関する情報を前記ユーザ端末に送信するステップを含み、
(f)前記コンテンツの評価値に関する情報を前記ユーザに提示するステップをさらに含む、項目(10)に記載の情報処理方法。
(11) The step (e)
Transmitting data related to the content stored in the server and information about the evaluation value of the content to the user terminal,
(F) The information processing method according to item (10), further including a step of presenting information related to the evaluation value of the content to the user.

上記方法によれば、コンテンツの評価値に関する情報がユーザに提示されることで、ユーザは、視聴するコンテンツに対する他のユーザの評価を知ることができる。   According to the above method, the information related to the evaluation value of the content is presented to the user, so that the user can know the evaluation of the other user with respect to the content to be viewed.

(12)ユーザの頭部に装着されるヘッドマウントデバイスを有するユーザ端末と、前記ユーザ端末に通信可能に接続されたサーバとを備える情報処理システムにおいてコンピュータによって実行される情報処理方法であって、
(a)仮想空間を規定する仮想空間データと前記ヘッドマウントデバイスの動きに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを生成するステップと、
(b)前記ユーザのコミュニケーション行動を特定するステップと、
(c)前記特定されたコミュニケーション行動に基づいて、前記仮想空間に関連付けられたコンテンツの評価値を更新するステップと、
を含む、情報処理方法。
(12) An information processing method executed by a computer in an information processing system including a user terminal having a head-mounted device mounted on a user's head and a server connected to the user terminal in a communicable manner,
(A) generating visual field image data indicating a visual field image displayed on the head mounted device based on virtual space data defining a virtual space and movement of the head mounted device;
(B) identifying the user's communication behavior;
(C) updating an evaluation value of content associated with the virtual space based on the identified communication behavior;
Including an information processing method.

上記方法によれば、ユーザのコンテンツに対するリアルな反応をコンテンツ評価に反映させることができる。従って、仮想空間におけるユーザ体験が向上される。   According to the above method, a real reaction to the user's content can be reflected in the content evaluation. Therefore, the user experience in the virtual space is improved.

(13)項目(1)から(12)のうちのいずれか一項に記載の情報処理方法をコンピュータに実行させるための情報処理プログラム。   (13) An information processing program for causing a computer to execute the information processing method according to any one of items (1) to (12).

上記によれば、仮想空間におけるユーザ体験をさらに向上させることが可能な情報処理プログラムを提供することが可能となる。   According to the above, it is possible to provide an information processing program that can further improve the user experience in the virtual space.

(14)ユーザの頭部に装着されるヘッドマウントデバイスを有するユーザ端末と、
前記ユーザ端末に通信可能に接続されたサーバと、
を備え、項目(1)から(12)のうちのいずれか一項に記載の情報処理方法を実行するように構成された、情報処理システム。
(14) a user terminal having a head-mounted device mounted on the user's head;
A server communicably connected to the user terminal;
An information processing system configured to execute the information processing method according to any one of items (1) to (12).

上記によれば、仮想空間におけるユーザ体験をさらに向上させることが可能な情報処理システムを提供することが可能となる。   According to the above, it is possible to provide an information processing system that can further improve the user experience in the virtual space.

(15)プロセッサと、
コンピュータ可読命令を記憶するメモリと、を備えた情報処理装置であって、
前記コンピュータ可読命令が前記プロセッサにより実行されると、前記情報処理装置は、項目(1)から(12)のうちのいずれか一項に記載の情報処理方法を実行する、情報処理装置。
(15) a processor;
An information processing apparatus comprising a memory for storing computer-readable instructions,
When the computer-readable instruction is executed by the processor, the information processing apparatus executes the information processing method according to any one of items (1) to (12).

上記によれば、仮想空間におけるユーザ体験をさらに向上させることが可能な情報処理装置を提供することが可能となる。   According to the above, it is possible to provide an information processing apparatus that can further improve the user experience in the virtual space.

[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。尚、本実施形態の説明において既に説明された要素と同一の参照番号を有する要素については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Presented by the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, about the element which has the same reference number as the element already demonstrated in description of this embodiment, the description is not repeated for convenience of explanation.

最初に、仮想空間配信システム100(情報処理システムの一例)の構成の概略について図1を参照して説明する。図1は、仮想空間配信システム100(以下、単に配信システム100という。)の概略図である。図1に示すように、配信システム100は、ヘッドマウントデバイス(HMD)110を装着したユーザAによって操作されるユーザ端末1Aと、HMD110を装着したユーザBによって操作されるユーザ端末1Bと、サーバ2とを備える。ユーザ端末1A,1Bは、インターネット等の通信ネットワーク3を介してサーバ2に通信可能に接続されている。尚、本実施形態において、仮想空間とは、VR(Virtual Reality)空間と、AR(Argumented Reality)空間と、MR(Mixed Reality)空間を含むものである。また、以降では、説明の便宜上、各ユーザ端末1A,1Bを単にユーザ端末1と総称する場合がある。さらに、各ユーザA,Bを単にユーザUと総称する場合がある。また、本実施形態では、ユーザ端末1A,1Bは、同一の構成を備えているものとする。   First, an outline of the configuration of the virtual space distribution system 100 (an example of an information processing system) will be described with reference to FIG. FIG. 1 is a schematic diagram of a virtual space distribution system 100 (hereinafter simply referred to as distribution system 100). As shown in FIG. 1, the distribution system 100 includes a user terminal 1A operated by a user A wearing a head mounted device (HMD) 110, a user terminal 1B operated by a user B wearing the HMD 110, and a server 2 With. User terminals 1A and 1B are communicably connected to a server 2 via a communication network 3 such as the Internet. In the present embodiment, the virtual space includes a VR (Virtual Reality) space, an AR (Arranged Reality) space, and an MR (Mixed Reality) space. Further, hereinafter, for convenience of explanation, the user terminals 1A and 1B may be simply referred to as the user terminal 1 in some cases. Further, the users A and B may be simply referred to as a user U. In the present embodiment, the user terminals 1A and 1B are assumed to have the same configuration.

次に、図2を参照してユーザ端末1の構成について説明する。図2は、ユーザ端末1を示す概略図である。図2に示すように、ユーザ端末1は、ユーザUの頭部に装着されたヘッドマウントデバイス(HMD)110と、ヘッドフォン116と、フェイスカメラ117と、マイク118と、位置センサ130と、外部コントローラ320と、制御装置120とを備える。   Next, the configuration of the user terminal 1 will be described with reference to FIG. FIG. 2 is a schematic diagram showing the user terminal 1. As shown in FIG. 2, the user terminal 1 includes a head mounted device (HMD) 110, a headphone 116, a face camera 117, a microphone 118, a position sensor 130, and an external controller that are mounted on the user U's head. 320 and a control device 120.

HMD110は、表示部112と、HMDセンサ114と、注視センサ140と、フェイスカメラ113と、装着センサ115とを備えている。表示部112は、HMD110を装着したユーザUの視界(視野)を完全に覆うように構成された非透過型の表示装置を備えている。これにより、ユーザUは、表示部112に表示された視野画像のみを見ることで仮想空間に没入することができる。尚、表示部112は、ユーザUの左目に画像を提供するように構成された左目用表示部と、ユーザUの右目に画像を提供するように構成された右目用表示部とから構成されてもよい。また、HMD110は、透過型の表示装置を備えてもよい。この場合、透過型の表示装置は、その透過率を調整することで、一時的に非透過型の表示装置として構成されてもよい。   The HMD 110 includes a display unit 112, an HMD sensor 114, a gaze sensor 140, a face camera 113, and a mounting sensor 115. The display unit 112 includes a non-transmissive display device configured to completely cover the field of view (field of view) of the user U wearing the HMD 110. Thereby, the user U can immerse in the virtual space by viewing only the visual field image displayed on the display unit 112. The display unit 112 includes a left-eye display unit configured to provide an image to the user U's left eye and a right-eye display unit configured to provide an image to the user U's right eye. Also good. Further, the HMD 110 may include a transmissive display device. In this case, the transmissive display device may be temporarily configured as a non-transmissive display device by adjusting the transmittance.

HMDセンサ114は、HMD110の表示部112の近傍に搭載される。HMDセンサ114は、地磁気センサ、加速度センサ、傾きセンサ(角速度センサやジャイロセンサ等)のうちの少なくとも1つを含み、ユーザUの頭部に装着されたHMD110の各種動き(傾き等)を検出することができる。   The HMD sensor 114 is mounted in the vicinity of the display unit 112 of the HMD 110. The HMD sensor 114 includes at least one of a geomagnetic sensor, an acceleration sensor, and a tilt sensor (such as an angular velocity sensor and a gyro sensor), and detects various movements (tilt and the like) of the HMD 110 mounted on the user U's head. be able to.

注視センサ140は、ユーザUの視線を検出するアイトラッキング機能を有する。注視センサ140は、例えば、右目用注視センサと、左目用注視センサを備えてもよい。右目用注視センサは、ユーザUの右目に例えば赤外光を照射して、右目(特に、角膜や虹彩)から反射された反射光を検出することで、右目の眼球の回転角に関する情報を取得してもよい。一方、左目用注視センサは、ユーザUの左目に例えば赤外光を照射して、左目(特に、角膜や虹彩)から反射された反射光を検出することで、左目の眼球の回転角に関する情報を取得してもよい。   The gaze sensor 140 has an eye tracking function that detects the line of sight of the user U. The gaze sensor 140 may include, for example, a right eye gaze sensor and a left eye gaze sensor. The right eye gaze sensor irradiates, for example, infrared light to the right eye of the user U, and detects reflected light reflected from the right eye (particularly the cornea and iris), thereby acquiring information related to the rotation angle of the right eye's eyeball. May be. On the other hand, the left eye gaze sensor irradiates the left eye of the user U with, for example, infrared light, and detects reflected light reflected from the left eye (particularly the cornea and iris), thereby providing information on the rotation angle of the left eye's eyeball. May be obtained.

フェイスカメラ113は、HMD110がユーザUに装着された状態でユーザUの目(左目と右目)とまゆげ(左まゆげと右まゆげ)が表示された画像(特に、動画像)を取得するように構成されている。フェイスカメラ113は、ユーザUの目とまゆげを撮像可能なようにHMD110の内側の所定箇所に配置されている。フェイスカメラ113によって取得される動画像のフレームレートは、HMD110に表示される視野画像(後述する)のフレームレートよりも大きくてもよい。   The face camera 113 is configured to acquire an image (particularly, a moving image) in which the eyes (left eye and right eye) and eyebrows (left eyebrow and right eyebrow) of the user U are displayed with the HMD 110 mounted on the user U. Has been. The face camera 113 is arranged at a predetermined position inside the HMD 110 so that the user's U eyes and eyebrows can be imaged. The frame rate of the moving image acquired by the face camera 113 may be larger than the frame rate of the visual field image (described later) displayed on the HMD 110.

装着センサ115は、ユーザUがHMD110を装着しているかどうかを示すためのイベント情報を生成するように構成されている。具体的には、ユーザUがHMD110を取り外したときに(HMD110の状態が装着状態から非装着状態に遷移したときに)、装着センサ115は、イベント情報を生成した上で、当該イベント情報を制御装置120に送信する。   The wearing sensor 115 is configured to generate event information for indicating whether or not the user U is wearing the HMD 110. Specifically, when the user U removes the HMD 110 (when the state of the HMD 110 transitions from the wearing state to the non-wearing state), the wearing sensor 115 generates event information and then controls the event information. To device 120.

ヘッドフォン116(音声出力部)は、ユーザUの左耳と右耳にそれぞれ装着されている。ヘッドフォン116は、制御装置120から音声データ(電気信号)を受信し、当該受信した音声データに基づいて音声を出力するように構成されている。マイク118(音声入力部)は、ユーザUから発声された音声を収集し、当該収集された音声に基づいて音声データ(電気信号)を生成するように構成されている。さらに、マイク118は、音声データを制御装置120に送信するように構成されている。   Headphones 116 (audio output units) are attached to the left and right ears of the user U, respectively. The headphones 116 are configured to receive audio data (electrical signals) from the control device 120 and output audio based on the received audio data. The microphone 118 (voice input unit) is configured to collect voice uttered by the user U and generate voice data (electrical signal) based on the collected voice. Furthermore, the microphone 118 is configured to transmit audio data to the control device 120.

フェイスカメラ117は、ユーザUの口及びその周辺が表示された画像(特に、動画像)を取得するように構成されている。フェイスカメラ117は、ユーザUの口及びその周辺を撮像可能なようにユーザUの口に対向する位置に配置されてもよい。また、フェイスカメラ117は、HMD110と連結されていてもよい。フェイスカメラ117によって取得される動画像のフレームレートは、HMD110に表示される視野画像のフレームレートよりも大きくてもよい。   The face camera 117 is configured to acquire an image (particularly, a moving image) in which the mouth of the user U and its periphery are displayed. The face camera 117 may be arranged at a position facing the user U's mouth so that the user U's mouth and its periphery can be imaged. The face camera 117 may be connected to the HMD 110. The frame rate of the moving image acquired by the face camera 117 may be larger than the frame rate of the visual field image displayed on the HMD 110.

位置センサ130は、例えば、ポジション・トラッキング・カメラにより構成され、HMD110と外部コントローラ320の位置を検出するように構成されている。位置センサ130は、制御装置120に無線又は有線により通信可能に接続されており、HMD110に設けられた図示しない複数の検知点の位置、傾き又は発光強度に関する情報を検出するように構成されている。さらに、位置センサ130は、外部コントローラ320に設けられた図示しない複数の検知点の位置、傾き及び/又は発光強度に関する情報を検出するように構成されている。検知点は、例えば、赤外線や可視光を放射する発光部である。また、位置センサ130は、赤外線センサや複数の光学カメラを含んでもよい。   The position sensor 130 is configured by, for example, a position tracking camera, and is configured to detect the positions of the HMD 110 and the external controller 320. The position sensor 130 is communicably connected to the control device 120 by wireless or wired communication, and is configured to detect information on the position, inclination, or light emission intensity of a plurality of detection points (not shown) provided in the HMD 110. . Further, the position sensor 130 is configured to detect information on the position, inclination and / or light emission intensity of a plurality of detection points (not shown) provided in the external controller 320. The detection point is, for example, a light emitting unit that emits infrared light or visible light. The position sensor 130 may include an infrared sensor and a plurality of optical cameras.

外部コントローラ320は、ユーザUの身体の一部(頭部以外の部位であり、本実施形態においてはユーザUの手)の動きを検知することにより、仮想空間内に表示されるアバターの手の動作を制御するために使用される。外部コントローラ320は、ユーザUの右手によって操作される右手用外部コントローラ320R(以下、単にコントローラ320Rという。)と、ユーザUの左手によって操作される左手用外部コントローラ320L(以下、単にコントローラ320Lという。)と、を有する。コントローラ320Rは、ユーザUの右手の位置や右手の手指の動きを示す装置である。また、コントローラ320Rの動きに応じて仮想空間内に存在するアバターの右手が動く。コントローラ320Lは、ユーザUの左手の位置や左手の手指の動きを示す装置である。また、コントローラ320Lの動きに応じて仮想空間内に存在するアバターの左手が動く。   The external controller 320 detects the movement of a part of the body of the user U (a part other than the head, which is the user U's hand in the present embodiment), and thereby the avatar hand displayed in the virtual space. Used to control the operation. The external controller 320 is an external controller 320R for right hand operated by the right hand of the user U (hereinafter simply referred to as controller 320R) and an external controller 320L for left hand operated by the left hand of the user U (hereinafter simply referred to as controller 320L). And). The controller 320R is a device that indicates the position of the right hand of the user U and the movement of the finger of the right hand. Further, the right hand of the avatar that exists in the virtual space moves according to the movement of the controller 320R. The controller 320L is a device that indicates the position of the left hand of the user U and the movement of the finger of the left hand. Further, the left hand of the avatar that exists in the virtual space moves according to the movement of the controller 320L.

制御装置120は、HMD110を制御するように構成されたコンピュータである。制御装置120は、位置センサ130から取得された情報に基づいて、HMD110の位置情報を特定し、当該特定された位置情報に基づいて、仮想空間における仮想カメラの位置(アバターの位置)と、現実空間におけるHMD110を装着したユーザUの位置を正確に対応付けることができる。さらに、制御装置120は、位置センサ130及び/又は外部コントローラ320に内蔵されたセンサから取得された情報に基づいて、外部コントローラ320の動作を特定し、当該特定された外部コントローラ320の動作に基づいて、仮想空間内に表示されるアバターの手の動作と現実空間における外部コントローラ320の動作を正確に対応付けることができる。特に、制御装置120は、位置センサ130及び/又はコントローラ320Lに内蔵されたセンサから取得された情報に基づいて、コントローラ320Lの動作を特定し、当該特定されたコントローラ320Lの動作に基づいて、仮想空間内に表示されるアバターの左手の動作と現実空間におけるコントローラ320Lの動作(ユーザUの左手の動作)を正確に対応付けることができる。同様に、制御装置120は、位置センサ及び/コントローラ320Rに内蔵されたセンサから取得された情報に基づいて、コントローラ320Rの動作を特定し、当該特定されたコントローラ320Rの動作に基づいて、仮想空間内に表示されるアバターの右手の動作と現実空間におけるコントローラ320Rの動作(ユーザUの右手の動作)を正確に対応付けることができる。   The control device 120 is a computer configured to control the HMD 110. The control device 120 specifies the position information of the HMD 110 based on the information acquired from the position sensor 130, and based on the specified position information, the position of the virtual camera (avatar position) in the virtual space, and the reality. The position of the user U wearing the HMD 110 in the space can be accurately associated. Further, the control device 120 identifies the operation of the external controller 320 based on information acquired from the position sensor 130 and / or a sensor built in the external controller 320, and based on the identified operation of the external controller 320. Thus, the motion of the avatar's hand displayed in the virtual space can be accurately associated with the motion of the external controller 320 in the real space. In particular, the control device 120 identifies the operation of the controller 320L based on the information acquired from the position sensor 130 and / or the sensor built in the controller 320L, and determines the virtual operation based on the identified operation of the controller 320L. The motion of the left hand of the avatar displayed in the space and the motion of the controller 320L in the real space (the motion of the left hand of the user U) can be accurately associated. Similarly, the control device 120 specifies the operation of the controller 320R based on the information acquired from the position sensor and / or the sensor built in the controller 320R, and based on the operation of the specified controller 320R, the virtual space The motion of the right hand of the avatar displayed inside the motion of the controller 320R in the real space (the motion of the right hand of the user U) can be accurately associated.

また、制御部121は、フェイスカメラ113,117によって取得された動画像に基づいて、ユーザUの顔の表情(状態)とユーザUのアバターの顔の表情(状態)を対応付けることができる。ユーザUの顔の表情とアバターの顔の表情を互いに対応づける処理の詳細については後述する。   Further, the control unit 121 can associate the facial expression (state) of the user U with the facial expression (state) of the avatar of the user U based on the moving images acquired by the face cameras 113 and 117. Details of the process of associating the facial expression of the user U with the facial expression of the avatar will be described later.

また、制御装置120は、注視センサ140(左目用注視センサと右目用注視センサ)から送信された情報に基づいて、ユーザUの右目の視線と左目の視線をそれぞれ特定し、当該右目の視線と当該左目の視線の交点である注視点を特定することができる。さらに、制御装置120は、特定された注視点に基づいて、ユーザUの両目の視線(ユーザUの視線)を特定することができる。ここで、ユーザUの視線は、ユーザUの両目の視線であって、ユーザUの右目と左目を結ぶ線分の中点と注視点を通る直線の方向に一致する。   Further, the control device 120 specifies the gaze of the right eye and the gaze of the left eye of the user U based on the information transmitted from the gaze sensor 140 (the left eye gaze sensor and the right eye gaze sensor), and the right eye gaze. It is possible to specify the point of gaze that is the intersection of the left eye gaze. Furthermore, the control device 120 can specify the line of sight of both eyes of the user U (the line of sight of the user U) based on the specified gazing point. Here, the line of sight of the user U is the line of sight of both eyes of the user U, and coincides with the direction of a straight line passing through the middle point of the line connecting the right eye and the left eye of the user U and the gazing point.

次に、図3を参照して、HMD110の位置や傾きに関する情報を取得する方法について説明する。図3は、HMD110を装着したユーザUの頭部を示す図である。HMD110を装着したユーザUの頭部の動きに連動したHMD110の位置や傾きに関する情報は、位置センサ130及び/又はHMD110に搭載されたHMDセンサ114により検出可能である。図2に示すように、HMD110を装着したユーザUの頭部を中心として、3次元座標(uvw座標)が規定される。ユーザUが直立する垂直方向をv軸として規定し、v軸と直交しHMD110の中心を通る方向をw軸として規定し、v軸およびw軸と直交する方向をu軸として規定する。位置センサ130及び/又はHMDセンサ114は、各uvw軸回りの角度(すなわち、v軸を中心とする回転を示すヨー角、u軸を中心とした回転を示すピッチ角、w軸を中心とした回転を示すロール角で決定される傾き)を検出する。制御装置120は、検出された各uvw軸回りの角度変化に基づいて、仮想カメラの視軸を制御するための角度情報を決定する。   Next, with reference to FIG. 3, a method for acquiring information related to the position and inclination of the HMD 110 will be described. FIG. 3 is a diagram illustrating the head of the user U wearing the HMD 110. Information on the position and inclination of the HMD 110 that is linked to the movement of the head of the user U wearing the HMD 110 can be detected by the position sensor 130 and / or the HMD sensor 114 mounted on the HMD 110. As shown in FIG. 2, three-dimensional coordinates (uvw coordinates) are defined centering on the head of the user U wearing the HMD 110. The vertical direction in which the user U stands up is defined as the v-axis, the direction orthogonal to the v-axis and passing through the center of the HMD 110 is defined as the w-axis, and the direction orthogonal to the v-axis and the w-axis is defined as the u-axis. The position sensor 130 and / or the HMD sensor 114 is an angle around each uvw axis (that is, a yaw angle indicating rotation around the v axis, a pitch angle indicating rotation around the u axis, and a center around the w axis). The inclination determined by the roll angle indicating rotation) is detected. The control device 120 determines angle information for controlling the visual axis of the virtual camera based on the detected angle change around each uvw axis.

次に、図4を参照することで、制御装置120のハードウェア構成について説明する。図4は、制御装置120のハードウェア構成を示す図である。図4に示すように、制御装置120は、制御部121と、記憶部123と、I/O(入出力)インターフェース124と、通信インターフェース125と、バス126とを備える。制御部121と、記憶部123と、I/Oインターフェース124と、通信インターフェース125は、バス126を介して互いに通信可能に接続されている。   Next, the hardware configuration of the control device 120 will be described with reference to FIG. FIG. 4 is a diagram illustrating a hardware configuration of the control device 120. As illustrated in FIG. 4, the control device 120 includes a control unit 121, a storage unit 123, an I / O (input / output) interface 124, a communication interface 125, and a bus 126. The control unit 121, the storage unit 123, the I / O interface 124, and the communication interface 125 are connected to each other via a bus 126 so as to communicate with each other.

制御装置120は、HMD110とは別体に、パーソナルコンピュータ、スマートフォン、ファブレット、タブレット又はウェアラブルデバイスとして構成されてもよいし、HMD110に内蔵されていてもよい。また、制御装置120の一部の機能がHMD110に搭載されると共に、制御装置120の残りの機能がHMD110とは別体の他の装置に搭載されてもよい。   The control device 120 may be configured as a personal computer, a smartphone, a fablet, a tablet, or a wearable device separately from the HMD 110, or may be built in the HMD 110. In addition, some functions of the control device 120 may be mounted on the HMD 110, and the remaining functions of the control device 120 may be mounted on another device separate from the HMD 110.

制御部121は、メモリとプロセッサを備えている。メモリは、例えば、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)及び/又はGPU(Graphics Processing Unit)であって、ROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。   The control unit 121 includes a memory and a processor. The memory includes, for example, a ROM (Read Only Memory) in which various programs are stored, a RAM (Random Access Memory) having a plurality of work areas in which various programs executed by the processor are stored, and the like. The processor is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and / or a GPU (Graphics Processing Unit), and a program specified from various programs embedded in the ROM is expanded on the RAM. It is comprised so that various processes may be performed in cooperation with.

特に、プロセッサが制御プログラムをRAM上に展開し、RAMとの協働で制御プログラムを実行することで、制御部121は、制御装置120の各種動作を制御してもよい。制御部121は、視野画像データに基づいてHMD110の表示部112に視野画像を表示する。これにより、ユーザUは、仮想空間に没入することができる。   In particular, the control unit 121 may control various operations of the control device 120 by a processor developing a control program on a RAM and executing the control program in cooperation with the RAM. The control unit 121 displays a field image on the display unit 112 of the HMD 110 based on the field image data. Thereby, the user U can be immersed in the virtual space.

記憶部(ストレージ)123は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、USBフラッシュメモリ等の記憶装置であって、プログラムや各種データを格納するように構成されている。記憶部123は、本実施形態に係る情報処理方法の少なくとも一部をコンピュータに実行させるための制御プログラムや、複数のユーザによる仮想空間の共有を実現するための制御プログラムを格納してもよい。また、記憶部123には、ユーザUの認証プログラムや各種画像やオブジェクト(例えば、アバター等)に関するデータが格納されてもよい。さらに、記憶部123には、各種データを管理するためのテーブルを含むデータベースが構築されてもよい。   The storage unit (storage) 123 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a USB flash memory, and is configured to store programs and various data. The storage unit 123 may store a control program for causing a computer to execute at least a part of the information processing method according to the present embodiment, or a control program for realizing sharing of a virtual space by a plurality of users. The storage unit 123 may store data related to the user U authentication program, various images, and objects (for example, an avatar). Furthermore, a database including tables for managing various data may be constructed in the storage unit 123.

I/Oインターフェース124は、HMD110と、位置センサ130と、外部コントローラ320と、ヘッドフォン116と、フェイスカメラ117と、マイク118とをそれぞれ制御装置120に通信可能に接続するように構成されており、例えば、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High―Definition Multimedia Interface)端子等により構成されている。尚、制御装置120は、HMD110と、位置センサ130と、外部コントローラ320と、ヘッドフォン116と、フェイスカメラ117と、マイク118とのそれぞれと無線接続されていてもよい。   The I / O interface 124 is configured to communicably connect the HMD 110, the position sensor 130, the external controller 320, the headphones 116, the face camera 117, and the microphone 118 to the control device 120, respectively. For example, it is configured by a USB (Universal Serial Bus) terminal, a DVI (Digital Visual Interface) terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) terminal, and the like. The control device 120 may be wirelessly connected to each of the HMD 110, the position sensor 130, the external controller 320, the headphones 116, the face camera 117, and the microphone 118.

通信インターフェース125は、制御装置120をLAN(Local Area Network)、WAN(Wide Area Network)又はインターネット等の通信ネットワーク3に接続させるように構成されている。通信インターフェース125は、通信ネットワーク3を介してサーバ2等の外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んでおり、通信ネットワーク3を介して通信するための通信規格に適合するように構成されている。   The communication interface 125 is configured to connect the control device 120 to a communication network 3 such as a LAN (Local Area Network), a WAN (Wide Area Network), or the Internet. The communication interface 125 includes various wired connection terminals for communicating with an external device such as the server 2 via the communication network 3 and various processing circuits for wireless connection, and communicates via the communication network 3. It is configured to conform to the communication standard.

次に、図5を参照して外部コントローラ320の具体的構成の一例について説明する。コントローラ320Rとコントローラ320Lは略同一の構成を有するので、以下では、図5を参照してコントローラ320Rの具体的構成についてのみ説明する。尚、以降の説明では、便宜上、コントローラ320L,320Rを単に外部コントローラ320と総称する場合がある。   Next, an example of a specific configuration of the external controller 320 will be described with reference to FIG. Since the controller 320R and the controller 320L have substantially the same configuration, only the specific configuration of the controller 320R will be described below with reference to FIG. In the following description, the controllers 320L and 320R may be simply referred to as the external controller 320 for convenience.

図5に示すように、コントローラ320Rは、操作ボタン302と、複数の検知点304と、図示しないセンサと、図示しないトランシーバとを備える。検知点304とセンサは、どちらか一方のみが設けられていてもよい。操作ボタン302は、ユーザUからの操作入力を受付けるように構成された複数のボタン群により構成されている。操作ボタン302は、プッシュ式ボタンと、トリガー式ボタンと、アナログスティックとを含む。プッシュ式ボタンは、親指による押下する動作によって操作されるボタンである。例えば、天面322上に2つのプッシュ式ボタン302a,302bが設けられている。トリガー式ボタンは、人差し指や中指で引き金を引くような動作によって操作されるボタンである。例えば、グリップ324の前面部分にトリガー式ボタン302eが設けられると共に、グリップ324の側面部分にトリガー式ボタン302fが設けられる。トリガー式ボタン302e,302fは、人差し指と中指によってそれぞれ操作される。アナログスティックは、所定のニュートラル位置から360度任意の方向へ傾けて操作されうるスティック型のボタンである。例えば、天面322上にアナログスティック320iが設けられており、親指を用いて操作される。   As shown in FIG. 5, the controller 320R includes an operation button 302, a plurality of detection points 304, a sensor (not shown), and a transceiver (not shown). Only one of the detection point 304 and the sensor may be provided. The operation button 302 includes a plurality of button groups configured to accept an operation input from the user U. The operation button 302 includes a push button, a trigger button, and an analog stick. The push-type button is a button operated by an operation of pressing with a thumb. For example, two push buttons 302 a and 302 b are provided on the top surface 322. The trigger type button is a button operated by an operation of pulling a trigger with an index finger or a middle finger. For example, a trigger button 302 e is provided on the front surface portion of the grip 324, and a trigger button 302 f is provided on the side surface portion of the grip 324. The trigger type buttons 302e and 302f are operated by the index finger and the middle finger, respectively. The analog stick is a stick-type button that can be operated by being tilted 360 degrees from a predetermined neutral position in an arbitrary direction. For example, an analog stick 320i is provided on the top surface 322, and is operated using a thumb.

コントローラ320Rは、グリップ324の両側面から天面322とは反対側の方向へ延びて半円状のリングを形成するフレーム326を備える。フレーム326の外側面には、複数の検知点304が埋め込まれている。複数の検知点304は、例えば、フレーム326の円周方向に沿って一列に並んだ複数の赤外線LEDである。位置センサ130は、複数の検知点304の位置、傾き又は発光強度に関する情報を検出した後に、制御装置120は、位置センサ130によって検出された情報に基づいて、コントローラ320Rの位置や姿勢(傾き・向き)に関する情報を取得する。   The controller 320R includes a frame 326 that extends from both side surfaces of the grip 324 in a direction opposite to the top surface 322 to form a semicircular ring. A plurality of detection points 304 are embedded on the outer surface of the frame 326. The plurality of detection points 304 are, for example, a plurality of infrared LEDs arranged in a line along the circumferential direction of the frame 326. After the position sensor 130 detects information on the position, inclination, or light emission intensity of the plurality of detection points 304, the control device 120 detects the position or orientation (inclination / posture) of the controller 320R based on the information detected by the position sensor 130. Get information about (orientation).

コントローラ320Rのセンサは、例えば、磁気センサ、角速度センサ、若しくは加速度センサのいずれか、又はこれらの組み合わせであってもよい。センサは、ユーザUがコントローラ320Rを動かしたときに、コントローラ320Rの向きや位置に応じた信号(例えば、磁気、角速度、又は加速度に関する情報を示す信号)を出力する。制御装置120は、センサから出力された信号に基づいて、コントローラ320Rの位置や姿勢に関する情報を取得する。   The sensor of the controller 320R may be, for example, a magnetic sensor, an angular velocity sensor, an acceleration sensor, or a combination thereof. When the user U moves the controller 320R, the sensor outputs a signal (for example, a signal indicating information related to magnetism, angular velocity, or acceleration) according to the orientation and position of the controller 320R. The control device 120 acquires information related to the position and orientation of the controller 320R based on the signal output from the sensor.

コントローラ320Rのトランシーバは、コントローラ320Rと制御装置120との間でデータを送受信するように構成されている。例えば、トランシーバは、ユーザUの操作入力に対応する操作信号を制御装置120に送信してもよい。また、トランシーバは、検知点304の発光をコントローラ320Rに指示する指示信号を制御装置120から受信してもよい。さらに、トランシーバは、センサによって検出された値を示す信号を制御装置120に送信してもよい。   The transceiver of the controller 320R is configured to transmit and receive data between the controller 320R and the control device 120. For example, the transceiver may transmit an operation signal corresponding to the operation input of the user U to the control device 120. The transceiver may receive an instruction signal for instructing the controller 320 </ b> R to emit light at the detection point 304 from the control device 120. Further, the transceiver may send a signal to the controller 120 indicating the value detected by the sensor.

次に、図6から図9を参照することで視野画像をHMD110に表示するための処理について説明する。図6は、視野画像をHMD110に表示する処理を示すフローチャートである。図7は、仮想空間200の一例を示すxyz空間図である。図8の状態(a)は、図7に示す仮想空間200のyx平面図である。図8の状態(b)は、図7に示す仮想空間200のzx平面図である。図9は、HMD110に表示された視野画像Vの一例を示す図である。   Next, processing for displaying a field-of-view image on the HMD 110 will be described with reference to FIGS. 6 to 9. FIG. 6 is a flowchart showing a process for displaying the visual field image on the HMD 110. FIG. 7 is an xyz space diagram showing an example of the virtual space 200. The state (a) in FIG. 8 is a yx plan view of the virtual space 200 shown in FIG. The state (b) of FIG. 8 is a zx plan view of the virtual space 200 shown in FIG. FIG. 9 is a diagram illustrating an example of the visual field image V displayed on the HMD 110.

図6に示すように、ステップS1において、制御部121(図4参照)は、仮想カメラ300と、各種オブジェクトとを含む仮想空間200を示す仮想空間データを生成する。図7に示すように、仮想空間200は、中心位置210を中心とした全天球として規定される(図7では、上半分の天球のみが図示されている)。また、仮想空間200では、中心位置210を原点とするxyz座標系が設定されている。仮想カメラ300は、HMD110に表示される視野画像V(図9参照)を特定するための視軸Lを規定している。仮想カメラ300の視野を定義するuvw座標系は、現実空間におけるユーザUの頭部を中心として規定されたuvw座標系に連動するように決定される。また、HMD110を装着したユーザUの現実空間における移動に連動して、制御部121は、仮想カメラ300を仮想空間200内で移動させてもよい。   As shown in FIG. 6, in step S1, the control unit 121 (see FIG. 4) generates virtual space data indicating the virtual space 200 including the virtual camera 300 and various objects. As shown in FIG. 7, the virtual space 200 is defined as an omnidirectional sphere centered on the center position 210 (in FIG. 7, only the upper half celestial sphere is shown). In the virtual space 200, an xyz coordinate system with the center position 210 as the origin is set. The virtual camera 300 defines a visual axis L for specifying the visual field image V (see FIG. 9) displayed on the HMD 110. The uvw coordinate system that defines the visual field of the virtual camera 300 is determined so as to be linked to the uvw coordinate system that is defined around the head of the user U in the real space. Further, the control unit 121 may move the virtual camera 300 in the virtual space 200 in conjunction with the movement of the user U wearing the HMD 110 in the real space.

次に、ステップS2において、制御部121は、仮想カメラ300の視野CV(図8参照)を特定する。具体的には、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の状態を示すデータに基づいて、HMD110の位置や傾きに関する情報を取得する。次に、制御部121は、HMD110の位置や傾きに関する情報に基づいて、仮想空間200内における仮想カメラ300の位置や向きを特定する。次に、制御部121は、仮想カメラ300の位置や向きから仮想カメラ300の視軸Lを決定し、決定された視軸Lから仮想カメラ300の視野CVを特定する。ここで、仮想カメラ300の視野CVは、HMD110を装着したユーザUが視認可能な仮想空間200の一部の領域に相当する(換言すれば、HMD110に表示される仮想空間200の一部の領域に相当する)。また、視野CVは、図8の状態(a)に示すxy平面において、視軸Lを中心とした極角αの角度範囲として設定される第1領域CVaと、図8の状態(b)に示すxz平面において、視軸Lを中心とした方位角βの角度範囲として設定される第2領域CVbとを有する。尚、制御部121は、注視センサ140から送信されたユーザUの視線を示すデータに基づいてユーザUの視線を特定し、特定されたユーザUの視線とHMD110の位置や傾きに関する情報に基づいて、仮想カメラ300の向き(仮想カメラの野軸L)を決定してもよい。また、後述するように、制御部121は、HMD110の位置や傾きに関する情報に基づいて、ユーザUのアバターの顔の向きを決定してもよい。   Next, in step S2, the control unit 121 identifies the field of view CV (see FIG. 8) of the virtual camera 300. Specifically, the control unit 121 acquires information on the position and inclination of the HMD 110 based on data indicating the state of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. Next, the control unit 121 identifies the position and orientation of the virtual camera 300 in the virtual space 200 based on information regarding the position and tilt of the HMD 110. Next, the control unit 121 determines the visual axis L of the virtual camera 300 from the position and orientation of the virtual camera 300 and specifies the visual field CV of the virtual camera 300 from the determined visual axis L. Here, the visual field CV of the virtual camera 300 corresponds to a part of the virtual space 200 visible to the user U wearing the HMD 110 (in other words, a part of the virtual space 200 displayed on the HMD 110). Equivalent to Further, the visual field CV includes a first region CVa set as an angular range of the polar angle α around the visual axis L in the xy plane shown in the state (a) of FIG. 8, and the state (b) of FIG. 8. The xz plane shown has a second region CVb set as an angle range of the azimuth angle β with the visual axis L as the center. The control unit 121 identifies the line of sight of the user U based on the data indicating the line of sight of the user U transmitted from the gaze sensor 140, and based on the information regarding the identified line of sight of the user U and the position and inclination of the HMD 110. The orientation of the virtual camera 300 (virtual camera field axis L) may be determined. As will be described later, the control unit 121 may determine the orientation of the face of the user U's avatar based on information on the position and inclination of the HMD 110.

このように、制御部121は、位置センサ130及び/又はHMDセンサ114からのデータに基づいて、仮想カメラ300の視野CVを特定することができる。ここで、HMD110を装着したユーザUが動くと、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の動きを示すデータに基づいて、仮想カメラ300の視野CVを更新することができる。つまり、制御部121は、HMD110の動きに応じて、視野CVを更新することができる。同様に、ユーザUの視線が変化すると、制御部121は、注視センサ140から送信されたユーザUの視線を示すデータに基づいて、仮想カメラ300の視野CVを更新してもよい。つまり、制御部121は、ユーザUの視線の変化に応じて、視野CVを変化させてもよい。   As described above, the control unit 121 can specify the visual field CV of the virtual camera 300 based on the data from the position sensor 130 and / or the HMD sensor 114. Here, when the user U wearing the HMD 110 moves, the control unit 121 updates the visual field CV of the virtual camera 300 based on the data indicating the movement of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. be able to. That is, the control unit 121 can update the visual field CV according to the movement of the HMD 110. Similarly, when the line of sight of the user U changes, the control unit 121 may update the visual field CV of the virtual camera 300 based on the data indicating the line of sight of the user U transmitted from the gaze sensor 140. That is, the control unit 121 may change the visual field CV according to the change in the line of sight of the user U.

次に、ステップS3において、制御部121は、HMD110の表示部112に表示される視野画像Vを示す視野画像データを生成する。具体的には、制御部121は、仮想空間200を規定する仮想空間データと、仮想カメラ300の視野CVとに基づいて、視野画像データを生成する。   Next, in step S <b> 3, the control unit 121 generates visual field image data indicating the visual field image V displayed on the display unit 112 of the HMD 110. Specifically, the control unit 121 generates visual field image data based on virtual space data defining the virtual space 200 and the visual field CV of the virtual camera 300.

次に、ステップS4において、制御部121は、視野画像データに基づいて、HMD110の表示部112に視野画像Vを表示する(図9参照)。このように、HMD110を装着しているユーザUの動きに応じて、仮想カメラ300の視野CVが変化し、HMD110の表示部112に表示される視野画像Vが変化するので、ユーザUは仮想空間200に没入することができる。   Next, in step S4, the control unit 121 displays the field image V on the display unit 112 of the HMD 110 based on the field image data (see FIG. 9). As described above, the visual field CV of the virtual camera 300 is changed according to the movement of the user U wearing the HMD 110, and the visual field image V displayed on the display unit 112 of the HMD 110 is changed. I can immerse myself in 200.

尚、仮想カメラ300は、左目用仮想カメラと右目用仮想カメラを含んでもよい。この場合、制御部121は、仮想空間データと左目用仮想カメラの視野に基づいて、左目用の視野画像を示す左目用視野画像データを生成する。さらに、制御部121は、仮想空間データと、右目用仮想カメラの視野に基づいて、右目用の視野画像を示す右目用視野画像データを生成する。その後、制御部121は、左目用視野画像データに基づいて、左目用表示部に左目用の視野画像を表示すると共に、右目用視野画像データに基づいて、右目用表示部に右目用の視野画像を表示する。このようにして、ユーザUは、左目用視野画像と右目用視野画像との間の視差により、視野画像を3次元的に視認することができる。尚、仮想カメラは、後述するように、ユーザによって操作されるアバターの目の位置に配置されてもよい。例えば、左目用仮想カメラは、アバターの左目に配置される一方で、右目用仮想カメラは、アバターの右目に配置されてもよい。   Note that the virtual camera 300 may include a left-eye virtual camera and a right-eye virtual camera. In this case, the control unit 121 generates left-eye view image data indicating the left-eye view image based on the virtual space data and the view of the left-eye virtual camera. Further, the control unit 121 generates right-eye view image data indicating a right-eye view image based on the virtual space data and the view of the right-eye virtual camera. Thereafter, the control unit 121 displays the left-eye field image on the left-eye display unit based on the left-eye field image data, and also displays the right-eye field image on the right-eye display unit based on the right-eye field image data. Is displayed. In this way, the user U can visually recognize the visual field image three-dimensionally due to the parallax between the left-eye visual field image and the right-eye visual field image. As will be described later, the virtual camera may be arranged at the position of the avatar eye operated by the user. For example, the left-eye virtual camera may be placed in the left eye of the avatar, while the right-eye virtual camera may be placed in the right eye of the avatar.

また、図6に示すステップS1〜S4の処理は1フレーム(動画を構成する静止画像)毎に実行されてもよい。例えば、動画のフレームレートが90fpsである場合、ステップS1〜S4の処理はΔT=1/90(秒)間隔で繰り返し実行されてもよい。このように、ステップS1〜S4の処理が所定間隔ごとに繰り返し実行されるため、HMD110の動作に応じて仮想カメラ300の視野が更新されると共に、HMD110の表示部112に表示される視野画像Vが更新される。   Further, the processes in steps S1 to S4 shown in FIG. 6 may be executed for each frame (a still image constituting a moving image). For example, when the frame rate of the moving image is 90 fps, the processes in steps S1 to S4 may be repeatedly executed at intervals of ΔT = 1/90 (seconds). As described above, since the processes in steps S1 to S4 are repeatedly performed at predetermined intervals, the visual field of the virtual camera 300 is updated according to the operation of the HMD 110, and the visual field image V displayed on the display unit 112 of the HMD 110. Is updated.

次に、図1に示すサーバ2のハードウェア構成について図10を参照して説明する。図10は、サーバ2のハードウェア構成を示す図である。図10に示すように、サーバ2は、制御部23と、記憶部22と、通信インターフェース21と、バス24とを備える。制御部23と、記憶部22と、通信インターフェース21は、バス24を介して互いに通信可能に接続されている。制御部23は、メモリとプロセッサを備えており、メモリは、例えば、ROM及びRAM等から構成されると共に、プロセッサは、例えば、CPU、MPU及び/又はGPUにより構成される。   Next, the hardware configuration of the server 2 shown in FIG. 1 will be described with reference to FIG. FIG. 10 is a diagram illustrating a hardware configuration of the server 2. As shown in FIG. 10, the server 2 includes a control unit 23, a storage unit 22, a communication interface 21, and a bus 24. The control unit 23, the storage unit 22, and the communication interface 21 are communicably connected to each other via a bus 24. The control unit 23 includes a memory and a processor. The memory is composed of, for example, a ROM and a RAM, and the processor is composed of, for example, a CPU, an MPU, and / or a GPU.

記憶部(ストレージ)22は、例えば、大容量のHDD等である。記憶部22は、本実施形態に係る情報処理方法の少なくとも一部をコンピュータに実行させるための制御プログラムや、複数のユーザによる仮想空間の共有を実現させるための制御プログラムを格納してもよい。また、記憶部22は、各ユーザを管理するためのユーザ管理情報や各種画像やオブジェクト(例えば、アバター等)に関するデータを格納してもよい。通信インターフェース21は、サーバ2を通信ネットワーク3に接続させるように構成されている。   The storage unit (storage) 22 is, for example, a large-capacity HDD. The storage unit 22 may store a control program for causing a computer to execute at least a part of the information processing method according to the present embodiment, or a control program for realizing sharing of a virtual space by a plurality of users. Moreover, the memory | storage part 22 may store the data regarding the user management information for managing each user, various images, and objects (for example, avatar etc.). The communication interface 21 is configured to connect the server 2 to the communication network 3.

次に、図1,11及び12を参照してユーザ端末1Aとユーザ端末1B間において各アバター4A,4Bの動きを同期させる処理の一例について説明する。図11の状態(a)は、ユーザAに提供される仮想空間200Aを示す図である。図11の状態(b)は、ユーザBに提供される仮想空間200Bを示す図である。図12は、ユーザ端末1Aとユーザ端末1B間において各アバター4A,4Bの動きを同期させる処理の一例を説明するためのシーケンス図である。本説明では、前提条件として、図11に示すように、ユーザ端末1A(ユーザA)に関連付けられたアバター4Aと、ユーザ端末1B(ユーザB)に関連付けられたアバター4Bが同一の仮想空間を共有しているものとする。つまり、通信ネットワーク3を介してユーザAとユーザBが一つの仮想空間を共有するものとする。   Next, an example of processing for synchronizing the movements of the avatars 4A and 4B between the user terminal 1A and the user terminal 1B will be described with reference to FIGS. The state (a) in FIG. 11 is a diagram showing the virtual space 200A provided to the user A. The state (b) in FIG. 11 is a diagram showing the virtual space 200B provided to the user B. FIG. 12 is a sequence diagram for explaining an example of processing for synchronizing the movements of the avatars 4A and 4B between the user terminal 1A and the user terminal 1B. In this description, as a precondition, as shown in FIG. 11, the avatar 4A associated with the user terminal 1A (user A) and the avatar 4B associated with the user terminal 1B (user B) share the same virtual space. Suppose you are. That is, it is assumed that the user A and the user B share one virtual space via the communication network 3.

図11の状態(a)に示すように、ユーザAの仮想空間200Aは、アバター4Aと、アバター4Bとを含む。アバター4Aは、ユーザAによって操作されると共に、ユーザAの動作に連動する。アバター4Aは、ユーザ端末1Aのコントローラ320Lの動作(ユーザAの左手の動作)に連動する左手(アバター4Aの仮想身体の一部)と、ユーザ端末1Aのコントローラ320Rの動作(ユーザAの右手の動作)に連動する右手と、表情がユーザAの顔の表情に連動する顔を有する。アバター4Aの顔は、複数の顔パーツ(例えば、目、まゆげ、口等)を有する。アバター4Bは、ユーザBによって操作されると共に、ユーザBの動作に連動する。アバター4Bは、ユーザBの左手の動作を示すユーザ端末1Bのコントローラ320Lの動作に連動する左手と、ユーザBの右手の動作を示すユーザ端末1Bのコントローラ320Rの動作に連動する右手と、表情がユーザBの顔の表情と連動する顔を有する。アバター4Bの顔は、複数の顔パーツ(例えば、目、まゆげ、口等)を有する。   As shown in the state (a) of FIG. 11, the virtual space 200A of the user A includes an avatar 4A and an avatar 4B. The avatar 4A is operated by the user A and interlocked with the operation of the user A. The avatar 4A includes a left hand (a part of the virtual body of the avatar 4A) linked to an operation of the controller 320L of the user terminal 1A (an operation of the left hand of the user A) and an operation of the controller 320R of the user terminal 1A (the right hand of the user A A right hand that is linked to the action) and a face whose facial expression is linked to the facial expression of the user A. The face of the avatar 4A has a plurality of face parts (for example, eyes, eyebrows, mouths, etc.). The avatar 4B is operated by the user B and interlocked with the operation of the user B. The avatar 4B has a left hand linked to the operation of the controller 320L of the user terminal 1B showing the operation of the user B's left hand, a right hand linked to the operation of the controller 320R of the user terminal 1B showing the operation of the user B's right hand, It has a face that is linked to the facial expression of user B. The face of the avatar 4B has a plurality of face parts (for example, eyes, eyebrows, mouths, etc.).

尚、ユーザAに提供される仮想空間200Aでは、アバター4Aが可視化されない場合も想定される。この場合、仮想空間200Aに配置されるアバター4Aは、少なくともユーザ端末1AのHMD110の動きに連動する仮想カメラ300を含む。   In the virtual space 200A provided to the user A, a case where the avatar 4A is not visualized is also assumed. In this case, the avatar 4A arranged in the virtual space 200A includes at least the virtual camera 300 that is linked to the movement of the HMD 110 of the user terminal 1A.

また、ユーザ端末1A,1BのHMD110の位置に応じてアバター4A,4Bの位置が特定されてもよい。同様に、ユーザ端末1A,1BのHMD110の傾きに応じてアバター4A,4Bの顔の向きが特定されてもよい。さらに、ユーザ端末1A,1Bの外部コントローラ320の動作に応じてアバター4A,4Bの手の動作が特定されてもよい。特に、ユーザ端末1A,1Bのコントローラ320Lの動作に応じてアバター4A,4Bの左手の動作が特定されると共に、ユーザ端末1A,1Bのコントローラ320Rの動作に応じてアバター4A,4Bの右手の動作が特定されてもよい。また、ユーザA,Bの顔の表情(状態)に応じてアバター4A,4Bの顔の表情が特定されてもよい。特に、ユーザA,Bの白目に対する黒目の位置に応じてアバター4A,4Bの白目に対する黒目の位置が特定されてもよい。   Further, the positions of the avatars 4A and 4B may be specified according to the position of the HMD 110 of the user terminals 1A and 1B. Similarly, the face orientations of the avatars 4A and 4B may be specified according to the inclination of the HMD 110 of the user terminals 1A and 1B. Furthermore, the movement of the hands of the avatars 4A and 4B may be specified according to the movement of the external controller 320 of the user terminals 1A and 1B. In particular, the action of the left hand of the avatars 4A and 4B is specified according to the action of the controller 320L of the user terminals 1A and 1B, and the action of the right hand of the avatars 4A and 4B is determined according to the action of the controller 320R of the user terminals 1A and 1B. May be specified. The facial expressions of the avatars 4A and 4B may be specified according to the facial expressions (states) of the users A and B. In particular, the position of the black eye for the white eyes of the avatars 4A and 4B may be specified according to the position of the black eye for the white eyes of the users A and B.

また、アバター4A,4Bの各々の目には、仮想カメラ300(図7)が配置されてもよい。特に、アバター4A,4Bの左目には、左目用仮想カメラが配置されると共に、アバター4A,4Bの右目には、右目用仮想カメラが配置されてもよい。尚、以降の説明では、仮想カメラ300は、アバター4A,4Bの目の位置に配置されているものとする。このため、アバター4Aの視野CVは、アバター4Aに配置された仮想カメラ300の視野CV(図7参照)と一致するものとする。同様に、アバター4Bの視野CVは、アバター4Bに配置された仮想カメラ300の視野CV(図7参照)と一致するものとする。   Moreover, the virtual camera 300 (FIG. 7) may be arrange | positioned at each eyes of avatar 4A, 4B. In particular, a left-eye virtual camera may be disposed on the left eyes of the avatars 4A and 4B, and a right-eye virtual camera may be disposed on the right eyes of the avatars 4A and 4B. In the following description, it is assumed that the virtual camera 300 is disposed at the eye positions of the avatars 4A and 4B. For this reason, the visual field CV of the avatar 4A matches the visual field CV (see FIG. 7) of the virtual camera 300 arranged on the avatar 4A. Similarly, it is assumed that the field of view CV of the avatar 4B matches the field of view CV (see FIG. 7) of the virtual camera 300 arranged on the avatar 4B.

図11の状態(b)に示すように、ユーザBの仮想空間200Bは、アバター4Aと、アバター4Bとを含む。仮想空間200A内におけるアバター4A,4Bの位置は、仮想空間200B内におけるアバター4A,4Bの位置に対応してもよい。   As shown in the state (b) of FIG. 11, the virtual space 200B of the user B includes an avatar 4A and an avatar 4B. The positions of the avatars 4A and 4B in the virtual space 200A may correspond to the positions of the avatars 4A and 4B in the virtual space 200B.

尚、ユーザBに提供される仮想空間200Bでは、アバター4Bが可視化されない場合も想定される。この場合、仮想空間200Bに配置されるアバター4Bは、少なくともユーザ端末1BのHMD110の動きに連動する仮想カメラ300を含む。   In the virtual space 200B provided to the user B, a case where the avatar 4B is not visualized is also assumed. In this case, the avatar 4B arranged in the virtual space 200B includes at least the virtual camera 300 that is linked to the movement of the HMD 110 of the user terminal 1B.

次に、図12を参照すると、ステップS10において、ユーザ端末1Aの制御部121は、ユーザAの音声データを生成する。例えば、ユーザAがユーザ端末1Aのマイク118(音声入力部)に音声を入力したときに、マイク118は、入力された音声を示す音声データを生成する。その後、マイク118は、生成された音声データをI/Oインターフェース124を介して制御部121に送信する。   Next, referring to FIG. 12, in step S10, the control unit 121 of the user terminal 1A generates voice data of the user A. For example, when the user A inputs voice to the microphone 118 (voice input unit) of the user terminal 1A, the microphone 118 generates voice data indicating the input voice. Thereafter, the microphone 118 transmits the generated audio data to the control unit 121 via the I / O interface 124.

次に、ステップS11において、ユーザ端末1Aの制御部121は、アバター4Aの制御情報を生成した上で、当該生成したアバター4Aの制御情報とユーザAの音声を示す音声データ(ユーザAの音声データ)をサーバ2に送信する。その後、サーバ2の制御部23は、ユーザ端末1Aからアバター4Aの制御情報とユーザAの音声データを受信する(ステップS12)。   Next, in step S11, the control unit 121 of the user terminal 1A generates control information of the avatar 4A, and then generates audio data indicating the control information of the generated avatar 4A and the voice of the user A (voice data of the user A) ) To the server 2. Thereafter, the control unit 23 of the server 2 receives the control information of the avatar 4A and the voice data of the user A from the user terminal 1A (step S12).

ここで、アバター4Aの制御情報は、アバター4Aの動作を制御するために必要な情報である。アバター4Aの制御情報は、アバター4Aの位置に関する情報(位置情報)と、アバター4Aの顔の向きに関する情報(顔向き情報)と、アバター4Aの手(左手と右手)の状態に関する情報(手情報)と、アバター4Aの顔の表情に関する情報(顔情報)とを含んでもよい。   Here, the control information of the avatar 4A is information necessary for controlling the operation of the avatar 4A. The control information of the avatar 4A includes information about the position of the avatar 4A (position information), information about the face orientation of the avatar 4A (face orientation information), and information about the state of the avatar 4A's hand (left hand and right hand) (hand information). ) And information (face information) related to the facial expression of the avatar 4A.

アバター4Aの顔情報は、複数の顔パーツの状態を示す情報を有する。複数の顔パーツの状態を示す情報は、アバター4Aの目の状態(白目の形状及び白目に対する黒目の位置等)を示す情報(目情報)と、アバター4Aのまゆげの情報(まゆげの位置及び形状等)を示す情報(まゆげ情報)と、アバター4Aの口の状態(口の位置及び形状等)を示す情報(口情報)を有する。   The face information of the avatar 4A has information indicating the states of a plurality of face parts. The information indicating the state of the plurality of face parts includes information (eye information) indicating the eye state of the avatar 4A (the shape of the white eye and the position of the black eye with respect to the white eye), and information on the eyebrow of the avatar 4A (the position and shape of the eyebrows) Etc.) and information (mouth information) indicating the mouth state (mouth position and shape, etc.) of the avatar 4A.

詳細には、アバター4Aの目情報は、アバター4Aの左目の状態を示す情報と、アバター4Aの右目の状態を示す情報を有する。アバター4Aのまゆげ情報は、アバター4Aの左まゆげの状態を示す情報と、アバター4Aの右まゆげの状態を示す情報を有する。   Specifically, the eye information of the avatar 4A includes information indicating the state of the left eye of the avatar 4A and information indicating the state of the right eye of the avatar 4A. The eyebrow information of the avatar 4A includes information indicating the state of the left eyebrow of the avatar 4A and information indicating the state of the right eyebrow of the avatar 4A.

ユーザ端末1Aの制御部121は、HMD110に搭載されたフェイスカメラ113からユーザAの目(左目と右目)とまゆげ(左まゆげと右まゆげ)を示す画像を取得した上で、当該取得された画像と所定の画像処理アルゴリズムに基づいてユーザAの目(左目と右目)とまゆげ(左まゆげと右まゆげ)の状態を特定する。次に、制御部121は、特定されたユーザAの目とまゆげの状態に基づいて、アバター4Aの目(左目と右目)の状態を示す情報とアバター4Aのまゆげ(左まゆげと右まゆげ)の状態を示す情報をそれぞれ生成する。   The control unit 121 of the user terminal 1A acquires an image showing the eyes (left eye and right eye) and eyebrow (left eyebrow and right eyebrow) of the user A from the face camera 113 mounted on the HMD 110, and then acquires the acquired image. Based on a predetermined image processing algorithm, the state of user A's eyes (left eye and right eye) and eyebrows (left eyebrows and right eyebrows) is specified. Next, based on the eye and eyebrow state of the specified user A, the control unit 121 includes information indicating the eye state of the avatar 4A (left eye and right eye) and the eyebrow of the avatar 4A (left eyebrow and right eyebrow). Information indicating the state is generated.

同様に、ユーザ端末1Aの制御部121は、フェイスカメラ117からユーザAの口及びその周辺を示す画像を取得した上で、当該取得された画像と所定の画像処理アルゴリズムに基づいてユーザAの口の状態を特定する。次に、制御部121は、特定されたユーザAの口の状態に基づいて、アバター4Aの口の状態を示す情報を生成する。   Similarly, the control unit 121 of the user terminal 1A acquires an image indicating the mouth of the user A and the periphery thereof from the face camera 117, and then based on the acquired image and a predetermined image processing algorithm, the control unit 121 of the user A The state of is identified. Next, the control unit 121 generates information indicating the mouth state of the avatar 4A based on the identified mouth state of the user A.

このように、ユーザ端末1Aの制御部121は、ユーザAの目に対応するアバター4Aの目情報と、ユーザAのまゆげに対応するアバター4Aのまゆげ情報と、ユーザAの口に対応するアバター4Aの口情報を生成することができる。   As described above, the control unit 121 of the user terminal 1A includes the eye information of the avatar 4A corresponding to the eyes of the user A, the eyebrow information of the avatar 4A corresponding to the user A's eyebrows, and the avatar 4A corresponding to the mouth of the user A. Mouth information can be generated.

また、制御部121は、フェイスカメラ113によって撮像された画像と、フェイスカメラ117によって撮像された画像と、所定の画像処理アルゴリズムに基づいて、記憶部123又はメモリに記憶された複数の種類の顔の表情(例えば、笑顔、悲しい表情、無表情、怒りの表情、驚いた表情、困った表情等)の中からユーザAの顔の表情(例えば、笑顔)を特定してもよい。その後、制御部121は、特定されたユーザAの顔の表情に基づいて、アバター4Aの顔の表情(例えば、笑顔)を示す顔情報を生成することが可能となる。この場合、アバター4Aの複数の種類の顔の表情と、各々が当該複数の種類の顔の表情の一つに関連付けられた複数のアバター4Aの顔情報を含む表情データが記憶部123に保存されてもよい。   In addition, the control unit 121 uses a plurality of types of faces stored in the storage unit 123 or the memory based on an image captured by the face camera 113, an image captured by the face camera 117, and a predetermined image processing algorithm. The facial expression (for example, smile) of the user A may be specified from among the facial expressions (for example, smile, sad expression, no expression, angry expression, surprised expression, troubled expression, etc.). Thereafter, the control unit 121 can generate face information indicating a facial expression (for example, a smile) of the avatar 4A based on the identified facial expression of the user A. In this case, expression data including a plurality of types of facial expressions of the avatar 4A and facial information of the plurality of avatars 4A each associated with one of the plurality of types of facial expressions is stored in the storage unit 123. May be.

例えば、制御部121は、アバター4Aの顔の表情を笑顔として特定した場合、アバター4Aの顔の表情(笑顔)と表情データに基づいて、アバター4Aの笑顔を示す顔情報を取得する。ここで、アバター4Aの笑顔を示す顔情報は、アバター4Aの顔の表情が笑顔のときのアバター4Aの目情報、まゆげ情報及び口情報を含む。   For example, when the facial expression of the avatar 4A is specified as a smile, the control unit 121 acquires facial information indicating the smile of the avatar 4A based on the facial expression (smile) of the avatar 4A and the facial expression data. Here, the face information indicating the smile of the avatar 4A includes eye information, eyebrow information, and mouth information of the avatar 4A when the facial expression of the avatar 4A is smiling.

次に、ステップS13において、ユーザ端末1Bの制御部121は、アバター4Bの制御情報を生成した上で、当該生成したアバター4Bの制御情報をサーバ2に送信する。その後、サーバ2の制御部23は、ユーザ端末1Bからアバター4Bの制御情報を受信する(ステップS14)。   Next, in step S <b> 13, the control unit 121 of the user terminal 1 </ b> B generates control information for the avatar 4 </ b> B and transmits the generated control information for the avatar 4 </ b> B to the server 2. Thereafter, the control unit 23 of the server 2 receives the control information of the avatar 4B from the user terminal 1B (step S14).

ここで、アバター4Bの制御情報は、アバター4Bの動作を制御するために必要な情報である。アバター4Bの制御情報は、アバター4Bの位置に関する情報(位置情報)と、アバター4Bの顔の向きに関する情報(顔向き情報)と、アバター4Bの手(左手と右手)の状態に関する情報(手情報)と、アバター4Bの顔の表情に関する情報(顔情報)とを含んでもよい。   Here, the control information of the avatar 4B is information necessary for controlling the operation of the avatar 4B. The control information of the avatar 4B includes information about the position of the avatar 4B (position information), information about the face direction of the avatar 4B (face orientation information), and information about the state of the avatar 4B's hands (left hand and right hand) (hand information). ) And information (face information) related to the facial expression of the avatar 4B.

アバター4Bの顔情報は、複数の顔パーツの状態を示す情報を有する。複数の顔パーツの状態を示す情報は、アバター4Bの目の状態(白目の形状及び白目に対する黒目の位置等)を示す情報(目情報)と、アバター4Bのまゆげの情報(まゆげの位置及び形状等)を示す情報(まゆげ情報)と、アバター4Bの口の状態(口の位置及び形状等)を示す情報(口情報)を有する。アバター4Bの顔情報の取得方法は、アバター4Aの顔情報の取得方法と同様である。   The face information of the avatar 4B has information indicating the state of a plurality of face parts. The information indicating the state of the plurality of face parts includes information (eye information) indicating the eye state of the avatar 4B (white eye shape and position of the black eye with respect to the white eye), and eyebrow information of the avatar 4B (eyebrows position and shape). Etc.) and information (mouth information) indicating the mouth state (mouth position and shape, etc.) of the avatar 4B. The method for acquiring the face information of the avatar 4B is the same as the method for acquiring the face information of the avatar 4A.

次に、サーバ2は、アバター4Bの制御情報をユーザ端末1Aに送信する一方(ステップS15)、アバター4Aの制御情報とユーザAの音声データをユーザ端末1Bに送信する(ステップS19)。その後、ユーザ端末1Aの制御部121は、ステップS16において、アバター4Bの制御情報を受信した後に、アバター4A,4Bの制御情報に基づいて、アバター4A,4Bの状態を更新した上で、仮想空間200A(図11の状態(a)参照)を示す仮想空間データを更新する(ステップS17)。   Next, the server 2 transmits the control information of the avatar 4B to the user terminal 1A (step S15), and transmits the control information of the avatar 4A and the voice data of the user A to the user terminal 1B (step S19). Thereafter, in step S16, the control unit 121 of the user terminal 1A receives the control information of the avatar 4B and then updates the state of the avatars 4A and 4B based on the control information of the avatars 4A and 4B. Virtual space data indicating 200A (see state (a) in FIG. 11) is updated (step S17).

詳細には、ユーザ端末1Aの制御部121は、アバター4A,4Bの位置情報に基づいて、アバター4A,4Bの位置を更新する。制御部121は、アバター4A,4Bの顔向き情報に基づいて、アバター4A,4Bの顔の向きを更新する。制御部121は、アバター4A,4Bの手情報に基づいて、アバター4A,4Bの手を更新する。制御部121は、アバター4A,4Bの顔情報に基づいて、アバター4A,4Bの顔の表情を更新する。このように、更新されたアバター4A,4Bを含む仮想空間200Aを示す仮想空間データが更新される。   Specifically, the control unit 121 of the user terminal 1A updates the positions of the avatars 4A and 4B based on the position information of the avatars 4A and 4B. The control unit 121 updates the face orientation of the avatars 4A and 4B based on the face orientation information of the avatars 4A and 4B. The control unit 121 updates the hands of the avatars 4A and 4B based on the hand information of the avatars 4A and 4B. The control unit 121 updates the facial expressions of the avatars 4A and 4B based on the face information of the avatars 4A and 4B. Thus, the virtual space data indicating the virtual space 200A including the updated avatars 4A and 4B is updated.

その後、ユーザ端末1Aの制御部121は、HMD110の位置や傾きに応じてアバター4A(仮想カメラ300)の視野CVを特定した上で、更新された仮想空間データと、アバター4Aの視野CVとに基づいて、HMD110に表示される視野画像を更新する(ステップS18)。   Thereafter, the control unit 121 of the user terminal 1A specifies the visual field CV of the avatar 4A (virtual camera 300) according to the position and inclination of the HMD 110, and then updates the virtual space data and the visual field CV of the avatar 4A. Based on this, the visual field image displayed on the HMD 110 is updated (step S18).

一方、ユーザ端末1Bの制御部121は、ステップS20においてアバター4Aの制御情報とユーザAの音声データを受信した後に、アバター4A,4Bの制御情報に基づいて、アバター4A,4Bの状態を更新した上で、仮想空間200B(図11の状態(b)参照)を示す仮想空間データを更新する(ステップS21)。   On the other hand, the control unit 121 of the user terminal 1B updates the state of the avatars 4A and 4B based on the control information of the avatars 4A and 4B after receiving the control information of the avatar 4A and the voice data of the user A in step S20. Above, the virtual space data which shows virtual space 200B (refer the state (b) of FIG. 11) is updated (step S21).

詳細には、ユーザ端末1Bの制御部121は、アバター4A,4Bの位置情報に基づいて、アバター4A,4Bの位置を更新する。制御部121は、アバター4A,4Bの顔向き情報に基づいて、アバター4A,4Bの顔の向きを更新する。制御部121は、アバター4A,4Bの手情報に基づいて、アバター4A,4Bの手を更新する。制御部121は、アバター4A,4Bの顔情報に基づいて、アバター4A,4Bの顔の表情を更新する。このように、更新されたアバター4A,4Bを含む仮想空間を示す仮想空間データが更新される。   Specifically, the control unit 121 of the user terminal 1B updates the positions of the avatars 4A and 4B based on the position information of the avatars 4A and 4B. The control unit 121 updates the face orientation of the avatars 4A and 4B based on the face orientation information of the avatars 4A and 4B. The control unit 121 updates the hands of the avatars 4A and 4B based on the hand information of the avatars 4A and 4B. The control unit 121 updates the facial expressions of the avatars 4A and 4B based on the face information of the avatars 4A and 4B. Thus, the virtual space data indicating the virtual space including the updated avatars 4A and 4B is updated.

その後、ユーザ端末1Bの制御部121は、HMD110の位置や傾きに応じてアバター4B(仮想カメラ300)の視野CVを特定した上で、更新された仮想空間データと、アバター4Bの視野CVとに基づいて、HMD110に表示される視野画像を更新する(ステップS22)。   Thereafter, the control unit 121 of the user terminal 1B specifies the visual field CV of the avatar 4B (virtual camera 300) according to the position and inclination of the HMD 110, and then updates the virtual space data and the visual field CV of the avatar 4B. Based on this, the visual field image displayed on the HMD 110 is updated (step S22).

その後、ユーザ端末1Bの制御部121は、受信したユーザAの音声データと、アバター4Aの制御情報に含まれるアバター4Aの位置に関する情報と、アバター4Bの位置に関する情報と、所定の音声処理アルゴリズムに基づいてユーザAの音声データを加工する。その後、制御部121は、加工された音声データをヘッドフォン116(音声出力部)に送信した上で、ヘッドフォン116は、加工された音声データに基づいてユーザAの音声を出力する(ステップS23)。このように、仮想空間上においてユーザ間(アバター間)の音声会話を実現することができる。   Thereafter, the control unit 121 of the user terminal 1B applies the received voice data of the user A, information about the position of the avatar 4A included in the control information of the avatar 4A, information about the position of the avatar 4B, and a predetermined voice processing algorithm. Based on this, the voice data of user A is processed. Thereafter, the control unit 121 transmits the processed audio data to the headphones 116 (audio output unit), and then the headphones 116 outputs the user A's audio based on the processed audio data (step S23). Thus, voice conversation between users (between avatars) can be realized in the virtual space.

本実施形態では、ユーザ端末1A,1Bがサーバ2にアバター4Aの制御情報とアバター4Bの制御情報をそれぞれ送信した後に、サーバ2がアバター4Aの制御情報をユーザ端末1Bに送信する一方、アバター4Bの制御情報をユーザ端末1Aに送信する。このように、ユーザ端末1Aとユーザ端末1B間において各アバター4A,4Bの動きを同期制御させることが可能となる。   In the present embodiment, after the user terminals 1A and 1B transmit the control information of the avatar 4A and the control information of the avatar 4B to the server 2, the server 2 transmits the control information of the avatar 4A to the user terminal 1B, while the avatar 4B. Is transmitted to the user terminal 1A. As described above, the movements of the avatars 4A and 4B can be synchronously controlled between the user terminal 1A and the user terminal 1B.

(第1実施形態)
次に、第1実施形態に係る情報処理方法について図13〜図16を参照して説明する。図13は、第1実施形態に係る情報処理方法を説明するためのユーザAに提供される仮想空間200Aの一例を示す図である。図14は、第1実施形態に係る情報処理方法の一例を説明するためのシーケンス図である。図15は、コンテンツ評価テーブル400の一例を示す図である。図16は、笑ったユーザの人数Nが所定の閾値Nth以上である場合に、ユーザAに提供される仮想空間200Aの一部が更新される様子を示す図である。
(First embodiment)
Next, the information processing method according to the first embodiment will be described with reference to FIGS. FIG. 13 is a diagram illustrating an example of the virtual space 200A provided to the user A for explaining the information processing method according to the first embodiment. FIG. 14 is a sequence diagram for explaining an example of the information processing method according to the first embodiment. FIG. 15 is a diagram illustrating an example of the content evaluation table 400. FIG. 16 is a diagram illustrating a state in which a part of the virtual space 200A provided to the user A is updated when the number N of laughing users is equal to or greater than a predetermined threshold Nth.

図13に示すように、第1実施形態では、ユーザAに提供される仮想空間200Aは、ユーザA(ユーザ端末1A)に操作されるアバター4Aと、ユーザB(ユーザ端末1B)に操作されるアバター4Bと、ユーザC(ユーザ端末1C)によって操作されるアバター4Cと、図示しない多数のユーザによって操作される多数のアバターを含む。図1に示す仮想空間配信システム100と同様に、ユーザ端末1A〜1Cは、通信ネットワーク3を介してサーバ2に通信可能に接続されている。ユーザ端末1A〜1Cは、同一の構成を備えているものとする。仮想空間200Aでは、ユーザCは、アバター4Cを通じて、お笑いや一発芸等のパフォーマンスをリアルタイムに行う。一方、ユーザA,Bは、アバター4A,4Bを通じてユーザCのパフォーマンスをリアルタイムで視聴する観客である。また、図示しない多数のユーザも自身のアバターを通じてユーザCのパフォーマンスをリアルタイムで視聴する観客である。ユーザCによってリアルタイムで行われるパフォーマンスは、仮想空間200Aに関連付けられたコンテンツYとする。第1実施形態では、コンテンツYの評価値は、ユーザCのパフォーマンスを視聴することで笑ったユーザ(第1の感情を有するユーザ)の人数Nに相当する。   As shown in FIG. 13, in the first embodiment, the virtual space 200A provided to the user A is operated by the avatar 4A operated by the user A (user terminal 1A) and the user B (user terminal 1B). The avatar 4B, the avatar 4C operated by the user C (user terminal 1C), and a large number of avatars operated by a large number of users (not shown) are included. Similar to the virtual space distribution system 100 illustrated in FIG. 1, the user terminals 1 </ b> A to 1 </ b> C are connected to the server 2 via the communication network 3 so as to be communicable. The user terminals 1A to 1C are assumed to have the same configuration. In the virtual space 200A, the user C performs a performance such as comedy or one performance in real time through the avatar 4C. On the other hand, users A and B are spectators who watch the performance of user C in real time through avatars 4A and 4B. In addition, many users (not shown) are spectators who watch the performance of the user C in real time through their avatars. The performance performed in real time by the user C is the content Y associated with the virtual space 200A. In the first embodiment, the evaluation value of the content Y corresponds to the number N of users (users having the first emotion) who laughed by viewing the performance of the user C.

次に、図14を参照することで、ユーザAが笑うことで、コンテンツYの評価値に相当する笑ったユーザの人数Nを更新する処理について説明する。図14に示すように、ステップS30において、ユーザ端末1Aの制御部121は、ユーザAの感情は笑いの感情(第1の感情)であるかどうかを判定する(つまり、ユーザAの感情を特定する)。具体的には、ステップS30において、ユーザ端末1Aの制御部121は、ユーザAの顔の表情と、ユーザAから出力される音声と、ユーザAの手の動き(即ち、外部コントローラ320の動き)のうちの少なくとも一つに基づいて、ユーザAの感情を特定する。   Next, a process of updating the number N of laughing users corresponding to the evaluation value of the content Y when the user A laughs will be described with reference to FIG. As shown in FIG. 14, in step S30, the control unit 121 of the user terminal 1A determines whether or not the emotion of the user A is a laughing emotion (first emotion) (that is, identifies the emotion of the user A). To do). Specifically, in step S30, the control unit 121 of the user terminal 1A causes the facial expression of the user A, the sound output from the user A, and the movement of the user A's hand (that is, the movement of the external controller 320). The emotion of the user A is specified based on at least one of the above.

具体的には、制御部121は、フェイスカメラ113,117から取得された動画像に基づいてユーザAの顔の表情を特定した上で、ユーザAが笑ったかどうかを判定してもよい。また、制御部121は、マイク118に入力されるユーザAの音声を音声解析した上で、ユーザAが笑ったかどうかを判定してもよい。さらに、制御部121は、ユーザAの手(外部コントローラ320)の動きを示す信号を位置センサ130及び/又は外部コントローラ320に内蔵されたセンサから取得した上で、ユーザAの手の動きを解析することでユーザAが笑ったかどうかを判定してもよい。例えば、制御部121は、ユーザAが手を叩いたと判定した場合に、ユーザAが笑ったかどうかを判定してもよい。制御部121は、ユーザAの顔の表情と、ユーザAの音声と、ユーザAの手の動きをそれぞれ特定した上で、これらのユーザAの状態を総合的に判断することで、ユーザAが笑ったかどうかを判定してもよい。このように、ユーザAの顔の表情と、ユーザAの音声と、ユーザAの手の動きのうちの少なくとも一つを用いることでユーザAが笑ったかどうかを正確に特定することが可能となる。   Specifically, the control unit 121 may determine whether the user A has laughed after specifying the facial expression of the user A based on the moving images acquired from the face cameras 113 and 117. In addition, the control unit 121 may determine whether or not the user A has laughed after analyzing the voice of the user A input to the microphone 118. Further, the control unit 121 analyzes the movement of the user A's hand after obtaining a signal indicating the movement of the user A's hand (external controller 320) from the position sensor 130 and / or a sensor built in the external controller 320. It may be determined whether or not the user A has laughed. For example, the control unit 121 may determine whether or not the user A has laughed when it is determined that the user A has struck the hand. The control unit 121 specifies the facial expression of the user A, the voice of the user A, and the movement of the hand of the user A, and then comprehensively determines the state of the user A so that the user A You may determine whether you laughed. As described above, it is possible to accurately specify whether or not the user A laughs by using at least one of the facial expression of the user A, the voice of the user A, and the movement of the hand of the user A. .

次に、制御部121は、ユーザAが笑ったと判定した場合(ステップS30でYES)、ユーザAが笑ったことを示す情報をサーバ2に送信する(ステップS31)。一方、制御部121は、ユーザAが笑っていないと判定した場合(ステップS30でNO)、再びステップS30の処理を実行する。その後、サーバ2の制御部23(図10参照)は、ユーザAが笑ったことを示す情報を受信した上で(ステップS32)、記憶部22に記憶されているコンテンツ評価テーブル400(図15参照)を更新する(ステップS33)。   Next, when it is determined that the user A has laughed (YES in step S30), the control unit 121 transmits information indicating that the user A has laughed to the server 2 (step S31). On the other hand, when it is determined that the user A is not laughing (NO in step S30), the control unit 121 executes the process of step S30 again. Thereafter, the control unit 23 (see FIG. 10) of the server 2 receives the information indicating that the user A laughed (step S32), and then the content evaluation table 400 (see FIG. 15) stored in the storage unit 22. ) Is updated (step S33).

図15に示すように、コンテンツ評価テーブル400は、コンテンツのシーン毎の笑ったユーザの人数Nに関する情報を含む。本実施形態では、ユーザCの最初のパフォーマンスが、コンテンツYのシーン1に相当する場合、サーバ2の制御部23は、ユーザAが笑ったことを示す情報を受信したときに、コンテンツ評価テーブル400に示す笑ったユーザの人数Nを60人から61人に更新する。尚、制御部23は、コンテンツのシーン毎にユーザの人数をカウントしているが、コンテンツ毎にユーザの人数をカウントしてもよい。   As shown in FIG. 15, the content evaluation table 400 includes information on the number N of laughing users for each content scene. In this embodiment, when the initial performance of the user C corresponds to the scene 1 of the content Y, the control unit 23 of the server 2 receives the information indicating that the user A has laughed, and receives the content evaluation table 400. The number N of laughing users is updated from 60 to 61. Although the control unit 23 counts the number of users for each content scene, the control unit 23 may count the number of users for each content.

次に、制御部23は、コンテンツYの評価値に相当する笑ったユーザの人数Nが所定の閾値Nthに達したかどうかを判定する(ステップS34)。制御部23は、笑ったユーザの人数Nが所定の閾値Nthに達したと判定した場合(ステップS34でYES)、仮想空間データの更新を指示する信号を各ユーザ端末に送信する(ステップS35)。一方、ステップS34の判定結果がNOである場合、ステップS35の処理は実行されない。尚、ステップS35では、ユーザ端末1Cと、コンテンツYをリアルタイムに視聴している全てのユーザのユーザ端末(例えば、ユーザ端末1A,1B)に仮想空間データの更新を指示する信号が送信されてもよい。   Next, the control unit 23 determines whether or not the number N of laughing users corresponding to the evaluation value of the content Y has reached a predetermined threshold Nth (step S34). When it is determined that the number N of laughing users has reached a predetermined threshold Nth (YES in step S34), the control unit 23 transmits a signal instructing updating of the virtual space data to each user terminal (step S35). . On the other hand, when the determination result of step S34 is NO, the process of step S35 is not executed. In step S35, even if a signal instructing to update the virtual space data is transmitted to the user terminal 1C and the user terminals of all users who are viewing the content Y in real time (for example, the user terminals 1A and 1B). Good.

その後、ユーザ端末1Aは、仮想空間データの更新を指示する信号をサーバ2から受信した場合に、仮想空間200Aを示す仮想空間データを更新する(ステップS36)。例えば、ステップS36の処理では、図16に示すように、たらいオブジェクト350が仮想空間200Aの上空から落ちてくる等の演出が行われてもよい。または、笑ったユーザの人数Nが所定の人数Nthに達したことを示すオブジェクトが仮想空間200A上に出現してもよい。また、仮想空間200Aの天球面上に表示される背景画像が更新されてもよい。さらに、仮想空間200Aのシーンが更新されてもよい。このように、仮想空間200Aが更新されることで、仮想空間のエンターテイメント性を向上させることができる。さらに、ユーザAは、仮想空間200Aの変化を視認することで、笑ったユーザの人数Nが所定の人数Nthに達したことを認識することができる。   Thereafter, when the user terminal 1A receives a signal instructing to update the virtual space data from the server 2, the user terminal 1A updates the virtual space data indicating the virtual space 200A (step S36). For example, in the process of step S36, as shown in FIG. 16, effects such as the trough object 350 falling from the sky of the virtual space 200A may be performed. Alternatively, an object indicating that the number N of laughing users has reached a predetermined number Nth may appear on the virtual space 200A. Further, the background image displayed on the celestial sphere of the virtual space 200A may be updated. Furthermore, the scene of the virtual space 200A may be updated. Thus, the entertainment property of the virtual space can be improved by updating the virtual space 200A. Furthermore, the user A can recognize that the number N of laughing users has reached a predetermined number Nth by visually recognizing the change in the virtual space 200A.

本実施形態によれば、ユーザAが笑ったかどうかが判定された上で、ユーザAが笑った場合に、仮想空間200Aに関連付けられたコンテンツYの評価値に相当する笑ったユーザの人数Nが更新される。このように、ユーザのコンテンツYに対するリアルな反応をコンテンツ評価に反映させることができるので、仮想空間におけるユーザ体験が向上されうる。   According to the present embodiment, when it is determined whether the user A has laughed and the user A laughs, the number N of laughing users corresponding to the evaluation value of the content Y associated with the virtual space 200A is determined. Updated. As described above, since the user's real reaction to the content Y can be reflected in the content evaluation, the user experience in the virtual space can be improved.

尚、第1実施形態では、笑ったユーザの人数Nがコンテンツの評価値としてカウントされているが、アバター4Cに視線を向けて笑っているユーザの人数Nがコンテンツの評価値としてカウントされてもよい。この場合、ステップS30において、ユーザ端末1Aの制御部121は、ユーザA(アバター4A)の視線がアバター4Cに向いている状態でユーザAが笑ったかどうかを判定してもよい。例えば、制御部121は、注視センサ140から送信された情報に基づいてユーザAの視線情報を取得した上で、ユーザAの視線情報とアバター4Cの位置情報に基づいてユーザAの視線がアバター4Cに向いているかどうかを判定してもよい。このように、アバター4Cに視線を向けて笑ったユーザの人数がコンテンツの評価に影響を与えるため、より正確にコンテンツの評価を行うことが可能となる。   In the first embodiment, the number N of laughing users is counted as the evaluation value of the content. However, even if the number N of users laughing with the line of sight toward the avatar 4C is counted as the evaluation value of content. Good. In this case, in step S <b> 30, the control unit 121 of the user terminal 1 </ b> A may determine whether or not the user A has laughed with the line of sight of the user A (avatar 4 </ b> A) facing the avatar 4 </ b> C. For example, after acquiring the line-of-sight information of the user A based on the information transmitted from the gaze sensor 140, the control unit 121 determines that the line of sight of the user A is the avatar 4C based on the line-of-sight information of the user A and the positional information of the avatar 4C. It may be determined whether it is suitable for. Thus, since the number of users who smiled with their eyes on the avatar 4C affects the content evaluation, the content can be evaluated more accurately.

また、サーバ2は、所定の周期でコンテンツ評価テーブル400に示される笑ったユーザの人数Nに関する情報を各ユーザ端末に送信してもよい。この場合、各ユーザ端末の制御部121は、笑ったユーザの人数Nに関する情報をサーバ2から受信した後に、HMD110に表示される視野画像V上に当該情報を表示してもよい。   Further, the server 2 may transmit information on the number N of laughing users shown in the content evaluation table 400 to each user terminal at a predetermined cycle. In this case, the control unit 121 of each user terminal may display the information on the field-of-view image V displayed on the HMD 110 after receiving information about the number N of laughing users from the server 2.

(第2実施形態)
次に、図13、図17及び図18を主に参照することで第2実施形態に係る情報処理方法について以下に説明する。図17は、第2実施形態に係る情報処理方法の一例を説明するためのシーケンス図である。図18は、第2実施形態におけるコンテンツ評価テーブル420の一例を示す図である。第1実施形態では、笑ったユーザの人数Nがコンテンツの評価値として採用される一方、第2実施形態では、各ユーザの笑いのレベル(第1の感情のレベル)の累積値がコンテンツの評価値として採用される。
(Second Embodiment)
Next, an information processing method according to the second embodiment will be described below mainly with reference to FIGS. 13, 17, and 18. FIG. 17 is a sequence diagram for explaining an example of the information processing method according to the second embodiment. FIG. 18 is a diagram illustrating an example of the content evaluation table 420 according to the second embodiment. In the first embodiment, the number N of laughing users is adopted as the content evaluation value. In the second embodiment, the cumulative value of each user's laughter level (first emotion level) is the content evaluation value. Adopted as a value.

図17に示すように、ステップS40において、ユーザ端末1Aの制御部121は、ユーザAの笑いの感情のレベルを特定する。具体的には、ユーザ端末1Aの制御部121は、ユーザAの顔の表情と、ユーザAから出力される音声と、ユーザAの手の動き(外部コントローラ320の動き)のうちの少なくとも一つに基づいて、ユーザAの笑いの感情のレベルを特定する。例えば、ユーザの笑いの感情のレベルは、4つのレベル(レベル3:大笑い、レベル2:中笑い、レベル1:小笑い、レベル0:笑っていない)に分類されていてもよい。次に、制御部121は、ユーザAの笑いの感情のレベルがレベル0ではない(つまり、ユーザAが笑っている)場合に(ステップS41でYES)、ユーザAの笑いの感情のレベルを示す情報をサーバ2に送信する(ステップS42)。例えば、ユーザAが大笑いしている場合、制御部121は、ユーザAの大笑いの感情のレベルに相当するレベル3を示す情報をサーバ2に送信する。一方、ユーザAが笑っていない(つまり、笑いの感情のレベルがレベル0である)場合に(ステップS41でNO)、ステップS40の処理が再び実行される。   As illustrated in FIG. 17, in step S <b> 40, the control unit 121 of the user terminal 1 </ b> A specifies the level of emotion of the user A laughing. Specifically, the control unit 121 of the user terminal 1A is at least one of the facial expression of the user A, the sound output from the user A, and the movement of the user A's hand (movement of the external controller 320). Based on the above, the level of the feeling of laughter of the user A is specified. For example, the user's laughing emotion level may be classified into four levels (level 3: big laughter, level 2: medium laughter, level 1: small laughter, level 0: not laughing). Next, when the level of laughing emotion of user A is not level 0 (that is, user A is laughing) (YES in step S41), control unit 121 indicates the level of laughing emotion of user A. Information is transmitted to the server 2 (step S42). For example, when the user A is laughing big, the control unit 121 transmits information indicating the level 3 corresponding to the emotional level of the user A laughing to the server 2. On the other hand, when user A is not laughing (that is, the level of laughing emotion is level 0) (NO in step S41), the process of step S40 is executed again.

次に、サーバ2の制御部23は、ユーザAの笑いの感情のレベルを示す情報を受信した上で(ステップS43)、記憶部22に記憶されているコンテンツ評価テーブル420(図18参照)を更新する(ステップS44)。図18に示すように、コンテンツ評価テーブル420は、コンテンツのシーン毎の各ユーザの笑いの感情のレベルの累積値P(以下、単に「笑いレベルの累積値P」という。)に関する情報を含む。例えば、本実施形態では、ユーザCの最初のパフォーマンスが、コンテンツYのシーン1に相当するものとする。さらに、ユーザAの笑いの感情のレベルがレベル1の場合、笑いレベルの累積値Pに+1ポイントが追加されるものとする。ユーザAの笑いの感情のレベルがレベル2の場合、笑いレベルの累積値Pに+2ポイントが追加されるものとする。ユーザAの笑いの感情のレベルがレベル3の場合、笑いレベルの累積値に+3ポイントが追加されるものとする。この場合、サーバ2の制御部23は、ユーザAの大笑いの感情のレベル(レベル3)を示す情報を受信したときに、コンテンツ評価テーブル420に示す笑いレベルの累積値を97ポイントから100ポイントに変更する。尚、制御部23は、コンテンツのシーン毎に笑いレベルの累積値Pをカウントしているが、コンテンツ毎に笑いレベルの累積値Pをカウントしてもよい。   Next, the control unit 23 of the server 2 receives the information indicating the level of the laughing feeling of the user A (step S43), and then uses the content evaluation table 420 (see FIG. 18) stored in the storage unit 22. Update (step S44). As shown in FIG. 18, the content evaluation table 420 includes information regarding a cumulative value P of the level of laughter of each user for each content scene (hereinafter simply referred to as “cumulative value P of laughter level”). For example, in this embodiment, it is assumed that the initial performance of the user C corresponds to the scene 1 of the content Y. Furthermore, when the level of the laughter feeling of the user A is level 1, +1 point is added to the accumulated value P of the laughter level. When the level of the laughing feeling of the user A is level 2, +2 points are added to the accumulated value P of the laughing level. When the level of emotion of laughter of user A is level 3, +3 points are added to the accumulated value of laughter level. In this case, when the control unit 23 of the server 2 receives information indicating the emotion level (level 3) of the laughter of the user A, the cumulative value of the laughter level shown in the content evaluation table 420 is increased from 97 points to 100 points. change. The control unit 23 counts the accumulated value P of the laughing level for each content scene, but may count the accumulated value P of the laughing level for each content.

次に、制御部23は、コンテンツYの評価値に相当する笑いレベルの累積値Pが所定の閾値Pthに達したかどうかを判定する(ステップS45)。制御部23は、笑いレベルの累積値Pが所定の閾値Pthに達したと判定した場合(ステップS45でYES)、仮想空間データの更新を指示する信号を各ユーザ端末に送信する(ステップS46)。一方、ステップS45の判定結果がNOである場合、ステップS46の処理は実行されない。その後、ユーザ端末1Aは、仮想空間データの更新を指示する信号をサーバ2から受信した場合に、仮想空間200Aを示す仮想空間データを更新する(ステップS47)。   Next, the control unit 23 determines whether or not the accumulated value P of the laughter level corresponding to the evaluation value of the content Y has reached a predetermined threshold value Pth (step S45). When determining that the accumulated value P of the laughter level has reached the predetermined threshold value Pth (YES in step S45), the control unit 23 transmits a signal instructing to update the virtual space data to each user terminal (step S46). . On the other hand, when the determination result of step S45 is NO, the process of step S46 is not executed. Thereafter, when the user terminal 1A receives a signal instructing to update the virtual space data from the server 2, the user terminal 1A updates the virtual space data indicating the virtual space 200A (step S47).

本実施形態によれば、ユーザAの笑いの感情のレベルが特定された上で、ユーザAの笑いの感情のレベルがレベル0でない場合に、コンテンツYの評価値に相当する笑いレベルの累積値Pが更新される。このように、ユーザのコンテンツYに対するリアルな反応をコンテンツ評価に反映させることができるので、仮想空間におけるユーザ体験が向上されうる。特に、ユーザの笑いの感情のレベルをコンテンツの評価値にダイレクトに反映させることができるので、より詳細にコンテンツを評価することができる。   According to this embodiment, when the level of laughing emotion of user A is specified and the level of laughing emotion of user A is not level 0, the accumulated value of the laughing level corresponding to the evaluation value of content Y P is updated. As described above, since the user's real reaction to the content Y can be reflected in the content evaluation, the user experience in the virtual space can be improved. In particular, since the level of user laughter can be directly reflected in the evaluation value of the content, the content can be evaluated in more detail.

尚、第2実施形態では、ユーザAの視線を考慮せずに、ユーザAの笑いの感情のレベルに基づいてコンテンツ評価テーブル420が更新されているが、ステップS40の処理においてユーザAの視線の方向が考慮されてもよい。この場合、ステップS40において、ユーザ端末1Aの制御部121は、ユーザA(アバター4A)の視線がアバター4Cに向いているかどうかを判定すると共に、ユーザAの笑いの感情のレベルを特定してもよい。例えば、制御部121は、ユーザAの視線がアバター4Cに向いていないと判定した場合は、ユーザAの笑いの感情のレベルを示す情報をサーバ2に送信しなくてもよい。つまり、この場合では、コンテンツ評価テーブル420は更新されない。このように、アバター4Cに視線を向けて笑ったユーザの人数がコンテンツの評価に影響を与えるため、より正確にコンテンツの評価をすることが可能となる。   In the second embodiment, the content evaluation table 420 is updated based on the level of laughing emotion of the user A without considering the user A's line of sight. However, in the process of step S40, the content of the user A's line of sight is updated. Direction may be taken into account. In this case, in step S40, the control unit 121 of the user terminal 1A determines whether or not the line of sight of the user A (avatar 4A) faces the avatar 4C and specifies the level of laughing emotion of the user A. Good. For example, if the control unit 121 determines that the line of sight of the user A is not facing the avatar 4C, the control unit 121 may not transmit information indicating the level of the laughing emotion of the user A to the server 2. That is, in this case, the content evaluation table 420 is not updated. Thus, since the number of users who smiled with their eyes on the avatar 4C affects the content evaluation, the content can be evaluated more accurately.

また、サーバ2は、所定の周期でコンテンツ評価テーブル400に示される笑いレベルの累積値に関する情報を各ユーザ端末に送信してもよい。この場合、各ユーザ端末の制御部121は、笑いレベルの累積値に関する情報をサーバ2から受信した後に、HMD110に表示される視野画像V上に当該情報を表示してもよい。   Further, the server 2 may transmit information on the accumulated value of the laughter level shown in the content evaluation table 400 to each user terminal at a predetermined cycle. In this case, the control unit 121 of each user terminal may display the information on the field-of-view image V displayed on the HMD 110 after receiving information on the accumulated value of the laughter level from the server 2.

(第3実施形態)
次に、図19から図21を参照することで第3実施形態に係る情報処理方法について以下に説明する。図19は、第3実施形態に係る情報処理方法を説明するためにユーザDに提供される仮想空間200Dの一例である。図20は、第3実施形態に係る情報処理方法を説明するためのシーケンス図である。図21は、ユーザDが装着するHMD110に表示された視野画像Vの一例を示す図である。第1,2実施形態では、仮想空間内において
ユーザC(アバター4C)によって行われるパフォーマンス(コンテンツY)をユーザC以外の各ユーザがリアルタイムに視聴する場合において、当該パフォーマンス(コンテンツY)をユーザの感情(特に、笑いの感情)によって評価する方法について説明を行った。第3実施形態では、ユーザCによって行われたパフォーマンス(コンテンツY)をユーザが動画プラットフォームを通じて視聴する場合に、当該パフォーマンスをユーザの感情(特に、笑いの感情)によって評価する方法について説明を行う。
(Third embodiment)
Next, an information processing method according to the third embodiment will be described below with reference to FIGS. FIG. 19 is an example of a virtual space 200D provided to the user D for explaining the information processing method according to the third embodiment. FIG. 20 is a sequence diagram for explaining the information processing method according to the third embodiment. FIG. 21 is a diagram illustrating an example of the visual field image V displayed on the HMD 110 worn by the user D. In the first and second embodiments, when each user other than the user C views the performance (content Y) performed by the user C (avatar 4C) in the virtual space in real time, the performance (content Y) is I explained how to evaluate by feelings (especially feelings of laughter). In the third embodiment, a method for evaluating the performance (content Y) performed by the user C through the user's emotion (particularly, laughing emotion) when the user views the performance through the video platform will be described.

図19に示すように、仮想カメラ300は、ユーザDに提供される仮想空間200Dの中心に配置される。仮想カメラ300は、ユーザDのHMD110の動きに連動する。図1に示す配信システム100と同様に、ユーザ端末1Dは、通信ネットワーク3を介してサーバ2に通信可能に接続されている。ユーザ端末1Dは、上記したユーザ端末1A,1Bと同一の構成を備えているものとする。第1実施形態で説明したユーザCのパフォーマンスを示すコンテンツY(映像コンテンツ)の360度空間画像が仮想空間200Dの天球面Sd上に表示される。例えば、コンテンツYの360度空間画像を示す360度空間画像データ(以下、単に360度空間画像データという。)は、図13に示す仮想空間200Aの所定位置(例えば、中心位置)に配置された撮影用の360度カメラオブジェクトを通じて取得することが可能である。360度空間画像データは、例えば、サーバ2の制御部23によって取得されてもよい。サーバ2の制御部23によって取得された360度空間画像データは、サーバ2の記憶部22に保存されてもよいし、動画プラットフォーム用の別のサーバの記憶部に保存されてもよい。本実施形態では、360度空間画像データは、サーバ2の記憶部22に保存されているものとする。   As illustrated in FIG. 19, the virtual camera 300 is disposed at the center of the virtual space 200 </ b> D provided to the user D. The virtual camera 300 is linked to the movement of the user D's HMD 110. Similar to the distribution system 100 shown in FIG. 1, the user terminal 1 </ b> D is communicably connected to the server 2 via the communication network 3. The user terminal 1D is assumed to have the same configuration as the user terminals 1A and 1B described above. A 360-degree spatial image of content Y (video content) indicating the performance of user C described in the first embodiment is displayed on the celestial sphere Sd of the virtual space 200D. For example, 360 degree spatial image data indicating a 360 degree spatial image of the content Y (hereinafter simply referred to as 360 degree spatial image data) is arranged at a predetermined position (for example, a central position) in the virtual space 200A shown in FIG. It can be acquired through a 360-degree camera object for shooting. 360 degree | times spatial image data may be acquired by the control part 23 of the server 2, for example. The 360-degree spatial image data acquired by the control unit 23 of the server 2 may be stored in the storage unit 22 of the server 2 or may be stored in a storage unit of another server for the moving image platform. In the present embodiment, it is assumed that 360 degree spatial image data is stored in the storage unit 22 of the server 2.

図20に示すように、ステップS50において、ユーザ端末1Dの制御部121は、コンテンツYの360度空間画像データの視聴を要求するための信号(以下、視聴要求信号という。)をサーバ2に送信する。例えば、制御部121は、ユーザDによる所定の入力操作を通じて、視聴要求信号を生成した上で、通信ネットワーク3を介して当該視聴要求信号をサーバ2に送信する。当該視聴要求信号には、ユーザ端末1DのIPアドレスに関する情報と、サーバ2のIPアドレスに関する情報が含まれていてもよい。   As shown in FIG. 20, in step S50, the control unit 121 of the user terminal 1D transmits to the server 2 a signal for requesting viewing of 360-degree spatial image data of the content Y (hereinafter referred to as a viewing request signal). To do. For example, the control unit 121 generates a viewing request signal through a predetermined input operation by the user D, and transmits the viewing request signal to the server 2 via the communication network 3. The viewing request signal may include information related to the IP address of the user terminal 1D and information related to the IP address of the server 2.

次に、サーバ2は、ユーザ端末1Dから視聴要求信号を受信したときに、記憶部22に保存されている360度空間画像データと、笑ったユーザの人数Nに関する情報をユーザ端末1Dに送信する(ステップS51)。ここで、サーバ2は、記憶部22に保存されたコンテンツ評価テーブル400(図15参照)を参照することで、笑ったユーザの人数Nに関する情報を取得してもよい。ここで、笑ったユーザの人数Nとは、コンテンツYをリアルタイムに視聴することで笑ったユーザの人数ではなく、動画プラットフォームを通じてコンテンツYを視聴することで笑ったユーザの人数である。   Next, when the server 2 receives the viewing request signal from the user terminal 1D, the server 2 transmits the 360-degree spatial image data stored in the storage unit 22 and information on the number N of laughing users to the user terminal 1D. (Step S51). Here, the server 2 may acquire information on the number N of laughing users by referring to the content evaluation table 400 (see FIG. 15) stored in the storage unit 22. Here, the number N of laughing users is not the number of users laughing by viewing the content Y in real time, but the number of users laughing by viewing the content Y through the video platform.

次に、ユーザ端末1Dの制御部121は、360度空間画像データと、笑ったユーザの人数Nに関する情報とをサーバ2から受信した後に、笑ったユーザの人数に関する情報をユーザDに提示する(ステップS52)。例えば、図21に示すように、ユーザ端末1DのHMD110に表示される視野画像V上に、笑ったユーザの人数に関する情報が表示されてもよい。また、笑ったユーザの人数に関する情報は、ユーザ端末1Dのヘッドフォン116を通じてユーザDに聴覚的に提示されてもよい。このように、コンテンツYの評価値に関する情報がユーザDに提示されることで、ユーザDは、コンテンツYに対する他のユーザの評価を視聴前に知ることができる。   Next, the control unit 121 of the user terminal 1D receives 360-degree spatial image data and information regarding the number N of laughing users from the server 2 and then presents information regarding the number of laughing users to the user D ( Step S52). For example, as illustrated in FIG. 21, information regarding the number of laughing users may be displayed on the view image V displayed on the HMD 110 of the user terminal 1D. Moreover, the information regarding the number of users who laughed may be presented auditorily to the user D through the headphones 116 of the user terminal 1D. Thus, the information regarding the evaluation value of the content Y is presented to the user D, so that the user D can know the evaluation of other users with respect to the content Y before viewing.

次に、ステップS53において、制御部121は、サーバ2より受信した360度空間画像データに対応する360度空間画像を仮想空間200Dの天球面Sd上に表示する。このようにして、ユーザ端末1Dの制御部121は、ユーザCのパフォーマンスを示すコンテンツYの360度空間画像をユーザDに提示する。特に、制御部121は、HMD110の動きに基づいて仮想カメラ300の視野を特定した上で、仮想空間200Dを示す仮想空間データと、仮想カメラ300の視野に基づいて、視野画像データを生成する。その後、制御部121は、視野画像データに基づいて、HMD110に視野画像を表示する。図21に示すように、ユーザ端末1DのHMD110に表示される視野画像V上に、コンテンツY(パフォーマンスを行うアバター4C)が表示される。尚、サーバ2は、ストリーミング方式で360度空間画像データをユーザ端末1Dに送信してもよいし、一括ダウンロード形式で360度空間画像データをユーザ端末1Dに送信してもよい。   Next, in step S53, the control unit 121 displays a 360 degree spatial image corresponding to the 360 degree spatial image data received from the server 2 on the celestial sphere Sd of the virtual space 200D. In this way, the control unit 121 of the user terminal 1D presents the 360-degree spatial image of the content Y indicating the performance of the user C to the user D. In particular, the control unit 121 specifies the field of view of the virtual camera 300 based on the movement of the HMD 110, and then generates field image data based on the virtual space data indicating the virtual space 200 </ b> D and the field of view of the virtual camera 300. Thereafter, the control unit 121 displays a field image on the HMD 110 based on the field image data. As shown in FIG. 21, the content Y (the avatar 4C performing the performance) is displayed on the visual field image V displayed on the HMD 110 of the user terminal 1D. Note that the server 2 may transmit the 360-degree spatial image data to the user terminal 1D by a streaming method, or may transmit the 360-degree spatial image data to the user terminal 1D in a batch download format.

次に、ステップS54において、ユーザ端末1Dの制御部121は、ユーザDの感情は笑いの感情(第1の感情)であるかどうかを判定する。具体的には、ステップS54において、制御部121は、ユーザDの顔の表情と、ユーザDから出力される音声と、ユーザDの手の動き(即ち、外部コントローラ320の動き)のうちの少なくとも一つに基づいて、ユーザDの感情を特定する。   Next, in step S54, the control unit 121 of the user terminal 1D determines whether or not the emotion of the user D is a laughing emotion (first emotion). Specifically, in step S54, the control unit 121 selects at least one of the facial expression of the user D, the voice output from the user D, and the movement of the user D's hand (that is, the movement of the external controller 320). Based on one, the emotion of user D is specified.

制御部121は、ユーザDが笑ったと判定した場合(ステップS54でYES)、ユーザDが笑ったことを示す情報をサーバ2に送信する(ステップS55)。一方、制御部121は、ユーザDが笑っていないと判定した場合(ステップS54でNO)、再びステップS54の処理を実行する。その後、サーバ2の制御部23は、ユーザDが笑ったことを示す情報を受信した上で(ステップS56)、記憶部22に記憶されているコンテンツ評価テーブル400(図15参照)を更新する(ステップS57)。   When it is determined that the user D has laughed (YES in step S54), the control unit 121 transmits information indicating that the user D has laughed to the server 2 (step S55). On the other hand, when it is determined that the user D is not laughing (NO in step S54), the control unit 121 executes the process of step S54 again. Thereafter, the control unit 23 of the server 2 receives the information indicating that the user D laughed (step S56), and then updates the content evaluation table 400 (see FIG. 15) stored in the storage unit 22 (see FIG. 15). Step S57).

このように、本実施形態によれば、ユーザDがサーバ2から配信されたコンテンツYを視聴する場合において、ユーザDが笑った場合に、コンテンツYの評価値に相当する笑ったユーザの人数が更新される。したがって、コンテンツYを視聴するユーザの感情に基づいてコンテンツYを評価することができるので、ユーザのリアルな感情(反応)をコンテンツYの評価に反映させることができる。さらに、コンテンツYを視聴するユーザは、コンテンツ評価に対する操作入力の間を省くことが可能となる。特に、ユーザは、動画配信プラットフォームに設けられた評価ボタン(「イイネ」ボタン等)を押すことでコンテンツを評価する必要がないため、コンテンツ評価に対するユーザ操作の手間を省くことが可能となる。   Thus, according to the present embodiment, when the user D laughs when viewing the content Y distributed from the server 2, the number of laughing users corresponding to the evaluation value of the content Y is Updated. Therefore, since the content Y can be evaluated based on the emotion of the user who views the content Y, the user's realistic emotion (reaction) can be reflected in the evaluation of the content Y. Further, the user who views the content Y can omit the operation input for the content evaluation. In particular, it is not necessary for the user to evaluate the content by pressing an evaluation button (such as a “like” button) provided on the moving image distribution platform, so that it is possible to save the user operation for content evaluation.

尚、本実施形態では、視聴するコンテンツの評価値として笑ったユーザの人数が採用されているが、各ユーザの笑いのレベルの累積値がコンテンツの評価値として採用されてもよい。さらに、本実施形態では、サーバ2は、コンテンツYの360度空間画像データをユーザ端末1Dに送信しているが、コンテンツYの仮想空間データをユーザ端末1Dに送信してもよい。ここで、コンテンツYの仮想空間データとは、ユーザC(アバター4C)のパフォーマンスが行われている期間における仮想空間を示す仮想空間データである。当該仮想空間データは、サーバ2の制御部23によって取得されてもよい。サーバ2の制御部23によって取得された仮想空間データは、サーバ2の記憶部22に保存されてもよいし、動画プラットフォーム用の別のサーバの記憶部に保存されてもよい。   In the present embodiment, the number of users who laughed is adopted as the evaluation value of the content to be viewed. However, the cumulative value of the laughing level of each user may be adopted as the evaluation value of the content. Furthermore, in the present embodiment, the server 2 transmits the 360-degree spatial image data of the content Y to the user terminal 1D, but the virtual space data of the content Y may be transmitted to the user terminal 1D. Here, the virtual space data of the content Y is virtual space data indicating a virtual space in a period in which the performance of the user C (avatar 4C) is performed. The virtual space data may be acquired by the control unit 23 of the server 2. The virtual space data acquired by the control unit 23 of the server 2 may be stored in the storage unit 22 of the server 2 or may be stored in a storage unit of another server for the moving image platform.

また、第1実施形態から第3実施形態の説明では、ユーザの感情が笑いの感情である場合に、サーバ2の記憶部22に保存されたコンテンツ評価テーブルが更新される。つまり、笑いの感情がコンテンツの評価値として採用されている。一方、ユーザの感情が笑いの感情以外の感情(例えば、悲しみ、怒り、驚き、恐怖等)である場合に、コンテンツ評価テーブルが更新されてもよい。つまり、笑いの感情以外の感情がコンテンツの評価値として採用されてもよい。例えば、視聴者を怖がらせることを目的とするコンテンツの場合、ユーザの恐怖の感情がコンテンツの評価値として採用されてもよい。このように、笑いの感情以外のユーザの感情をコンテンツの評価値として採用することが可能である。   In the description of the first to third embodiments, the content evaluation table stored in the storage unit 22 of the server 2 is updated when the user's emotion is a laughing emotion. In other words, the feeling of laughter is adopted as the content evaluation value. On the other hand, the content evaluation table may be updated when the user's emotion is an emotion other than the laughing emotion (for example, sadness, anger, surprise, fear, etc.). That is, emotions other than the laughing emotion may be adopted as the content evaluation value. For example, in the case of content intended to scare viewers, the user's fear of fear may be adopted as the content evaluation value. In this way, user emotions other than laughing emotions can be adopted as content evaluation values.

さらに、ユーザの笑いの感情に代わって、ユーザコミュニケーション行動をコンテンツの評価値として採用してもよい。例えば、図14に示すステップS30において、ユーザ端末1Aの制御部121は、ユーザAのコミュニケーション行動を特定する。次に、制御部121は、特定されたユーザAのコミュニケーション行動がユーザCのパフォーマンス(コンテンツY)を評価する行動であると判定した場合に、ユーザAがコンテンツYを評価していることを示す情報をサーバ2に送信する。例えば、ユーザAが「ユーザCのパフォーマンスは凄いよね!」といった発言や「ちょっとあれ見てよ!」といった発言をユーザBに対してした場合、ユーザ端末1Aの制御部121は、当該ユーザAの発言を言語解析することで、ユーザAのコミュニケーション行動がユーザCのパフォーマンス(コンテンツY)を評価する行動であると判定する。その後、サーバ2の制御部23は、ユーザAがコンテンツYを評価していることを示す情報に基づいて、サーバ2の記憶部22に保存されたコンテンツ評価テーブルを更新する。ここで、コンテンツ評価テーブルは、コンテンツ毎の評価ポイントに関する情報を含んでいてもよい。コンテンツ評価テーブルに示されるコンテンツYの評価ポイントがnである場合、制御部23は、ユーザAがコンテンツYを評価していることを示す情報を受信した後に、コンテンツ評価ポイントをn+1に更新してもよい。   Furthermore, instead of the user's laughing feeling, user communication behavior may be adopted as the content evaluation value. For example, in step S30 illustrated in FIG. 14, the control unit 121 of the user terminal 1A specifies the communication behavior of the user A. Next, the control unit 121 indicates that the user A is evaluating the content Y when it is determined that the identified communication behavior of the user A is an action for evaluating the performance (content Y) of the user C. Information is transmitted to the server 2. For example, when the user A gives a comment such as “User C's performance is amazing!” Or “Please look at it for a moment!” To the user B, the control unit 121 of the user terminal 1A controls the user A's It is determined that the communication behavior of the user A is the behavior for evaluating the performance (content Y) of the user C by performing language analysis on the statement. Thereafter, the control unit 23 of the server 2 updates the content evaluation table stored in the storage unit 22 of the server 2 based on information indicating that the user A is evaluating the content Y. Here, the content evaluation table may include information on evaluation points for each content. When the evaluation point of the content Y shown in the content evaluation table is n, the control unit 23 updates the content evaluation point to n + 1 after receiving information indicating that the user A is evaluating the content Y. Also good.

また、ユーザ端末1の制御部121によって実行される各種処理をソフトウェアによって実現するために、各種処理をコンピュータ(プロセッサ)に実行させるための制御プログラムが記憶部123又はメモリに予め組み込まれていてもよい。または、制御プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD−ROM,DVD−ROM、Blu−rayディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体が制御装置120に接続されることで、当該記憶媒体に格納された制御プログラムが、記憶部123に組み込まれる。そして、記憶部123に組み込まれた制御プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部121は各種処理を実行する。   Further, in order to implement various processes executed by the control unit 121 of the user terminal 1 by software, a control program for causing the computer (processor) to execute various processes may be incorporated in the storage unit 123 or the memory in advance. Good. Alternatively, the control program can be a magnetic disk (HDD, floppy disk), optical disk (CD-ROM, DVD-ROM, Blu-ray disk, etc.), magneto-optical disk (MO, etc.), flash memory (SD card, USB memory, SSD). Etc.) may be stored in a computer-readable storage medium. In this case, when the storage medium is connected to the control device 120, the control program stored in the storage medium is incorporated into the storage unit 123. The control unit 121 executes various processes by loading the control program incorporated in the storage unit 123 onto the RAM and executing the loaded program.

また、制御プログラムは、通信ネットワーク3上のコンピュータから通信インターフェース125を介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該制御プログラムが記憶部123に組み込まれる。   The control program may be downloaded from a computer on the communication network 3 via the communication interface 125. Similarly in this case, the downloaded control program is incorporated into the storage unit 123.

以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。   As mentioned above, although embodiment of this indication was described, the technical scope of this invention should not be limitedly interpreted by description of this embodiment. This embodiment is an example, and it is understood by those skilled in the art that various modifications can be made within the scope of the invention described in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the equivalents thereof.

本実施形態において、仮想空間は、ユーザにVR(Virtual Reality)、AR(Argumented Reality)及びMR(Mixed Reality)といった、仮想体験を提供するために用いられる。仮想空間がVRを提供する場合、仮想空間の背景にはメモリに保存された背景データが使用される。仮想空間がAR又はMRを提供する場合、背景には現実空間が使用される。この場合、HMD110が透過型の表示装置(光学シースルーまたはビデオシースルー型の表示装置)を備えることにより、現実空間が背景として使用され得る。仮想空間がMRに適用される場合、オブジェクトは、現実空間によって影響を与えられてもよい。このように、仮想空間が背景や仮想オブジェクトといった仮想シーンを少なくとも一部に含むことにより、ユーザには当該仮想シーンとの相互作用が可能な仮想体験が提供され得る。   In this embodiment, the virtual space is used to provide a virtual experience such as VR (Virtual Reality), AR (Arranged Reality), and MR (Mixed Reality) to the user. When the virtual space provides VR, background data stored in the memory is used as the background of the virtual space. When the virtual space provides AR or MR, the real space is used as the background. In this case, the HMD 110 includes a transmissive display device (optical see-through or video see-through display device), so that the real space can be used as a background. If virtual space is applied to MR, the object may be influenced by real space. As described above, when the virtual space includes at least a part of a virtual scene such as a background or a virtual object, the user can be provided with a virtual experience capable of interacting with the virtual scene.

1,1A〜1D:ユーザ端末
2:サーバ
3:通信ネットワーク
4A,4B,4C:アバター
21:通信インターフェース
22:記憶部
23:制御部
24:バス
100:仮想空間配信システム(配信システム)
110:ヘッドマウントデバイス(HMD)
112:表示部
113:フェイスカメラ
114:センサ
115:装着センサ
116:ヘッドフォン
117:フェイスカメラ
118:マイク
120:制御装置
121:制御部
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
140:注視センサ
200,200A,200B,200C,200D:仮想空間
210:中心位置
300:仮想カメラ
302:操作ボタン
302a,302b:プッシュ式ボタン
302e,302f:トリガー式ボタン
304:検知点
320:外部コントローラ
320i:アナログスティック
320L:左手用外部コントローラ(コントローラ)
320R:右手用外部コントローラ(コントローラ)
322:天面
324:グリップ
326:フレーム
400,420:コンテンツ評価テーブル
1, 1A-1D: User terminal 2: Server 3: Communication networks 4A, 4B, 4C: Avatar 21: Communication interface 22: Storage unit 23: Control unit 24: Bus 100: Virtual space distribution system (distribution system)
110: Head mounted device (HMD)
112: Display unit 113: Face camera 114: Sensor 115: Wear sensor 116: Headphone 117: Face camera 118: Microphone 120: Control device 121: Control unit 123: Storage unit 124: I / O interface 125: Communication interface 126: Bus 130: Position sensor 140: Gaze sensor 200, 200A, 200B, 200C, 200D: Virtual space 210: Center position 300: Virtual camera 302: Operation buttons 302a, 302b: Push buttons 302e, 302f: Trigger buttons 304: Detection points 320: External controller 320i: Analog stick 320L: Left hand external controller (controller)
320R: External controller for right hand (controller)
322: Top surface 324: Grip 326: Frame 400, 420: Content evaluation table

Claims (15)

ユーザの頭部に装着されるヘッドマウントデバイスを有するユーザ端末と、前記ユーザ端末に通信可能に接続されたサーバとを備える情報処理システムにおいてコンピュータによって実行される情報処理方法であって、
(a)仮想空間を規定する仮想空間データと前記ヘッドマウントデバイスの動きに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを生成するステップと、
(b)前記ユーザの感情を特定するステップと、
(c)前記特定されたユーザの感情に基づいて、前記仮想空間に関連付けられたコンテンツの評価値を更新するステップと、
を含む、情報処理方法。
An information processing method executed by a computer in an information processing system including a user terminal having a head-mounted device mounted on a user's head and a server connected to the user terminal so as to be communicable,
(A) generating visual field image data indicating a visual field image displayed on the head mounted device based on virtual space data defining a virtual space and movement of the head mounted device;
(B) identifying the user's emotion;
(C) updating the evaluation value of the content associated with the virtual space based on the identified user's emotion;
Including an information processing method.
前記ステップ(b)は、
前記ユーザの顔の表情と、前記ユーザから出力される音声と、前記ユーザの手の動きのうちの少なくとも一つに基づいて、前記ユーザの感情を特定するステップを含む、
請求項1に記載の情報処理方法。
The step (b)
Identifying the user's emotion based on at least one of the facial expression of the user, voice output from the user, and movement of the user's hand,
The information processing method according to claim 1.
前記ステップ(b)は、
前記ユーザの感情が第1の感情であるかどうかを判定するステップを含み、
前記ステップ(c)は、
前記特定されたユーザの感情が前記第1の感情である場合に、前記コンテンツの評価値を更新するステップを含む、
請求項1または2に記載の情報処理方法。
The step (b)
Determining whether the user's emotion is a first emotion,
The step (c)
Updating the evaluation value of the content when the identified user's emotion is the first emotion,
The information processing method according to claim 1 or 2.
前記仮想空間は、複数のユーザにより視聴され、
前記コンテンツの評価値は、前記複数のユーザのうち前記第1の感情を有するユーザの数に対応する、
請求項3に記載の情報処理方法。
The virtual space is viewed by a plurality of users,
The evaluation value of the content corresponds to the number of users having the first emotion among the plurality of users.
The information processing method according to claim 3.
前記コンテンツの評価値は、前記複数のユーザのうち、前記第1の感情を有すると共に、前記仮想空間の第1の領域に視線を向けているユーザの数に対応する、請求項4に記載の情報処理方法。   5. The evaluation value of the content according to claim 4, wherein the evaluation value of the content corresponds to the number of users having the first emotion and directing a line of sight to the first region of the virtual space among the plurality of users. Information processing method. 前記ステップ(b)は、
前記ユーザの第1の感情のレベルを特定するステップを含み、
前記ステップ(c)は、
前記特定された第1の感情のレベルに基づいて、前記コンテンツの評価値を更新するステップを含む、
請求項1または2に記載の情報処理方法。
The step (b)
Identifying a level of the user's first emotion,
The step (c)
Updating an evaluation value of the content based on the identified first emotion level;
The information processing method according to claim 1 or 2.
前記仮想空間は複数のユーザにより視聴され、
前記コンテンツの評価値は、各ユーザの前記第1の感情のレベルの累積値に対応する、請求項6に記載の情報処理方法。
The virtual space is viewed by a plurality of users,
The information processing method according to claim 6, wherein the evaluation value of the content corresponds to a cumulative value of the first emotion level of each user.
(d)前記コンテンツの評価値に基づいて、前記仮想空間データの少なくとも一部を更新するステップをさらに含む、請求項1から7のうちいずれか一項に記載の情報処理方法。   (D) The information processing method according to any one of claims 1 to 7, further comprising a step of updating at least a part of the virtual space data based on the evaluation value of the content. 前記ステップ(d)は、
前記コンテンツの評価値が第1の値に達した場合に、前記仮想空間データの少なくとも一部を更新するステップを含む、請求項8に記載の情報処理方法。
The step (d)
The information processing method according to claim 8, further comprising a step of updating at least a part of the virtual space data when the evaluation value of the content reaches a first value.
(e)前記ユーザ端末からの送信要求に応じて、前記サーバに保存された前記コンテンツに関連するデータを前記ユーザ端末に送信するステップをさらに含む、請求項1から7のうちいずれか一項に記載の情報処理方法。   8. The method according to claim 1, further comprising: (e) transmitting data related to the content stored in the server to the user terminal in response to a transmission request from the user terminal. The information processing method described. 前記ステップ(e)は、
前記サーバに保存された前記コンテンツに関連したデータと前記コンテンツの評価値に関する情報を前記ユーザ端末に送信するステップを含み、
(f)前記コンテンツの評価値に関する情報を前記ユーザに提示するステップをさらに含む、請求項10に記載の情報処理方法。
The step (e)
Transmitting data related to the content stored in the server and information about the evaluation value of the content to the user terminal,
The information processing method according to claim 10, further comprising: (f) presenting information related to the evaluation value of the content to the user.
ユーザの頭部に装着されるヘッドマウントデバイスを有するユーザ端末と、前記ユーザ端末に通信可能に接続されたサーバとを備える情報処理システムにおいてコンピュータによって実行される情報処理方法であって、
(a)仮想空間を規定する仮想空間データと前記ヘッドマウントデバイスの動きに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを生成するステップと、
(b)前記ユーザのコミュニケーション行動を特定するステップと、
(c)前記特定されたコミュニケーション行動に基づいて、前記仮想空間に関連付けられたコンテンツの評価値を更新するステップと、
を含む、情報処理方法。
An information processing method executed by a computer in an information processing system including a user terminal having a head-mounted device mounted on a user's head and a server connected to the user terminal so as to be communicable,
(A) generating visual field image data indicating a visual field image displayed on the head mounted device based on virtual space data defining a virtual space and movement of the head mounted device;
(B) identifying the user's communication behavior;
(C) updating an evaluation value of content associated with the virtual space based on the identified communication behavior;
Including an information processing method.
請求項1から12のうちのいずれか一項に記載の情報処理方法をコンピュータに実行させるための情報処理プログラム。   An information processing program for causing a computer to execute the information processing method according to any one of claims 1 to 12. ユーザの頭部に装着されるヘッドマウントデバイスを有するユーザ端末と、
前記ユーザ端末に通信可能に接続されたサーバと、
を備え、請求項1から12のうちのいずれか一項に記載の情報処理方法を実行するように構成された、情報処理システム。
A user terminal having a head-mounted device mounted on the user's head;
A server communicably connected to the user terminal;
An information processing system configured to execute the information processing method according to any one of claims 1 to 12.
プロセッサと、
コンピュータ可読命令を記憶するメモリと、を備えた情報処理装置であって、
前記コンピュータ可読命令が前記プロセッサにより実行されると、前記情報処理装置は、請求項1から12のうちのいずれか一項に記載の情報処理方法を実行する、情報処理装置。
A processor;
An information processing apparatus comprising a memory for storing computer-readable instructions,
The information processing apparatus that executes the information processing method according to any one of claims 1 to 12, when the computer-readable instruction is executed by the processor.
JP2017158642A 2017-08-21 2017-08-21 Information processing method, information processing program, information processing system, and information processing device Withdrawn JP2019036239A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017158642A JP2019036239A (en) 2017-08-21 2017-08-21 Information processing method, information processing program, information processing system, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017158642A JP2019036239A (en) 2017-08-21 2017-08-21 Information processing method, information processing program, information processing system, and information processing device

Publications (1)

Publication Number Publication Date
JP2019036239A true JP2019036239A (en) 2019-03-07

Family

ID=65655656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017158642A Withdrawn JP2019036239A (en) 2017-08-21 2017-08-21 Information processing method, information processing program, information processing system, and information processing device

Country Status (1)

Country Link
JP (1) JP2019036239A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020262332A1 (en) * 2019-06-25 2020-12-30 株式会社コロプラ Game program, game method, and information terminal device
KR20230136648A (en) 2021-03-10 2023-09-26 가부시키가이샤 코나미 데지타루 엔타테인멘토 Gaming system, computer programs used on it, and control methods

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020262332A1 (en) * 2019-06-25 2020-12-30 株式会社コロプラ Game program, game method, and information terminal device
JP2021003218A (en) * 2019-06-25 2021-01-14 株式会社コロプラ Game program, game method, and information terminal device
KR20230136648A (en) 2021-03-10 2023-09-26 가부시키가이샤 코나미 데지타루 엔타테인멘토 Gaming system, computer programs used on it, and control methods

Similar Documents

Publication Publication Date Title
US10262461B2 (en) Information processing method and apparatus, and program for executing the information processing method on computer
JP6462059B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6263252B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
US10313481B2 (en) Information processing method and system for executing the information method
US20180373328A1 (en) Program executed by a computer operable to communicate with head mount display, information processing apparatus for executing the program, and method executed by the computer operable to communicate with the head mount display
JP6392911B2 (en) Information processing method, computer, and program for causing computer to execute information processing method
JP6290467B1 (en) Information processing method, apparatus, and program causing computer to execute information processing method
JP2018089228A (en) Information processing method, apparatus, and program for implementing that information processing method on computer
JP7108389B2 (en) Program, information processing device, information processing system, and information processing method
JP6212666B1 (en) Information processing method, program, virtual space distribution system, and apparatus
JP2018124981A (en) Information processing method, information processing device and program causing computer to execute information processing method
JP2018125003A (en) Information processing method, apparatus, and program for implementing that information processing method in computer
JP2019032844A (en) Information processing method, device, and program for causing computer to execute the method
JP6203346B1 (en) Method, program, and recording medium for providing virtual space
JP2019036239A (en) Information processing method, information processing program, information processing system, and information processing device
US10319346B2 (en) Method for communicating via virtual space and system for executing the method
JP6289703B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6999538B2 (en) Information processing methods, information processing programs, information processing systems, and information processing equipment
JP2019030638A (en) Information processing method, device, and program for causing computer to execute information processing method
JP2018109940A (en) Information processing method and program for causing computer to execute the same
JP2019020836A (en) Information processing method, device, and program for causing computer to execute the method
JP2018195172A (en) Information processing method, information processing program, and information processing device
JP2018190196A (en) Information processing method, information processing device, program causing computer to execute information processing method
JP7041484B2 (en) Programs, information processing devices, information processing systems, and information processing methods
JP6403843B1 (en) Information processing method, information processing program, and information processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200629

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20210202