JP2019036239A - Information processing method, information processing program, information processing system, and information processing device - Google Patents
Information processing method, information processing program, information processing system, and information processing device Download PDFInfo
- Publication number
- JP2019036239A JP2019036239A JP2017158642A JP2017158642A JP2019036239A JP 2019036239 A JP2019036239 A JP 2019036239A JP 2017158642 A JP2017158642 A JP 2017158642A JP 2017158642 A JP2017158642 A JP 2017158642A JP 2019036239 A JP2019036239 A JP 2019036239A
- Authority
- JP
- Japan
- Prior art keywords
- user
- information processing
- virtual space
- content
- processing method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本開示は、情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置に関する。 The present disclosure relates to an information processing method, an information processing program, an information processing system, and an information processing apparatus.
ヘッドマウントデバイス(Head Mounted Device:以下、単にHMDという。)を装着した複数のユーザ間でネットワークを介して仮想空間を共有することが知られている。例えば、非特許文献1は、複数のユーザ間で一つのVR空間を共有した上で、複数ユーザの動作に応じて当該複数ユーザに関連付けられた複数アバターの動作を制御する技術を開示している。特に、非特許文献1では、各アバターの表情を豊かに表現することで、仮想空間内における複数のユーザ間のコミュニケーションを促進させる技術が開示されている。
It is known to share a virtual space via a network among a plurality of users wearing a head mounted device (hereinafter simply referred to as HMD). For example, Non-Patent
ところで、非特許文献1では、ユーザの表情を当該ユーザに関連付けられたアバターの表情に反映させることで、仮想空間内におけるユーザ間のコミュニケーションを促進させることが開示されている一方で、ユーザの感情やユーザのコミュニケーション行動を特定した上で、当該特定されたユーザの感情やコミュニケーション行動を仮想空間におけるユーザ体験に活用することについては何ら検討されていない。特に、ユーザの感情やコニュニケーション行動に基づいて仮想空間のコンテンツを評価することで、仮想空間におけるユーザ体験をさらに改善する余地がある。
By the way, Non-Patent
本開示は、仮想空間におけるユーザ体験をさらに向上させることが可能な情報処理方法を提供することを目的とする。さらに、本開示は、仮想空間におけるユーザ体験をさらに向上させることが可能な情報処理プログラム、情報処理システム及び情報処理装置を提供することを目的とする。 An object of this indication is to provide the information processing method which can further improve the user experience in virtual space. Furthermore, this indication aims at providing the information processing program, information processing system, and information processing apparatus which can further improve the user experience in virtual space.
ユーザの頭部に装着されるヘッドマウントデバイスを有するユーザ端末と、前記ユーザ端末に通信可能に接続されたサーバとを備える情報処理システムにおいてコンピュータによって実行される情報処理方法であって、
(a)仮想空間を規定する仮想空間データと前記ヘッドマウントデバイスの動きに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを生成するステップと、
(b)前記ユーザの感情を特定するステップと、
(c)前記特定されたユーザの感情に基づいて、前記仮想空間に関連付けられたコンテンツの評価値を更新するステップと、
を含む、情報処理方法。
An information processing method executed by a computer in an information processing system including a user terminal having a head-mounted device mounted on a user's head and a server connected to the user terminal so as to be communicable,
(A) generating visual field image data indicating a visual field image displayed on the head mounted device based on virtual space data defining a virtual space and movement of the head mounted device;
(B) identifying the user's emotion;
(C) updating the evaluation value of the content associated with the virtual space based on the identified user's emotion;
Including an information processing method.
本開示によれば、仮想空間におけるユーザ体験をさらに向上させることできる。 According to the present disclosure, the user experience in the virtual space can be further improved.
[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)ユーザの頭部に装着されるヘッドマウントデバイスを有するユーザ端末と、前記ユーザ端末に通信可能に接続されたサーバとを備える情報処理システムにおいてコンピュータによって実行される情報処理方法であって、
(a)仮想空間を規定する仮想空間データと前記ヘッドマウントデバイスの動きに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを生成するステップと、
(b)前記ユーザの感情を特定するステップと、
(c)前記特定されたユーザの感情に基づいて、前記仮想空間に関連付けられたコンテンツの評価値を更新するステップと、
を含む、情報処理方法。
[Description of Embodiments Presented by the Present Disclosure]
An overview of an embodiment indicated by the present disclosure will be described.
(1) An information processing method executed by a computer in an information processing system including a user terminal having a head mounted device mounted on a user's head and a server connected to the user terminal so as to be communicable,
(A) generating visual field image data indicating a visual field image displayed on the head mounted device based on virtual space data defining a virtual space and movement of the head mounted device;
(B) identifying the user's emotion;
(C) updating the evaluation value of the content associated with the virtual space based on the identified user's emotion;
Including an information processing method.
上記方法によれば、ユーザのコンテンツに対するリアルな反応をコンテンツ評価に反映させることができる。従って、仮想空間におけるユーザ体験が向上される。 According to the above method, a real reaction to the user's content can be reflected in the content evaluation. Therefore, the user experience in the virtual space is improved.
(2)前記ステップ(b)は、
前記ユーザの顔の表情と、前記ユーザから出力される音声と、前記ユーザの手の動きのうちの少なくとも一つに基づいて、前記ユーザの感情を特定するステップを含む、
項目(1)に記載の情報処理方法。
(2) The step (b)
Identifying the user's emotion based on at least one of the facial expression of the user, voice output from the user, and movement of the user's hand,
The information processing method according to item (1).
上記方法によれば、ユーザの顔の表情と、ユーザから出力される音声と、ユーザの手の動きのうちの少なくとも一つを用いることでユーザの感情を正確に特定することができる。 According to the above method, the user's emotion can be accurately specified by using at least one of the facial expression of the user, the voice output from the user, and the movement of the user's hand.
(3)前記ステップ(b)は、
前記ユーザの感情が第1の感情であるかどうかを判定するステップを含み、
前記ステップ(c)は、
前記特定されたユーザの感情が前記第1の感情である場合に、前記コンテンツの評価値を更新するステップを含む、
項目(1)または(2)に記載の情報処理方法。
(3) The step (b)
Determining whether the user's emotion is a first emotion,
The step (c)
Updating the evaluation value of the content when the identified user's emotion is the first emotion,
The information processing method according to item (1) or (2).
上記方法によれば、ユーザの第1の感情をコンテンツ評価に反映させることができる。 According to the above method, the user's first emotion can be reflected in the content evaluation.
(4)前記仮想空間は、複数のユーザにより視聴され、
前記コンテンツの評価値は、前記複数のユーザのうち前記第1の感情を有するユーザの数に対応する、
項目(3)に記載の情報処理方法。
(4) The virtual space is viewed by a plurality of users,
The evaluation value of the content corresponds to the number of users having the first emotion among the plurality of users.
The information processing method according to item (3).
上記方法によれば、コンテンツの評価値が第1の感情(例えば、笑いの感情)を有するユーザの数に対応するので、第1の感情を有するユーザの数に基づいてコンテンツを評価することができる。 According to the above method, since the evaluation value of the content corresponds to the number of users having a first emotion (for example, laughing emotion), the content can be evaluated based on the number of users having the first emotion. it can.
(5)前記コンテンツの評価値は、前記複数のユーザのうち、前記第1の感情を有すると共に、前記仮想空間の第1の領域に視線を向けているユーザの数に対応する、項目(4)に記載の情報処理方法。 (5) The evaluation value of the content corresponds to an item (4) corresponding to the number of users having the first emotion and having a line of sight toward the first area of the virtual space among the plurality of users. The information processing method described in).
上記方法によれば、第1の感情を有すると共に、仮想空間中の同一の領域(例えば、パフォーマンスを行うアバターが存在する領域)に視線を向けたユーザの数に基づいて、コンテンツを評価することができる。特に、同一の領域に視線を向けたユーザの数がコンテンツ評価に影響を与えるため、より正確にコンテンツを評価することが可能となる。 According to the above method, content is evaluated based on the number of users who have a first emotion and have their eyes directed to the same region in the virtual space (for example, a region where an avatar performing) exists. Can do. In particular, since the number of users who look at the same area affects the content evaluation, it is possible to evaluate the content more accurately.
(6)前記ステップ(b)は、
前記ユーザの第1の感情のレベルを特定するステップを含み、
前記ステップ(c)は、
前記特定された第1の感情のレベルに基づいて、前記コンテンツの評価値を更新するステップを含む、
項目(1)または(2)に記載の情報処理方法。
(6) The step (b)
Identifying a level of the user's first emotion,
The step (c)
Updating an evaluation value of the content based on the identified first emotion level;
The information processing method according to item (1) or (2).
上記方法によれば、ユーザの第1の感情のレベルをコンテンツ評価にダイレクトに反映させることができるので、より詳細にコンテンツを評価することができる。 According to the above method, since the level of the first emotion of the user can be directly reflected in the content evaluation, the content can be evaluated in more detail.
(7)前記仮想空間は複数のユーザにより視聴され、
前記コンテンツの評価値は、各ユーザの前記第1の感情のレベルの累積値に対応する、項目(6)に記載の情報処理方法。
(7) The virtual space is viewed by a plurality of users,
The information evaluation method according to item (6), wherein the evaluation value of the content corresponds to a cumulative value of the first emotion level of each user.
上記方法によれば、各ユーザの第1の感情のレベルの累積値に基づいてコンテンツを評価することができるので、より詳細にコンテンツを評価することができる。 According to the above method, the content can be evaluated based on the accumulated value of the first emotion level of each user, so that the content can be evaluated in more detail.
(8)(d)前記コンテンツの評価値に基づいて、前記仮想空間データの少なくとも一部を更新するステップをさらに含む、項目(1)から(7)のうちいずれか一項に記載の情報処理方法。 (8) (d) The information processing according to any one of items (1) to (7), further including a step of updating at least a part of the virtual space data based on the evaluation value of the content. Method.
上記方法によれば、例えば、コンテンツ評価値に基づいて、仮想空間のシーンが変更され、又は仮想空間中に所定のオブジェクトを配置することで、仮想空間において所定の演出が実行される。このように、コンテンツの評価値に基づいて仮想空間データの少なくとも一部が更新されるので、仮想空間のエンターテイメント性を向上させることが可能となる。 According to the above method, for example, a scene in the virtual space is changed based on the content evaluation value, or a predetermined effect is executed in the virtual space by arranging a predetermined object in the virtual space. Thus, since at least a part of the virtual space data is updated based on the evaluation value of the content, it is possible to improve the entertainment property of the virtual space.
(9)前記ステップ(d)は、
前記コンテンツの評価値が第1の値に達した場合に、前記仮想空間データの少なくとも一部を更新するステップを含む、項目(8)に記載の情報処理方法。
(9) The step (d)
The information processing method according to item (8), including a step of updating at least a part of the virtual space data when the evaluation value of the content reaches a first value.
上記方法によれば、ユーザは、更新された仮想空間を見ることで、コンテンツ評価値が第1の値に達したことを認識することができる。さらに、コンテンツの評価値が第1の値以上である場合に、仮想空間データの少なくとも一部が更新されるので、仮想空間のエンターテイメント性を向上させることが可能となる。 According to the above method, the user can recognize that the content evaluation value has reached the first value by looking at the updated virtual space. Furthermore, since at least a part of the virtual space data is updated when the evaluation value of the content is equal to or higher than the first value, the entertainment property of the virtual space can be improved.
(10)(e)前記ユーザ端末からの送信要求に応じて、前記サーバに保存された前記コンテンツに関連するデータを前記ユーザ端末に送信するステップをさらに含む、項目(1)から(7)のうちいずれか一項に記載の情報処理方法。 (10) (e) In response to a transmission request from the user terminal, the method further includes a step of transmitting data related to the content stored in the server to the user terminal. The information processing method as described in any one of them.
上記方法によれば、ユーザがサーバから配信されたコンテンツを視聴する場合において、コンテンツを視聴するユーザの感情に基づいてコンテンツの評価値が更新される。したがって、ユーザの感情に基づいてコンテンツを評価することができるので、ユーザのリアルな感情(反応)をコンテンツ評価に反映させることができると共に、ユーザによるコンテンツ評価に対する操作の手間を省くことが可能となる。特に、ユーザは、動画配信プラットフォームに設けられた評価ボタン(「イイネ」ボタン等)を押すことでコンテンツを評価する必要がないため、コンテンツ評価に対するユーザ操作の手間を省くことが可能となる。 According to the above method, when the user views the content distributed from the server, the content evaluation value is updated based on the emotion of the user viewing the content. Accordingly, since the content can be evaluated based on the user's emotion, the user's real feeling (reaction) can be reflected in the content evaluation, and it is possible to save time and effort for the user for the content evaluation. Become. In particular, it is not necessary for the user to evaluate the content by pressing an evaluation button (such as a “like” button) provided on the moving image distribution platform, so that it is possible to save the user operation for content evaluation.
(11)前記ステップ(e)は、
前記サーバに保存された前記コンテンツに関連したデータと前記コンテンツの評価値に関する情報を前記ユーザ端末に送信するステップを含み、
(f)前記コンテンツの評価値に関する情報を前記ユーザに提示するステップをさらに含む、項目(10)に記載の情報処理方法。
(11) The step (e)
Transmitting data related to the content stored in the server and information about the evaluation value of the content to the user terminal,
(F) The information processing method according to item (10), further including a step of presenting information related to the evaluation value of the content to the user.
上記方法によれば、コンテンツの評価値に関する情報がユーザに提示されることで、ユーザは、視聴するコンテンツに対する他のユーザの評価を知ることができる。 According to the above method, the information related to the evaluation value of the content is presented to the user, so that the user can know the evaluation of the other user with respect to the content to be viewed.
(12)ユーザの頭部に装着されるヘッドマウントデバイスを有するユーザ端末と、前記ユーザ端末に通信可能に接続されたサーバとを備える情報処理システムにおいてコンピュータによって実行される情報処理方法であって、
(a)仮想空間を規定する仮想空間データと前記ヘッドマウントデバイスの動きに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを生成するステップと、
(b)前記ユーザのコミュニケーション行動を特定するステップと、
(c)前記特定されたコミュニケーション行動に基づいて、前記仮想空間に関連付けられたコンテンツの評価値を更新するステップと、
を含む、情報処理方法。
(12) An information processing method executed by a computer in an information processing system including a user terminal having a head-mounted device mounted on a user's head and a server connected to the user terminal in a communicable manner,
(A) generating visual field image data indicating a visual field image displayed on the head mounted device based on virtual space data defining a virtual space and movement of the head mounted device;
(B) identifying the user's communication behavior;
(C) updating an evaluation value of content associated with the virtual space based on the identified communication behavior;
Including an information processing method.
上記方法によれば、ユーザのコンテンツに対するリアルな反応をコンテンツ評価に反映させることができる。従って、仮想空間におけるユーザ体験が向上される。 According to the above method, a real reaction to the user's content can be reflected in the content evaluation. Therefore, the user experience in the virtual space is improved.
(13)項目(1)から(12)のうちのいずれか一項に記載の情報処理方法をコンピュータに実行させるための情報処理プログラム。 (13) An information processing program for causing a computer to execute the information processing method according to any one of items (1) to (12).
上記によれば、仮想空間におけるユーザ体験をさらに向上させることが可能な情報処理プログラムを提供することが可能となる。 According to the above, it is possible to provide an information processing program that can further improve the user experience in the virtual space.
(14)ユーザの頭部に装着されるヘッドマウントデバイスを有するユーザ端末と、
前記ユーザ端末に通信可能に接続されたサーバと、
を備え、項目(1)から(12)のうちのいずれか一項に記載の情報処理方法を実行するように構成された、情報処理システム。
(14) a user terminal having a head-mounted device mounted on the user's head;
A server communicably connected to the user terminal;
An information processing system configured to execute the information processing method according to any one of items (1) to (12).
上記によれば、仮想空間におけるユーザ体験をさらに向上させることが可能な情報処理システムを提供することが可能となる。 According to the above, it is possible to provide an information processing system that can further improve the user experience in the virtual space.
(15)プロセッサと、
コンピュータ可読命令を記憶するメモリと、を備えた情報処理装置であって、
前記コンピュータ可読命令が前記プロセッサにより実行されると、前記情報処理装置は、項目(1)から(12)のうちのいずれか一項に記載の情報処理方法を実行する、情報処理装置。
(15) a processor;
An information processing apparatus comprising a memory for storing computer-readable instructions,
When the computer-readable instruction is executed by the processor, the information processing apparatus executes the information processing method according to any one of items (1) to (12).
上記によれば、仮想空間におけるユーザ体験をさらに向上させることが可能な情報処理装置を提供することが可能となる。 According to the above, it is possible to provide an information processing apparatus that can further improve the user experience in the virtual space.
[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。尚、本実施形態の説明において既に説明された要素と同一の参照番号を有する要素については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Presented by the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, about the element which has the same reference number as the element already demonstrated in description of this embodiment, the description is not repeated for convenience of explanation.
最初に、仮想空間配信システム100(情報処理システムの一例)の構成の概略について図1を参照して説明する。図1は、仮想空間配信システム100(以下、単に配信システム100という。)の概略図である。図1に示すように、配信システム100は、ヘッドマウントデバイス(HMD)110を装着したユーザAによって操作されるユーザ端末1Aと、HMD110を装着したユーザBによって操作されるユーザ端末1Bと、サーバ2とを備える。ユーザ端末1A,1Bは、インターネット等の通信ネットワーク3を介してサーバ2に通信可能に接続されている。尚、本実施形態において、仮想空間とは、VR(Virtual Reality)空間と、AR(Argumented Reality)空間と、MR(Mixed Reality)空間を含むものである。また、以降では、説明の便宜上、各ユーザ端末1A,1Bを単にユーザ端末1と総称する場合がある。さらに、各ユーザA,Bを単にユーザUと総称する場合がある。また、本実施形態では、ユーザ端末1A,1Bは、同一の構成を備えているものとする。
First, an outline of the configuration of the virtual space distribution system 100 (an example of an information processing system) will be described with reference to FIG. FIG. 1 is a schematic diagram of a virtual space distribution system 100 (hereinafter simply referred to as distribution system 100). As shown in FIG. 1, the
次に、図2を参照してユーザ端末1の構成について説明する。図2は、ユーザ端末1を示す概略図である。図2に示すように、ユーザ端末1は、ユーザUの頭部に装着されたヘッドマウントデバイス(HMD)110と、ヘッドフォン116と、フェイスカメラ117と、マイク118と、位置センサ130と、外部コントローラ320と、制御装置120とを備える。
Next, the configuration of the
HMD110は、表示部112と、HMDセンサ114と、注視センサ140と、フェイスカメラ113と、装着センサ115とを備えている。表示部112は、HMD110を装着したユーザUの視界(視野)を完全に覆うように構成された非透過型の表示装置を備えている。これにより、ユーザUは、表示部112に表示された視野画像のみを見ることで仮想空間に没入することができる。尚、表示部112は、ユーザUの左目に画像を提供するように構成された左目用表示部と、ユーザUの右目に画像を提供するように構成された右目用表示部とから構成されてもよい。また、HMD110は、透過型の表示装置を備えてもよい。この場合、透過型の表示装置は、その透過率を調整することで、一時的に非透過型の表示装置として構成されてもよい。
The
HMDセンサ114は、HMD110の表示部112の近傍に搭載される。HMDセンサ114は、地磁気センサ、加速度センサ、傾きセンサ(角速度センサやジャイロセンサ等)のうちの少なくとも1つを含み、ユーザUの頭部に装着されたHMD110の各種動き(傾き等)を検出することができる。
The
注視センサ140は、ユーザUの視線を検出するアイトラッキング機能を有する。注視センサ140は、例えば、右目用注視センサと、左目用注視センサを備えてもよい。右目用注視センサは、ユーザUの右目に例えば赤外光を照射して、右目(特に、角膜や虹彩)から反射された反射光を検出することで、右目の眼球の回転角に関する情報を取得してもよい。一方、左目用注視センサは、ユーザUの左目に例えば赤外光を照射して、左目(特に、角膜や虹彩)から反射された反射光を検出することで、左目の眼球の回転角に関する情報を取得してもよい。
The
フェイスカメラ113は、HMD110がユーザUに装着された状態でユーザUの目(左目と右目)とまゆげ(左まゆげと右まゆげ)が表示された画像(特に、動画像)を取得するように構成されている。フェイスカメラ113は、ユーザUの目とまゆげを撮像可能なようにHMD110の内側の所定箇所に配置されている。フェイスカメラ113によって取得される動画像のフレームレートは、HMD110に表示される視野画像(後述する)のフレームレートよりも大きくてもよい。
The
装着センサ115は、ユーザUがHMD110を装着しているかどうかを示すためのイベント情報を生成するように構成されている。具体的には、ユーザUがHMD110を取り外したときに(HMD110の状態が装着状態から非装着状態に遷移したときに)、装着センサ115は、イベント情報を生成した上で、当該イベント情報を制御装置120に送信する。
The wearing
ヘッドフォン116(音声出力部)は、ユーザUの左耳と右耳にそれぞれ装着されている。ヘッドフォン116は、制御装置120から音声データ(電気信号)を受信し、当該受信した音声データに基づいて音声を出力するように構成されている。マイク118(音声入力部)は、ユーザUから発声された音声を収集し、当該収集された音声に基づいて音声データ(電気信号)を生成するように構成されている。さらに、マイク118は、音声データを制御装置120に送信するように構成されている。
Headphones 116 (audio output units) are attached to the left and right ears of the user U, respectively. The
フェイスカメラ117は、ユーザUの口及びその周辺が表示された画像(特に、動画像)を取得するように構成されている。フェイスカメラ117は、ユーザUの口及びその周辺を撮像可能なようにユーザUの口に対向する位置に配置されてもよい。また、フェイスカメラ117は、HMD110と連結されていてもよい。フェイスカメラ117によって取得される動画像のフレームレートは、HMD110に表示される視野画像のフレームレートよりも大きくてもよい。
The
位置センサ130は、例えば、ポジション・トラッキング・カメラにより構成され、HMD110と外部コントローラ320の位置を検出するように構成されている。位置センサ130は、制御装置120に無線又は有線により通信可能に接続されており、HMD110に設けられた図示しない複数の検知点の位置、傾き又は発光強度に関する情報を検出するように構成されている。さらに、位置センサ130は、外部コントローラ320に設けられた図示しない複数の検知点の位置、傾き及び/又は発光強度に関する情報を検出するように構成されている。検知点は、例えば、赤外線や可視光を放射する発光部である。また、位置センサ130は、赤外線センサや複数の光学カメラを含んでもよい。
The
外部コントローラ320は、ユーザUの身体の一部(頭部以外の部位であり、本実施形態においてはユーザUの手)の動きを検知することにより、仮想空間内に表示されるアバターの手の動作を制御するために使用される。外部コントローラ320は、ユーザUの右手によって操作される右手用外部コントローラ320R(以下、単にコントローラ320Rという。)と、ユーザUの左手によって操作される左手用外部コントローラ320L(以下、単にコントローラ320Lという。)と、を有する。コントローラ320Rは、ユーザUの右手の位置や右手の手指の動きを示す装置である。また、コントローラ320Rの動きに応じて仮想空間内に存在するアバターの右手が動く。コントローラ320Lは、ユーザUの左手の位置や左手の手指の動きを示す装置である。また、コントローラ320Lの動きに応じて仮想空間内に存在するアバターの左手が動く。
The
制御装置120は、HMD110を制御するように構成されたコンピュータである。制御装置120は、位置センサ130から取得された情報に基づいて、HMD110の位置情報を特定し、当該特定された位置情報に基づいて、仮想空間における仮想カメラの位置(アバターの位置)と、現実空間におけるHMD110を装着したユーザUの位置を正確に対応付けることができる。さらに、制御装置120は、位置センサ130及び/又は外部コントローラ320に内蔵されたセンサから取得された情報に基づいて、外部コントローラ320の動作を特定し、当該特定された外部コントローラ320の動作に基づいて、仮想空間内に表示されるアバターの手の動作と現実空間における外部コントローラ320の動作を正確に対応付けることができる。特に、制御装置120は、位置センサ130及び/又はコントローラ320Lに内蔵されたセンサから取得された情報に基づいて、コントローラ320Lの動作を特定し、当該特定されたコントローラ320Lの動作に基づいて、仮想空間内に表示されるアバターの左手の動作と現実空間におけるコントローラ320Lの動作(ユーザUの左手の動作)を正確に対応付けることができる。同様に、制御装置120は、位置センサ及び/コントローラ320Rに内蔵されたセンサから取得された情報に基づいて、コントローラ320Rの動作を特定し、当該特定されたコントローラ320Rの動作に基づいて、仮想空間内に表示されるアバターの右手の動作と現実空間におけるコントローラ320Rの動作(ユーザUの右手の動作)を正確に対応付けることができる。
The
また、制御部121は、フェイスカメラ113,117によって取得された動画像に基づいて、ユーザUの顔の表情(状態)とユーザUのアバターの顔の表情(状態)を対応付けることができる。ユーザUの顔の表情とアバターの顔の表情を互いに対応づける処理の詳細については後述する。
Further, the
また、制御装置120は、注視センサ140(左目用注視センサと右目用注視センサ)から送信された情報に基づいて、ユーザUの右目の視線と左目の視線をそれぞれ特定し、当該右目の視線と当該左目の視線の交点である注視点を特定することができる。さらに、制御装置120は、特定された注視点に基づいて、ユーザUの両目の視線(ユーザUの視線)を特定することができる。ここで、ユーザUの視線は、ユーザUの両目の視線であって、ユーザUの右目と左目を結ぶ線分の中点と注視点を通る直線の方向に一致する。
Further, the
次に、図3を参照して、HMD110の位置や傾きに関する情報を取得する方法について説明する。図3は、HMD110を装着したユーザUの頭部を示す図である。HMD110を装着したユーザUの頭部の動きに連動したHMD110の位置や傾きに関する情報は、位置センサ130及び/又はHMD110に搭載されたHMDセンサ114により検出可能である。図2に示すように、HMD110を装着したユーザUの頭部を中心として、3次元座標(uvw座標)が規定される。ユーザUが直立する垂直方向をv軸として規定し、v軸と直交しHMD110の中心を通る方向をw軸として規定し、v軸およびw軸と直交する方向をu軸として規定する。位置センサ130及び/又はHMDセンサ114は、各uvw軸回りの角度(すなわち、v軸を中心とする回転を示すヨー角、u軸を中心とした回転を示すピッチ角、w軸を中心とした回転を示すロール角で決定される傾き)を検出する。制御装置120は、検出された各uvw軸回りの角度変化に基づいて、仮想カメラの視軸を制御するための角度情報を決定する。
Next, with reference to FIG. 3, a method for acquiring information related to the position and inclination of the
次に、図4を参照することで、制御装置120のハードウェア構成について説明する。図4は、制御装置120のハードウェア構成を示す図である。図4に示すように、制御装置120は、制御部121と、記憶部123と、I/O(入出力)インターフェース124と、通信インターフェース125と、バス126とを備える。制御部121と、記憶部123と、I/Oインターフェース124と、通信インターフェース125は、バス126を介して互いに通信可能に接続されている。
Next, the hardware configuration of the
制御装置120は、HMD110とは別体に、パーソナルコンピュータ、スマートフォン、ファブレット、タブレット又はウェアラブルデバイスとして構成されてもよいし、HMD110に内蔵されていてもよい。また、制御装置120の一部の機能がHMD110に搭載されると共に、制御装置120の残りの機能がHMD110とは別体の他の装置に搭載されてもよい。
The
制御部121は、メモリとプロセッサを備えている。メモリは、例えば、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)及び/又はGPU(Graphics Processing Unit)であって、ROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。
The
特に、プロセッサが制御プログラムをRAM上に展開し、RAMとの協働で制御プログラムを実行することで、制御部121は、制御装置120の各種動作を制御してもよい。制御部121は、視野画像データに基づいてHMD110の表示部112に視野画像を表示する。これにより、ユーザUは、仮想空間に没入することができる。
In particular, the
記憶部(ストレージ)123は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、USBフラッシュメモリ等の記憶装置であって、プログラムや各種データを格納するように構成されている。記憶部123は、本実施形態に係る情報処理方法の少なくとも一部をコンピュータに実行させるための制御プログラムや、複数のユーザによる仮想空間の共有を実現するための制御プログラムを格納してもよい。また、記憶部123には、ユーザUの認証プログラムや各種画像やオブジェクト(例えば、アバター等)に関するデータが格納されてもよい。さらに、記憶部123には、各種データを管理するためのテーブルを含むデータベースが構築されてもよい。
The storage unit (storage) 123 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a USB flash memory, and is configured to store programs and various data. The
I/Oインターフェース124は、HMD110と、位置センサ130と、外部コントローラ320と、ヘッドフォン116と、フェイスカメラ117と、マイク118とをそれぞれ制御装置120に通信可能に接続するように構成されており、例えば、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High―Definition Multimedia Interface)端子等により構成されている。尚、制御装置120は、HMD110と、位置センサ130と、外部コントローラ320と、ヘッドフォン116と、フェイスカメラ117と、マイク118とのそれぞれと無線接続されていてもよい。
The I /
通信インターフェース125は、制御装置120をLAN(Local Area Network)、WAN(Wide Area Network)又はインターネット等の通信ネットワーク3に接続させるように構成されている。通信インターフェース125は、通信ネットワーク3を介してサーバ2等の外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んでおり、通信ネットワーク3を介して通信するための通信規格に適合するように構成されている。
The
次に、図5を参照して外部コントローラ320の具体的構成の一例について説明する。コントローラ320Rとコントローラ320Lは略同一の構成を有するので、以下では、図5を参照してコントローラ320Rの具体的構成についてのみ説明する。尚、以降の説明では、便宜上、コントローラ320L,320Rを単に外部コントローラ320と総称する場合がある。
Next, an example of a specific configuration of the
図5に示すように、コントローラ320Rは、操作ボタン302と、複数の検知点304と、図示しないセンサと、図示しないトランシーバとを備える。検知点304とセンサは、どちらか一方のみが設けられていてもよい。操作ボタン302は、ユーザUからの操作入力を受付けるように構成された複数のボタン群により構成されている。操作ボタン302は、プッシュ式ボタンと、トリガー式ボタンと、アナログスティックとを含む。プッシュ式ボタンは、親指による押下する動作によって操作されるボタンである。例えば、天面322上に2つのプッシュ式ボタン302a,302bが設けられている。トリガー式ボタンは、人差し指や中指で引き金を引くような動作によって操作されるボタンである。例えば、グリップ324の前面部分にトリガー式ボタン302eが設けられると共に、グリップ324の側面部分にトリガー式ボタン302fが設けられる。トリガー式ボタン302e,302fは、人差し指と中指によってそれぞれ操作される。アナログスティックは、所定のニュートラル位置から360度任意の方向へ傾けて操作されうるスティック型のボタンである。例えば、天面322上にアナログスティック320iが設けられており、親指を用いて操作される。
As shown in FIG. 5, the
コントローラ320Rは、グリップ324の両側面から天面322とは反対側の方向へ延びて半円状のリングを形成するフレーム326を備える。フレーム326の外側面には、複数の検知点304が埋め込まれている。複数の検知点304は、例えば、フレーム326の円周方向に沿って一列に並んだ複数の赤外線LEDである。位置センサ130は、複数の検知点304の位置、傾き又は発光強度に関する情報を検出した後に、制御装置120は、位置センサ130によって検出された情報に基づいて、コントローラ320Rの位置や姿勢(傾き・向き)に関する情報を取得する。
The
コントローラ320Rのセンサは、例えば、磁気センサ、角速度センサ、若しくは加速度センサのいずれか、又はこれらの組み合わせであってもよい。センサは、ユーザUがコントローラ320Rを動かしたときに、コントローラ320Rの向きや位置に応じた信号(例えば、磁気、角速度、又は加速度に関する情報を示す信号)を出力する。制御装置120は、センサから出力された信号に基づいて、コントローラ320Rの位置や姿勢に関する情報を取得する。
The sensor of the
コントローラ320Rのトランシーバは、コントローラ320Rと制御装置120との間でデータを送受信するように構成されている。例えば、トランシーバは、ユーザUの操作入力に対応する操作信号を制御装置120に送信してもよい。また、トランシーバは、検知点304の発光をコントローラ320Rに指示する指示信号を制御装置120から受信してもよい。さらに、トランシーバは、センサによって検出された値を示す信号を制御装置120に送信してもよい。
The transceiver of the
次に、図6から図9を参照することで視野画像をHMD110に表示するための処理について説明する。図6は、視野画像をHMD110に表示する処理を示すフローチャートである。図7は、仮想空間200の一例を示すxyz空間図である。図8の状態(a)は、図7に示す仮想空間200のyx平面図である。図8の状態(b)は、図7に示す仮想空間200のzx平面図である。図9は、HMD110に表示された視野画像Vの一例を示す図である。
Next, processing for displaying a field-of-view image on the
図6に示すように、ステップS1において、制御部121(図4参照)は、仮想カメラ300と、各種オブジェクトとを含む仮想空間200を示す仮想空間データを生成する。図7に示すように、仮想空間200は、中心位置210を中心とした全天球として規定される(図7では、上半分の天球のみが図示されている)。また、仮想空間200では、中心位置210を原点とするxyz座標系が設定されている。仮想カメラ300は、HMD110に表示される視野画像V(図9参照)を特定するための視軸Lを規定している。仮想カメラ300の視野を定義するuvw座標系は、現実空間におけるユーザUの頭部を中心として規定されたuvw座標系に連動するように決定される。また、HMD110を装着したユーザUの現実空間における移動に連動して、制御部121は、仮想カメラ300を仮想空間200内で移動させてもよい。
As shown in FIG. 6, in step S1, the control unit 121 (see FIG. 4) generates virtual space data indicating the
次に、ステップS2において、制御部121は、仮想カメラ300の視野CV(図8参照)を特定する。具体的には、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の状態を示すデータに基づいて、HMD110の位置や傾きに関する情報を取得する。次に、制御部121は、HMD110の位置や傾きに関する情報に基づいて、仮想空間200内における仮想カメラ300の位置や向きを特定する。次に、制御部121は、仮想カメラ300の位置や向きから仮想カメラ300の視軸Lを決定し、決定された視軸Lから仮想カメラ300の視野CVを特定する。ここで、仮想カメラ300の視野CVは、HMD110を装着したユーザUが視認可能な仮想空間200の一部の領域に相当する(換言すれば、HMD110に表示される仮想空間200の一部の領域に相当する)。また、視野CVは、図8の状態(a)に示すxy平面において、視軸Lを中心とした極角αの角度範囲として設定される第1領域CVaと、図8の状態(b)に示すxz平面において、視軸Lを中心とした方位角βの角度範囲として設定される第2領域CVbとを有する。尚、制御部121は、注視センサ140から送信されたユーザUの視線を示すデータに基づいてユーザUの視線を特定し、特定されたユーザUの視線とHMD110の位置や傾きに関する情報に基づいて、仮想カメラ300の向き(仮想カメラの野軸L)を決定してもよい。また、後述するように、制御部121は、HMD110の位置や傾きに関する情報に基づいて、ユーザUのアバターの顔の向きを決定してもよい。
Next, in step S2, the
このように、制御部121は、位置センサ130及び/又はHMDセンサ114からのデータに基づいて、仮想カメラ300の視野CVを特定することができる。ここで、HMD110を装着したユーザUが動くと、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の動きを示すデータに基づいて、仮想カメラ300の視野CVを更新することができる。つまり、制御部121は、HMD110の動きに応じて、視野CVを更新することができる。同様に、ユーザUの視線が変化すると、制御部121は、注視センサ140から送信されたユーザUの視線を示すデータに基づいて、仮想カメラ300の視野CVを更新してもよい。つまり、制御部121は、ユーザUの視線の変化に応じて、視野CVを変化させてもよい。
As described above, the
次に、ステップS3において、制御部121は、HMD110の表示部112に表示される視野画像Vを示す視野画像データを生成する。具体的には、制御部121は、仮想空間200を規定する仮想空間データと、仮想カメラ300の視野CVとに基づいて、視野画像データを生成する。
Next, in step S <b> 3, the
次に、ステップS4において、制御部121は、視野画像データに基づいて、HMD110の表示部112に視野画像Vを表示する(図9参照)。このように、HMD110を装着しているユーザUの動きに応じて、仮想カメラ300の視野CVが変化し、HMD110の表示部112に表示される視野画像Vが変化するので、ユーザUは仮想空間200に没入することができる。
Next, in step S4, the
尚、仮想カメラ300は、左目用仮想カメラと右目用仮想カメラを含んでもよい。この場合、制御部121は、仮想空間データと左目用仮想カメラの視野に基づいて、左目用の視野画像を示す左目用視野画像データを生成する。さらに、制御部121は、仮想空間データと、右目用仮想カメラの視野に基づいて、右目用の視野画像を示す右目用視野画像データを生成する。その後、制御部121は、左目用視野画像データに基づいて、左目用表示部に左目用の視野画像を表示すると共に、右目用視野画像データに基づいて、右目用表示部に右目用の視野画像を表示する。このようにして、ユーザUは、左目用視野画像と右目用視野画像との間の視差により、視野画像を3次元的に視認することができる。尚、仮想カメラは、後述するように、ユーザによって操作されるアバターの目の位置に配置されてもよい。例えば、左目用仮想カメラは、アバターの左目に配置される一方で、右目用仮想カメラは、アバターの右目に配置されてもよい。
Note that the
また、図6に示すステップS1〜S4の処理は1フレーム(動画を構成する静止画像)毎に実行されてもよい。例えば、動画のフレームレートが90fpsである場合、ステップS1〜S4の処理はΔT=1/90(秒)間隔で繰り返し実行されてもよい。このように、ステップS1〜S4の処理が所定間隔ごとに繰り返し実行されるため、HMD110の動作に応じて仮想カメラ300の視野が更新されると共に、HMD110の表示部112に表示される視野画像Vが更新される。
Further, the processes in steps S1 to S4 shown in FIG. 6 may be executed for each frame (a still image constituting a moving image). For example, when the frame rate of the moving image is 90 fps, the processes in steps S1 to S4 may be repeatedly executed at intervals of ΔT = 1/90 (seconds). As described above, since the processes in steps S1 to S4 are repeatedly performed at predetermined intervals, the visual field of the
次に、図1に示すサーバ2のハードウェア構成について図10を参照して説明する。図10は、サーバ2のハードウェア構成を示す図である。図10に示すように、サーバ2は、制御部23と、記憶部22と、通信インターフェース21と、バス24とを備える。制御部23と、記憶部22と、通信インターフェース21は、バス24を介して互いに通信可能に接続されている。制御部23は、メモリとプロセッサを備えており、メモリは、例えば、ROM及びRAM等から構成されると共に、プロセッサは、例えば、CPU、MPU及び/又はGPUにより構成される。
Next, the hardware configuration of the
記憶部(ストレージ)22は、例えば、大容量のHDD等である。記憶部22は、本実施形態に係る情報処理方法の少なくとも一部をコンピュータに実行させるための制御プログラムや、複数のユーザによる仮想空間の共有を実現させるための制御プログラムを格納してもよい。また、記憶部22は、各ユーザを管理するためのユーザ管理情報や各種画像やオブジェクト(例えば、アバター等)に関するデータを格納してもよい。通信インターフェース21は、サーバ2を通信ネットワーク3に接続させるように構成されている。
The storage unit (storage) 22 is, for example, a large-capacity HDD. The
次に、図1,11及び12を参照してユーザ端末1Aとユーザ端末1B間において各アバター4A,4Bの動きを同期させる処理の一例について説明する。図11の状態(a)は、ユーザAに提供される仮想空間200Aを示す図である。図11の状態(b)は、ユーザBに提供される仮想空間200Bを示す図である。図12は、ユーザ端末1Aとユーザ端末1B間において各アバター4A,4Bの動きを同期させる処理の一例を説明するためのシーケンス図である。本説明では、前提条件として、図11に示すように、ユーザ端末1A(ユーザA)に関連付けられたアバター4Aと、ユーザ端末1B(ユーザB)に関連付けられたアバター4Bが同一の仮想空間を共有しているものとする。つまり、通信ネットワーク3を介してユーザAとユーザBが一つの仮想空間を共有するものとする。
Next, an example of processing for synchronizing the movements of the
図11の状態(a)に示すように、ユーザAの仮想空間200Aは、アバター4Aと、アバター4Bとを含む。アバター4Aは、ユーザAによって操作されると共に、ユーザAの動作に連動する。アバター4Aは、ユーザ端末1Aのコントローラ320Lの動作(ユーザAの左手の動作)に連動する左手(アバター4Aの仮想身体の一部)と、ユーザ端末1Aのコントローラ320Rの動作(ユーザAの右手の動作)に連動する右手と、表情がユーザAの顔の表情に連動する顔を有する。アバター4Aの顔は、複数の顔パーツ(例えば、目、まゆげ、口等)を有する。アバター4Bは、ユーザBによって操作されると共に、ユーザBの動作に連動する。アバター4Bは、ユーザBの左手の動作を示すユーザ端末1Bのコントローラ320Lの動作に連動する左手と、ユーザBの右手の動作を示すユーザ端末1Bのコントローラ320Rの動作に連動する右手と、表情がユーザBの顔の表情と連動する顔を有する。アバター4Bの顔は、複数の顔パーツ(例えば、目、まゆげ、口等)を有する。
As shown in the state (a) of FIG. 11, the
尚、ユーザAに提供される仮想空間200Aでは、アバター4Aが可視化されない場合も想定される。この場合、仮想空間200Aに配置されるアバター4Aは、少なくともユーザ端末1AのHMD110の動きに連動する仮想カメラ300を含む。
In the
また、ユーザ端末1A,1BのHMD110の位置に応じてアバター4A,4Bの位置が特定されてもよい。同様に、ユーザ端末1A,1BのHMD110の傾きに応じてアバター4A,4Bの顔の向きが特定されてもよい。さらに、ユーザ端末1A,1Bの外部コントローラ320の動作に応じてアバター4A,4Bの手の動作が特定されてもよい。特に、ユーザ端末1A,1Bのコントローラ320Lの動作に応じてアバター4A,4Bの左手の動作が特定されると共に、ユーザ端末1A,1Bのコントローラ320Rの動作に応じてアバター4A,4Bの右手の動作が特定されてもよい。また、ユーザA,Bの顔の表情(状態)に応じてアバター4A,4Bの顔の表情が特定されてもよい。特に、ユーザA,Bの白目に対する黒目の位置に応じてアバター4A,4Bの白目に対する黒目の位置が特定されてもよい。
Further, the positions of the
また、アバター4A,4Bの各々の目には、仮想カメラ300(図7)が配置されてもよい。特に、アバター4A,4Bの左目には、左目用仮想カメラが配置されると共に、アバター4A,4Bの右目には、右目用仮想カメラが配置されてもよい。尚、以降の説明では、仮想カメラ300は、アバター4A,4Bの目の位置に配置されているものとする。このため、アバター4Aの視野CVは、アバター4Aに配置された仮想カメラ300の視野CV(図7参照)と一致するものとする。同様に、アバター4Bの視野CVは、アバター4Bに配置された仮想カメラ300の視野CV(図7参照)と一致するものとする。
Moreover, the virtual camera 300 (FIG. 7) may be arrange | positioned at each eyes of
図11の状態(b)に示すように、ユーザBの仮想空間200Bは、アバター4Aと、アバター4Bとを含む。仮想空間200A内におけるアバター4A,4Bの位置は、仮想空間200B内におけるアバター4A,4Bの位置に対応してもよい。
As shown in the state (b) of FIG. 11, the
尚、ユーザBに提供される仮想空間200Bでは、アバター4Bが可視化されない場合も想定される。この場合、仮想空間200Bに配置されるアバター4Bは、少なくともユーザ端末1BのHMD110の動きに連動する仮想カメラ300を含む。
In the
次に、図12を参照すると、ステップS10において、ユーザ端末1Aの制御部121は、ユーザAの音声データを生成する。例えば、ユーザAがユーザ端末1Aのマイク118(音声入力部)に音声を入力したときに、マイク118は、入力された音声を示す音声データを生成する。その後、マイク118は、生成された音声データをI/Oインターフェース124を介して制御部121に送信する。
Next, referring to FIG. 12, in step S10, the
次に、ステップS11において、ユーザ端末1Aの制御部121は、アバター4Aの制御情報を生成した上で、当該生成したアバター4Aの制御情報とユーザAの音声を示す音声データ(ユーザAの音声データ)をサーバ2に送信する。その後、サーバ2の制御部23は、ユーザ端末1Aからアバター4Aの制御情報とユーザAの音声データを受信する(ステップS12)。
Next, in step S11, the
ここで、アバター4Aの制御情報は、アバター4Aの動作を制御するために必要な情報である。アバター4Aの制御情報は、アバター4Aの位置に関する情報(位置情報)と、アバター4Aの顔の向きに関する情報(顔向き情報)と、アバター4Aの手(左手と右手)の状態に関する情報(手情報)と、アバター4Aの顔の表情に関する情報(顔情報)とを含んでもよい。
Here, the control information of the
アバター4Aの顔情報は、複数の顔パーツの状態を示す情報を有する。複数の顔パーツの状態を示す情報は、アバター4Aの目の状態(白目の形状及び白目に対する黒目の位置等)を示す情報(目情報)と、アバター4Aのまゆげの情報(まゆげの位置及び形状等)を示す情報(まゆげ情報)と、アバター4Aの口の状態(口の位置及び形状等)を示す情報(口情報)を有する。
The face information of the
詳細には、アバター4Aの目情報は、アバター4Aの左目の状態を示す情報と、アバター4Aの右目の状態を示す情報を有する。アバター4Aのまゆげ情報は、アバター4Aの左まゆげの状態を示す情報と、アバター4Aの右まゆげの状態を示す情報を有する。
Specifically, the eye information of the
ユーザ端末1Aの制御部121は、HMD110に搭載されたフェイスカメラ113からユーザAの目(左目と右目)とまゆげ(左まゆげと右まゆげ)を示す画像を取得した上で、当該取得された画像と所定の画像処理アルゴリズムに基づいてユーザAの目(左目と右目)とまゆげ(左まゆげと右まゆげ)の状態を特定する。次に、制御部121は、特定されたユーザAの目とまゆげの状態に基づいて、アバター4Aの目(左目と右目)の状態を示す情報とアバター4Aのまゆげ(左まゆげと右まゆげ)の状態を示す情報をそれぞれ生成する。
The
同様に、ユーザ端末1Aの制御部121は、フェイスカメラ117からユーザAの口及びその周辺を示す画像を取得した上で、当該取得された画像と所定の画像処理アルゴリズムに基づいてユーザAの口の状態を特定する。次に、制御部121は、特定されたユーザAの口の状態に基づいて、アバター4Aの口の状態を示す情報を生成する。
Similarly, the
このように、ユーザ端末1Aの制御部121は、ユーザAの目に対応するアバター4Aの目情報と、ユーザAのまゆげに対応するアバター4Aのまゆげ情報と、ユーザAの口に対応するアバター4Aの口情報を生成することができる。
As described above, the
また、制御部121は、フェイスカメラ113によって撮像された画像と、フェイスカメラ117によって撮像された画像と、所定の画像処理アルゴリズムに基づいて、記憶部123又はメモリに記憶された複数の種類の顔の表情(例えば、笑顔、悲しい表情、無表情、怒りの表情、驚いた表情、困った表情等)の中からユーザAの顔の表情(例えば、笑顔)を特定してもよい。その後、制御部121は、特定されたユーザAの顔の表情に基づいて、アバター4Aの顔の表情(例えば、笑顔)を示す顔情報を生成することが可能となる。この場合、アバター4Aの複数の種類の顔の表情と、各々が当該複数の種類の顔の表情の一つに関連付けられた複数のアバター4Aの顔情報を含む表情データが記憶部123に保存されてもよい。
In addition, the
例えば、制御部121は、アバター4Aの顔の表情を笑顔として特定した場合、アバター4Aの顔の表情(笑顔)と表情データに基づいて、アバター4Aの笑顔を示す顔情報を取得する。ここで、アバター4Aの笑顔を示す顔情報は、アバター4Aの顔の表情が笑顔のときのアバター4Aの目情報、まゆげ情報及び口情報を含む。
For example, when the facial expression of the
次に、ステップS13において、ユーザ端末1Bの制御部121は、アバター4Bの制御情報を生成した上で、当該生成したアバター4Bの制御情報をサーバ2に送信する。その後、サーバ2の制御部23は、ユーザ端末1Bからアバター4Bの制御情報を受信する(ステップS14)。
Next, in step S <b> 13, the
ここで、アバター4Bの制御情報は、アバター4Bの動作を制御するために必要な情報である。アバター4Bの制御情報は、アバター4Bの位置に関する情報(位置情報)と、アバター4Bの顔の向きに関する情報(顔向き情報)と、アバター4Bの手(左手と右手)の状態に関する情報(手情報)と、アバター4Bの顔の表情に関する情報(顔情報)とを含んでもよい。
Here, the control information of the
アバター4Bの顔情報は、複数の顔パーツの状態を示す情報を有する。複数の顔パーツの状態を示す情報は、アバター4Bの目の状態(白目の形状及び白目に対する黒目の位置等)を示す情報(目情報)と、アバター4Bのまゆげの情報(まゆげの位置及び形状等)を示す情報(まゆげ情報)と、アバター4Bの口の状態(口の位置及び形状等)を示す情報(口情報)を有する。アバター4Bの顔情報の取得方法は、アバター4Aの顔情報の取得方法と同様である。
The face information of the
次に、サーバ2は、アバター4Bの制御情報をユーザ端末1Aに送信する一方(ステップS15)、アバター4Aの制御情報とユーザAの音声データをユーザ端末1Bに送信する(ステップS19)。その後、ユーザ端末1Aの制御部121は、ステップS16において、アバター4Bの制御情報を受信した後に、アバター4A,4Bの制御情報に基づいて、アバター4A,4Bの状態を更新した上で、仮想空間200A(図11の状態(a)参照)を示す仮想空間データを更新する(ステップS17)。
Next, the
詳細には、ユーザ端末1Aの制御部121は、アバター4A,4Bの位置情報に基づいて、アバター4A,4Bの位置を更新する。制御部121は、アバター4A,4Bの顔向き情報に基づいて、アバター4A,4Bの顔の向きを更新する。制御部121は、アバター4A,4Bの手情報に基づいて、アバター4A,4Bの手を更新する。制御部121は、アバター4A,4Bの顔情報に基づいて、アバター4A,4Bの顔の表情を更新する。このように、更新されたアバター4A,4Bを含む仮想空間200Aを示す仮想空間データが更新される。
Specifically, the
その後、ユーザ端末1Aの制御部121は、HMD110の位置や傾きに応じてアバター4A(仮想カメラ300)の視野CVを特定した上で、更新された仮想空間データと、アバター4Aの視野CVとに基づいて、HMD110に表示される視野画像を更新する(ステップS18)。
Thereafter, the
一方、ユーザ端末1Bの制御部121は、ステップS20においてアバター4Aの制御情報とユーザAの音声データを受信した後に、アバター4A,4Bの制御情報に基づいて、アバター4A,4Bの状態を更新した上で、仮想空間200B(図11の状態(b)参照)を示す仮想空間データを更新する(ステップS21)。
On the other hand, the
詳細には、ユーザ端末1Bの制御部121は、アバター4A,4Bの位置情報に基づいて、アバター4A,4Bの位置を更新する。制御部121は、アバター4A,4Bの顔向き情報に基づいて、アバター4A,4Bの顔の向きを更新する。制御部121は、アバター4A,4Bの手情報に基づいて、アバター4A,4Bの手を更新する。制御部121は、アバター4A,4Bの顔情報に基づいて、アバター4A,4Bの顔の表情を更新する。このように、更新されたアバター4A,4Bを含む仮想空間を示す仮想空間データが更新される。
Specifically, the
その後、ユーザ端末1Bの制御部121は、HMD110の位置や傾きに応じてアバター4B(仮想カメラ300)の視野CVを特定した上で、更新された仮想空間データと、アバター4Bの視野CVとに基づいて、HMD110に表示される視野画像を更新する(ステップS22)。
Thereafter, the
その後、ユーザ端末1Bの制御部121は、受信したユーザAの音声データと、アバター4Aの制御情報に含まれるアバター4Aの位置に関する情報と、アバター4Bの位置に関する情報と、所定の音声処理アルゴリズムに基づいてユーザAの音声データを加工する。その後、制御部121は、加工された音声データをヘッドフォン116(音声出力部)に送信した上で、ヘッドフォン116は、加工された音声データに基づいてユーザAの音声を出力する(ステップS23)。このように、仮想空間上においてユーザ間(アバター間)の音声会話を実現することができる。
Thereafter, the
本実施形態では、ユーザ端末1A,1Bがサーバ2にアバター4Aの制御情報とアバター4Bの制御情報をそれぞれ送信した後に、サーバ2がアバター4Aの制御情報をユーザ端末1Bに送信する一方、アバター4Bの制御情報をユーザ端末1Aに送信する。このように、ユーザ端末1Aとユーザ端末1B間において各アバター4A,4Bの動きを同期制御させることが可能となる。
In the present embodiment, after the
(第1実施形態)
次に、第1実施形態に係る情報処理方法について図13〜図16を参照して説明する。図13は、第1実施形態に係る情報処理方法を説明するためのユーザAに提供される仮想空間200Aの一例を示す図である。図14は、第1実施形態に係る情報処理方法の一例を説明するためのシーケンス図である。図15は、コンテンツ評価テーブル400の一例を示す図である。図16は、笑ったユーザの人数Nが所定の閾値Nth以上である場合に、ユーザAに提供される仮想空間200Aの一部が更新される様子を示す図である。
(First embodiment)
Next, the information processing method according to the first embodiment will be described with reference to FIGS. FIG. 13 is a diagram illustrating an example of the
図13に示すように、第1実施形態では、ユーザAに提供される仮想空間200Aは、ユーザA(ユーザ端末1A)に操作されるアバター4Aと、ユーザB(ユーザ端末1B)に操作されるアバター4Bと、ユーザC(ユーザ端末1C)によって操作されるアバター4Cと、図示しない多数のユーザによって操作される多数のアバターを含む。図1に示す仮想空間配信システム100と同様に、ユーザ端末1A〜1Cは、通信ネットワーク3を介してサーバ2に通信可能に接続されている。ユーザ端末1A〜1Cは、同一の構成を備えているものとする。仮想空間200Aでは、ユーザCは、アバター4Cを通じて、お笑いや一発芸等のパフォーマンスをリアルタイムに行う。一方、ユーザA,Bは、アバター4A,4Bを通じてユーザCのパフォーマンスをリアルタイムで視聴する観客である。また、図示しない多数のユーザも自身のアバターを通じてユーザCのパフォーマンスをリアルタイムで視聴する観客である。ユーザCによってリアルタイムで行われるパフォーマンスは、仮想空間200Aに関連付けられたコンテンツYとする。第1実施形態では、コンテンツYの評価値は、ユーザCのパフォーマンスを視聴することで笑ったユーザ(第1の感情を有するユーザ)の人数Nに相当する。
As shown in FIG. 13, in the first embodiment, the
次に、図14を参照することで、ユーザAが笑うことで、コンテンツYの評価値に相当する笑ったユーザの人数Nを更新する処理について説明する。図14に示すように、ステップS30において、ユーザ端末1Aの制御部121は、ユーザAの感情は笑いの感情(第1の感情)であるかどうかを判定する(つまり、ユーザAの感情を特定する)。具体的には、ステップS30において、ユーザ端末1Aの制御部121は、ユーザAの顔の表情と、ユーザAから出力される音声と、ユーザAの手の動き(即ち、外部コントローラ320の動き)のうちの少なくとも一つに基づいて、ユーザAの感情を特定する。
Next, a process of updating the number N of laughing users corresponding to the evaluation value of the content Y when the user A laughs will be described with reference to FIG. As shown in FIG. 14, in step S30, the
具体的には、制御部121は、フェイスカメラ113,117から取得された動画像に基づいてユーザAの顔の表情を特定した上で、ユーザAが笑ったかどうかを判定してもよい。また、制御部121は、マイク118に入力されるユーザAの音声を音声解析した上で、ユーザAが笑ったかどうかを判定してもよい。さらに、制御部121は、ユーザAの手(外部コントローラ320)の動きを示す信号を位置センサ130及び/又は外部コントローラ320に内蔵されたセンサから取得した上で、ユーザAの手の動きを解析することでユーザAが笑ったかどうかを判定してもよい。例えば、制御部121は、ユーザAが手を叩いたと判定した場合に、ユーザAが笑ったかどうかを判定してもよい。制御部121は、ユーザAの顔の表情と、ユーザAの音声と、ユーザAの手の動きをそれぞれ特定した上で、これらのユーザAの状態を総合的に判断することで、ユーザAが笑ったかどうかを判定してもよい。このように、ユーザAの顔の表情と、ユーザAの音声と、ユーザAの手の動きのうちの少なくとも一つを用いることでユーザAが笑ったかどうかを正確に特定することが可能となる。
Specifically, the
次に、制御部121は、ユーザAが笑ったと判定した場合(ステップS30でYES)、ユーザAが笑ったことを示す情報をサーバ2に送信する(ステップS31)。一方、制御部121は、ユーザAが笑っていないと判定した場合(ステップS30でNO)、再びステップS30の処理を実行する。その後、サーバ2の制御部23(図10参照)は、ユーザAが笑ったことを示す情報を受信した上で(ステップS32)、記憶部22に記憶されているコンテンツ評価テーブル400(図15参照)を更新する(ステップS33)。
Next, when it is determined that the user A has laughed (YES in step S30), the
図15に示すように、コンテンツ評価テーブル400は、コンテンツのシーン毎の笑ったユーザの人数Nに関する情報を含む。本実施形態では、ユーザCの最初のパフォーマンスが、コンテンツYのシーン1に相当する場合、サーバ2の制御部23は、ユーザAが笑ったことを示す情報を受信したときに、コンテンツ評価テーブル400に示す笑ったユーザの人数Nを60人から61人に更新する。尚、制御部23は、コンテンツのシーン毎にユーザの人数をカウントしているが、コンテンツ毎にユーザの人数をカウントしてもよい。
As shown in FIG. 15, the content evaluation table 400 includes information on the number N of laughing users for each content scene. In this embodiment, when the initial performance of the user C corresponds to the
次に、制御部23は、コンテンツYの評価値に相当する笑ったユーザの人数Nが所定の閾値Nthに達したかどうかを判定する(ステップS34)。制御部23は、笑ったユーザの人数Nが所定の閾値Nthに達したと判定した場合(ステップS34でYES)、仮想空間データの更新を指示する信号を各ユーザ端末に送信する(ステップS35)。一方、ステップS34の判定結果がNOである場合、ステップS35の処理は実行されない。尚、ステップS35では、ユーザ端末1Cと、コンテンツYをリアルタイムに視聴している全てのユーザのユーザ端末(例えば、ユーザ端末1A,1B)に仮想空間データの更新を指示する信号が送信されてもよい。
Next, the
その後、ユーザ端末1Aは、仮想空間データの更新を指示する信号をサーバ2から受信した場合に、仮想空間200Aを示す仮想空間データを更新する(ステップS36)。例えば、ステップS36の処理では、図16に示すように、たらいオブジェクト350が仮想空間200Aの上空から落ちてくる等の演出が行われてもよい。または、笑ったユーザの人数Nが所定の人数Nthに達したことを示すオブジェクトが仮想空間200A上に出現してもよい。また、仮想空間200Aの天球面上に表示される背景画像が更新されてもよい。さらに、仮想空間200Aのシーンが更新されてもよい。このように、仮想空間200Aが更新されることで、仮想空間のエンターテイメント性を向上させることができる。さらに、ユーザAは、仮想空間200Aの変化を視認することで、笑ったユーザの人数Nが所定の人数Nthに達したことを認識することができる。
Thereafter, when the
本実施形態によれば、ユーザAが笑ったかどうかが判定された上で、ユーザAが笑った場合に、仮想空間200Aに関連付けられたコンテンツYの評価値に相当する笑ったユーザの人数Nが更新される。このように、ユーザのコンテンツYに対するリアルな反応をコンテンツ評価に反映させることができるので、仮想空間におけるユーザ体験が向上されうる。
According to the present embodiment, when it is determined whether the user A has laughed and the user A laughs, the number N of laughing users corresponding to the evaluation value of the content Y associated with the
尚、第1実施形態では、笑ったユーザの人数Nがコンテンツの評価値としてカウントされているが、アバター4Cに視線を向けて笑っているユーザの人数Nがコンテンツの評価値としてカウントされてもよい。この場合、ステップS30において、ユーザ端末1Aの制御部121は、ユーザA(アバター4A)の視線がアバター4Cに向いている状態でユーザAが笑ったかどうかを判定してもよい。例えば、制御部121は、注視センサ140から送信された情報に基づいてユーザAの視線情報を取得した上で、ユーザAの視線情報とアバター4Cの位置情報に基づいてユーザAの視線がアバター4Cに向いているかどうかを判定してもよい。このように、アバター4Cに視線を向けて笑ったユーザの人数がコンテンツの評価に影響を与えるため、より正確にコンテンツの評価を行うことが可能となる。
In the first embodiment, the number N of laughing users is counted as the evaluation value of the content. However, even if the number N of users laughing with the line of sight toward the
また、サーバ2は、所定の周期でコンテンツ評価テーブル400に示される笑ったユーザの人数Nに関する情報を各ユーザ端末に送信してもよい。この場合、各ユーザ端末の制御部121は、笑ったユーザの人数Nに関する情報をサーバ2から受信した後に、HMD110に表示される視野画像V上に当該情報を表示してもよい。
Further, the
(第2実施形態)
次に、図13、図17及び図18を主に参照することで第2実施形態に係る情報処理方法について以下に説明する。図17は、第2実施形態に係る情報処理方法の一例を説明するためのシーケンス図である。図18は、第2実施形態におけるコンテンツ評価テーブル420の一例を示す図である。第1実施形態では、笑ったユーザの人数Nがコンテンツの評価値として採用される一方、第2実施形態では、各ユーザの笑いのレベル(第1の感情のレベル)の累積値がコンテンツの評価値として採用される。
(Second Embodiment)
Next, an information processing method according to the second embodiment will be described below mainly with reference to FIGS. 13, 17, and 18. FIG. 17 is a sequence diagram for explaining an example of the information processing method according to the second embodiment. FIG. 18 is a diagram illustrating an example of the content evaluation table 420 according to the second embodiment. In the first embodiment, the number N of laughing users is adopted as the content evaluation value. In the second embodiment, the cumulative value of each user's laughter level (first emotion level) is the content evaluation value. Adopted as a value.
図17に示すように、ステップS40において、ユーザ端末1Aの制御部121は、ユーザAの笑いの感情のレベルを特定する。具体的には、ユーザ端末1Aの制御部121は、ユーザAの顔の表情と、ユーザAから出力される音声と、ユーザAの手の動き(外部コントローラ320の動き)のうちの少なくとも一つに基づいて、ユーザAの笑いの感情のレベルを特定する。例えば、ユーザの笑いの感情のレベルは、4つのレベル(レベル3:大笑い、レベル2:中笑い、レベル1:小笑い、レベル0:笑っていない)に分類されていてもよい。次に、制御部121は、ユーザAの笑いの感情のレベルがレベル0ではない(つまり、ユーザAが笑っている)場合に(ステップS41でYES)、ユーザAの笑いの感情のレベルを示す情報をサーバ2に送信する(ステップS42)。例えば、ユーザAが大笑いしている場合、制御部121は、ユーザAの大笑いの感情のレベルに相当するレベル3を示す情報をサーバ2に送信する。一方、ユーザAが笑っていない(つまり、笑いの感情のレベルがレベル0である)場合に(ステップS41でNO)、ステップS40の処理が再び実行される。
As illustrated in FIG. 17, in step S <b> 40, the
次に、サーバ2の制御部23は、ユーザAの笑いの感情のレベルを示す情報を受信した上で(ステップS43)、記憶部22に記憶されているコンテンツ評価テーブル420(図18参照)を更新する(ステップS44)。図18に示すように、コンテンツ評価テーブル420は、コンテンツのシーン毎の各ユーザの笑いの感情のレベルの累積値P(以下、単に「笑いレベルの累積値P」という。)に関する情報を含む。例えば、本実施形態では、ユーザCの最初のパフォーマンスが、コンテンツYのシーン1に相当するものとする。さらに、ユーザAの笑いの感情のレベルがレベル1の場合、笑いレベルの累積値Pに+1ポイントが追加されるものとする。ユーザAの笑いの感情のレベルがレベル2の場合、笑いレベルの累積値Pに+2ポイントが追加されるものとする。ユーザAの笑いの感情のレベルがレベル3の場合、笑いレベルの累積値に+3ポイントが追加されるものとする。この場合、サーバ2の制御部23は、ユーザAの大笑いの感情のレベル(レベル3)を示す情報を受信したときに、コンテンツ評価テーブル420に示す笑いレベルの累積値を97ポイントから100ポイントに変更する。尚、制御部23は、コンテンツのシーン毎に笑いレベルの累積値Pをカウントしているが、コンテンツ毎に笑いレベルの累積値Pをカウントしてもよい。
Next, the
次に、制御部23は、コンテンツYの評価値に相当する笑いレベルの累積値Pが所定の閾値Pthに達したかどうかを判定する(ステップS45)。制御部23は、笑いレベルの累積値Pが所定の閾値Pthに達したと判定した場合(ステップS45でYES)、仮想空間データの更新を指示する信号を各ユーザ端末に送信する(ステップS46)。一方、ステップS45の判定結果がNOである場合、ステップS46の処理は実行されない。その後、ユーザ端末1Aは、仮想空間データの更新を指示する信号をサーバ2から受信した場合に、仮想空間200Aを示す仮想空間データを更新する(ステップS47)。
Next, the
本実施形態によれば、ユーザAの笑いの感情のレベルが特定された上で、ユーザAの笑いの感情のレベルがレベル0でない場合に、コンテンツYの評価値に相当する笑いレベルの累積値Pが更新される。このように、ユーザのコンテンツYに対するリアルな反応をコンテンツ評価に反映させることができるので、仮想空間におけるユーザ体験が向上されうる。特に、ユーザの笑いの感情のレベルをコンテンツの評価値にダイレクトに反映させることができるので、より詳細にコンテンツを評価することができる。 According to this embodiment, when the level of laughing emotion of user A is specified and the level of laughing emotion of user A is not level 0, the accumulated value of the laughing level corresponding to the evaluation value of content Y P is updated. As described above, since the user's real reaction to the content Y can be reflected in the content evaluation, the user experience in the virtual space can be improved. In particular, since the level of user laughter can be directly reflected in the evaluation value of the content, the content can be evaluated in more detail.
尚、第2実施形態では、ユーザAの視線を考慮せずに、ユーザAの笑いの感情のレベルに基づいてコンテンツ評価テーブル420が更新されているが、ステップS40の処理においてユーザAの視線の方向が考慮されてもよい。この場合、ステップS40において、ユーザ端末1Aの制御部121は、ユーザA(アバター4A)の視線がアバター4Cに向いているかどうかを判定すると共に、ユーザAの笑いの感情のレベルを特定してもよい。例えば、制御部121は、ユーザAの視線がアバター4Cに向いていないと判定した場合は、ユーザAの笑いの感情のレベルを示す情報をサーバ2に送信しなくてもよい。つまり、この場合では、コンテンツ評価テーブル420は更新されない。このように、アバター4Cに視線を向けて笑ったユーザの人数がコンテンツの評価に影響を与えるため、より正確にコンテンツの評価をすることが可能となる。
In the second embodiment, the content evaluation table 420 is updated based on the level of laughing emotion of the user A without considering the user A's line of sight. However, in the process of step S40, the content of the user A's line of sight is updated. Direction may be taken into account. In this case, in step S40, the
また、サーバ2は、所定の周期でコンテンツ評価テーブル400に示される笑いレベルの累積値に関する情報を各ユーザ端末に送信してもよい。この場合、各ユーザ端末の制御部121は、笑いレベルの累積値に関する情報をサーバ2から受信した後に、HMD110に表示される視野画像V上に当該情報を表示してもよい。
Further, the
(第3実施形態)
次に、図19から図21を参照することで第3実施形態に係る情報処理方法について以下に説明する。図19は、第3実施形態に係る情報処理方法を説明するためにユーザDに提供される仮想空間200Dの一例である。図20は、第3実施形態に係る情報処理方法を説明するためのシーケンス図である。図21は、ユーザDが装着するHMD110に表示された視野画像Vの一例を示す図である。第1,2実施形態では、仮想空間内において
ユーザC(アバター4C)によって行われるパフォーマンス(コンテンツY)をユーザC以外の各ユーザがリアルタイムに視聴する場合において、当該パフォーマンス(コンテンツY)をユーザの感情(特に、笑いの感情)によって評価する方法について説明を行った。第3実施形態では、ユーザCによって行われたパフォーマンス(コンテンツY)をユーザが動画プラットフォームを通じて視聴する場合に、当該パフォーマンスをユーザの感情(特に、笑いの感情)によって評価する方法について説明を行う。
(Third embodiment)
Next, an information processing method according to the third embodiment will be described below with reference to FIGS. FIG. 19 is an example of a
図19に示すように、仮想カメラ300は、ユーザDに提供される仮想空間200Dの中心に配置される。仮想カメラ300は、ユーザDのHMD110の動きに連動する。図1に示す配信システム100と同様に、ユーザ端末1Dは、通信ネットワーク3を介してサーバ2に通信可能に接続されている。ユーザ端末1Dは、上記したユーザ端末1A,1Bと同一の構成を備えているものとする。第1実施形態で説明したユーザCのパフォーマンスを示すコンテンツY(映像コンテンツ)の360度空間画像が仮想空間200Dの天球面Sd上に表示される。例えば、コンテンツYの360度空間画像を示す360度空間画像データ(以下、単に360度空間画像データという。)は、図13に示す仮想空間200Aの所定位置(例えば、中心位置)に配置された撮影用の360度カメラオブジェクトを通じて取得することが可能である。360度空間画像データは、例えば、サーバ2の制御部23によって取得されてもよい。サーバ2の制御部23によって取得された360度空間画像データは、サーバ2の記憶部22に保存されてもよいし、動画プラットフォーム用の別のサーバの記憶部に保存されてもよい。本実施形態では、360度空間画像データは、サーバ2の記憶部22に保存されているものとする。
As illustrated in FIG. 19, the
図20に示すように、ステップS50において、ユーザ端末1Dの制御部121は、コンテンツYの360度空間画像データの視聴を要求するための信号(以下、視聴要求信号という。)をサーバ2に送信する。例えば、制御部121は、ユーザDによる所定の入力操作を通じて、視聴要求信号を生成した上で、通信ネットワーク3を介して当該視聴要求信号をサーバ2に送信する。当該視聴要求信号には、ユーザ端末1DのIPアドレスに関する情報と、サーバ2のIPアドレスに関する情報が含まれていてもよい。
As shown in FIG. 20, in step S50, the
次に、サーバ2は、ユーザ端末1Dから視聴要求信号を受信したときに、記憶部22に保存されている360度空間画像データと、笑ったユーザの人数Nに関する情報をユーザ端末1Dに送信する(ステップS51)。ここで、サーバ2は、記憶部22に保存されたコンテンツ評価テーブル400(図15参照)を参照することで、笑ったユーザの人数Nに関する情報を取得してもよい。ここで、笑ったユーザの人数Nとは、コンテンツYをリアルタイムに視聴することで笑ったユーザの人数ではなく、動画プラットフォームを通じてコンテンツYを視聴することで笑ったユーザの人数である。
Next, when the
次に、ユーザ端末1Dの制御部121は、360度空間画像データと、笑ったユーザの人数Nに関する情報とをサーバ2から受信した後に、笑ったユーザの人数に関する情報をユーザDに提示する(ステップS52)。例えば、図21に示すように、ユーザ端末1DのHMD110に表示される視野画像V上に、笑ったユーザの人数に関する情報が表示されてもよい。また、笑ったユーザの人数に関する情報は、ユーザ端末1Dのヘッドフォン116を通じてユーザDに聴覚的に提示されてもよい。このように、コンテンツYの評価値に関する情報がユーザDに提示されることで、ユーザDは、コンテンツYに対する他のユーザの評価を視聴前に知ることができる。
Next, the
次に、ステップS53において、制御部121は、サーバ2より受信した360度空間画像データに対応する360度空間画像を仮想空間200Dの天球面Sd上に表示する。このようにして、ユーザ端末1Dの制御部121は、ユーザCのパフォーマンスを示すコンテンツYの360度空間画像をユーザDに提示する。特に、制御部121は、HMD110の動きに基づいて仮想カメラ300の視野を特定した上で、仮想空間200Dを示す仮想空間データと、仮想カメラ300の視野に基づいて、視野画像データを生成する。その後、制御部121は、視野画像データに基づいて、HMD110に視野画像を表示する。図21に示すように、ユーザ端末1DのHMD110に表示される視野画像V上に、コンテンツY(パフォーマンスを行うアバター4C)が表示される。尚、サーバ2は、ストリーミング方式で360度空間画像データをユーザ端末1Dに送信してもよいし、一括ダウンロード形式で360度空間画像データをユーザ端末1Dに送信してもよい。
Next, in step S53, the
次に、ステップS54において、ユーザ端末1Dの制御部121は、ユーザDの感情は笑いの感情(第1の感情)であるかどうかを判定する。具体的には、ステップS54において、制御部121は、ユーザDの顔の表情と、ユーザDから出力される音声と、ユーザDの手の動き(即ち、外部コントローラ320の動き)のうちの少なくとも一つに基づいて、ユーザDの感情を特定する。
Next, in step S54, the
制御部121は、ユーザDが笑ったと判定した場合(ステップS54でYES)、ユーザDが笑ったことを示す情報をサーバ2に送信する(ステップS55)。一方、制御部121は、ユーザDが笑っていないと判定した場合(ステップS54でNO)、再びステップS54の処理を実行する。その後、サーバ2の制御部23は、ユーザDが笑ったことを示す情報を受信した上で(ステップS56)、記憶部22に記憶されているコンテンツ評価テーブル400(図15参照)を更新する(ステップS57)。
When it is determined that the user D has laughed (YES in step S54), the
このように、本実施形態によれば、ユーザDがサーバ2から配信されたコンテンツYを視聴する場合において、ユーザDが笑った場合に、コンテンツYの評価値に相当する笑ったユーザの人数が更新される。したがって、コンテンツYを視聴するユーザの感情に基づいてコンテンツYを評価することができるので、ユーザのリアルな感情(反応)をコンテンツYの評価に反映させることができる。さらに、コンテンツYを視聴するユーザは、コンテンツ評価に対する操作入力の間を省くことが可能となる。特に、ユーザは、動画配信プラットフォームに設けられた評価ボタン(「イイネ」ボタン等)を押すことでコンテンツを評価する必要がないため、コンテンツ評価に対するユーザ操作の手間を省くことが可能となる。
Thus, according to the present embodiment, when the user D laughs when viewing the content Y distributed from the
尚、本実施形態では、視聴するコンテンツの評価値として笑ったユーザの人数が採用されているが、各ユーザの笑いのレベルの累積値がコンテンツの評価値として採用されてもよい。さらに、本実施形態では、サーバ2は、コンテンツYの360度空間画像データをユーザ端末1Dに送信しているが、コンテンツYの仮想空間データをユーザ端末1Dに送信してもよい。ここで、コンテンツYの仮想空間データとは、ユーザC(アバター4C)のパフォーマンスが行われている期間における仮想空間を示す仮想空間データである。当該仮想空間データは、サーバ2の制御部23によって取得されてもよい。サーバ2の制御部23によって取得された仮想空間データは、サーバ2の記憶部22に保存されてもよいし、動画プラットフォーム用の別のサーバの記憶部に保存されてもよい。
In the present embodiment, the number of users who laughed is adopted as the evaluation value of the content to be viewed. However, the cumulative value of the laughing level of each user may be adopted as the evaluation value of the content. Furthermore, in the present embodiment, the
また、第1実施形態から第3実施形態の説明では、ユーザの感情が笑いの感情である場合に、サーバ2の記憶部22に保存されたコンテンツ評価テーブルが更新される。つまり、笑いの感情がコンテンツの評価値として採用されている。一方、ユーザの感情が笑いの感情以外の感情(例えば、悲しみ、怒り、驚き、恐怖等)である場合に、コンテンツ評価テーブルが更新されてもよい。つまり、笑いの感情以外の感情がコンテンツの評価値として採用されてもよい。例えば、視聴者を怖がらせることを目的とするコンテンツの場合、ユーザの恐怖の感情がコンテンツの評価値として採用されてもよい。このように、笑いの感情以外のユーザの感情をコンテンツの評価値として採用することが可能である。
In the description of the first to third embodiments, the content evaluation table stored in the
さらに、ユーザの笑いの感情に代わって、ユーザコミュニケーション行動をコンテンツの評価値として採用してもよい。例えば、図14に示すステップS30において、ユーザ端末1Aの制御部121は、ユーザAのコミュニケーション行動を特定する。次に、制御部121は、特定されたユーザAのコミュニケーション行動がユーザCのパフォーマンス(コンテンツY)を評価する行動であると判定した場合に、ユーザAがコンテンツYを評価していることを示す情報をサーバ2に送信する。例えば、ユーザAが「ユーザCのパフォーマンスは凄いよね!」といった発言や「ちょっとあれ見てよ!」といった発言をユーザBに対してした場合、ユーザ端末1Aの制御部121は、当該ユーザAの発言を言語解析することで、ユーザAのコミュニケーション行動がユーザCのパフォーマンス(コンテンツY)を評価する行動であると判定する。その後、サーバ2の制御部23は、ユーザAがコンテンツYを評価していることを示す情報に基づいて、サーバ2の記憶部22に保存されたコンテンツ評価テーブルを更新する。ここで、コンテンツ評価テーブルは、コンテンツ毎の評価ポイントに関する情報を含んでいてもよい。コンテンツ評価テーブルに示されるコンテンツYの評価ポイントがnである場合、制御部23は、ユーザAがコンテンツYを評価していることを示す情報を受信した後に、コンテンツ評価ポイントをn+1に更新してもよい。
Furthermore, instead of the user's laughing feeling, user communication behavior may be adopted as the content evaluation value. For example, in step S30 illustrated in FIG. 14, the
また、ユーザ端末1の制御部121によって実行される各種処理をソフトウェアによって実現するために、各種処理をコンピュータ(プロセッサ)に実行させるための制御プログラムが記憶部123又はメモリに予め組み込まれていてもよい。または、制御プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD−ROM,DVD−ROM、Blu−rayディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体が制御装置120に接続されることで、当該記憶媒体に格納された制御プログラムが、記憶部123に組み込まれる。そして、記憶部123に組み込まれた制御プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部121は各種処理を実行する。
Further, in order to implement various processes executed by the
また、制御プログラムは、通信ネットワーク3上のコンピュータから通信インターフェース125を介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該制御プログラムが記憶部123に組み込まれる。
The control program may be downloaded from a computer on the
以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。 As mentioned above, although embodiment of this indication was described, the technical scope of this invention should not be limitedly interpreted by description of this embodiment. This embodiment is an example, and it is understood by those skilled in the art that various modifications can be made within the scope of the invention described in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the equivalents thereof.
本実施形態において、仮想空間は、ユーザにVR(Virtual Reality)、AR(Argumented Reality)及びMR(Mixed Reality)といった、仮想体験を提供するために用いられる。仮想空間がVRを提供する場合、仮想空間の背景にはメモリに保存された背景データが使用される。仮想空間がAR又はMRを提供する場合、背景には現実空間が使用される。この場合、HMD110が透過型の表示装置(光学シースルーまたはビデオシースルー型の表示装置)を備えることにより、現実空間が背景として使用され得る。仮想空間がMRに適用される場合、オブジェクトは、現実空間によって影響を与えられてもよい。このように、仮想空間が背景や仮想オブジェクトといった仮想シーンを少なくとも一部に含むことにより、ユーザには当該仮想シーンとの相互作用が可能な仮想体験が提供され得る。
In this embodiment, the virtual space is used to provide a virtual experience such as VR (Virtual Reality), AR (Arranged Reality), and MR (Mixed Reality) to the user. When the virtual space provides VR, background data stored in the memory is used as the background of the virtual space. When the virtual space provides AR or MR, the real space is used as the background. In this case, the
1,1A〜1D:ユーザ端末
2:サーバ
3:通信ネットワーク
4A,4B,4C:アバター
21:通信インターフェース
22:記憶部
23:制御部
24:バス
100:仮想空間配信システム(配信システム)
110:ヘッドマウントデバイス(HMD)
112:表示部
113:フェイスカメラ
114:センサ
115:装着センサ
116:ヘッドフォン
117:フェイスカメラ
118:マイク
120:制御装置
121:制御部
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
140:注視センサ
200,200A,200B,200C,200D:仮想空間
210:中心位置
300:仮想カメラ
302:操作ボタン
302a,302b:プッシュ式ボタン
302e,302f:トリガー式ボタン
304:検知点
320:外部コントローラ
320i:アナログスティック
320L:左手用外部コントローラ(コントローラ)
320R:右手用外部コントローラ(コントローラ)
322:天面
324:グリップ
326:フレーム
400,420:コンテンツ評価テーブル
1, 1A-1D: User terminal 2: Server 3:
110: Head mounted device (HMD)
112: Display unit 113: Face camera 114: Sensor 115: Wear sensor 116: Headphone 117: Face camera 118: Microphone 120: Control device 121: Control unit 123: Storage unit 124: I / O interface 125: Communication interface 126: Bus 130: Position sensor 140:
320R: External controller for right hand (controller)
322: Top surface 324: Grip 326:
Claims (15)
(a)仮想空間を規定する仮想空間データと前記ヘッドマウントデバイスの動きに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを生成するステップと、
(b)前記ユーザの感情を特定するステップと、
(c)前記特定されたユーザの感情に基づいて、前記仮想空間に関連付けられたコンテンツの評価値を更新するステップと、
を含む、情報処理方法。 An information processing method executed by a computer in an information processing system including a user terminal having a head-mounted device mounted on a user's head and a server connected to the user terminal so as to be communicable,
(A) generating visual field image data indicating a visual field image displayed on the head mounted device based on virtual space data defining a virtual space and movement of the head mounted device;
(B) identifying the user's emotion;
(C) updating the evaluation value of the content associated with the virtual space based on the identified user's emotion;
Including an information processing method.
前記ユーザの顔の表情と、前記ユーザから出力される音声と、前記ユーザの手の動きのうちの少なくとも一つに基づいて、前記ユーザの感情を特定するステップを含む、
請求項1に記載の情報処理方法。 The step (b)
Identifying the user's emotion based on at least one of the facial expression of the user, voice output from the user, and movement of the user's hand,
The information processing method according to claim 1.
前記ユーザの感情が第1の感情であるかどうかを判定するステップを含み、
前記ステップ(c)は、
前記特定されたユーザの感情が前記第1の感情である場合に、前記コンテンツの評価値を更新するステップを含む、
請求項1または2に記載の情報処理方法。 The step (b)
Determining whether the user's emotion is a first emotion,
The step (c)
Updating the evaluation value of the content when the identified user's emotion is the first emotion,
The information processing method according to claim 1 or 2.
前記コンテンツの評価値は、前記複数のユーザのうち前記第1の感情を有するユーザの数に対応する、
請求項3に記載の情報処理方法。 The virtual space is viewed by a plurality of users,
The evaluation value of the content corresponds to the number of users having the first emotion among the plurality of users.
The information processing method according to claim 3.
前記ユーザの第1の感情のレベルを特定するステップを含み、
前記ステップ(c)は、
前記特定された第1の感情のレベルに基づいて、前記コンテンツの評価値を更新するステップを含む、
請求項1または2に記載の情報処理方法。 The step (b)
Identifying a level of the user's first emotion,
The step (c)
Updating an evaluation value of the content based on the identified first emotion level;
The information processing method according to claim 1 or 2.
前記コンテンツの評価値は、各ユーザの前記第1の感情のレベルの累積値に対応する、請求項6に記載の情報処理方法。 The virtual space is viewed by a plurality of users,
The information processing method according to claim 6, wherein the evaluation value of the content corresponds to a cumulative value of the first emotion level of each user.
前記コンテンツの評価値が第1の値に達した場合に、前記仮想空間データの少なくとも一部を更新するステップを含む、請求項8に記載の情報処理方法。 The step (d)
The information processing method according to claim 8, further comprising a step of updating at least a part of the virtual space data when the evaluation value of the content reaches a first value.
前記サーバに保存された前記コンテンツに関連したデータと前記コンテンツの評価値に関する情報を前記ユーザ端末に送信するステップを含み、
(f)前記コンテンツの評価値に関する情報を前記ユーザに提示するステップをさらに含む、請求項10に記載の情報処理方法。 The step (e)
Transmitting data related to the content stored in the server and information about the evaluation value of the content to the user terminal,
The information processing method according to claim 10, further comprising: (f) presenting information related to the evaluation value of the content to the user.
(a)仮想空間を規定する仮想空間データと前記ヘッドマウントデバイスの動きに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを生成するステップと、
(b)前記ユーザのコミュニケーション行動を特定するステップと、
(c)前記特定されたコミュニケーション行動に基づいて、前記仮想空間に関連付けられたコンテンツの評価値を更新するステップと、
を含む、情報処理方法。 An information processing method executed by a computer in an information processing system including a user terminal having a head-mounted device mounted on a user's head and a server connected to the user terminal so as to be communicable,
(A) generating visual field image data indicating a visual field image displayed on the head mounted device based on virtual space data defining a virtual space and movement of the head mounted device;
(B) identifying the user's communication behavior;
(C) updating an evaluation value of content associated with the virtual space based on the identified communication behavior;
Including an information processing method.
前記ユーザ端末に通信可能に接続されたサーバと、
を備え、請求項1から12のうちのいずれか一項に記載の情報処理方法を実行するように構成された、情報処理システム。 A user terminal having a head-mounted device mounted on the user's head;
A server communicably connected to the user terminal;
An information processing system configured to execute the information processing method according to any one of claims 1 to 12.
コンピュータ可読命令を記憶するメモリと、を備えた情報処理装置であって、
前記コンピュータ可読命令が前記プロセッサにより実行されると、前記情報処理装置は、請求項1から12のうちのいずれか一項に記載の情報処理方法を実行する、情報処理装置。
A processor;
An information processing apparatus comprising a memory for storing computer-readable instructions,
The information processing apparatus that executes the information processing method according to any one of claims 1 to 12, when the computer-readable instruction is executed by the processor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017158642A JP2019036239A (en) | 2017-08-21 | 2017-08-21 | Information processing method, information processing program, information processing system, and information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017158642A JP2019036239A (en) | 2017-08-21 | 2017-08-21 | Information processing method, information processing program, information processing system, and information processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019036239A true JP2019036239A (en) | 2019-03-07 |
Family
ID=65655656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017158642A Withdrawn JP2019036239A (en) | 2017-08-21 | 2017-08-21 | Information processing method, information processing program, information processing system, and information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019036239A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020262332A1 (en) * | 2019-06-25 | 2020-12-30 | 株式会社コロプラ | Game program, game method, and information terminal device |
KR20230136648A (en) | 2021-03-10 | 2023-09-26 | 가부시키가이샤 코나미 데지타루 엔타테인멘토 | Gaming system, computer programs used on it, and control methods |
-
2017
- 2017-08-21 JP JP2017158642A patent/JP2019036239A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020262332A1 (en) * | 2019-06-25 | 2020-12-30 | 株式会社コロプラ | Game program, game method, and information terminal device |
JP2021003218A (en) * | 2019-06-25 | 2021-01-14 | 株式会社コロプラ | Game program, game method, and information terminal device |
KR20230136648A (en) | 2021-03-10 | 2023-09-26 | 가부시키가이샤 코나미 데지타루 엔타테인멘토 | Gaming system, computer programs used on it, and control methods |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10262461B2 (en) | Information processing method and apparatus, and program for executing the information processing method on computer | |
JP6462059B1 (en) | Information processing method, information processing program, information processing system, and information processing apparatus | |
JP6263252B1 (en) | Information processing method, apparatus, and program for causing computer to execute information processing method | |
US10313481B2 (en) | Information processing method and system for executing the information method | |
US20180373328A1 (en) | Program executed by a computer operable to communicate with head mount display, information processing apparatus for executing the program, and method executed by the computer operable to communicate with the head mount display | |
JP6392911B2 (en) | Information processing method, computer, and program for causing computer to execute information processing method | |
JP6290467B1 (en) | Information processing method, apparatus, and program causing computer to execute information processing method | |
JP2018089228A (en) | Information processing method, apparatus, and program for implementing that information processing method on computer | |
JP7108389B2 (en) | Program, information processing device, information processing system, and information processing method | |
JP6212666B1 (en) | Information processing method, program, virtual space distribution system, and apparatus | |
JP2018124981A (en) | Information processing method, information processing device and program causing computer to execute information processing method | |
JP2018125003A (en) | Information processing method, apparatus, and program for implementing that information processing method in computer | |
JP2019032844A (en) | Information processing method, device, and program for causing computer to execute the method | |
JP6203346B1 (en) | Method, program, and recording medium for providing virtual space | |
JP2019036239A (en) | Information processing method, information processing program, information processing system, and information processing device | |
US10319346B2 (en) | Method for communicating via virtual space and system for executing the method | |
JP6289703B1 (en) | Information processing method, information processing program, information processing system, and information processing apparatus | |
JP6999538B2 (en) | Information processing methods, information processing programs, information processing systems, and information processing equipment | |
JP2019030638A (en) | Information processing method, device, and program for causing computer to execute information processing method | |
JP2018109940A (en) | Information processing method and program for causing computer to execute the same | |
JP2019020836A (en) | Information processing method, device, and program for causing computer to execute the method | |
JP2018195172A (en) | Information processing method, information processing program, and information processing device | |
JP2018190196A (en) | Information processing method, information processing device, program causing computer to execute information processing method | |
JP7041484B2 (en) | Programs, information processing devices, information processing systems, and information processing methods | |
JP6403843B1 (en) | Information processing method, information processing program, and information processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200629 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20210202 |