JP2018097847A - Information processing method, and program for causing computer to execute the information processing method - Google Patents
Information processing method, and program for causing computer to execute the information processing method Download PDFInfo
- Publication number
- JP2018097847A JP2018097847A JP2017158548A JP2017158548A JP2018097847A JP 2018097847 A JP2018097847 A JP 2018097847A JP 2017158548 A JP2017158548 A JP 2017158548A JP 2017158548 A JP2017158548 A JP 2017158548A JP 2018097847 A JP2018097847 A JP 2018097847A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- user
- avatar
- virtual room
- size
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本開示は、情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラムに関する。 The present disclosure relates to an information processing method and a program for causing a computer to execute the information processing method.
ヘッドマウントデバイス(Head Mounted Device:以下、単にHMDという。)を装着した複数のユーザ間でVR(Virtual Reality)空間、AR(Augmented Reality)空間またはMR(Mixed Reality) 空間等の仮想空間をネットワークを介して共有する技術(ソーシャルVR)が知られている。例えば、特許文献1では、現実空間における複数のユーザ間の位置関係を特定した上で、当該特定された複数のユーザ間の位置関係に基づいて、仮想空間内における複数のユーザキャラクタ(アバター)の位置関係を決定する技術が開示されている。 A virtual space such as a VR (Virtual Reality) space, an AR (Augmented Reality) space, or an MR (Mixed Reality) space is connected between a plurality of users wearing a head mounted device (hereinafter simply referred to as HMD). The technology (social VR) to share via is known. For example, in Patent Document 1, after specifying the positional relationship between a plurality of users in the real space, based on the positional relationship between the specified plurality of users, a plurality of user characters (avatars) in the virtual space. A technique for determining the positional relationship is disclosed.
一方、特許文献2には、仮想空間内に仮想映画館を提供する技術が開示されている。特に、特許文献2では、仮想空間内に仮想スクリーンと、仮想ビデオプロジェクタと、仮想映画館を構成する特定の素子(仮想座席等)を配置することで、HMDを装着したユーザに映画館での映画視聴体験を提供する技術が開示されている。 On the other hand, Patent Document 2 discloses a technique for providing a virtual movie theater in a virtual space. In particular, in Patent Document 2, a virtual screen, a virtual video projector, and a specific element (virtual seat or the like) constituting a virtual movie theater are arranged in a virtual space, so that a user wearing an HMD can have a movie theater. A technique for providing a movie viewing experience is disclosed.
ところで、特許文献1では、ソーシャルVR技術においてHMDを装着した複数のユーザ間の位置関係が着目されている一方で、複数のユーザキャラクタ(アバター)が配置される仮想部屋(オブジェクトの一種)をどのように制御するかについては全く言及されていない。また、特許文献2では、ソーシャルVR技術や複数のユーザキャラクタが配置される仮想部屋をどのように制御するかについては全く言及されていない。 By the way, in patent document 1, while the positional relationship between the several users with which HMD was mounted | worn in the social VR technique is paying attention, on which virtual room (a kind of object) where several user characters (avatar) are arrange | positioned There is no mention of how to control. Moreover, in patent document 2, it is not mentioned at all about how to control the virtual room where a social VR technique and a plurality of user characters are arranged.
本開示は、ソーシャルVRにおけるユーザの仮想体験を改善することが可能な情報処理方法及び当該情報処理方法をコンピュータに実現させるためのプログラムを提供することを目的とする。 An object of the present disclosure is to provide an information processing method capable of improving a user's virtual experience in a social VR and a program for causing a computer to realize the information processing method.
本開示が示す一態様によれば、各々がユーザの頭部に装着されるヘッドマウントデバイスを有する複数のユーザ端末と、サーバとを備えた仮想空間配信システムにおいてコンピュータによって実行される情報処理方法が提供される。
前記情報処理方法は、
(a)前記複数のユーザ端末のうちの第1ユーザ端末に関連付けられた第1アバターと、前記第1アバターが配置される第1仮想部屋とを含む第1仮想空間を規定する第1仮想空間データを生成するステップと、
(b)前記複数のユーザ端末のうちの第2ユーザ端末から、前記第2ユーザ端末に関連付けられた第2アバターが前記第1仮想部屋を訪問することを要求する訪問要求信号を受信するステップと、
(c)前記ステップ(b)の後に、前記第1仮想部屋に現在配置されているアバターと前記第2アバターとの総数に応じて、前記第1仮想部屋を更新するべきかどうかを判定するステップと、
(d)前記第1仮想部屋を更新するべきであると判定した場合に、前記第1仮想部屋のサイズを更新するように前記第1仮想部屋を更新するステップと、を含む。
According to one aspect of the present disclosure, there is provided an information processing method that is executed by a computer in a virtual space distribution system that includes a plurality of user terminals each having a head-mounted device mounted on a user's head and a server. Provided.
The information processing method includes:
(A) A first virtual space that defines a first virtual space including a first avatar associated with a first user terminal among the plurality of user terminals and a first virtual room in which the first avatar is arranged. Generating data; and
(B) receiving a visit request signal requesting that a second avatar associated with the second user terminal visits the first virtual room from a second user terminal of the plurality of user terminals; ,
(C) After the step (b), a step of determining whether or not the first virtual room should be updated according to the total number of avatars currently arranged in the first virtual room and the second avatar. When,
(D) updating the first virtual room to update the size of the first virtual room when it is determined that the first virtual room should be updated.
本開示によれば、ソーシャルVRにおけるユーザの仮想体験を改善することが可能な情報処理方法及び当該情報処理方法をコンピュータに実現させるためのプログラムを提供することができる。 According to the present disclosure, it is possible to provide an information processing method capable of improving a user's virtual experience in a social VR and a program for causing a computer to realize the information processing method.
[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)各々がユーザの頭部に装着されるヘッドマウントデバイスを有する複数のユーザ端末と、サーバとを備えた仮想空間配信システムにおいてコンピュータによって実行される情報処理方法であって、
前記情報処理方法は、
(a)前記複数のユーザ端末のうちの第1ユーザ端末に関連付けられた第1アバターと、前記第1アバターが配置される第1仮想部屋とを含む第1仮想空間を規定する第1仮想空間データを生成するステップと、
(b)前記複数のユーザ端末のうちの第2ユーザ端末から、前記第2ユーザ端末に関連付けられた第2アバターが前記第1仮想部屋を訪問することを要求する訪問要求信号を受信するステップと、
(c)前記ステップ(b)の後に、前記第1仮想部屋に現在配置されているアバターと前記第2アバターとの総数に応じて、前記第1仮想部屋を更新するべきかどうかを判定するステップと、
(d)前記第1仮想部屋を更新するべきであると判定した場合に、前記第1仮想部屋のサイズを更新するように前記第1仮想部屋を更新するステップと、を含む、情報処理方法。
[Description of Embodiments Presented by the Present Disclosure]
An overview of an embodiment indicated by the present disclosure will be described.
(1) An information processing method executed by a computer in a virtual space distribution system including a plurality of user terminals each having a head-mounted device mounted on a user's head and a server,
The information processing method includes:
(A) A first virtual space that defines a first virtual space including a first avatar associated with a first user terminal among the plurality of user terminals and a first virtual room in which the first avatar is arranged. Generating data; and
(B) receiving a visit request signal requesting that a second avatar associated with the second user terminal visits the first virtual room from a second user terminal of the plurality of user terminals; ,
(C) After the step (b), a step of determining whether or not the first virtual room should be updated according to the total number of avatars currently arranged in the first virtual room and the second avatar. When,
And (d) updating the first virtual room so as to update the size of the first virtual room when it is determined that the first virtual room should be updated.
上記方法によれば、第1仮想部屋に現在配置されているアバターと第2アバターとの総数に応じて、第1仮想部屋を更新するべきかどうかが判定され、第1仮想部屋を更新するべきであると判定した場合に、第1仮想部屋のサイズが更新される。このように、仮想部屋に存在するアバター数に応じて仮想部屋のサイズが更新されるので、アバターの数に応じた仮想体験を提供し得る。したがって、ソーシャルVRにおけるユーザの仮想体験を改善することが可能な情報処理方法を提供することができる。 According to the above method, it is determined whether or not the first virtual room should be updated according to the total number of the avatars currently arranged in the first virtual room and the second avatar, and the first virtual room should be updated. Is determined, the size of the first virtual room is updated. Thus, since the size of the virtual room is updated according to the number of avatars existing in the virtual room, it is possible to provide a virtual experience according to the number of avatars. Therefore, it is possible to provide an information processing method that can improve the virtual experience of the user in the social VR.
(2)前記第1アバターと前記第1仮想部屋との間の相対的位置関係が維持されるように、前記第1アバターは前記更新された第1仮想部屋に配置される、項目(1)に記載の情報処理方法。 (2) Item (1), wherein the first avatar is placed in the updated first virtual room so that a relative positional relationship between the first avatar and the first virtual room is maintained. Information processing method described in 1.
上記方法によれば、第1アバターと第1仮想部屋との間の相対的位置関係が維持されるように、第1アバターは更新された第1仮想部屋に配置される。このように、第1仮想部屋が更新される前後で、第1ユーザの視点(第1アバターの位置)が大きく変更されることが防止されるので、第1ユーザのVR酔いを好適に防止することが可能となる。 According to the above method, the first avatar is placed in the updated first virtual room so that the relative positional relationship between the first avatar and the first virtual room is maintained. As described above, since the first user's viewpoint (the position of the first avatar) is prevented from being largely changed before and after the first virtual room is updated, the VR sickness of the first user is preferably prevented. It becomes possible.
(3)前記第1仮想部屋は、動画が表示される第1仮想スクリーンを含み、
前記ステップ(d)は、前記第1仮想部屋のサイズの拡大に応じて前記第1仮想スクリーンのサイズが拡大するように前記第1仮想部屋を更新するステップを含む、項目(1)又は(2)に記載の情報処理方法。
(3) The first virtual room includes a first virtual screen on which a moving image is displayed,
The step (d) includes the step of updating the first virtual room so that the size of the first virtual screen is enlarged in accordance with the enlargement of the size of the first virtual room. The information processing method described in).
上記方法によれば、第1仮想部屋のサイズの拡大に応じて、第1仮想スクリーンのサイズが拡大する。このように、第1仮想部屋に存在するアバターの数に応じて第1仮想スクリーンのサイズも拡大するので、多数のユーザが同一の仮想部屋内で同一の動画(映像コンテンツ等)の視聴を楽しむことを促すことができる。したがって、ユーザ間における仮想部屋の訪問(ソーシャルVR)を促進することができる。 According to the above method, the size of the first virtual screen is increased in accordance with the increase in the size of the first virtual room. In this way, the size of the first virtual screen is increased according to the number of avatars present in the first virtual room, so that many users enjoy watching the same video (video content, etc.) in the same virtual room. Can be encouraged. Therefore, it is possible to promote a virtual room visit (social VR) between users.
(4)前記第1仮想部屋は、動画が表示される第1仮想スクリーンを含み、
(e)前記第1ユーザ端末から、前記第1仮想スクリーンのサイズを所定のサイズに拡大することを要求するスクリーン拡大要求信号を受信するステップと、
(f)前記スクリーン拡大要求信号に応じて、前記第1仮想スクリーンのサイズを前記所定のサイズに拡大するように前記第1仮想スクリーンを更新するステップと、をさらに含む、項目(1)から(3)のうちいずれか一項に記載の情報処理方法。
(4) The first virtual room includes a first virtual screen on which a moving image is displayed,
(E) receiving, from the first user terminal, a screen enlargement request signal requesting to enlarge the size of the first virtual screen to a predetermined size;
(F) updating the first virtual screen so as to enlarge the size of the first virtual screen to the predetermined size in response to the screen enlargement request signal. The information processing method according to any one of 3).
上記方法によれば、スクリーン拡大要求信号に応じて、第1仮想スクリーンのサイズが所定のサイズに拡大される。このように、第1仮想部屋を訪問するアバターが存在しなくても、第1ユーザは大きい仮想スクリーンで映像コンテンツ等の動画の視聴を楽しむことができる。 According to the above method, the size of the first virtual screen is enlarged to a predetermined size in response to the screen enlargement request signal. In this way, even if there is no avatar that visits the first virtual room, the first user can enjoy watching moving images such as video content on a large virtual screen.
(5)(g)前記第1ユーザ端末のヘッドマウントデバイスを装着した第1ユーザによる前記動画の視聴により前記第1ユーザに課金される課金額を決定するステップをさらに含み、
前記ステップ(g)は、前記スクリーン拡大要求信号に応じて、前記第1ユーザに課金される課金額を更新するステップを含む、項目(4)に記載の情報処理方法。
(5) (g) further including a step of determining a charge amount charged to the first user by viewing the moving image by the first user wearing the head mounted device of the first user terminal,
The information processing method according to item (4), wherein the step (g) includes a step of updating a charge amount charged to the first user in response to the screen enlargement request signal.
上記方法によれば、スクリーン拡大要求信号に応じて第1ユーザに課金される課金額が更新される。このように、例えば、第1仮想部屋に訪問するアバターが存在しなくても、第1ユーザは、所定の金額を支払うことで、大きい仮想スクリーンで映像コンテンツ等の動画の視聴を楽しむことができる。 According to the above method, the charge amount charged to the first user is updated in response to the screen enlargement request signal. Thus, for example, even if there is no avatar to visit in the first virtual room, the first user can enjoy watching a video such as video content on a large virtual screen by paying a predetermined amount. .
(6)前記ステップ(d)は、前記第1仮想部屋のサイズの拡大に応じて前記第1仮想スクリーンのサイズが拡大するように前記第1仮想部屋を更新するステップを含み、
前記第1仮想部屋のサイズの拡大に応じて前記第1仮想スクリーンのサイズが所定のサイズに拡大されたときに前記第1ユーザに課金される第1課金額は、前記スクリーン拡大要求信号に応じて前記第1仮想スクリーンのサイズが前記所定のサイズに拡大されたときに前記第1ユーザに課金される第2課金額よりも安い、項目(5)に記載の情報処理方法。
(6) The step (d) includes a step of updating the first virtual room so that the size of the first virtual screen is enlarged in accordance with the enlargement of the size of the first virtual room,
The first billing amount charged to the first user when the size of the first virtual screen is enlarged to a predetermined size in accordance with the enlargement of the size of the first virtual room depends on the screen enlargement request signal The information processing method according to item (5), wherein the information is cheaper than a second charge amount charged to the first user when the size of the first virtual screen is enlarged to the predetermined size.
上記方法によれば、第1仮想部屋のサイズの拡大に応じて第1仮想スクリーンのサイズが所定のサイズ(例えば、Mサイズ)に拡大されたときに第1ユーザに課金される第1課金額は、スクリーン拡大要求信号に応じて第1仮想スクリーンのサイズが当該所定のサイズ(例えば、Mサイズ)に拡大されたときに第1ユーザに課金される第2課金額よりも安い。このため、多数のユーザが同一の仮想部屋内で同一の動画(映像コンテンツ等)の視聴を楽しむことを促すことができる。したがって、ユーザ間における仮想部屋の訪問(ソーシャルVR)を促進することができる。 According to the above method, the first charge amount charged to the first user when the size of the first virtual screen is enlarged to a predetermined size (for example, M size) in accordance with the enlargement of the size of the first virtual room. Is cheaper than the second charge amount charged to the first user when the size of the first virtual screen is enlarged to the predetermined size (for example, M size) in response to the screen enlargement request signal. Therefore, it is possible to encourage a large number of users to enjoy viewing the same moving image (video content or the like) in the same virtual room. Therefore, it is possible to promote a virtual room visit (social VR) between users.
(7)項目(1)から(6)のうちいずれか一項に記載の情報処理方法をコンピュータに実行させるためのプログラム。 (7) A program for causing a computer to execute the information processing method according to any one of items (1) to (6).
上記によれば、ソーシャルVRにおけるユーザの仮想体験を改善することが可能なプログラムを提供することができる。 According to the above, it is possible to provide a program that can improve the virtual experience of the user in the social VR.
[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。尚、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Presented by the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, about the member which has the same reference number as the member already demonstrated in description of this embodiment, the description is not repeated for convenience of explanation.
最初に、仮想空間配信システム100(又は、ソーシャルVRシステム)の構成の概略について図1を参照して説明する。図1は、仮想空間配信システム100(以下、単に配信システム100という。)の概略図である。図1に示すように、配信システム100は、ユーザAによって操作されるユーザ端末1Aと、ユーザBによって操作されるユーザ端末1Bと、ユーザCによって操作されるユーザ端末Cと、サーバ2とを備える。ユーザ端末1A〜1Cは、インターネット等の通信ネットワーク3を介してサーバ2に通信可能に接続されている。尚、本実施形態において、仮想空間とは、VR(Virtual Reality)空間と、AR(Argumented Reality)空間と、MR(Mixed Reality)空間を含む。また、以降では、説明の便宜上、各ユーザ端末1A〜1Cを単にユーザ端末1と総称する場合がある。さらに、各ユーザA〜Cを単にユーザUと総称する場合がある。また、本実施形態では、ユーザ端末1A〜1Cは、同一の構成を備えているものとする。 First, an outline of the configuration of the virtual space distribution system 100 (or social VR system) will be described with reference to FIG. FIG. 1 is a schematic diagram of a virtual space distribution system 100 (hereinafter simply referred to as distribution system 100). As shown in FIG. 1, the distribution system 100 includes a user terminal 1A operated by a user A, a user terminal 1B operated by a user B, a user terminal C operated by a user C, and a server 2. . User terminals 1A to 1C are communicably connected to a server 2 via a communication network 3 such as the Internet. In the present embodiment, the virtual space includes a VR (Virtual Reality) space, an AR (Argumented Reality) space, and an MR (Mixed Reality) space. In addition, hereinafter, for convenience of explanation, the user terminals 1A to 1C may be simply referred to as the user terminal 1 in some cases. Furthermore, the users A to C may be collectively referred to simply as a user U. In the present embodiment, the user terminals 1A to 1C are assumed to have the same configuration.
次に、図2を参照してユーザ端末1の構成について説明する。図2は、ユーザ端末1を示す概略図である。図2に示すように、ユーザ端末1は、ユーザUの頭部に装着されたヘッドマウントデバイス(HMD)110と、ヘッドフォン116と、マイク118と、位置センサ130と、外部コントローラ320と、制御装置120とを備える。 Next, the configuration of the user terminal 1 will be described with reference to FIG. FIG. 2 is a schematic diagram showing the user terminal 1. As shown in FIG. 2, the user terminal 1 includes a head mounted device (HMD) 110, a headphone 116, a microphone 118, a position sensor 130, an external controller 320, and a control device mounted on the user U's head. 120.
HMD110は、表示部112と、HMDセンサ114と、注視センサ140とを備えている。表示部112は、HMD110を装着したユーザUの視界(視野)を完全に覆うように構成された非透過型の表示装置を備えている。これにより、ユーザUは、表示部112に表示された視野画像のみを見ることで仮想空間に没入することができる。尚、表示部112は、ユーザUの左目に画像を提供するように構成された左目用表示部とユーザUの右目に画像を提供するように構成された右目用表示部から構成されてもよい。また、HMD110は、透過型の表示装置を備えてもよい。この場合、透過型の表示装置は、その透過率を調整することで、一時的に非透過型の表示装置として構成されてもよい。 The HMD 110 includes a display unit 112, an HMD sensor 114, and a gaze sensor 140. The display unit 112 includes a non-transmissive display device configured to completely cover the field of view (field of view) of the user U wearing the HMD 110. Thereby, the user U can immerse in the virtual space by viewing only the visual field image displayed on the display unit 112. The display unit 112 may include a left-eye display unit configured to provide an image for the left eye of the user U and a right-eye display unit configured to provide an image for the right eye of the user U. . Further, the HMD 110 may include a transmissive display device. In this case, the transmissive display device may be temporarily configured as a non-transmissive display device by adjusting the transmittance.
HMDセンサ114は、HMD110の表示部112の近傍に搭載される。HMDセンサ114は、地磁気センサ、加速度センサ、傾きセンサ(角速度センサやジャイロセンサ等)のうちの少なくとも1つを含み、ユーザUの頭部に装着されたHMD110の各種動きを検出することができる。 The HMD sensor 114 is mounted in the vicinity of the display unit 112 of the HMD 110. The HMD sensor 114 includes at least one of a geomagnetic sensor, an acceleration sensor, and a tilt sensor (such as an angular velocity sensor and a gyro sensor), and can detect various movements of the HMD 110 mounted on the head of the user U.
注視センサ140は、ユーザUの視線方向を検出するアイトラッキング機能を有する。注視センサ140は、例えば、右目用注視センサと、左目用注視センサを備えてもよい。右目用注視センサは、ユーザUの右目に例えば赤外光を照射して、右目(特に、角膜や虹彩)から反射された反射光を検出することで、右目の眼球の回転角に関する情報を取得してもよい。一方、左目用注視センサは、ユーザUの左目に例えば赤外光を照射して、左目(特に、角膜や虹彩)から反射された反射光を検出することで、左目の眼球の回転角に関する情報を取得してもよい。 The gaze sensor 140 has an eye tracking function that detects the direction of the line of sight of the user U. The gaze sensor 140 may include, for example, a right eye gaze sensor and a left eye gaze sensor. The right eye gaze sensor irradiates, for example, infrared light to the right eye of the user U, and detects reflected light reflected from the right eye (particularly the cornea and iris), thereby acquiring information related to the rotation angle of the right eye's eyeball. May be. On the other hand, the left eye gaze sensor irradiates the left eye of the user U with, for example, infrared light, and detects reflected light reflected from the left eye (particularly the cornea and iris), thereby providing information on the rotation angle of the left eye's eyeball. May be obtained.
ヘッドフォン116は、ユーザUの左耳と右耳にそれぞれ装着されている。ヘッドフォン116は、制御装置120から音声データ(電気信号)を受信し、当該受信した音声データに基づいて音声を出力するように構成されている。マイク118は、ユーザUから発声された音声を収集し、当該収集された音声に基づいて音声データ(電気信号)を生成するように構成されている。さらに、マイク118は、音声データを制御装置120に送信するように構成されている。 The headphones 116 are respectively attached to the left ear and the right ear of the user U. The headphones 116 are configured to receive audio data (electrical signals) from the control device 120 and output audio based on the received audio data. The microphone 118 is configured to collect the voice uttered by the user U and generate voice data (electrical signal) based on the collected voice. Furthermore, the microphone 118 is configured to transmit audio data to the control device 120.
位置センサ130は、例えば、ポジション・トラッキング・カメラにより構成され、HMD110と外部コントローラ320の位置を検出するように構成されている。位置センサ130は、制御装置120に無線又は有線により通信可能に接続されており、HMD110に設けられた図示しない複数の検知点の位置、傾き又は発光強度に関する情報を検出するように構成されている。さらに、位置センサ130は、外部コントローラ320に設けられた図示しない複数の検知点の位置、傾き及び/又は発光強度に関する情報を検出するように構成されている。検知点は、例えば、赤外線や可視光を放射する発光部である。また、位置センサ130は、赤外線センサや複数の光学カメラを含んでもよい。 The position sensor 130 is configured by, for example, a position tracking camera, and is configured to detect the positions of the HMD 110 and the external controller 320. The position sensor 130 is communicably connected to the control device 120 by wireless or wired communication, and is configured to detect information on the position, inclination, or light emission intensity of a plurality of detection points (not shown) provided in the HMD 110. . Further, the position sensor 130 is configured to detect information on the position, inclination and / or light emission intensity of a plurality of detection points (not shown) provided in the external controller 320. The detection point is, for example, a light emitting unit that emits infrared light or visible light. The position sensor 130 may include an infrared sensor and a plurality of optical cameras.
外部コントローラ320は、例えば、仮想空間内に表示される手指オブジェクトの動作を制御するために使用される。外部コントローラ320は、ユーザUが右手に持って使用する右手用外部コントローラと、ユーザUが左手に持って使用する左手用外部コントローラを有してもよい。 The external controller 320 is used, for example, to control the movement of the finger object displayed in the virtual space. The external controller 320 may include a right-handed external controller used by the user U with the right hand and a left-handed external controller used by the user U with the left hand.
制御装置120は、位置センサ130から取得された情報に基づいて、HMD110の位置情報を取得し、当該取得された位置情報に基づいて、仮想空間における仮想カメラ(又は、ユーザUに関連したアバター)の位置と、現実空間におけるHMD110を装着したユーザUの位置を正確に対応付けることができる。さらに、制御装置120は、位置センサ130から取得された情報に基づいて、外部コントローラ320の動作情報を取得し、当該取得された動作情報に基づいて、仮想空間内に表示される手指オブジェクト(ユーザUに関連するアバターの手指)の動作と現実空間における外部コントローラ320の動作を正確に対応付けることができる。 The control device 120 acquires the position information of the HMD 110 based on the information acquired from the position sensor 130, and based on the acquired position information, a virtual camera (or an avatar related to the user U) in the virtual space. And the position of the user U wearing the HMD 110 in the real space can be accurately associated with each other. Further, the control device 120 acquires the operation information of the external controller 320 based on the information acquired from the position sensor 130, and based on the acquired operation information, the finger object (user) displayed in the virtual space. The motion of the avatar's fingers related to U) and the motion of the external controller 320 in the real space can be accurately associated.
また、制御装置120は、注視センサ140から送信された情報に基づいて、ユーザUの右目の視線と左目の視線をそれぞれ特定し、当該右目の視線と当該左目の視線の交点である注視点を特定することができる。さらに、制御装置120は、特定された注視点に基づいて、ユーザUの視線方向を特定することができる。ここで、ユーザUの視線方向は、ユーザUの両目の視線方向であって、ユーザUの右目と左目を結ぶ線分の中点と注視点を通る直線の方向に一致する。制御装置120は、ユーザUの視線方向に基づいて、ユーザUに関連するアバターの黒目の向きを特定することができる。 Further, the control device 120 specifies the gaze of the right eye and the gaze of the left eye of the user U based on the information transmitted from the gaze sensor 140, and determines the gaze point that is the intersection of the gaze of the right eye and the gaze of the left eye. Can be identified. Furthermore, the control device 120 can specify the line-of-sight direction of the user U based on the specified gaze point. Here, the line-of-sight direction of the user U is the line-of-sight direction of both eyes of the user U and coincides with the direction of a straight line passing through the middle point of the line segment connecting the right eye and the left eye of the user U and the gazing point. The control device 120 can specify the direction of the black eye of the avatar related to the user U based on the line-of-sight direction of the user U.
次に、図3を参照して、HMD110の位置や傾きに関する情報を取得する方法について説明する。図3は、HMD110を装着したユーザUの頭部を示す図である。HMD110を装着したユーザUの頭部の動きに連動したHMD110の位置や傾きに関する情報は、位置センサ130及び/又はHMD110に搭載されたHMDセンサ114により検出可能である。図2に示すように、HMD110を装着したユーザUの頭部を中心として、3次元座標(uvw座標)が規定される。ユーザUが直立する垂直方向をv軸として規定し、v軸と直交しHMD110の中心を通る方向をw軸として規定し、v軸およびw軸と直交する方向をu軸として規定する。位置センサ130及び/又はHMDセンサ114は、各uvw軸回りの角度(すなわち、v軸を中心とする回転を示すヨー角、u軸を中心とした回転を示すピッチ角、w軸を中心とした回転を示すロール角で決定される傾き)を検出する。制御装置120は、検出された各uvw軸回りの角度変化に基づいて、仮想カメラの視軸を制御するための角度情報を決定する。 Next, with reference to FIG. 3, a method for acquiring information related to the position and inclination of the HMD 110 will be described. FIG. 3 is a diagram illustrating the head of the user U wearing the HMD 110. Information on the position and inclination of the HMD 110 that is linked to the movement of the head of the user U wearing the HMD 110 can be detected by the position sensor 130 and / or the HMD sensor 114 mounted on the HMD 110. As shown in FIG. 2, three-dimensional coordinates (uvw coordinates) are defined centering on the head of the user U wearing the HMD 110. The vertical direction in which the user U stands up is defined as the v-axis, the direction orthogonal to the v-axis and passing through the center of the HMD 110 is defined as the w-axis, and the direction orthogonal to the v-axis and the w-axis is defined as the u-axis. The position sensor 130 and / or the HMD sensor 114 is an angle around each uvw axis (that is, a yaw angle indicating rotation around the v axis, a pitch angle indicating rotation around the u axis, and a center around the w axis). The inclination determined by the roll angle indicating rotation) is detected. The control device 120 determines angle information for controlling the visual axis of the virtual camera based on the detected angle change around each uvw axis.
次に、図4を参照することで、制御装置120のハードウェア構成について説明する。図4は、制御装置120のハードウェア構成を示す図である。図4に示すように、制御装置120は、制御部121と、記憶部123と、I/O(入出力)インターフェース124と、通信インターフェース125と、バス126とを備える。制御部121と、記憶部123と、I/Oインターフェース124と、通信インターフェース125は、バス126を介して互いに通信可能に接続されている。 Next, the hardware configuration of the control device 120 will be described with reference to FIG. FIG. 4 is a diagram illustrating a hardware configuration of the control device 120. As illustrated in FIG. 4, the control device 120 includes a control unit 121, a storage unit 123, an I / O (input / output) interface 124, a communication interface 125, and a bus 126. The control unit 121, the storage unit 123, the I / O interface 124, and the communication interface 125 are connected to each other via a bus 126 so as to communicate with each other.
制御装置120は、HMD110とは別体に、パーソナルコンピュータ、タブレット又はウェアラブルデバイスとして構成されてもよいし、HMD110に内蔵されていてもよい。また、制御装置120の一部の機能がHMD110に搭載されると共に、制御装置120の残りの機能がHMD110とは別体の他の装置に搭載されてもよい。 The control device 120 may be configured as a personal computer, a tablet, or a wearable device separately from the HMD 110, or may be built in the HMD 110. In addition, some functions of the control device 120 may be mounted on the HMD 110, and the remaining functions of the control device 120 may be mounted on another device separate from the HMD 110.
制御部121は、メモリとプロセッサを備えている。メモリは、例えば、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)及び/又はGPU(Graphics Processing Unit)であって、ROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。 The control unit 121 includes a memory and a processor. The memory includes, for example, a ROM (Read Only Memory) in which various programs are stored, a RAM (Random Access Memory) having a plurality of work areas in which various programs executed by the processor are stored, and the like. The processor is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and / or a GPU (Graphics Processing Unit), and a program specified from various programs embedded in the ROM is expanded on the RAM. It is comprised so that various processes may be performed in cooperation with.
特に、プロセッサが制御プログラムをRAM上に展開し、RAMとの協働で制御プログラムを実行することで、制御部121は、制御装置120の各種動作を制御してもよい。制御部121は、視野画像データに基づいてHMD110の表示部112に視野画像を表示する。これにより、ユーザUは、仮想空間に没入することができる。 In particular, the control unit 121 may control various operations of the control device 120 by a processor developing a control program on a RAM and executing the control program in cooperation with the RAM. The control unit 121 displays a field image on the display unit 112 of the HMD 110 based on the field image data. Thereby, the user U can be immersed in the virtual space.
記憶部(ストレージ)123は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、USBフラッシュメモリ等の記憶装置であって、プログラムや各種データを格納するように構成されている。記憶部123は、本実施形態に係る情報処理方法の少なくとも一部をコンピュータに実行させるための制御プログラムや、ソーシャルVRを実現するための制御プログラムを格納してもよい。また、記憶部123には、ユーザUの認証プログラムや各種画像やオブジェクト(例えば、仮想部屋、アバター等)に関するデータが格納されてもよい。さらに、記憶部123には、各種データを管理するためのテーブルを含むデータベースが構築されてもよい。 The storage unit (storage) 123 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a USB flash memory, and is configured to store programs and various data. The storage unit 123 may store a control program for causing a computer to execute at least a part of the information processing method according to the present embodiment, or a control program for realizing social VR. Further, the storage unit 123 may store data related to the user U authentication program, various images, and objects (for example, a virtual room and an avatar). Furthermore, a database including tables for managing various data may be constructed in the storage unit 123.
I/Oインターフェース124は、位置センサ130と、HMD110と、外部コントローラ320と、ヘッドフォン116と、マイク118とをそれぞれ制御装置120に通信可能に接続するように構成されており、例えば、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High―Definition Multimedia Interface)端子等により構成されている。尚、制御装置120は、位置センサ130と、HMD110と、外部コントローラ320と、ヘッドフォン116と、マイク118とのそれぞれと無線接続されていてもよい。 The I / O interface 124 is configured to connect the position sensor 130, the HMD 110, the external controller 320, the headphones 116, and the microphone 118 to the control device 120 so that they can communicate with each other, for example, a USB (Universal) The terminal includes a serial bus (D) terminal, a digital visual interface (DVI) terminal, a high-definition multimedia interface (HDMI) (registered trademark) terminal, and the like. The control device 120 may be wirelessly connected to each of the position sensor 130, the HMD 110, the external controller 320, the headphones 116, and the microphone 118.
通信インターフェース125は、制御装置120をLAN(Local Area Network)、WAN(Wide Area Network)又はインターネット等の通信ネットワーク3に接続させるように構成されている。通信インターフェース125は、通信ネットワーク3を介してサーバ2等の外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んでおり、通信ネットワーク3を介して通信するための通信規格に適合するように構成されている。 The communication interface 125 is configured to connect the control device 120 to a communication network 3 such as a LAN (Local Area Network), a WAN (Wide Area Network), or the Internet. The communication interface 125 includes various wired connection terminals for communicating with an external device such as the server 2 via the communication network 3 and various processing circuits for wireless connection, and communicates via the communication network 3. It is configured to conform to the communication standard.
次に、図5から図8を参照することで視野画像をHMD110に表示するための処理について説明する。図5は、視野画像をHMD110に表示する処理を示すフローチャートである。図6は、仮想空間200の一例を示すxyz空間図である。図7の状態(a)は、図6に示す仮想空間200のyx平面図である。図7の状態(b)は、図6に示す仮想空間200のzx平面図である。図8は、HMD110に表示された視野画像Vの一例を示す図である。 Next, processing for displaying a field-of-view image on the HMD 110 will be described with reference to FIGS. FIG. 5 is a flowchart showing a process for displaying the visual field image on the HMD 110. FIG. 6 is an xyz space diagram showing an example of the virtual space 200. The state (a) in FIG. 7 is a yx plan view of the virtual space 200 shown in FIG. The state (b) in FIG. 7 is a zx plan view of the virtual space 200 shown in FIG. FIG. 8 is a diagram illustrating an example of the visual field image V displayed on the HMD 110.
図5に示すように、ステップS1において、制御部121(図4参照)は、仮想カメラ300と、各種オブジェクトとを含む仮想空間200を示す仮想空間データを生成する。図6に示すように、仮想空間200は、中心位置210を中心とした全天球として規定される(図6では、上半分の天球のみが図示されている)。また、仮想空間200では、中心位置210を原点とするxyz座標系が設定されている。仮想カメラ300は、HMD110に表示される視野画像V(図8参照)を特定するための視軸Lを規定している。仮想カメラ300の視野を定義するuvw座標系は、現実空間におけるユーザUの頭部を中心として規定されたuvw座標系に連動するように決定される。また、HMD110を装着したユーザUの現実空間における移動に連動して、制御部121は、仮想カメラ300を仮想空間200内で移動させてもよい。 As illustrated in FIG. 5, in step S <b> 1, the control unit 121 (see FIG. 4) generates virtual space data indicating the virtual space 200 including the virtual camera 300 and various objects. As shown in FIG. 6, the virtual space 200 is defined as an omnidirectional sphere centered on the center position 210 (in FIG. 6, only the upper half celestial sphere is shown). In the virtual space 200, an xyz coordinate system with the center position 210 as the origin is set. The virtual camera 300 defines a visual axis L for specifying the visual field image V (see FIG. 8) displayed on the HMD 110. The uvw coordinate system that defines the visual field of the virtual camera 300 is determined so as to be linked to the uvw coordinate system that is defined around the head of the user U in the real space. Further, the control unit 121 may move the virtual camera 300 in the virtual space 200 in conjunction with the movement of the user U wearing the HMD 110 in the real space.
次に、ステップS2において、制御部121は、仮想カメラ300の視野CV(図7参照)を特定する。具体的には、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の状態を示すデータに基づいて、HMD110の位置や傾きに関する情報を取得する。次に、制御部121は、HMD110の位置や傾きに関する情報に基づいて、仮想空間200内における仮想カメラ300の位置や向きを特定する。次に、制御部121は、仮想カメラ300の位置や向きから仮想カメラ300の視軸Lを決定し、決定された視軸Lから仮想カメラ300の視野CVを特定する。ここで、仮想カメラ300の視野CVは、HMD110を装着したユーザUが視認可能な仮想空間200の一部の領域に相当する(換言すれば、HMD110に表示される仮想空間200の一部の領域に相当する)。また、視野CVは、図7の状態(a)に示すxy平面において、視軸Lを中心とした極角αの角度範囲として設定される第1領域CVaと、図7の状態(b)に示すxz平面において、視軸Lを中心とした方位角βの角度範囲として設定される第2領域CVbとを有する。尚、制御部121は、注視センサ140から送信されたユーザUの視線方向を示すデータに基づいて、ユーザUの視線方向を特定し、ユーザUの視線方向に基づいて仮想カメラ300の向きを決定してもよい。 Next, in step S <b> 2, the control unit 121 specifies the field of view CV (see FIG. 7) of the virtual camera 300. Specifically, the control unit 121 acquires information on the position and inclination of the HMD 110 based on data indicating the state of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. Next, the control unit 121 identifies the position and orientation of the virtual camera 300 in the virtual space 200 based on information regarding the position and tilt of the HMD 110. Next, the control unit 121 determines the visual axis L of the virtual camera 300 from the position and orientation of the virtual camera 300 and specifies the visual field CV of the virtual camera 300 from the determined visual axis L. Here, the visual field CV of the virtual camera 300 corresponds to a part of the virtual space 200 visible to the user U wearing the HMD 110 (in other words, a part of the virtual space 200 displayed on the HMD 110). Equivalent to Further, the visual field CV includes a first region CVa set as an angular range of the polar angle α around the visual axis L in the xy plane shown in the state (a) of FIG. 7, and the state (b) of FIG. 7. The xz plane shown has a second region CVb set as an angle range of the azimuth angle β with the visual axis L as the center. The control unit 121 identifies the line of sight of the user U based on the data indicating the line of sight of the user U transmitted from the gaze sensor 140, and determines the direction of the virtual camera 300 based on the line of sight of the user U. May be.
このように、制御部121は、位置センサ130及び/又はHMDセンサ114からのデータに基づいて、仮想カメラ300の視野CVを特定することができる。ここで、HMD110を装着したユーザUが動くと、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の動きを示すデータに基づいて、仮想カメラ300の視野CVを変化させることができる。つまり、制御部121は、HMD110の動きに応じて、視野CVを変化させることができる。同様に、ユーザUの視線方向が変化すると、制御部121は、注視センサ140から送信されたユーザUの視線方向を示すデータに基づいて、仮想カメラ300の視野CVを移動させてもよい。つまり、制御部121は、ユーザUの視線方向の変化に応じて、視野CVを変化させてもよい。 As described above, the control unit 121 can specify the visual field CV of the virtual camera 300 based on the data from the position sensor 130 and / or the HMD sensor 114. Here, when the user U wearing the HMD 110 moves, the control unit 121 changes the visual field CV of the virtual camera 300 based on the data indicating the movement of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. be able to. That is, the control unit 121 can change the visual field CV according to the movement of the HMD 110. Similarly, when the line-of-sight direction of the user U changes, the control unit 121 may move the visual field CV of the virtual camera 300 based on data indicating the line-of-sight direction of the user U transmitted from the gaze sensor 140. That is, the control unit 121 may change the visual field CV in accordance with the change in the user U's line-of-sight direction.
次に、ステップS3において、制御部121は、HMD110の表示部112に表示される視野画像Vを示す視野画像データを生成する。具体的には、制御部121は、仮想空間200を規定する仮想空間データと、仮想カメラ300の視野CVとに基づいて、視野画像データを生成する。 Next, in step S <b> 3, the control unit 121 generates visual field image data indicating the visual field image V displayed on the display unit 112 of the HMD 110. Specifically, the control unit 121 generates visual field image data based on virtual space data defining the virtual space 200 and the visual field CV of the virtual camera 300.
次に、ステップS4において、制御部121は、視野画像データに基づいて、HMD110の表示部112に視野画像Vを表示する(図7参照)。このように、HMD110を装着しているユーザUの動きに応じて、仮想カメラ300の視野CVが変化し、HMD110の表示部112に表示される視野画像Vが変化するので、ユーザUは仮想空間200に没入することができる。 Next, in step S4, the control unit 121 displays the field image V on the display unit 112 of the HMD 110 based on the field image data (see FIG. 7). As described above, the visual field CV of the virtual camera 300 is changed according to the movement of the user U wearing the HMD 110, and the visual field image V displayed on the display unit 112 of the HMD 110 is changed. I can immerse myself in 200.
尚、仮想カメラ300は、左目用仮想カメラと右目用仮想カメラを含んでもよい。この場合、制御部121は、仮想空間データと左目用仮想カメラの視野に基づいて、左目用の視野画像を示す左目用視野画像データを生成する。さらに、制御部121は、仮想空間データと、右目用仮想カメラの視野に基づいて、右目用の視野画像を示す右目用視野画像データを生成する。その後、制御部121は、左目用視野画像データに基づいて、左目用表示部に左目用の視野画像を表示すると共に、右目用視野画像データに基づいて、右目用表示部に右目用の視野画像を表示する。このようにして、ユーザUは、左目用視野画像と右目用視野画像との間の視差により、視野画像を3次元的に視認することができる。尚、仮想カメラは、後述するように、ユーザによって操作されるアバターの目の位置に配置されてもよい。例えば、左目用仮想カメラは、アバターの左目に配置される一方で、右目用仮想カメラは、アバターの右目に配置されてもよい。 Note that the virtual camera 300 may include a left-eye virtual camera and a right-eye virtual camera. In this case, the control unit 121 generates left-eye view image data indicating the left-eye view image based on the virtual space data and the view of the left-eye virtual camera. Further, the control unit 121 generates right-eye view image data indicating a right-eye view image based on the virtual space data and the view of the right-eye virtual camera. Thereafter, the control unit 121 displays the left-eye field image on the left-eye display unit based on the left-eye field image data, and also displays the right-eye field image on the right-eye display unit based on the right-eye field image data. Is displayed. In this way, the user U can visually recognize the visual field image three-dimensionally due to the parallax between the left-eye visual field image and the right-eye visual field image. As will be described later, the virtual camera may be arranged at the position of the avatar eye operated by the user. For example, the left-eye virtual camera may be placed in the left eye of the avatar, while the right-eye virtual camera may be placed in the right eye of the avatar.
次に、図1に示すサーバ2のハードウェア構成について図9を参照して説明する。図9は、サーバ2のハードウェア構成を示す図である。図9に示すように、サーバ2は、制御部23と、記憶部22と、通信インターフェース21と、バス24とを備える。制御部23と、記憶部22と、通信インターフェース21は、バス24を介して互いに通信可能に接続されている。制御部23は、メモリとプロセッサを備えており、メモリは、例えば、ROM及びRAM等から構成されると共に、プロセッサは、例えば、CPU、MPU及び/又はGPUにより構成される。 Next, the hardware configuration of the server 2 shown in FIG. 1 will be described with reference to FIG. FIG. 9 is a diagram illustrating a hardware configuration of the server 2. As shown in FIG. 9, the server 2 includes a control unit 23, a storage unit 22, a communication interface 21, and a bus 24. The control unit 23, the storage unit 22, and the communication interface 21 are communicably connected to each other via a bus 24. The control unit 23 includes a memory and a processor. The memory is composed of, for example, a ROM and a RAM, and the processor is composed of, for example, a CPU, an MPU, and / or a GPU.
記憶部(ストレージ)22は、例えば、大容量のHDD等である。記憶部22は、本実施形態に係る情報処理方法の少なくとも一部をコンピュータに実行させるための制御プログラムや、ソーシャルVRを実現させるための制御プログラムを格納してもよい。また、記憶部22は、各ユーザを管理するためのユーザ管理情報や各種画像やオブジェクト(例えば、仮想部屋やアバター等)に関するデータを格納してもよい。さらに、記憶部22は、図16に示す映像コンテンツ料金テーブルや課金テーブルをデータベースとして格納してもよい。通信インターフェース21は、サーバ2を通信ネットワーク3に接続させるように構成されている。 The storage unit (storage) 22 is, for example, a large-capacity HDD. The storage unit 22 may store a control program for causing a computer to execute at least a part of the information processing method according to the present embodiment, or a control program for realizing a social VR. Moreover, the memory | storage part 22 may store the data regarding the user management information for managing each user, various images, and objects (for example, a virtual room, an avatar, etc.). Further, the storage unit 22 may store the video content fee table and the billing table shown in FIG. 16 as a database. The communication interface 21 is configured to connect the server 2 to the communication network 3.
次に、図1,10及び11を参照してユーザ端末1Aとユーザ端末1B間において各アバター4A,4Bの動きを同期させる処理の一例について説明する。図10の状態(a)は、ユーザAに提供される仮想空間200Aを示す図である。図10の状態(b)は、ユーザBに提供される仮想空間200Bを示す図である。図11は、ユーザ端末1Aとユーザ端末1B間において各アバター4A,4Bの動きを同期させる処理の一例を説明するためのシーケンス図である。本説明では、前提条件として、図10に示すように、ユーザ端末1A(ユーザA)に関連付けられたアバター4Aとユーザ端末1B(ユーザB)に関連付けられたアバター4Bがアバター4Aの仮想部屋7Aに配置されているものとする。つまり、ユーザBがユーザAの仮想部屋7Aを訪問したことで、ユーザAとユーザBは、ネットワーク3を介して一つの仮想部屋7Aを共有しているものとする。 Next, an example of processing for synchronizing the movements of the avatars 4A and 4B between the user terminal 1A and the user terminal 1B will be described with reference to FIGS. The state (a) in FIG. 10 is a diagram showing the virtual space 200A provided to the user A. The state (b) in FIG. 10 is a diagram showing the virtual space 200B provided to the user B. FIG. 11 is a sequence diagram for explaining an example of processing for synchronizing the movements of the avatars 4A and 4B between the user terminal 1A and the user terminal 1B. In this description, as a precondition, as shown in FIG. 10, an avatar 4A associated with the user terminal 1A (user A) and an avatar 4B associated with the user terminal 1B (user B) are added to the virtual room 7A of the avatar 4A. It is assumed that it is arranged. That is, it is assumed that the user A and the user B share one virtual room 7A via the network 3 when the user B visits the virtual room 7A of the user A.
図10の状態(a)に示すように、ユーザAの仮想空間200Aは、アバター4Aと、アバター4Bと、アバター4A,4Bが配置される仮想部屋7Aとを含む。アバター4Aは、ユーザAによって操作されると共に、ユーザAの動作に連動する。アバター4Bは、ユーザBによって操作されると共に、ユーザBの動作に連動する。例えば、ユーザA(ユーザB)のHMD110の位置に応じてアバター4A(4B)の位置が特定されてもよい。同様に、ユーザA(ユーザB)のHMD110の傾きに応じてアバター4A(4B)の顔の向きが特定されてもよい。さらに、外部コントローラの動作に応じてアバター4A(4B)の手の動作が特定されてもよい。注視センサ140によって検出されたユーザA(ユーザB)の視線方向に応じてアバター4A(4B)の視線(例えば、黒目の位置)が特定されてもよい。また、アバター4A(4B)の目には、仮想カメラ300(図6)が配置されてもよい。詳細には、アバター4A(4B)の左目には、左目用仮想カメラが配置されると共に、アバター4A(4B)の右目には、右目用仮想カメラが配置されてもよい。尚、以降の説明では、仮想カメラ300はアバター4A(4B)の目に配置されているものとする。 As shown in the state (a) of FIG. 10, the virtual space 200A of the user A includes an avatar 4A, an avatar 4B, and a virtual room 7A in which the avatars 4A and 4B are arranged. The avatar 4A is operated by the user A and interlocked with the operation of the user A. The avatar 4B is operated by the user B and interlocked with the operation of the user B. For example, the position of the avatar 4A (4B) may be specified according to the position of the HMD 110 of the user A (user B). Similarly, the face orientation of the avatar 4A (4B) may be specified according to the inclination of the HMD 110 of the user A (user B). Furthermore, the movement of the hand of the avatar 4A (4B) may be specified according to the movement of the external controller. The line of sight (for example, the position of the black eye) of the avatar 4A (4B) may be specified according to the line of sight of the user A (user B) detected by the gaze sensor 140. Moreover, the virtual camera 300 (FIG. 6) may be arrange | positioned at the eyes of avatar 4A (4B). Specifically, a left-eye virtual camera may be disposed on the left eye of the avatar 4A (4B), and a right-eye virtual camera may be disposed on the right eye of the avatar 4A (4B). In the following description, it is assumed that the virtual camera 300 is placed in the eyes of the avatar 4A (4B).
仮想部屋7Aは、仮想テーブル5Aと、映像コンテンツ(動画)を表示するように構成された仮想スクリーン6Aを含む。ユーザA(B)は、仮想スクリーン6Aに表示された映像コンテンツをHMD110に表示された視野画像を通じて楽しむことができる。ユーザAは、仮想空間200Aに配置される様々な種類の仮想部屋を保有してもよい。ユーザAによって保有された複数の仮想部屋は、例えば、ユーザ端末Aの記憶部123やサーバ2の記憶部22に格納されてもよい。例えば、ユーザAは、仮想空間に配置された所定の仮想部屋を別の仮想部屋に変更することができる。 The virtual room 7A includes a virtual table 5A and a virtual screen 6A configured to display video content (moving images). The user A (B) can enjoy the video content displayed on the virtual screen 6 </ b> A through the visual field image displayed on the HMD 110. User A may have various types of virtual rooms arranged in the virtual space 200A. The plurality of virtual rooms held by the user A may be stored, for example, in the storage unit 123 of the user terminal A or the storage unit 22 of the server 2. For example, the user A can change a predetermined virtual room arranged in the virtual space to another virtual room.
図10の状態(b)に示すように、ユーザBの仮想空間200Bは、アバター4Aと、アバター4Bと、アバター4A,4Bが配置される仮想部屋7Aとを含む。アバター4Bがアバター4Aの仮想部屋7Aを訪問する前には、アバター4Bの仮想部屋が仮想空間200Bに配置されている。 As shown in the state (b) of FIG. 10, the virtual space 200B of the user B includes an avatar 4A, an avatar 4B, and a virtual room 7A in which the avatars 4A and 4B are arranged. Before the avatar 4B visits the virtual room 7A of the avatar 4A, the virtual room of the avatar 4B is arranged in the virtual space 200B.
次に、図11を参照すると、ステップS10において、ユーザ端末1Aの制御部121は、アバター4Aの制御情報を生成した上で、当該生成したアバター4Aの制御情報をサーバ2に送信する。その後、サーバ2の制御部23は、ユーザ端末1Aからアバター4Aの制御情報を受信する(ステップS11)。ここで、アバター4Aの制御情報は、アバター4Aの動作を制御するために必要な情報であって、例えば、アバター4Aの位置に関する情報と、アバター4Aの顔の向きに関する情報と、アバター4Aの手の動作に関する情報と、アバター4Aの視線に関する情報とを含む。 Next, referring to FIG. 11, in step S <b> 10, the control unit 121 of the user terminal 1 </ b> A generates control information of the avatar 4 </ b> A and transmits the generated control information of the avatar 4 </ b> A to the server 2. Thereafter, the control unit 23 of the server 2 receives the control information of the avatar 4A from the user terminal 1A (step S11). Here, the control information of the avatar 4A is information necessary for controlling the operation of the avatar 4A. For example, the information related to the position of the avatar 4A, the information related to the face direction of the avatar 4A, and the hand of the avatar 4A. And information regarding the movement of the avatar 4A.
次に、ステップS12において、ユーザ端末1Bの制御部121は、アバター4Bの制御情報を生成した上で、当該生成したアバター4Bの制御情報をサーバ2に送信する。その後、サーバ2の制御部23は、ユーザ端末1Bからアバター4Bの制御情報を受信する(ステップS13)。ここで、アバター4Bの制御情報は、アバター4Bの動作を制御するために必要な情報であって、例えば、アバター4Bの位置に関する情報と、アバター4Bの顔の向きに関する情報と、アバター4Bの手の動作に関する情報と、アバター4Bの視線に関する情報とを含む。 Next, in step S <b> 12, the control unit 121 of the user terminal 1 </ b> B generates control information for the avatar 4 </ b> B and transmits the generated control information for the avatar 4 </ b> B to the server 2. Thereafter, the control unit 23 of the server 2 receives the control information of the avatar 4B from the user terminal 1B (step S13). Here, the control information of the avatar 4B is information necessary for controlling the operation of the avatar 4B. For example, the information related to the position of the avatar 4B, the information related to the face direction of the avatar 4B, and the hand of the avatar 4B. And information regarding the movement of the avatar 4B.
次に、サーバ2は、アバター4Bの制御情報をユーザ端末1Aに送信する一方(ステップS14)、アバター4Aの制御情報をユーザ端末1Bに送信する(ステップS18)。その後、ユーザ端末1Aの制御部121は、ステップS15においてアバター4Bの制御情報を受信した後に、アバター4A,4Bの制御情報に基づいて、仮想空間200A(図10の状態(a)参照)を示す仮想空間データを更新する(ステップS16)。例えば、アバター4A,4Bが移動した場合、移動後のアバター4A,4Bと、仮想部屋7Aとを含む仮想空間を示す仮想空間データが生成される。その後、ユーザ端末1Aの制御部121は、HMD110の位置や傾きに応じて仮想カメラ300の視野CV(図7参照)を特定した上で、更新された仮想空間データと、仮想カメラ300の視野CVとに基づいて、HMD110に表示される視野画像を更新する(ステップS17)。 Next, the server 2 transmits the control information of the avatar 4B to the user terminal 1A (step S14), and transmits the control information of the avatar 4A to the user terminal 1B (step S18). Then, after receiving the control information of the avatar 4B in step S15, the control unit 121 of the user terminal 1A indicates the virtual space 200A (see the state (a) in FIG. 10) based on the control information of the avatars 4A and 4B. The virtual space data is updated (step S16). For example, when the avatars 4A and 4B move, virtual space data indicating a virtual space including the moved avatars 4A and 4B and the virtual room 7A is generated. Thereafter, the control unit 121 of the user terminal 1A specifies the visual field CV (see FIG. 7) of the virtual camera 300 according to the position and inclination of the HMD 110, and then updates the virtual space data and the visual field CV of the virtual camera 300. Based on the above, the visual field image displayed on the HMD 110 is updated (step S17).
一方、ユーザ端末1Bの制御部121は、ステップS19においてアバター4Aの制御情報を受信した後に、アバター4A,4Bの制御情報に基づいて、仮想空間200B(図10の状態(b)参照)を示す仮想空間データを更新する(ステップS20)。その後、ユーザ端末1Bの制御部121は、HMD110の位置や傾きに応じて仮想カメラ300の視野CVを特定した上で、更新された仮想空間データと、仮想カメラ300の視野CVとに基づいて、HMD110に表示される視野画像を更新する(ステップS21)。 On the other hand, after receiving the control information of the avatar 4A in step S19, the control unit 121 of the user terminal 1B shows the virtual space 200B (see the state (b) in FIG. 10) based on the control information of the avatars 4A and 4B. The virtual space data is updated (step S20). Thereafter, the control unit 121 of the user terminal 1B specifies the visual field CV of the virtual camera 300 according to the position and inclination of the HMD 110, and then, based on the updated virtual space data and the visual field CV of the virtual camera 300, The visual field image displayed on the HMD 110 is updated (step S21).
本実施形態では、ユーザ端末1A,1Bがサーバ2にアバター4Aの制御情報とアバター4Bの制御情報をそれぞれ送信した後に、サーバ2がアバター4Aの制御情報をユーザ端末1Bに送信する一方、アバター4Bの制御情報をユーザ端末1Aに送信する。このように、ユーザ端末1Aとユーザ端末1B間において各アバター4A,4Bの動きを同期させることが可能となる。尚、図11に示す各処理は、1フレーム毎に実行されてもよい。 In the present embodiment, after the user terminals 1A and 1B transmit the control information of the avatar 4A and the control information of the avatar 4B to the server 2, the server 2 transmits the control information of the avatar 4A to the user terminal 1B, while the avatar 4B. Is transmitted to the user terminal 1A. In this way, it is possible to synchronize the movements of the avatars 4A and 4B between the user terminal 1A and the user terminal 1B. Each process shown in FIG. 11 may be executed for each frame.
また、ユーザ端末1A〜1C間において各アバター4A〜4Cの動きを同期させる場合、ユーザ端末1Aは、アバター4Aの制御情報をサーバ2に送信し、ユーザ端末1Bは、アバター4Bの制御情報をサーバ2に送信し、ユーザ端末1Cは、アバター4Cの制御情報をサーバ2に送信する。その後、サーバ2は、アバター4A,4Cの制御情報をユーザ端末1Bに送信し、アバター4B,4Cの制御情報をユーザ端末1Aに送信し、アバター4A,4Bの制御情報をユーザ端末1Cに送信する。 Moreover, when synchronizing the motion of each avatar 4A-4C between user terminal 1A-1C, the user terminal 1A transmits the control information of the avatar 4A to the server 2, and the user terminal 1B transmits the control information of the avatar 4B to the server. 2, the user terminal 1 </ b> C transmits the control information of the avatar 4 </ b> C to the server 2. Thereafter, the server 2 transmits control information of the avatars 4A and 4C to the user terminal 1B, transmits control information of the avatars 4B and 4C to the user terminal 1A, and transmits control information of the avatars 4A and 4B to the user terminal 1C. .
次に、図12A−図14を参照することで本実施形態に係る情報処理方法について説明する。図12Aは、本実施形態に係る情報処理方法の一例を説明するためのシーケンス図(その1)である。図12Bは、本実施形態に係る情報処理方法の一例を説明するためのシーケンス図(その2)である。図13の状態(a)は、ユーザAに提供される仮想空間200Aを示す図(アバター4Cの訪問前)である。図13の状態(b)は、ユーザCに提供される仮想空間200Cを示す図(アバター4Cの訪問前)である。図14の状態(a)は、アバター4Cがアバター4Aの仮想部屋を訪問することで、アバター4Aの仮想部屋が拡大された様子を示す図である。図14の状態(b)は、アバター4Cがアバター4Aの仮想部屋を訪問したときに、アバター4Cの仮想空間が更新された様子を示す図である。 Next, the information processing method according to the present embodiment will be described with reference to FIGS. 12A to 14. FIG. 12A is a sequence diagram (part 1) for explaining an example of the information processing method according to the present embodiment. FIG. 12B is a sequence diagram (part 2) for explaining an example of the information processing method according to the present embodiment. The state (a) in FIG. 13 is a diagram showing the virtual space 200A provided to the user A (before the visit of the avatar 4C). The state (b) of FIG. 13 is a diagram showing the virtual space 200C provided to the user C (before the visit of the avatar 4C). The state (a) of FIG. 14 is a diagram illustrating a state in which the virtual room of the avatar 4A is expanded by the avatar 4C visiting the virtual room of the avatar 4A. The state (b) of FIG. 14 is a diagram illustrating a state in which the virtual space of the avatar 4C is updated when the avatar 4C visits the virtual room of the avatar 4A.
本説明では、初期条件として、図13の状態(a)に示すように、アバター4Aとアバター4Bがアバター4Aの仮想部屋7Aに配置されているものとする。つまり、アバター4Bがアバター4Aの仮想部屋7Aを訪問しているものとする。一方、図13の状態(b)に示すように、ユーザ端末1C(ユーザC)に関連付けられたアバター4Cがアバター4Cの仮想部屋7Cに配置されているものとする。その後、アバター4CがユーザAの仮想部屋7Aを訪問するものとする。 In this description, as an initial condition, it is assumed that the avatar 4A and the avatar 4B are arranged in the virtual room 7A of the avatar 4A as shown in the state (a) of FIG. That is, it is assumed that the avatar 4B is visiting the virtual room 7A of the avatar 4A. On the other hand, as shown in the state (b) of FIG. 13, it is assumed that the avatar 4C associated with the user terminal 1C (user C) is arranged in the virtual room 7C of the avatar 4C. Thereafter, it is assumed that the avatar 4C visits the virtual room 7A of the user A.
図13の状態(a)に示すように、ユーザAの仮想空間200A(第1仮想空間)は、ユーザ端末1A(第1ユーザ端末)に関連付けられたアバター4A(第1アバター)と、ユーザ端末1Bに関連付けられたアバター4Bと、仮想部屋7A(第1仮想部屋)とを含む。既に述べたように、アバター4Aは、ユーザA(第1ユーザ)によって操作されると共に、ユーザAの動作に連動する。アバター4Bは、ユーザBによって操作されると共に、ユーザBの動作に連動する。仮想部屋7Aは、仮想テーブル5Aと、仮想スクリーン6A(第1仮想スクリーン)を含む。仮想部屋7AのサイズはS(小)サイズである。仮想空間200Aを示す仮想空間データ(第1仮想空間データ)は、ユーザ端末1Aの制御部121によって生成される。 As shown in the state (a) of FIG. 13, the virtual space 200A (first virtual space) of the user A includes an avatar 4A (first avatar) associated with the user terminal 1A (first user terminal) and the user terminal. It includes an avatar 4B associated with 1B and a virtual room 7A (first virtual room). As already described, the avatar 4A is operated by the user A (first user) and interlocked with the operation of the user A. The avatar 4B is operated by the user B and interlocked with the operation of the user B. The virtual room 7A includes a virtual table 5A and a virtual screen 6A (first virtual screen). The size of the virtual room 7A is S (small) size. Virtual space data (first virtual space data) indicating the virtual space 200A is generated by the control unit 121 of the user terminal 1A.
また、図13の状態(b)に示すように、ユーザCの仮想空間200Cは、ユーザ端末1C(第2ユーザ端末)に関連付けられたアバター4C(第2アバター)と、アバター4Cが配置される仮想部屋7Cとを含む。アバター4Cは、ユーザC(第2ユーザ)によって操作されると共に、ユーザCの動作に連動する。仮想空間200Cを示す仮想空間データは、ユーザ端末1Cの制御部121によって生成される。 Moreover, as shown in the state (b) of FIG. 13, in the virtual space 200C of the user C, an avatar 4C (second avatar) associated with the user terminal 1C (second user terminal) and an avatar 4C are arranged. Virtual room 7C. The avatar 4C is operated by the user C (second user) and interlocked with the operation of the user C. Virtual space data indicating the virtual space 200C is generated by the control unit 121 of the user terminal 1C.
次に、図12Aを参照すると、ステップS30において、ユーザCは、アバターAの仮想部屋7Aを訪問するための所定の操作入力を実行する。例えば、ユーザCは、HMD110上に表示されたメニュー画面中の「アバターAの仮想部屋を訪問する」等の項目を選択する。その後、ユーザ端末1Cの制御部121は、ユーザCからの操作入力に従って、アバター4Cがアバター4Aの仮想部屋7Aを訪問することを要求する訪問要求信号を生成した上で、当該訪問要求信号をサーバ2に送信する。 Next, referring to FIG. 12A, in step S30, the user C performs a predetermined operation input for visiting the virtual room 7A of the avatar A. For example, the user C selects an item such as “Visit a virtual room of avatar A” in a menu screen displayed on the HMD 110. Thereafter, the control unit 121 of the user terminal 1C generates a visit request signal that requests that the avatar 4C visit the virtual room 7A of the avatar 4A according to the operation input from the user C, and then transmits the visit request signal to the server 2 to send.
次に、ステップS31において、サーバ2の制御部23は、訪問要求信号をユーザ端末1Cから受信する。その後、制御部23は、仮想部屋7Aに現在配置されているアバターと仮想部屋7Aをこれから訪問するアバターとの総数Nに応じて、仮想部屋7Aを更新するべきか、つまり、仮想部屋7Aを拡大するべきかどうかを判定する(ステップS32)。仮想部屋に現在配置されているアバターと当該仮想部屋をこれから訪問するアバターとの総数Nと仮想部屋のサイズとの間の関係は、例えば、以下の通りである。
表1に示すアバターの総数Nと仮想部屋のサイズとの間の関係を示すテーブルは、サーバ2の記憶部22に記憶されてもよい。本例においては、仮想部屋7Aに現在配置されているアバターの数が2つ(アバター4A,4B)であると共に、仮想部屋7Aをこれから訪問するアバターの数が1つ(アバター4C)であることから、制御部23は、アバターの総数Nを3として特定する。その後、制御部23は、アバターの総数N=3と仮想部屋のサイズとの間の関係を示すテーブルに基づいて、アバター4Aの仮想部屋のサイズをSサイズからMサイズに変更すべきである、つまり、アバター4Aの仮想部屋のサイズを拡大すべきであると判定する(ステップS32でYES)。 A table indicating the relationship between the total number N of avatars and the size of the virtual room shown in Table 1 may be stored in the storage unit 22 of the server 2. In this example, the number of avatars currently arranged in the virtual room 7A is two (avatars 4A and 4B), and the number of avatars that will visit the virtual room 7A from now on is one (avatar 4C). Therefore, the control unit 23 specifies the total number N of avatars as 3. Thereafter, the control unit 23 should change the size of the virtual room of the avatar 4A from the S size to the M size based on the table indicating the relationship between the total number of avatars N = 3 and the size of the virtual room. That is, it is determined that the size of the virtual room of the avatar 4A should be enlarged (YES in step S32).
その後、制御部23は、Mサイズの仮想部屋70A(図14参照)を記憶部22から取得した上で、Mサイズの仮想部屋70A(拡大された第1仮想部屋)と、アバター4A,4Bと、アバター4A,4Bの制御情報をユーザ端末1Cに送信する(ステップS33)。尚、図12中には記載されていないが、サーバ2は、アバター4A〜4Cの制御情報を1フレーム毎に取得しているものとする。また、仮想部屋7Aは、アバター4AのSサイズの仮想部屋であると共に、仮想部屋70Aは、アバター4AのMサイズの仮想部屋である。 Thereafter, the control unit 23 acquires the M-size virtual room 70A (see FIG. 14) from the storage unit 22, and then the M-size virtual room 70A (the enlarged first virtual room) and the avatars 4A and 4B. The control information of the avatars 4A and 4B is transmitted to the user terminal 1C (step S33). In addition, although not described in FIG. 12, the server 2 shall acquire the control information of avatar 4A-4C for every frame. The virtual room 7A is an S size virtual room of the avatar 4A, and the virtual room 70A is an M size virtual room of the avatar 4A.
ステップS34において、ユーザ端末1Cの制御部121は、仮想部屋70Aと、アバター4A,4Bと、アバター4A,4Bの制御情報を受信する。その後、制御部121は、仮想部屋70Aと、アバター4A〜4Cと、アバター4A〜4Cの制御情報に基づいて、仮想空間200C(図13の状態(b)参照)を示す仮想空間データを更新する(ステップS35)。具体的には、制御部121は、図14の状態(b)に示す仮想空間220Cを示す仮想空間データを生成する。図14の状態(b)に示すように、仮想空間220Cは、アバター4A,4B,4Cと、仮想部屋70Aとを含む。仮想部屋70Aは、仮想テーブル5Aと、仮想スクリーン60A(拡大された第1仮想スクリーン)とを含む。 In Step S34, control part 121 of user terminal 1C receives control information of virtual room 70A, avatars 4A and 4B, and avatars 4A and 4B. Thereafter, the control unit 121 updates the virtual space data indicating the virtual space 200C (see the state (b) in FIG. 13) based on the control information of the virtual room 70A, the avatars 4A to 4C, and the avatars 4A to 4C. (Step S35). Specifically, the control unit 121 generates virtual space data indicating the virtual space 220C shown in the state (b) of FIG. As shown in the state (b) of FIG. 14, the virtual space 220C includes avatars 4A, 4B, 4C and a virtual room 70A. The virtual room 70A includes a virtual table 5A and a virtual screen 60A (enlarged first virtual screen).
その後、ユーザ端末1Cの制御部121は、HMD110の位置や傾きに応じて仮想カメラ300の視野CV(図7参照)を特定した上で、更新された仮想空間データと、仮想カメラ300の視野CVとに基づいて、HMD110に表示される視野画像を更新する(ステップS36)。このように、ユーザCは、アバターAの仮想部屋7Aを訪問するための所定の操作入力を実行すると、ユーザCに提示される仮想空間が仮想部屋7Cを含む仮想空間200C(図13の状態(b)参照)からアバター4Aの仮想部屋70Aを含む仮想空間220C(図14の状態(b)参照)に変更されるので、アバター4Cはアバター4Aの仮想部屋を訪問することが可能となる。 Thereafter, the control unit 121 of the user terminal 1C specifies the visual field CV (see FIG. 7) of the virtual camera 300 according to the position and inclination of the HMD 110, and then the updated virtual space data and the visual field CV of the virtual camera 300. Based on the above, the visual field image displayed on the HMD 110 is updated (step S36). As described above, when the user C performs a predetermined operation input for visiting the virtual room 7A of the avatar A, the virtual space presented to the user C includes the virtual space 200C including the virtual room 7C (the state in FIG. 13 ( b)) to the virtual space 220C including the virtual room 70A of the avatar 4A (see the state (b) of FIG. 14), the avatar 4C can visit the virtual room of the avatar 4A.
一方、ステップS37において、制御部23は、Mサイズの仮想部屋70A(拡大された第1仮想部屋)と、アバター4Cと、アバター4C,4Bの制御情報をユーザ端末1Aに送信する。次に、ステップS38において、ユーザ端末1Aの制御部121は、仮想部屋70Aと、アバター4Cと、アバター4C,4Bの制御情報を受信する。その後、制御部121は、仮想部屋70Aと、アバター4A〜4Cと、アバター4A〜4Cの制御情報に基づいて、仮想空間200A(図13の状態(a)を参照)を示す仮想空間データを更新する(ステップS39)。具体的には、制御部121は、図14の状態(a)に示す仮想空間220Aを示す仮想空間データを生成する。図14の状態(a)に示すように、仮想空間220Aは、アバター4A,4B,4Cと、仮想部屋70Aとを含む。仮想部屋70Aは、テーブル5Aと、仮想スクリーン60A(拡大された第1仮想スクリーン)とを含む。 On the other hand, in step S37, the control unit 23 transmits the control information of the M size virtual room 70A (the enlarged first virtual room), the avatar 4C, and the avatars 4C and 4B to the user terminal 1A. Next, in step S38, the control unit 121 of the user terminal 1A receives the control information of the virtual room 70A, the avatar 4C, and the avatars 4C and 4B. Thereafter, the control unit 121 updates the virtual space data indicating the virtual space 200A (see the state (a) in FIG. 13) based on the control information of the virtual room 70A, the avatars 4A to 4C, and the avatars 4A to 4C. (Step S39). Specifically, the control unit 121 generates virtual space data indicating the virtual space 220A shown in the state (a) of FIG. As shown in the state (a) of FIG. 14, the virtual space 220A includes avatars 4A, 4B, 4C and a virtual room 70A. The virtual room 70A includes a table 5A and a virtual screen 60A (enlarged first virtual screen).
図13の状態(a)及び図14の状態(a)に示すように、アバター4Aの仮想部屋のサイズが拡大されるようにアバター4Aの仮想部屋が仮想部屋7Aから仮想部屋70Aに更新されると、映像コンテンツを表示するための仮想スクリーンも仮想スクリーン6A(Sサイズ)から仮想スクリーン60A(Mサイズ)に更新される。つまり、仮想部屋のサイズの拡大に応じて、仮想部屋に配置される仮想スクリーンのサイズも拡大される。このように、アバターの総数Nの増加に伴い、仮想部屋のサイズが拡大されると共に、仮想スクリーンのサイズも拡大されるので、多数のユーザ(アバター)が同一の仮想部屋内で仮想スクリーンに表示される同一の映像コンテンツの視聴を楽しむことを促すことができる。したがって、ユーザ間における仮想部屋の訪問(ソーシャルVR)を促進することができる。尚、仮想部屋のサイズの拡大に応じて、仮想部屋に配置される家具(例えば、テーブル)のサイズも拡大されてもよい。 As shown in the state (a) of FIG. 13 and the state (a) of FIG. 14, the virtual room of the avatar 4A is updated from the virtual room 7A to the virtual room 70A so that the size of the virtual room of the avatar 4A is enlarged. Then, the virtual screen for displaying the video content is also updated from the virtual screen 6A (S size) to the virtual screen 60A (M size). That is, as the size of the virtual room increases, the size of the virtual screen arranged in the virtual room also increases. Thus, as the total number N of avatars increases, the size of the virtual room is increased and the size of the virtual screen is also increased, so that a large number of users (avatars) are displayed on the virtual screen in the same virtual room. To enjoy viewing the same video content. Therefore, it is possible to promote a virtual room visit (social VR) between users. Note that the size of furniture (for example, a table) arranged in the virtual room may be increased in accordance with the increase in the size of the virtual room.
また、図13の状態(a)及び図14の状態(a)に示すように、アバター4A,4Bと仮想部屋7Aとの間の相対的位置関係が維持されるように、アバター4A,4Bは仮想部屋70Aに配置される。具体的には、仮想部屋70Aの中心点(又は、仮想部屋70Aに設定された座標空間)に対するアバター4A,4Bの相対位置は、仮想部屋7Aの中心点(又は、仮想部屋7Aに設定された座標空間)に対するアバター4A、4Bの相対位置と略一致する。このように、アバター4Aの仮想部屋が仮想部屋7Aから仮想部屋70Aに更新される前後で、ユーザAの視点(仮想カメラが配置されるアバター4Aの位置)が大きく変更されることが防止されるので、ユーザAのVR酔いを好適に防止することが可能となる。尚、アバター4Aの仮想部屋を訪問するアバター4Cは、仮想部屋70Aの所定位置(本例では、アバター4Aとアバター4Bの間の所定位置)に配置されてもよい。 Further, as shown in the state (a) of FIG. 13 and the state (a) of FIG. 14, the avatars 4A and 4B are maintained so that the relative positional relationship between the avatars 4A and 4B and the virtual room 7A is maintained. Arranged in the virtual room 70A. Specifically, the relative positions of the avatars 4A and 4B with respect to the center point of the virtual room 70A (or the coordinate space set for the virtual room 70A) are set to the center point of the virtual room 7A (or the virtual room 7A). It substantially matches the relative position of the avatars 4A and 4B with respect to the coordinate space. As described above, the viewpoint of the user A (the position of the avatar 4A where the virtual camera is arranged) is prevented from being largely changed before and after the virtual room of the avatar 4A is updated from the virtual room 7A to the virtual room 70A. Therefore, it is possible to suitably prevent user A's VR sickness. The avatar 4C visiting the virtual room of the avatar 4A may be arranged at a predetermined position (in this example, a predetermined position between the avatar 4A and the avatar 4B) of the virtual room 70A.
図12Aに戻ると、その後、ユーザ端末1Aの制御部121は、HMD110の位置や傾きに応じて仮想カメラ300の視野CV(図7参照)を特定した上で、更新された仮想空間データと、仮想カメラ300の視野CVとに基づいて、HMD110に表示される視野画像を更新する(ステップS40)。 Returning to FIG. 12A, after that, the control unit 121 of the user terminal 1 </ b> A specifies the visual field CV (see FIG. 7) of the virtual camera 300 according to the position and inclination of the HMD 110, and the updated virtual space data, Based on the visual field CV of the virtual camera 300, the visual field image displayed on the HMD 110 is updated (step S40).
尚、図12Aでは、説明の便宜上、サーバ2と、ユーザ端末1A,1Cの動作処理のみが説明されているが、サーバ2は、ユーザ端末1Bについても仮想部屋70Aと、アバターCと、アバターC,Aの制御情報を送信する点に留意されたい。つまり、ユーザBに提供される仮想空間も更新される。当該更新された仮想空間は、テーブル5Aと仮想スクリーン60Aを有する仮想部屋70Aと、アバター4A〜4Cとを含む。 In FIG. 12A, only the operation process of the server 2 and the user terminals 1A and 1C is described for convenience of explanation, but the server 2 also includes the virtual room 70A, the avatar C, and the avatar C for the user terminal 1B. , A control information is transmitted. That is, the virtual space provided to the user B is also updated. The updated virtual space includes a virtual room 70A having a table 5A and a virtual screen 60A, and avatars 4A to 4C.
次に、図12Bを参照して、アバター4Aの仮想部屋のサイズを拡大すべきでないと判定する(ステップS32でNO)場合における処理について説明する。例えば、前提条件として、ユーザAの仮想部屋7Aにアバター4Bがいない場合、サーバ2の制御部23は、アバターの総数Nを2として特定する。そして、制御部23は、アバターの総数N=2と、アバターの総数Nと仮想部屋のサイズとの間の関係を示すテーブル(表1参照)に基づいて、アバター4Aの仮想部屋のサイズを拡大すべきでないと判定する(ステップS32でNO)。その後、制御部23は、Sサイズの仮想部屋7A(第1仮想部屋)と、アバター4Aと、アバター4Aの制御情報をユーザ端末1Cに送信する(ステップS41)。 Next, with reference to FIG. 12B, the process in the case where it is determined that the size of the virtual room of the avatar 4A should not be increased (NO in step S32) will be described. For example, as a precondition, when there is no avatar 4B in the virtual room 7A of the user A, the control unit 23 of the server 2 specifies the total number N of avatars as 2. And the control part 23 expands the size of the virtual room of avatar 4A based on the table (refer Table 1) which shows the relationship between the total number N = 2 of avatars, and the total number N of avatars, and the size of a virtual room. It is determined that it should not be performed (NO in step S32). Thereafter, the control unit 23 transmits control information of the S size virtual room 7A (first virtual room), the avatar 4A, and the avatar 4A to the user terminal 1C (step S41).
次に、ユーザ端末1Cの制御部121は、仮想部屋7Aと、アバター4Aと、アバター4Aの制御情報を受信した後、仮想部屋7Aと、アバター4A,4Cと、アバター4A,4Cの制御情報に基づいて、仮想空間データを更新する(ステップS43)。具体的には、制御部121は、アバター4A,4Cと、仮想部屋7Aとを含む仮想空間を示す仮想空間データを生成する。その後、制御部121は、更新された仮想空間データと、仮想カメラ300の視野CVとに基づいて、HMD110に表示される視野画像を更新する(ステップS44)。 Next, after receiving the control information of the virtual room 7A, the avatar 4A, and the avatar 4A, the control unit 121 of the user terminal 1C uses the control information of the virtual room 7A, the avatars 4A and 4C, and the avatars 4A and 4C. Based on this, the virtual space data is updated (step S43). Specifically, the control unit 121 generates virtual space data indicating a virtual space including the avatars 4A and 4C and the virtual room 7A. Thereafter, the control unit 121 updates the visual field image displayed on the HMD 110 based on the updated virtual space data and the visual field CV of the virtual camera 300 (step S44).
一方、ステップS45において、制御部23は、アバター4Cと、アバター4Cの制御情報をユーザ端末1Aに送信する。ステップS46において、ユーザ端末1Aの制御部121は、アバター4Cと、アバター4Cの制御情報を受信する。その後、制御部121は、仮想部屋7Aと、アバター4A,4Cと、アバター4A,4Cの制御情報に基づいて、仮想空間データを更新する(ステップS47)。具体的には、制御部121は、アバター4A,4Cと、仮想部屋7Aとを含む仮想空間を示す仮想空間データを生成する。その後、制御部121は、更新された仮想空間データと、仮想カメラ300の視野CVとに基づいて、HMD110に表示される視野画像を更新する(ステップS48)。このように、本実施形態に係る一連の処理が実行される。 On the other hand, in step S45, the control unit 23 transmits the avatar 4C and the control information of the avatar 4C to the user terminal 1A. In step S46, the control unit 121 of the user terminal 1A receives the avatar 4C and the control information of the avatar 4C. Thereafter, the control unit 121 updates the virtual space data based on the control information of the virtual room 7A, the avatars 4A and 4C, and the avatars 4A and 4C (step S47). Specifically, the control unit 121 generates virtual space data indicating a virtual space including the avatars 4A and 4C and the virtual room 7A. Thereafter, the control unit 121 updates the visual field image displayed on the HMD 110 based on the updated virtual space data and the visual field CV of the virtual camera 300 (step S48). In this way, a series of processing according to the present embodiment is executed.
本実施形態によれば、アバター4Aの仮想部屋7Aに現在配置されているアバターと仮想部屋7Aを訪問するアバターとの総数Nに応じて、アバター4Aの仮想部屋を更新するべきかどうかが判定され、アバター4Aの仮想部屋を更新するべきであると判定した場合に、アバター4Aの仮想部屋が仮想部屋7A(Sサイズ)から仮想部屋70A(Mサイズ)に更新される。このように、アバターの総数Nに応じて仮想部屋のサイズが拡大されるので、Sサイズの仮想部屋7Aに多数のアバターが配置されるといった各ユーザA〜Cにとって不快な状況を防ぐことが可能となる。したがって、ソーシャルVRにおけるユーザの仮想体験を改善することが可能な情報処理方法を提供することができる。 According to the present embodiment, whether or not the virtual room of the avatar 4A should be updated is determined according to the total number N of the avatars currently arranged in the virtual room 7A of the avatar 4A and the avatars that visit the virtual room 7A. When it is determined that the virtual room of the avatar 4A should be updated, the virtual room of the avatar 4A is updated from the virtual room 7A (S size) to the virtual room 70A (M size). As described above, since the size of the virtual room is expanded according to the total number N of avatars, it is possible to prevent an unpleasant situation for each of the users A to C such that a large number of avatars are arranged in the S-size virtual room 7A. It becomes. Therefore, it is possible to provide an information processing method that can improve the virtual experience of the user in the social VR.
尚、仮想部屋70Aにアバター4A,4B,4Cが配置された状態で、アバター4Cが仮想部屋70Aを退出する場合、アバター4Aの仮想部屋がMサイズの仮想部屋70AからSサイズの仮想部屋7Aに更新されてもよい。つまり、アバターの総数Nに応じてアバター4Aの仮想部屋のサイズが縮小されてもよい。 When the avatar 4C leaves the virtual room 70A in a state where the avatars 4A, 4B, and 4C are arranged in the virtual room 70A, the virtual room of the avatar 4A is changed from the M size virtual room 70A to the S size virtual room 7A. It may be updated. That is, the size of the virtual room of the avatar 4A may be reduced according to the total number N of avatars.
また、表1に示したアバターの総数Nと仮想部屋のサイズとの間の関係はあくまでも一例であって、アバターの総数Nが1つずつ増加するに従って仮想部屋のサイズが徐々に拡大されてもよい。 In addition, the relationship between the total number N of avatars and the size of the virtual room shown in Table 1 is merely an example, and the size of the virtual room may be gradually increased as the total number N of avatars increases by one. Good.
また、本実施形態では、仮想空間データ及び視野画像データがユーザ端末1A〜1C側で生成されているが、これらのデータはサーバ2側で生成されてもよい。この場合、各ユーザ端末1A〜1Cは、サーバ2から送信された視野画像データに基づいて、HMD110に視野画像を表示する。 Moreover, in this embodiment, although virtual space data and visual field image data are produced | generated by the user terminals 1A-1C side, these data may be produced | generated by the server 2 side. In this case, each user terminal 1 </ b> A to 1 </ b> C displays a field image on the HMD 110 based on the field image data transmitted from the server 2.
次に、ユーザA,B間で仮想スクリーン6Aに表示される映像コンテンツを視聴するための処理について図10、図15及び図16を参照して説明する。図15は、映像コンテンツを視聴する処理の一例を説明するためのシーケンス図である。図16の状態(a)は、映像コンテンツ料金テーブルの一例を示す図である。図16の状態(b)は、課金テーブルの一例を示す図である。本説明では、前提条件として、図10に示すように、アバター4Aとアバター4Bがアバター4Aの仮想部屋7Aに配置されているものとする。つまり、ユーザAとユーザBは、通信ネットワーク3を介して一つの仮想部屋7Aを共有しているものとする。 Next, processing for viewing video content displayed on the virtual screen 6A between the users A and B will be described with reference to FIGS. 10, 15 and 16. FIG. FIG. 15 is a sequence diagram for explaining an example of processing for viewing video content. The state (a) in FIG. 16 is a diagram showing an example of a video content fee table. The state (b) in FIG. 16 is a diagram illustrating an example of a billing table. In this description, as a precondition, it is assumed that an avatar 4A and an avatar 4B are arranged in a virtual room 7A of the avatar 4A as shown in FIG. That is, it is assumed that the user A and the user B share one virtual room 7A via the communication network 3.
図15に示すように、ステップS50において、ユーザAは、映像コンテンツV1を視聴するための所定の操作入力を実行する。例えば、ユーザAは、HMD110上に表示されたメニュー画面中の「映像コンテンツV1を視聴する」等の項目を選択する。その後、ユーザ端末1Aの制御部121は、ユーザAからの操作入力に従って、映像コンテンツV1の視聴を要求するための視聴要求信号を生成した上で、当該視聴要求信号をサーバ2に送信する。 As shown in FIG. 15, in step S50, the user A executes a predetermined operation input for viewing the video content V1. For example, the user A selects an item such as “view video content V1” in the menu screen displayed on the HMD 110. Thereafter, the control unit 121 of the user terminal 1 </ b> A generates a viewing request signal for requesting viewing of the video content V <b> 1 in accordance with an operation input from the user A, and transmits the viewing request signal to the server 2.
次に、サーバ2の制御部23は、視聴要求信号をユーザ端末1Aから受信する(ステップS51)。その後、制御部23は、記憶部22(又は通信ネットワーク3上に配置された映像コンテンツを保存するサーバ)から映像コンテンツV1を取得した上で、取得した映像コンテンツV1をユーザ端末1A,1Bに送信する(ステップS52)。尚、サーバ2は、時間分割された映像コンテンツV1を送信してもよい。つまり、サーバ2は、映像コンテンツV1をストリーミング配信してもよい。 Next, the control unit 23 of the server 2 receives the viewing request signal from the user terminal 1A (step S51). Thereafter, the control unit 23 acquires the video content V1 from the storage unit 22 (or a server that stores the video content arranged on the communication network 3), and then transmits the acquired video content V1 to the user terminals 1A and 1B. (Step S52). Note that the server 2 may transmit the time-divided video content V1. That is, the server 2 may stream the video content V1.
次に、ユーザ端末1Aの制御部121は、映像コンテンツV1をサーバ2から受信する(ステップS53)。その後、制御部121は、映像コンテンツV1と、仮想部屋7Aと、アバター4A,4Bに基づいて、仮想空間データを更新する(ステップS54)。具体的には、制御部121は、テクスチャマッピングにより仮想スクリーン6A上に映像コンテンツV1を表示する。このように、制御部121は、映像コンテンツV1が表示された仮想スクリーン6Aを含む仮想空間200Aを示す仮想空間データを生成する。その後、制御部121は、更新された仮想空間データと、仮想カメラ300の視野CV(図7参照)に基づいて、HMD110に表示される視野画像を更新する(ステップS55)。 Next, the control unit 121 of the user terminal 1A receives the video content V1 from the server 2 (step S53). Thereafter, the control unit 121 updates the virtual space data based on the video content V1, the virtual room 7A, and the avatars 4A and 4B (step S54). Specifically, the control unit 121 displays the video content V1 on the virtual screen 6A by texture mapping. Thus, the control unit 121 generates virtual space data indicating the virtual space 200A including the virtual screen 6A on which the video content V1 is displayed. Thereafter, the control unit 121 updates the visual field image displayed on the HMD 110 based on the updated virtual space data and the visual field CV of the virtual camera 300 (see FIG. 7) (step S55).
一方、ユーザ端末1Bの制御部121は、映像コンテンツV1をサーバ2から受信する(ステップS56)。その後、制御部121は、映像コンテンツV1と、仮想部屋7Aと、アバター4A,4Bに基づいて、仮想空間データを更新する(ステップS57)。具体的には、制御部121は、映像コンテンツV1が表示された仮想スクリーン6Aを含む仮想空間200Bを示す仮想空間データを生成する。その後、制御部121は、更新された仮想空間データと、仮想カメラ300の視野CV(図7参照)に基づいて、HMD110に表示される視野画像を更新する(ステップS58)。 On the other hand, the control unit 121 of the user terminal 1B receives the video content V1 from the server 2 (step S56). Thereafter, the control unit 121 updates the virtual space data based on the video content V1, the virtual room 7A, and the avatars 4A and 4B (step S57). Specifically, the control unit 121 generates virtual space data indicating the virtual space 200B including the virtual screen 6A on which the video content V1 is displayed. Thereafter, the control unit 121 updates the visual field image displayed on the HMD 110 based on the updated virtual space data and the visual field CV (see FIG. 7) of the virtual camera 300 (step S58).
次に、サーバ2の制御部23は、記憶部22に格納された課金テーブル(図16の状態(b)参照)を更新する(ステップS59)。具体的には、最初に、制御部23は、記憶部22に格納された映像コンテンツ料金テーブル(図16の状態(a)参照)を参照することで、映像コンテンツV1の視聴単価を特定する(本例では、映像コンテンツV1の視聴単価は300円)。次に、制御部23は、映像コンテンツV1の視聴単価に基づいて、課金テーブル中のユーザA,Bの課金データを更新する。図16に示すように、映像コンテンツの種類毎に視聴単価は異なってもよい(本例では、映像コンテンツV2の視聴単価は500円)。さらに、映像コンテンツを一つの仮想部屋を通じて複数のアバター間で視聴する場合、映像コンテンツの視聴単価に団体割引を適用してもよい。例えば、映像コンテンツV1を一つの仮想部屋(例えば、仮想部屋7A)を通じて所定人数以上のアバター間で視聴する場合、映像コンテンツV1の視聴単価を300円から200円にしてもよい。同様に、映像コンテンツV2を一つの仮想部屋(例えば、仮想部屋7A)を通じて所定人数以上のアバター間で視聴する場合、映像コンテンツV2の視聴単価を500円から300円にしてもよい。 Next, the control unit 23 of the server 2 updates the accounting table (see state (b) in FIG. 16) stored in the storage unit 22 (step S59). Specifically, first, the control unit 23 specifies the viewing unit price of the video content V1 by referring to the video content fee table stored in the storage unit 22 (see the state (a) in FIG. 16) ( In this example, the viewing unit price of the video content V1 is 300 yen). Next, the control unit 23 updates the billing data of the users A and B in the billing table based on the viewing unit price of the video content V1. As shown in FIG. 16, the viewing unit price may be different for each type of video content (in this example, the viewing unit price of video content V2 is 500 yen). Furthermore, when viewing video content between a plurality of avatars through one virtual room, a group discount may be applied to the viewing price of the video content. For example, when the video content V1 is viewed among a predetermined number of avatars through one virtual room (for example, the virtual room 7A), the viewing price of the video content V1 may be set from 300 yen to 200 yen. Similarly, when the video content V2 is viewed between a predetermined number or more of avatars through one virtual room (for example, the virtual room 7A), the viewing price of the video content V2 may be 500 to 300 yen.
次に、仮想部屋のサイズを更新せずに、仮想スクリーン6A(第1仮想スクリーン)を拡大させる処理について図17及び図18を参照して説明する。図17は、仮想スクリーン6Aを拡大させるための処理(詳細には、Sサイズの仮想スクリーン6AからMサイズの仮想スクリーン60A(拡大された第1仮想スクリーン)に更新するための処理)の一例を説明するためのシーケンス図である。図18の状態(a)は、仮想スクリーン6Aが拡大する前のユーザAに提供される仮想空間200Aを示す図である。図18の状態(b)は、仮想スクリーン6Aが拡大された後のユーザAに提供される仮想空間200Aを示す図である。本説明では、前提条件として、図18の状態(a)に示すように、アバター4Aとアバター4Bがアバター4Aの仮想部屋7Aに配置されているものとする。つまり、ユーザAとユーザBは、通信ネットワーク3を介して一つの仮想部屋7Aを共有しているものとする。 Next, a process for enlarging the virtual screen 6A (first virtual screen) without updating the size of the virtual room will be described with reference to FIGS. FIG. 17 shows an example of a process for enlarging the virtual screen 6A (specifically, a process for updating the S size virtual screen 6A to the M size virtual screen 60A (the enlarged first virtual screen)). It is a sequence diagram for demonstrating. The state (a) in FIG. 18 is a diagram illustrating the virtual space 200A provided to the user A before the virtual screen 6A is enlarged. The state (b) of FIG. 18 is a diagram showing the virtual space 200A provided to the user A after the virtual screen 6A is enlarged. In this description, as a precondition, it is assumed that the avatar 4A and the avatar 4B are arranged in the virtual room 7A of the avatar 4A as shown in the state (a) of FIG. That is, it is assumed that the user A and the user B share one virtual room 7A via the communication network 3.
図17に示すように、ステップS60において、ユーザAは、仮想スクリーン6Aを拡大するための所定の操作入力を実行する。例えば、ユーザAは、HMD110上に表示されたメニュー画面中の「仮想スクリーンのサイズをMサイズに拡大する」等の項目を選択する。その後、ユーザ端末1Aの制御部121は、ユーザAからの操作入力に従って、仮想スクリーン6AのサイズをMサイズに拡大することを要求するスクリーン拡大要求信号をサーバ2に送信する。 As shown in FIG. 17, in step S60, the user A executes a predetermined operation input for enlarging the virtual screen 6A. For example, the user A selects an item such as “enlarge the size of the virtual screen to M size” in the menu screen displayed on the HMD 110. Thereafter, the control unit 121 of the user terminal 1 </ b> A transmits to the server 2 a screen enlargement request signal requesting that the size of the virtual screen 6 </ b> A be enlarged to M size in accordance with an operation input from the user A.
次に、サーバ2の制御部23は、スクリーン拡大要求信号をユーザ端末1Aから受信する(ステップS61)。その後、制御部23は、記憶部22からMサイズの仮想スクリーン60Aを取得した上で、仮想スクリーン60A(拡大された仮想スクリーン)をユーザ端末1A,1Bに送信する(ステップS62)。 Next, the control unit 23 of the server 2 receives a screen enlargement request signal from the user terminal 1A (step S61). Thereafter, the control unit 23 acquires the M-size virtual screen 60A from the storage unit 22, and then transmits the virtual screen 60A (enlarged virtual screen) to the user terminals 1A and 1B (step S62).
次に、ユーザ端末1Aの制御部121は、仮想スクリーン60Aをサーバ2から受信する(ステップS63)。その後、制御部121は、仮想スクリーン60Aと、仮想部屋7Aと、アバター4A,4Bに基づいて、仮想空間データを更新する(ステップS64)。具体的には、制御部121は、仮想スクリーンをSサイズの仮想スクリーン6AからMサイズの仮想スクリーン60Aに更新した上で、仮想スクリーン60Aを有する仮想部屋7Aと、アバター4A,4Bとを含む仮想空間200Aを示す仮想空間データを生成する。その後、制御部121は、更新された仮想空間データと、仮想カメラ300の視野CV(図7参照)に基づいて、HMD110に表示される視野画像を更新する(ステップS65)。 Next, the control unit 121 of the user terminal 1A receives the virtual screen 60A from the server 2 (step S63). Thereafter, the control unit 121 updates the virtual space data based on the virtual screen 60A, the virtual room 7A, and the avatars 4A and 4B (step S64). Specifically, the control unit 121 updates the virtual screen from the S-size virtual screen 6A to the M-size virtual screen 60A, and then includes a virtual room 7A having the virtual screen 60A and the avatars 4A and 4B. Virtual space data indicating the space 200A is generated. Thereafter, the control unit 121 updates the visual field image displayed on the HMD 110 based on the updated virtual space data and the visual field CV (see FIG. 7) of the virtual camera 300 (step S65).
一方、ステップS66において、ユーザ端末1Bの制御部121は、仮想スクリーン60Aをサーバ2から受信する。その後、制御部121は、仮想スクリーン60Aと、仮想部屋7Aと、アバター4A,4Bに基づいて、仮想空間データを更新する(ステップS67)。具体的には、制御部121は、仮想スクリーンをSサイズの仮想スクリーン6AからMサイズの仮想スクリーン60Aに更新した上で、仮想スクリーン60Aを有する仮想部屋7Aと、アバター4A,4Bとを含む仮想空間を示す仮想空間データを生成する。その後、制御部121は、更新された仮想空間データと、仮想カメラ300の視野CV(図7参照)に基づいて、HMD110に表示される視野画像を更新する(ステップS68)。 On the other hand, in step S66, the control unit 121 of the user terminal 1B receives the virtual screen 60A from the server 2. Thereafter, the control unit 121 updates the virtual space data based on the virtual screen 60A, the virtual room 7A, and the avatars 4A and 4B (step S67). Specifically, the control unit 121 updates the virtual screen from the S-size virtual screen 6A to the M-size virtual screen 60A, and then includes a virtual room 7A having the virtual screen 60A and the avatars 4A and 4B. Virtual space data indicating a space is generated. Thereafter, the control unit 121 updates the visual field image displayed on the HMD 110 based on the updated virtual space data and the visual field CV (see FIG. 7) of the virtual camera 300 (step S68).
次に、ステップS69において、サーバ2は、記憶部22に格納された課金テーブル(図16の状態(b)参照)を更新する。具体的には、最初に、制御部23は、映像コンテンツ料金テーブル(図16の状態(a)参照)を参照することで、スクリーン拡大要求に従って仮想スクリーンのサイズをMサイズに拡大するための必要な追加料金(仮想スクリーン拡大料金)を特定する。例えば、現在視聴している映像コンテンツが映像コンテンツV1である場合、制御部23は、仮想スクリーンのサイズをMサイズに拡大するために必要な仮想スクリーン拡大料金を500円として特定する。次に、制御部23は、特定された仮想スクリーン拡大料金(例えば、500円)に基づいて、課金テーブル中のユーザAの課金データを更新する。図16の状態(b)に示すように、ユーザA,BがSサイズの仮想スクリーン6Aを通じて映像コンテンツV1を視聴しているときに、ユーザAが所定の操作を通じて仮想スクリーンのサイズをMサイズに拡大した場合、映像コンテンツV1の視聴によりユーザAに課金される金額は、300円(映像コンテンツV1の視聴単価)+500円(仮想スクリーン拡大料金)=800円となる。尚、仮想スクリーン拡大料金は、仮想スクリーンの拡大を要求したユーザAのみが負担してもよいし、ユーザA,Bが折半してもよい。 Next, in step S69, the server 2 updates the accounting table (see state (b) in FIG. 16) stored in the storage unit 22. Specifically, first, the control unit 23 needs to increase the size of the virtual screen to the M size according to the screen expansion request by referring to the video content fee table (see the state (a) in FIG. 16). Specific additional charges (virtual screen enlargement charges). For example, when the video content currently being viewed is the video content V1, the control unit 23 specifies the virtual screen enlargement charge necessary to enlarge the virtual screen size to M size as 500 yen. Next, the control unit 23 updates the billing data of the user A in the billing table based on the specified virtual screen enlargement fee (for example, 500 yen). As shown in the state (b) of FIG. 16, when the users A and B are viewing the video content V1 through the S size virtual screen 6A, the user A changes the size of the virtual screen to the M size through a predetermined operation. In the case of enlargement, the amount charged to the user A for viewing the video content V1 is 300 yen (viewing unit price of the video content V1) +500 yen (virtual screen enlargement fee) = 800 yen. Note that the virtual screen enlargement fee may be borne only by the user A who requests enlargement of the virtual screen, or the users A and B may halve the virtual screen enlargement fee.
本実施形態によれば、スクリーン拡大要求信号に応じて、アバター4Aの仮想スクリーンのサイズをMサイズに拡大するように当該仮想スクリーンが更新されると共に、ユーザAに課金される課金額が更新される。このように、アバター4Aの仮想部屋7Aに訪問するアバターが存在しない場合でも、アバター4Aは、所定の金額を支払うことで、大きい仮想スクリーンで映像コンテンツ等の動画の視聴を楽しむことができる。 According to the present embodiment, in response to the screen enlargement request signal, the virtual screen is updated so that the size of the virtual screen of the avatar 4A is enlarged to M size, and the charge amount charged to the user A is updated. The As described above, even when there is no avatar to visit in the virtual room 7A of the avatar 4A, the avatar 4A can enjoy watching a moving image such as video content on a large virtual screen by paying a predetermined amount.
また、本実施形態によれば、アバター4Aの仮想部屋のサイズの拡大(仮想部屋7A→仮想部屋70A)に応じて仮想スクリーンのサイズがMサイズに拡大(仮想スクリーン6A→仮想スクリーン60A)されたときにユーザAに課金される課金額は、スクリーン拡大要求信号に応じて仮想スクリーンのサイズがMサイズに拡大されたときにユーザAに課金される課金額よりも安くなることが好ましい。例えば、前者の課金額は、例えば、0円である一方、後者の課金額は、図16の状態(a)に示すように500円である。このように、前者の課金額が後者の課金額よりも安くなることで、多数のユーザが同一の仮想部屋内で同一の映像コンテンツの視聴を楽しむことを促すことができる。したがって、ユーザ間における仮想部屋の訪問(ソーシャルVR)を促進することができる。 Further, according to the present embodiment, the size of the virtual screen is increased to M size (virtual screen 6A → virtual screen 60A) in accordance with the increase in the size of the virtual room of the avatar 4A (virtual room 7A → virtual room 70A). The charge amount sometimes charged to the user A is preferably lower than the charge amount charged to the user A when the size of the virtual screen is increased to the M size in response to the screen enlargement request signal. For example, the former billing amount is, for example, 0 yen, while the latter billing amount is 500 yen as shown in the state (a) of FIG. In this way, the former billing amount is lower than the latter billing amount, so that a large number of users can be encouraged to enjoy viewing the same video content in the same virtual room. Therefore, it is possible to promote a virtual room visit (social VR) between users.
また、サーバ2の制御部23(若しくはユーザ端末1の制御部121)によって実行される各種処理をソフトウェアによって実現するために、各種処理をコンピュータ(プロセッサ)に実行させるための制御プログラムが記憶部22(若しくは記憶部123)又はメモリに予め組み込まれていてもよい。または、制御プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD−ROM,DVD−ROM、Blu−rayディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体がサーバ2(若しくは制御装置120)に接続されることで、当該記憶媒体に格納された制御プログラムが、記憶部22(若しくは記憶部123)に組み込まれる。そして、記憶部22(若しくは記憶部123)に組み込まれた制御プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部23(若しくは制御部121)は各種処理を実行する。 In addition, a control program for causing a computer (processor) to execute various types of processing in order to implement various types of processing executed by the control unit 23 of the server 2 (or the control unit 121 of the user terminal 1) with software is a storage unit 22. (Or storage unit 123) or may be incorporated in advance in the memory. Alternatively, the control program can be a magnetic disk (HDD, floppy disk), optical disk (CD-ROM, DVD-ROM, Blu-ray disk, etc.), magneto-optical disk (MO, etc.), flash memory (SD card, USB memory, SSD). Etc.) may be stored in a computer-readable storage medium. In this case, when the storage medium is connected to the server 2 (or the control device 120), the control program stored in the storage medium is incorporated into the storage unit 22 (or the storage unit 123). Then, the control program incorporated in the storage unit 22 (or the storage unit 123) is loaded onto the RAM, and the processor executes the loaded program, whereby the control unit 23 (or the control unit 121) performs various processes. Execute.
また、制御プログラムは、通信ネットワーク3上のコンピュータから通信インターフェースを介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該制御プログラムが記憶部22(若しくは記憶部123)に組み込まれる。 The control program may be downloaded from a computer on the communication network 3 via a communication interface. In this case as well, the downloaded control program is incorporated into the storage unit 22 (or the storage unit 123).
以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。 As mentioned above, although embodiment of this indication was described, the technical scope of this invention should not be limitedly interpreted by description of this embodiment. This embodiment is an example, and it is understood by those skilled in the art that various modifications can be made within the scope of the invention described in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the equivalents thereof.
U,A,B,C:ユーザ
1,1A,1B,1C:ユーザ端末
2:サーバ
3:通信ネットワーク
4A,4B,4C:アバター
5A:仮想テーブル
6A:仮想スクリーン
7A:仮想部屋
7C:仮想部屋
21:通信インターフェース
22:記憶部(ストレージ)
23:制御部
24:バス
60A:仮想スクリーン
70A:仮想部屋
100:仮想空間配信システム(配信システム)
112:表示部
114:センサ
116:ヘッドフォン
118:マイク
120:制御装置
121:制御部
123:記憶部(ストレージ)
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
140:注視センサ
200,200A,200B,200C,220A,220C:仮想空間
210:中心位置
300:仮想カメラ
320:外部コントローラ
U, A, B, C: Users 1, 1A, 1B, 1C: User terminal 2: Server 3: Communication networks 4A, 4B, 4C: Avatar 5A: Virtual table 6A: Virtual screen 7A: Virtual room 7C: Virtual room 21 : Communication interface 22: Storage unit (storage)
23: Control unit 24: Bus 60A: Virtual screen 70A: Virtual room 100: Virtual space distribution system (distribution system)
112: Display unit 114: Sensor 116: Headphone 118: Microphone 120: Control device 121: Control unit 123: Storage unit (storage)
124: I / O interface 125: Communication interface 126: Bus 130: Position sensor 140: Gaze sensor 200, 200A, 200B, 200C, 220A, 220C: Virtual space 210: Center position 300: Virtual camera 320: External controller
Claims (7)
前記情報処理方法は、
(a)前記複数のユーザ端末のうちの第1ユーザ端末に関連付けられた第1アバターと、前記第1アバターが配置される第1仮想部屋とを含む第1仮想空間を規定する第1仮想空間データを生成するステップと、
(b)前記複数のユーザ端末のうちの第2ユーザ端末から、前記第2ユーザ端末に関連付けられた第2アバターが前記第1仮想部屋を訪問することを要求する訪問要求信号を受信するステップと、
(c)前記ステップ(b)の後に、前記第1仮想部屋に現在配置されているアバターと前記第2アバターとの総数に応じて、前記第1仮想部屋を更新するべきかどうかを判定するステップと、
(d)前記第1仮想部屋を更新するべきであると判定した場合に、前記第1仮想部屋のサイズを更新するように前記第1仮想部屋を更新するステップと、を含む、情報処理方法。 An information processing method executed by a computer in a virtual space distribution system including a plurality of user terminals each having a head mounted device mounted on a user's head and a server,
The information processing method includes:
(A) A first virtual space that defines a first virtual space including a first avatar associated with a first user terminal among the plurality of user terminals and a first virtual room in which the first avatar is arranged. Generating data; and
(B) receiving a visit request signal requesting that a second avatar associated with the second user terminal visits the first virtual room from a second user terminal of the plurality of user terminals; ,
(C) After the step (b), a step of determining whether or not the first virtual room should be updated according to the total number of avatars currently arranged in the first virtual room and the second avatar. When,
And (d) updating the first virtual room so as to update the size of the first virtual room when it is determined that the first virtual room should be updated.
前記ステップ(d)は、前記第1仮想部屋のサイズの拡大に応じて前記第1仮想スクリーンのサイズが拡大するように前記第1仮想部屋を更新するステップを含む、請求項1又は2に記載の情報処理方法。 The first virtual room includes a first virtual screen on which a moving image is displayed;
The step (d) includes a step of updating the first virtual room so that a size of the first virtual screen is enlarged in accordance with an enlargement of the size of the first virtual room. Information processing method.
(e)前記第1ユーザ端末から、前記第1仮想スクリーンのサイズを所定のサイズに拡大することを要求するスクリーン拡大要求信号を受信するステップと、
(f)前記スクリーン拡大要求信号に応じて、前記第1仮想スクリーンのサイズを前記所定のサイズに拡大するように前記第1仮想スクリーンを更新するステップと、をさらに含む、請求項1から3のうちいずれか一項に記載の情報処理方法。 The first virtual room includes a first virtual screen on which a moving image is displayed;
(E) receiving, from the first user terminal, a screen enlargement request signal requesting to enlarge the size of the first virtual screen to a predetermined size;
(F) updating the first virtual screen so as to enlarge the size of the first virtual screen to the predetermined size in response to the screen enlargement request signal. The information processing method as described in any one of them.
前記ステップ(g)は、前記スクリーン拡大要求信号に応じて、前記第1ユーザに課金される課金額を更新するステップを含む、請求項4に記載の情報処理方法。 (G) further including the step of determining a charge amount charged to the first user by viewing the moving image by the first user wearing the head mounted device of the first user terminal;
The information processing method according to claim 4, wherein the step (g) includes a step of updating a charge amount charged to the first user in response to the screen enlargement request signal.
前記第1仮想部屋のサイズの拡大に応じて前記第1仮想スクリーンのサイズが所定のサイズに拡大されたときに前記第1ユーザに課金される第1課金額は、前記スクリーン拡大要求信号に応じて前記第1仮想スクリーンのサイズが前記所定のサイズに拡大されたときに前記第1ユーザに課金される第2課金額よりも安い、請求項5に記載の情報処理方法。 The step (d) includes the step of updating the first virtual room so that the size of the first virtual screen is enlarged in accordance with the enlargement of the size of the first virtual room,
The first charge amount charged to the first user when the size of the first virtual screen is enlarged to a predetermined size in accordance with the enlargement of the size of the first virtual room is in accordance with the screen enlargement request signal. 6. The information processing method according to claim 5, wherein the first virtual screen is cheaper than a second charge amount charged to the first user when the size of the first virtual screen is enlarged to the predetermined size.
The program for making a computer perform the information processing method as described in any one of Claims 1-6.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017158548A JP2018097847A (en) | 2017-08-21 | 2017-08-21 | Information processing method, and program for causing computer to execute the information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017158548A JP2018097847A (en) | 2017-08-21 | 2017-08-21 | Information processing method, and program for causing computer to execute the information processing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016238745A Division JP6203369B1 (en) | 2016-12-08 | 2016-12-08 | Information processing method and program for causing computer to execute information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018097847A true JP2018097847A (en) | 2018-06-21 |
Family
ID=62631377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017158548A Pending JP2018097847A (en) | 2017-08-21 | 2017-08-21 | Information processing method, and program for causing computer to execute the information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018097847A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200003719A (en) * | 2018-07-02 | 2020-01-10 | 캐논 가부시끼가이샤 | Image processing apparatus, image processing method, and storage medium |
JP2022141652A (en) * | 2020-12-21 | 2022-09-29 | グリー株式会社 | Computer program, method, and server device |
-
2017
- 2017-08-21 JP JP2017158548A patent/JP2018097847A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200003719A (en) * | 2018-07-02 | 2020-01-10 | 캐논 가부시끼가이샤 | Image processing apparatus, image processing method, and storage medium |
US11562717B2 (en) | 2018-07-02 | 2023-01-24 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
KR102539427B1 (en) * | 2018-07-02 | 2023-06-02 | 캐논 가부시끼가이샤 | Image processing apparatus, image processing method, and storage medium |
JP2022141652A (en) * | 2020-12-21 | 2022-09-29 | グリー株式会社 | Computer program, method, and server device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6203369B1 (en) | Information processing method and program for causing computer to execute information processing method | |
JP6266814B1 (en) | Information processing method and program for causing computer to execute information processing method | |
EP3396511B1 (en) | Information processing device and operation reception method | |
CN108037826B (en) | Information processing method and program for causing computer to execute the information processing method | |
JP5996814B1 (en) | Method and program for providing image of virtual space to head mounted display | |
JP6462059B1 (en) | Information processing method, information processing program, information processing system, and information processing apparatus | |
US10277814B2 (en) | Display control method and system for executing the display control method | |
JP6276434B1 (en) | Method for supporting movement in virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program | |
JP2018128966A (en) | Method for presenting virtual space, program for causing computer to execute the same method, and information processing device for executing the same program | |
JP6212666B1 (en) | Information processing method, program, virtual space distribution system, and apparatus | |
JP6223614B1 (en) | Information processing method, information processing program, information processing system, and information processing apparatus | |
JP2018097847A (en) | Information processing method, and program for causing computer to execute the information processing method | |
JP6298874B1 (en) | Information processing method and program for causing computer to execute information processing method | |
JP6113337B1 (en) | Display control method and program for causing a computer to execute the display control method | |
JP6266823B1 (en) | Information processing method, information processing program, information processing system, and information processing apparatus | |
JP2018120583A (en) | Information processing method and program for causing computer to execute the same | |
JP6289703B1 (en) | Information processing method, information processing program, information processing system, and information processing apparatus | |
JP2018109940A (en) | Information processing method and program for causing computer to execute the same | |
JP7030075B2 (en) | Programs, information processing devices, and information processing methods | |
JP6738308B2 (en) | Information processing method, program, virtual space distribution system and device | |
JP6205047B1 (en) | Information processing method and program for causing computer to execute information processing method | |
JP2018092656A (en) | Information processing method and program for causing computer to execute information processing method | |
JP2018163637A (en) | Information processing method, information processing program, information processing system, and information processing device | |
JP2018156675A (en) | Method for presenting virtual space, program for causing computer to execute the same method, and information processing device for executing the same program | |
JP2017142769A (en) | Method and program for providing head-mounted display with virtual space image |