JP2018163637A - Information processing method, information processing program, information processing system, and information processing device - Google Patents

Information processing method, information processing program, information processing system, and information processing device Download PDF

Info

Publication number
JP2018163637A
JP2018163637A JP2017173559A JP2017173559A JP2018163637A JP 2018163637 A JP2018163637 A JP 2018163637A JP 2017173559 A JP2017173559 A JP 2017173559A JP 2017173559 A JP2017173559 A JP 2017173559A JP 2018163637 A JP2018163637 A JP 2018163637A
Authority
JP
Japan
Prior art keywords
user
avatar
information
information processing
partial area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017173559A
Other languages
Japanese (ja)
Inventor
一晃 澤木
Kazuaki Sawaki
一晃 澤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2017173559A priority Critical patent/JP2018163637A/en
Publication of JP2018163637A publication Critical patent/JP2018163637A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce a communication load in an information processing system.SOLUTION: An information processing method includes the steps of: generating virtual space data for defining a virtual space containing an avatar 4A associated with a user A and provided to a user B; updating a visual field image displayed in an HMD at a frame rate C3 on the basis of the movement of the HMD and the virtual space data; acquiring first location information of a black eye of the user A at an acquisition rate C1 on the basis of the detection data detected by a sensor; generating second location information of a black eye of the avatar 4A corresponding to the black eye of the user A on the basis of the first location information; transmitting the second location information toward a user terminal 1B at a transmission rate C2; and updating the location of the black eye of the avatar 4A in the virtual space at the frame rate C3 on the basis of the second location information.SELECTED DRAWING: Figure 12

Description

本開示は、情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置に関する。   The present disclosure relates to an information processing method, an information processing program, an information processing system, and an information processing apparatus.

特許文献1は、複数のユーザ間で一つのVR空間を共有した上で、ユーザの動作(例えば、ユーザの姿勢等)に応じてアバターの動作(アバターの姿勢等)を制御する技術を開示している。   Patent Document 1 discloses a technique for controlling an avatar's operation (such as an avatar's posture) according to a user's operation (for example, the user's posture) after sharing a single VR space among a plurality of users. ing.

特許第6017008号公報Japanese Patent No. 6017008

ところで、仮想空間内においてアバター同士がコミュニケーションを楽しむ場合には、ユーザの表情に応じて当該ユーザに関連付けられたアバターの表情を変化させることが好ましい。特に、ユーザの顔の表情を示す情報を注視センサやフェイスカメラ等のセンサを用いて取得することで、ユーザの表情とアバターの表情を同期させることが可能となる。一方、ユーザの身体の一部(例えば、黒目)の位置情報等を取得する取得レート(単位時間当たりの回数)よりも当該位置情報等を送信する送信レートが低い場合には、低い送信レートを考慮した上で、ユーザの表情(身体の一部の動き)とアバターの表情(アバターの身体の一部の動き)を同期制御させる必要がある。   By the way, when avatars enjoy communication in a virtual space, it is preferable to change the expression of the avatar associated with the user according to the expression of the user. In particular, it is possible to synchronize the facial expression of the user and the facial expression of the avatar by acquiring information indicating the facial expression of the user using a sensor such as a gaze sensor or a face camera. On the other hand, when the transmission rate for transmitting the position information or the like is lower than the acquisition rate (number of times per unit time) for acquiring the position information or the like of a part of the user's body (for example, black eyes), a lower transmission rate In consideration, it is necessary to synchronize and control the facial expression of the user (movement of a part of the body) and the facial expression of the avatar (movement of a part of the body of the avatar).

本開示は、情報処理システムにおける通信負荷を低減させることが可能な情報処理方法及び情報処理装置を提供することを目的とする。さらに、当該情報処理方法をコンピュータに実行させるための情報処理プログラムを提供することを目的とする。さらに、通信負荷が低減された情報処理システムを提供することを目的とする。   An object of the present disclosure is to provide an information processing method and an information processing apparatus capable of reducing a communication load in an information processing system. Furthermore, it aims at providing the information processing program for making a computer perform the said information processing method. It is another object of the present invention to provide an information processing system with a reduced communication load.

本開示が示す一態様によれば、第1ユーザの身体の一部の動きを検出するように構成されたセンサを有し、前記第1ユーザに関連付けられた第1ユーザ端末と、ヘッドマウントデバイスを有し、第2ユーザに関連付けられた第2ユーザ端末とを備えた情報処理システムにおいてコンピュータによって実行される情報処理方法が提供される。
前記情報処理方法は、
(a)前記第1ユーザに関連付けられた第1アバターを含み、前記第2ユーザに提供される仮想空間を規定する仮想空間データを生成するステップと、
(b)前記ヘッドマウントデバイスの動きと前記仮想空間データに基づいて、第1レートで、前記ヘッドマウントデバイスに表示される視野画像を更新するステップと、
(c)前記センサによって検出された検出データに基づいて、第2レートで前記第1ユーザの身体の一部の第1位置情報を取得するステップと、
(d)前記第1位置情報に基づいて、前記第1ユーザの身体の前記一部に対応する前記第1アバターの身体の一部の第2位置情報を生成するステップと、
(e)前記第1レート及び前記第2レートよりも低い第3レートで、前記第1位置情報又は前記第2位置情報を前記第2ユーザ端末に向けて送信するステップと、
(f)前記第2位置情報に基づいて、前記第1レートで、前記仮想空間内の前記第1アバターの身体の前記一部の位置を更新するステップと、を含む。
前記第1位置情報は、前記第1ユーザの身体の前記一部を包含する第1身体領域を構成する複数の部分領域のうちの前記第1ユーザの身体の前記一部が現在位置している第1部分領域を示す情報である。
前記第2位置情報は、前記第1アバターの身体の前記一部を包含する第2身体領域を構成する複数の部分領域のうちの前記第1アバターの身体の前記一部が現在位置している第2部分領域を示す情報である。
前記ステップ(e)では、
前記第1位置情報又は前記第2位置情報を送信する時点の直前に生成された前記第1位置情報又は前記第2位置情報を前記第2ユーザ端末に向けて送信する。
According to one aspect of the present disclosure, a first user terminal associated with the first user having a sensor configured to detect movement of a part of the body of the first user, and a head mounted device There is provided an information processing method executed by a computer in an information processing system having a second user terminal associated with the second user.
The information processing method includes:
(A) generating virtual space data including a first avatar associated with the first user and defining a virtual space provided to the second user;
(B) updating a visual field image displayed on the head mounted device at a first rate based on the movement of the head mounted device and the virtual space data;
(C) obtaining first position information of a part of the body of the first user at a second rate based on detection data detected by the sensor;
(D) generating second position information of a part of the body of the first avatar corresponding to the part of the body of the first user based on the first position information;
(E) transmitting the first location information or the second location information to the second user terminal at a third rate lower than the first rate and the second rate;
(F) updating the position of the part of the body of the first avatar in the virtual space at the first rate based on the second position information.
In the first position information, the part of the body of the first user among the plurality of partial areas constituting the first body area including the part of the body of the first user is currently located. This is information indicating the first partial area.
In the second position information, the part of the body of the first avatar among the plurality of partial areas constituting the second body area including the part of the body of the first avatar is currently located. This is information indicating the second partial area.
In step (e),
The first position information or the second position information generated immediately before the time point at which the first position information or the second position information is transmitted is transmitted toward the second user terminal.

本開示によれば、情報処理システムにおける通信負荷を低減させることができる。   According to the present disclosure, it is possible to reduce the communication load in the information processing system.

本発明の実施形態(以下、単に本実施形態という。)に係る仮想空間配信システムを示す概略図である。It is the schematic which shows the virtual space delivery system which concerns on embodiment (henceforth this embodiment only) of this invention. ユーザ端末を示す概略図である。It is the schematic which shows a user terminal. HMDを装着したユーザの頭部を示す図である。It is a figure which shows the head of the user with which HMD was mounted | worn. 制御装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a control apparatus. 視野画像をHMDに表示する処理を示すフローチャートである。It is a flowchart which shows the process which displays a visual field image on HMD. 仮想空間の一例を示すxyz空間図である。It is xyz space figure which shows an example of virtual space. 状態(a)は、図6に示す仮想空間のyx平面図である。状態(b)は、図6に示す仮想空間のzx平面図である。The state (a) is a yx plan view of the virtual space shown in FIG. The state (b) is a zx plan view of the virtual space shown in FIG. HMDに表示された視野画像の一例を示す図である。It is a figure which shows an example of the visual field image displayed on HMD. 図1に示すサーバのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the server shown in FIG. 状態(a)は、ユーザAに提供される仮想空間を示す図である。状態(b)は、ユーザBに提供される仮想空間を示す図である。The state (a) is a diagram showing a virtual space provided to the user A. The state (b) is a diagram showing a virtual space provided to the user B. ユーザ端末間において各アバターの動きを同期させる処理の一例を説明するためのシーケンス図である。It is a sequence figure for explaining an example of processing which synchronizes movement of each avatar between user terminals. 第1実施形態に係る情報処理方法の一例を説明するためのシーケンス図である。It is a sequence diagram for demonstrating an example of the information processing method which concerns on 1st Embodiment. 状態(a)は、ユーザAの黒目と白目を示す図である。状態(b)は、ユーザAの黒目と白目を包含する身体領域を示す図である。The state (a) is a diagram showing the black eyes and white eyes of the user A. The state (b) is a diagram illustrating a body region including the black eyes and white eyes of the user A. ユーザAの黒目の中心位置の移動軌跡の一例を示す図である。It is a figure which shows an example of the movement locus | trajectory of the center position of the black eye of the user A. 状態(a)は、アバター4Aの黒目と白目を示す図である。状態(b)は、アバター4Aの黒目と白目を包含する身体領域を示す図である。State (a) is a diagram showing the black eyes and white eyes of the avatar 4A. The state (b) is a diagram illustrating a body region including the black eyes and white eyes of the avatar 4A. 状態(a)は、ユーザ端末1Bに送信された第2位置情報に基づいて、送信レートより高いフレームレートで、アバター4Aの黒目の位置を更新する処理を説明するための図である。状態(b)は、各時刻においてユーザ端末1Bに送信された第2位置情報を示す図である。A state (a) is a figure for demonstrating the process which updates the position of the eye of the avatar 4A with a frame rate higher than a transmission rate based on the 2nd position information transmitted to the user terminal 1B. The state (b) is a diagram showing the second position information transmitted to the user terminal 1B at each time. 部分領域R1の中心位置O1から部分領域R2の中心位置O2に向けてアバター4Aの黒目の位置が徐々に移動する様子を説明するための図である。It is a figure for demonstrating a mode that the position of the eye of the avatar 4A gradually moves toward the center position O2 of partial area | region R2 from center position O1 of partial area | region R1. 状態(a)は、ユーザ端末1Bに送信された第2位置情報と第2方向情報に基づいて、送信レートより高いフレームレートで、アバター4Aの黒目の位置を更新する処理を説明するための図である。状態(b)は、各時刻においてユーザ端末1Bに送信された第2位置情報と第2方向情報を示す図である。The state (a) is a diagram for explaining processing for updating the position of the black eye of the avatar 4A at a frame rate higher than the transmission rate based on the second position information and the second direction information transmitted to the user terminal 1B. It is. The state (b) is a diagram showing the second position information and the second direction information transmitted to the user terminal 1B at each time. 部分領域R1の中心位置O1から交差点X1に向けてアバター4Aの黒目の位置が徐々に移動する様子を説明するための図である。It is a figure for demonstrating a mode that the position of the black eye of Avatar 4A moves gradually toward the intersection X1 from center position O1 of partial area | region R1. ユーザAの黒目の移動を示す移動ベクトルの合成ベクトルに基づいて第2方向情報を取得する処理を説明するための図である。It is a figure for demonstrating the process which acquires 2nd direction information based on the synthetic | combination vector of the movement vector which shows the movement of the user's A black eye.

[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)第1ユーザの身体の一部の動きを検出するように構成されたセンサを有し、前記第1ユーザに関連付けられた第1ユーザ端末と、ヘッドマウントデバイスを有し、第2ユーザに関連付けられた第2ユーザ端末とを備えた情報処理システムにおいてコンピュータによって実行される情報処理方法であって、
前記情報処理方法は、
(a)前記第1ユーザに関連付けられた第1アバターを含み、前記第2ユーザに提供される仮想空間を規定する仮想空間データを生成するステップと、
(b)前記ヘッドマウントデバイスの動きと前記仮想空間データに基づいて、第1レートで、前記ヘッドマウントデバイスに表示される視野画像を更新するステップと、
(c)前記センサによって検出された検出データに基づいて、第2レートで前記第1ユーザの身体の一部の第1位置情報を取得するステップと、
(d)前記第1位置情報に基づいて、前記第1ユーザの身体の前記一部に対応する前記第1アバターの身体の一部の第2位置情報を生成するステップと、
(e)前記第1レート及び前記第2レートよりも低い第3レートで、前記第1位置情報又は前記第2位置情報を前記第2ユーザ端末に向けて送信するステップと、
(f)前記第2位置情報に基づいて、前記第1レートで、前記仮想空間内の前記第1アバターの身体の前記一部の位置を更新するステップと、を含み、
前記第1位置情報は、前記第1ユーザの身体の前記一部を包含する第1身体領域を構成する複数の部分領域のうちの前記第1ユーザの身体の前記一部が現在位置している第1部分領域を示す情報であって、
前記第2位置情報は、前記第1アバターの身体の前記一部を包含する第2身体領域を構成する複数の部分領域のうちの前記第1アバターの身体の前記一部が現在位置している第2部分領域を示す情報であって、
前記ステップ(e)では、
前記第1位置情報又は前記第2位置情報を送信する時点の直前に生成された前記第1位置情報又は前記第2位置情報を前記第2ユーザ端末に向けて送信する、情報処理方法。
[Description of Embodiments Presented by the Present Disclosure]
An overview of an embodiment indicated by the present disclosure will be described.
(1) a sensor configured to detect a movement of a part of the body of the first user, a first user terminal associated with the first user, a head mounted device, and a second user An information processing method executed by a computer in an information processing system comprising a second user terminal associated with
The information processing method includes:
(A) generating virtual space data including a first avatar associated with the first user and defining a virtual space provided to the second user;
(B) updating a visual field image displayed on the head mounted device at a first rate based on the movement of the head mounted device and the virtual space data;
(C) obtaining first position information of a part of the body of the first user at a second rate based on detection data detected by the sensor;
(D) generating second position information of a part of the body of the first avatar corresponding to the part of the body of the first user based on the first position information;
(E) transmitting the first location information or the second location information to the second user terminal at a third rate lower than the first rate and the second rate;
(F) updating the position of the part of the body of the first avatar in the virtual space at the first rate based on the second position information;
In the first position information, the part of the body of the first user among the plurality of partial areas constituting the first body area including the part of the body of the first user is currently located. Information indicating the first partial region,
In the second position information, the part of the body of the first avatar among the plurality of partial areas constituting the second body area including the part of the body of the first avatar is currently located. Information indicating the second partial region,
In step (e),
An information processing method for transmitting the first position information or the second position information generated immediately before transmitting the first position information or the second position information to the second user terminal.

上記方法によれば、第1レート及び第2レートよりも低い第3レートで、第1位置情報又は第2位置情報が第2ユーザ端末に向けて送信される場合において、第1位置情報又は第2位置情報を送信する時点の直前に生成された第1位置情報又は第2位置情報が第2ユーザ端末に向けて送信される。このように、生成された第1位置情報又は第2位置情報は、間引かれた状態で第2ユーザ端末に向けて送信される。さらに、第2ユーザ端末に送信される第1位置情報(又は第2位置情報)は、第1ユーザ(又は第1アバター)の身体の一部が現在位置している第1部分領域(又は第2部分領域)を示す情報であって、第1ユーザ(又は第1アバター)の身体の一部の位置座標を示す情報ではない。したがって、第2ユーザ端末に送信すべき情報量を低減させることができるため、第1ユーザ端末と第2ユーザ端末との間の通信負荷を低減させることが可能となる。このように、情報処理システムにおける通信負荷を低減させることが可能な情報処理方法を提供することができる。   According to the above method, when the first location information or the second location information is transmitted toward the second user terminal at the third rate lower than the first rate and the second rate, the first location information or the second rate information is transmitted. The first position information or the second position information generated immediately before the time point at which the two position information is transmitted is transmitted toward the second user terminal. Thus, the generated first position information or second position information is transmitted to the second user terminal in a thinned state. Further, the first position information (or second position information) transmitted to the second user terminal is the first partial area (or the first position) where a part of the body of the first user (or the first avatar) is currently located. 2 part area | region), Comprising: It is not information which shows the positional coordinate of the one user's (or 1st avatar) body part. Therefore, since the amount of information to be transmitted to the second user terminal can be reduced, the communication load between the first user terminal and the second user terminal can be reduced. Thus, an information processing method capable of reducing the communication load in the information processing system can be provided.

(2)前記第1ユーザの身体の前記一部は、前記第1ユーザの黒目であり、
前記第1アバターの身体の前記一部は、前記第1アバターの黒目であり、
前記第1身体領域は、前記第1ユーザの白目を包含し、
前記第2身体領域は、前記第1アバターの白目を包含する、項目(1)に記載の情報処理方法。
(2) The part of the body of the first user is the black eyes of the first user;
The part of the body of the first avatar is the black eye of the first avatar;
The first body region includes a white eye of the first user;
The information processing method according to item (1), wherein the second body region includes a white eye of the first avatar.

上記方法によれば、センサによって検出された検出データに基づいて、第1ユーザの黒目の第1位置情報が取得される。また、第1位置情報に基づいて、第1ユーザの黒目に対応する第1アバターの黒目の第2位置情報が生成される。さらに、第2位置情報に基づいて、仮想空間内の第1アバターの黒目の位置が更新される。このように、第1ユーザの黒目の位置と、第1アバターの黒目の位置を同期させることが可能となるため、ユーザの表情をリアルにアバターの表情に反映させることが可能となる。   According to the above method, the first position information of the first user's black eye is acquired based on the detection data detected by the sensor. In addition, based on the first position information, the second position information of the black eye of the first avatar corresponding to the first user's black eye is generated. Furthermore, the position of the black eye of the first avatar in the virtual space is updated based on the second position information. Thus, since the position of the first user's black eye and the position of the first avatar's black eye can be synchronized, the user's facial expression can be reflected in the avatar's facial expression realistically.

(3)前記ステップ(f)では、
前記第1ユーザの身体の前記一部が前記第1部分領域から前記第1ユーザの身体の前記一部の移動先の部分領域である第3部分領域に移動した場合に、前記第1アバターの身体の前記一部が前記第1アバターの身体の前記一部の移動先の部分領域である第4部分領域の中心位置に向かって徐々に移動するように、前記第1アバターの身体の前記一部の位置を更新する、項目(1)又は(2)に記載の情報処理方法。
(3) In step (f),
When the part of the body of the first user moves from the first partial area to a third partial area that is a partial area to which the part of the body of the first user is moved, The one of the body of the first avatar is gradually moved so that the part of the body gradually moves toward a center position of a fourth partial area that is a partial area to which the part of the body of the first avatar is moved. The information processing method according to item (1) or (2), wherein the position of the part is updated.

上記方法によれば、第1ユーザの身体の一部が第1部分領域から第3部分領域に移動した場合に、第1アバターの身体の一部が第4部分領域の中心位置に向かって徐々に移動する。このように、第1ユーザの身体の一部が第1部分領域から第3部分領域に移動した場合に、第1アバターの身体の一部を第2部分領域から第4部分領域に向けて滑らかに移動させることが可能となる。換言すれば、第1ユーザの身体の一部が第1部分領域から第3部分領域に移動した場合に、第1アバターの身体の一部は、第2部分領域から第4部分領域に瞬時に移動(ワープ)しない。従って、アバターの身体の一部の動きをユーザの身体の一部の動きに滑らかに追従させることが可能となる。   According to the above method, when a part of the body of the first user moves from the first partial area to the third partial area, the part of the body of the first avatar gradually moves toward the center position of the fourth partial area. Move to. As described above, when the part of the body of the first user moves from the first partial area to the third partial area, the part of the body of the first avatar is smoothly directed from the second partial area to the fourth partial area. It is possible to move to. In other words, when the body part of the first user moves from the first partial area to the third partial area, the body part of the first avatar instantly changes from the second partial area to the fourth partial area. Do not move (warp). Therefore, it becomes possible to make the movement of the body part of the avatar smoothly follow the movement of the body part of the user.

(4)(g)前記第1ユーザの身体の前記一部の第1方向情報を取得するステップと、
(h)前記1方向情報に基づいて、前記第1アバターの身体の前記一部の第2方向情報を取得するステップと、をさらに含み、
前記第1方向情報は、前記第1ユーザの身体の前記一部の移動先の部分領域である第3部分領域を示す情報であって、
前記第2方向情報は、前記第1アバターの身体の前記一部の移動先の部分領域である第4部分領域を示す情報であって、
前記ステップ(e)は、前記第3レートで、前記1方向情報又は前記第2方向情報を送信するステップを含み、
前記ステップ(f)では、前記第2位置情報と前記第2方向情報に基づいて、前記仮想空間内の前記第1アバターの身体の前記一部の位置を更新する、項目(1)から(3)のうちいずれか一項に記載の情報処理方法。
(4) (g) obtaining the first direction information of the part of the body of the first user;
(H) acquiring the second direction information of the part of the body of the first avatar based on the one direction information; and
The first direction information is information indicating a third partial area that is a partial area of the part of the body of the first user.
The second direction information is information indicating a fourth partial area that is a partial area of the part of the body of the first avatar.
The step (e) includes transmitting the one-direction information or the second direction information at the third rate,
In the step (f), from the items (1) to (3), the position of the part of the body of the first avatar in the virtual space is updated based on the second position information and the second direction information. ). The information processing method according to any one of.

上記方法によれば、第2位置情報と第2方向情報に基づいて、仮想空間内の第1アバターの身体の一部の位置が更新される。このように、第1アバターの身体の一部の移動先を考慮した上で、第1アバターの身体の一部の位置を更新することができる。   According to the above method, the position of a part of the body of the first avatar in the virtual space is updated based on the second position information and the second direction information. Thus, the position of the part of the body of the first avatar can be updated in consideration of the destination of the part of the body of the first avatar.

(5)前記ステップ(f)では、
前記第1アバターの身体の前記一部が前記第4部分領域に向かって前記第2部分領域内を徐々に移動するように前記第1アバターの身体の前記一部の位置を更新する、項目(4)に記載の情報処理方法。
(5) In step (f),
Updating the position of the part of the body of the first avatar so that the part of the body of the first avatar gradually moves in the second partial area toward the fourth partial area; The information processing method according to 4).

上記方法によれば、第1アバターの身体の一部が第4部分領域(移動先の部分領域)に向かって第2部分領域(移動元の部分領域)内を徐々に移動する。このように、ユーザの身体の一部が第1部分領域から第3部分領域に移動した場合に、第1アバターの身体の一部を第2部分領域から第4部分領域に向けて滑らかに移動させることが可能となる。従って、アバターの身体の一部の動きをユーザの身体の一部の動きに滑らかに追従させることが可能となる。   According to the above method, a part of the body of the first avatar gradually moves in the second partial area (movement source partial area) toward the fourth partial area (movement destination partial area). Thus, when a part of the user's body moves from the first partial area to the third partial area, the part of the body of the first avatar moves smoothly from the second partial area to the fourth partial area. It becomes possible to make it. Therefore, it becomes possible to make the movement of the body part of the avatar smoothly follow the movement of the body part of the user.

(6)前記第3部分領域は、前記第1部分領域内で移動する前記第1ユーザの身体の前記一部の少なくとも一つの移動方向に基づいて特定される、項目(4)又は(5)に記載の情報処理方法。   (6) The item (4) or (5), wherein the third partial area is specified based on at least one movement direction of the part of the body of the first user that moves within the first partial area. Information processing method described in 1.

上記方法によれば、第1部分領域内で移動する第1ユーザの身体の一部の少なくとも一つの移動方向に基づいて、第1ユーザの身体の前記一部の移動先の第3部分領域を特定することが可能となる。   According to the above method, based on at least one movement direction of the body part of the first user that moves within the first partial area, the third partial area of the movement destination of the part of the first user body is determined. It becomes possible to specify.

(7)項目(1)から(6)のうちいずれか一項に記載の情報処理方法をコンピュータに実行させるための情報処理プログラム。   (7) An information processing program for causing a computer to execute the information processing method according to any one of items (1) to (6).

上記によれば、情報処理システムにおける通信負荷を低減させることが可能な情報処理プログラムを提供することができる。   Based on the above, it is possible to provide an information processing program capable of reducing the communication load in the information processing system.

(8)第1ユーザの身体の一部の動きを検出するように構成されたセンサを有し、前記第1ユーザに関連付けられた第1ユーザ端末と、
表示部を有し、第2ユーザに関連付けられた第2ユーザ端末と、を備え、項目(1)から(6)のうちいずれか一項に記載の情報処理方法を実行するように構成された、情報処理システム。
(8) a first user terminal having a sensor configured to detect movement of a part of the body of the first user and associated with the first user;
A second user terminal associated with the second user, and configured to execute the information processing method according to any one of items (1) to (6) Information processing system.

上記によれば、通信負荷が低減された情報処理システムを提供することができる。   According to the above, an information processing system with a reduced communication load can be provided.

(9)プロセッサと、
コンピュータ可読命令を記憶するメモリと、を備えた情報処理装置であって、 前記コンピュータ可読命令が前記プロセッサにより実行されると、前記情報処理装置は項目(1)から(6)のうちいずれか一項に記載の情報処理方法を実行する、情報処理装置。
(9) a processor;
An information processing apparatus comprising: a memory that stores a computer readable instruction; and when the computer readable instruction is executed by the processor, the information processing apparatus is any one of items (1) to (6). An information processing apparatus that executes the information processing method according to item.

上記によれば、情報処理システムにおける通信負荷を低減させることが可能な情報処理装置を提供することができる。尚、情報処理装置は、ユーザ端末又はサーバのいずれか一方である点に留意されたい。   According to the above, it is possible to provide an information processing apparatus capable of reducing the communication load in the information processing system. It should be noted that the information processing apparatus is either a user terminal or a server.

[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。尚、本実施形態の説明において既に説明された要素と同一の参照番号を有する要素については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Presented by the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, about the element which has the same reference number as the element already demonstrated in description of this embodiment, the description is not repeated for convenience of explanation.

最初に、仮想空間配信システム100(情報処理システム)の構成の概略について図1を参照して説明する。図1は、仮想空間配信システム100(以下、単に配信システム100という。)の概略図である。図1に示すように、配信システム100は、ヘッドマウントデバイス(HMD)110(第1HMD)を装着したユーザA(第1ユーザ)によって操作されるユーザ端末1A(第1ユーザ端末)と、HMD110(第2HMD)を装着したユーザB(第2ユーザ)によって操作されるユーザ端末1B(第2ユーザ端末)と、サーバ2とを備える。ユーザ端末1A,1Bは、インターネット等の通信ネットワーク3を介してサーバ2に通信可能に接続されている。また、以降では、説明の便宜上、各ユーザ端末1A,1Bを単にユーザ端末1と総称する場合がある。さらに、各ユーザA,Bを単にユーザUと総称する場合がある。また、本実施形態では、ユーザ端末1A,1Bは、同一の構成を備えているものとする。   First, an outline of the configuration of the virtual space distribution system 100 (information processing system) will be described with reference to FIG. FIG. 1 is a schematic diagram of a virtual space distribution system 100 (hereinafter simply referred to as distribution system 100). As shown in FIG. 1, the distribution system 100 includes a user terminal 1A (first user terminal) operated by a user A (first user) wearing a head mounted device (HMD) 110 (first HMD), and an HMD 110 ( A user terminal 1B (second user terminal) operated by a user B (second user) wearing the second HMD) and a server 2; User terminals 1A and 1B are communicably connected to a server 2 via a communication network 3 such as the Internet. Further, hereinafter, for convenience of explanation, the user terminals 1A and 1B may be simply referred to as the user terminal 1 in some cases. Further, the users A and B may be simply referred to as a user U. In the present embodiment, the user terminals 1A and 1B are assumed to have the same configuration.

次に、図2を参照してユーザ端末1の構成について説明する。図2は、ユーザ端末1を示す概略図である。図2に示すように、ユーザ端末1は、ユーザUの頭部に装着されたヘッドマウントデバイス(HMD)110と、ヘッドフォン116と、フェイスカメラ117と、マイク118と、位置センサ130と、外部コントローラ320と、制御装置120とを備える。   Next, the configuration of the user terminal 1 will be described with reference to FIG. FIG. 2 is a schematic diagram showing the user terminal 1. As shown in FIG. 2, the user terminal 1 includes a head mounted device (HMD) 110, a headphone 116, a face camera 117, a microphone 118, a position sensor 130, and an external controller that are mounted on the user U's head. 320 and a control device 120.

HMD110は、表示部112と、HMDセンサ114と、注視センサ140と、フェイスカメラ113とを備える。表示部112は、HMD110を装着したユーザUの視界(視野)を完全に覆うように構成された非透過型の表示装置を備える。これにより、ユーザUは、表示部112に表示された視野画像のみを見ることで仮想空間に没入することができる。尚、表示部112は、ユーザUの左目に画像を提供するように構成された左目用表示部と、ユーザUの右目に画像を提供するように構成された右目用表示部とから構成されてもよい。また、HMD110は、透過型の表示装置を備えてもよい。この場合、透過型の表示装置は、その透過率を調整することで、一時的に非透過型の表示装置として構成されてもよい。   The HMD 110 includes a display unit 112, an HMD sensor 114, a gaze sensor 140, and a face camera 113. The display unit 112 includes a non-transmissive display device configured to completely cover the field of view (field of view) of the user U wearing the HMD 110. Thereby, the user U can immerse in the virtual space by viewing only the visual field image displayed on the display unit 112. The display unit 112 includes a left-eye display unit configured to provide an image to the user U's left eye and a right-eye display unit configured to provide an image to the user U's right eye. Also good. Further, the HMD 110 may include a transmissive display device. In this case, the transmissive display device may be temporarily configured as a non-transmissive display device by adjusting the transmittance.

HMDセンサ114は、HMD110の表示部112の近傍に搭載される。HMDセンサ114は、地磁気センサ、加速度センサ、傾きセンサ(角速度センサやジャイロセンサ等)のうちの少なくとも1つを含み、ユーザUの頭部に装着されたHMD110の各種動き(傾き等)を検出することができる。   The HMD sensor 114 is mounted in the vicinity of the display unit 112 of the HMD 110. The HMD sensor 114 includes at least one of a geomagnetic sensor, an acceleration sensor, and a tilt sensor (such as an angular velocity sensor and a gyro sensor), and detects various movements (tilt and the like) of the HMD 110 mounted on the user U's head. be able to.

注視センサ140は、ユーザUの視線を検出するアイトラッキング機能を有する。注視センサ140は、例えば、右目用注視センサと、左目用注視センサを備えてもよい。右目用注視センサは、ユーザUの右目に例えば赤外光を照射して、右目(特に、角膜や虹彩)から反射された反射光を検出することで、右目の眼球の回転角に関する情報を取得してもよい。一方、左目用注視センサは、ユーザUの左目に例えば赤外光を照射して、左目(特に、角膜や虹彩)から反射された反射光を検出することで、左目の眼球の回転角に関する情報を取得してもよい。注視センサ140によって取得された検出データの取得レートは、アバター制御情報(後述する)の送信レート及びユーザ端末1BのHMD110に表示される視野画像のフレームレートより大きい。例えば、検出データの取得レートは、200Hzである。   The gaze sensor 140 has an eye tracking function that detects the line of sight of the user U. The gaze sensor 140 may include, for example, a right eye gaze sensor and a left eye gaze sensor. The right eye gaze sensor irradiates, for example, infrared light to the right eye of the user U, and detects reflected light reflected from the right eye (particularly the cornea and iris), thereby acquiring information related to the rotation angle of the right eye's eyeball. May be. On the other hand, the left eye gaze sensor irradiates the left eye of the user U with, for example, infrared light, and detects reflected light reflected from the left eye (particularly the cornea and iris), thereby providing information on the rotation angle of the left eye's eyeball. May be obtained. The acquisition rate of the detection data acquired by the gaze sensor 140 is larger than the transmission rate of avatar control information (described later) and the frame rate of the visual field image displayed on the HMD 110 of the user terminal 1B. For example, the acquisition rate of detection data is 200 Hz.

フェイスカメラ113は、HMD110がユーザUに装着された状態でユーザUの目(左目と右目)とまゆげ(左まゆげと右まゆげ)が表示された画像(特に、動画像)を取得するように構成されている。フェイスカメラ113は、ユーザUの目とまゆげを撮像可能なようにHMD110の内側の所定箇所に配置されている。フェイスカメラ113によって取得された動画像のフレームレートは、アバター制御情報の送信レート及びユーザ端末1BのHMD110に表示される視野画像のフレームレートより大きい。例えば、当該取得された動画像のフレームレートは、200fpsである。   The face camera 113 is configured to acquire an image (particularly, a moving image) in which the eyes (left eye and right eye) and eyebrows (left eyebrow and right eyebrow) of the user U are displayed with the HMD 110 mounted on the user U. Has been. The face camera 113 is arranged at a predetermined position inside the HMD 110 so that the user's U eyes and eyebrows can be imaged. The frame rate of the moving image acquired by the face camera 113 is larger than the transmission rate of the avatar control information and the frame rate of the visual field image displayed on the HMD 110 of the user terminal 1B. For example, the frame rate of the acquired moving image is 200 fps.

ヘッドフォン116(音声出力部)は、ユーザUの左耳と右耳にそれぞれ装着されている。ヘッドフォン116は、制御装置120から音声データ(電気信号)を受信し、当該受信した音声データに基づいて音声を出力するように構成されている。マイク118(音声入力部)は、ユーザUから発声された音声を収集し、当該収集された音声に基づいて音声データ(電気信号)を生成するように構成されている。さらに、マイク118は、音声データを制御装置120に送信するように構成されている。   Headphones 116 (audio output units) are attached to the left and right ears of the user U, respectively. The headphones 116 are configured to receive audio data (electrical signals) from the control device 120 and output audio based on the received audio data. The microphone 118 (voice input unit) is configured to collect voice uttered by the user U and generate voice data (electrical signal) based on the collected voice. Furthermore, the microphone 118 is configured to transmit audio data to the control device 120.

フェイスカメラ117は、ユーザUの口及びその周辺が表示された画像(特に、動画像)を取得するように構成されている。フェイスカメラ117は、ユーザUの口及びその周辺を撮像可能なようにユーザUの口に対向する位置に配置されてもよい。また、フェイスカメラ117は、HMD110に連結されていてもよい。フェイスカメラ117によって取得される動画像のフレームレートは、HMD110に表示される視野画像のフレームレートよりも大きくてもよい。   The face camera 117 is configured to acquire an image (particularly, a moving image) in which the mouth of the user U and its periphery are displayed. The face camera 117 may be arranged at a position facing the user U's mouth so that the user U's mouth and its periphery can be imaged. Further, the face camera 117 may be connected to the HMD 110. The frame rate of the moving image acquired by the face camera 117 may be larger than the frame rate of the visual field image displayed on the HMD 110.

位置センサ130は、例えば、ポジション・トラッキング・カメラにより構成され、HMD110と外部コントローラ320の位置を検出するように構成されている。位置センサ130は、制御装置120に無線又は有線により通信可能に接続されており、HMD110に設けられた図示しない複数の検知点の位置、傾き又は発光強度に関する情報を検出するように構成されている。さらに、位置センサ130は、外部コントローラ320に設けられた図示しない複数の検知点の位置、傾き及び/又は発光強度に関する情報を検出するように構成されている。検知点は、例えば、赤外線や可視光を放射する発光部である。また、位置センサ130は、赤外線センサや複数の光学カメラを含んでもよい。   The position sensor 130 is configured by, for example, a position tracking camera, and is configured to detect the positions of the HMD 110 and the external controller 320. The position sensor 130 is communicably connected to the control device 120 by wireless or wired communication, and is configured to detect information on the position, inclination, or light emission intensity of a plurality of detection points (not shown) provided in the HMD 110. . Further, the position sensor 130 is configured to detect information on the position, inclination and / or light emission intensity of a plurality of detection points (not shown) provided in the external controller 320. The detection point is, for example, a light emitting unit that emits infrared light or visible light. The position sensor 130 may include an infrared sensor and a plurality of optical cameras.

外部コントローラ320は、ユーザUの手の動きを検知することにより、仮想空間内に表示されるアバターの手の動作を制御するために使用される。外部コントローラ320は、ユーザUの右手によって操作される右手用外部コントローラ320R(以下、単にコントローラ320Rという。)と、ユーザUの左手によって操作される左手用外部コントローラ320L(以下、単にコントローラ320Lという。)と、を有する。コントローラ320Rは、ユーザUの右手の位置や右手の手指の動きを示す装置である。また、コントローラ320Rの動きに応じて仮想空間内に存在するアバターの右手が動く。コントローラ320Lは、ユーザUの左手の位置や左手の手指の動きを示す装置である。また、コントローラ320Lの動きに応じて仮想空間内に存在するアバターの左手が動く。   The external controller 320 is used to control the movement of the avatar's hand displayed in the virtual space by detecting the movement of the user's U hand. The external controller 320 is an external controller 320R for right hand operated by the right hand of the user U (hereinafter simply referred to as controller 320R) and an external controller 320L for left hand operated by the left hand of the user U (hereinafter simply referred to as controller 320L). And). The controller 320R is a device that indicates the position of the right hand of the user U and the movement of the finger of the right hand. Further, the right hand of the avatar that exists in the virtual space moves according to the movement of the controller 320R. The controller 320L is a device that indicates the position of the left hand of the user U and the movement of the finger of the left hand. Further, the left hand of the avatar that exists in the virtual space moves according to the movement of the controller 320L.

制御装置120は、HMD110を制御するように構成されたコンピュータである。制御装置120は、位置センサ130から取得された情報に基づいて、HMD110の位置情報を特定し、当該特定された位置情報に基づいて、仮想空間における仮想カメラの位置(アバターの位置)と、現実空間におけるHMD110を装着したユーザUの位置を正確に対応付けることができる。さらに、制御装置120は、位置センサ130及び/又は外部コントローラ320に内蔵されたセンサから取得された情報に基づいて、外部コントローラ320の動作を特定し、当該特定された外部コントローラ320の動作に基づいて、仮想空間内に表示されるアバターの手の動作と現実空間における外部コントローラ320の動作を正確に対応付けることができる。特に、制御装置120は、位置センサ130及び/又はコントローラ320Lに内蔵されたセンサから取得された情報に基づいて、コントローラ320Lの動作を特定し、当該特定されたコントローラ320Lの動作に基づいて、仮想空間内に表示されるアバターの左手の動作と現実空間におけるコントローラ320Lの動作(ユーザUの左手の動作)を正確に対応付けることができる。同様に、制御装置120は、位置センサ及び/コントローラ320Rに内蔵されたセンサから取得された情報に基づいて、コントローラ320Rの動作を特定し、当該特定されたコントローラ320Rの動作に基づいて、仮想空間内に表示されるアバターの右手の動作と現実空間におけるコントローラ320Rの動作(ユーザUの右手の動作)を正確に対応付けることができる。   The control device 120 is a computer configured to control the HMD 110. The control device 120 specifies the position information of the HMD 110 based on the information acquired from the position sensor 130, and based on the specified position information, the position of the virtual camera (avatar position) in the virtual space, and the reality. The position of the user U wearing the HMD 110 in the space can be accurately associated. Further, the control device 120 identifies the operation of the external controller 320 based on information acquired from the position sensor 130 and / or a sensor built in the external controller 320, and based on the identified operation of the external controller 320. Thus, the motion of the avatar's hand displayed in the virtual space can be accurately associated with the motion of the external controller 320 in the real space. In particular, the control device 120 identifies the operation of the controller 320L based on the information acquired from the position sensor 130 and / or the sensor built in the controller 320L, and determines the virtual operation based on the identified operation of the controller 320L. The motion of the left hand of the avatar displayed in the space and the motion of the controller 320L in the real space (the motion of the left hand of the user U) can be accurately associated. Similarly, the control device 120 specifies the operation of the controller 320R based on the information acquired from the position sensor and / or the sensor built in the controller 320R, and based on the operation of the specified controller 320R, the virtual space The motion of the right hand of the avatar displayed inside the motion of the controller 320R in the real space (the motion of the right hand of the user U) can be accurately associated.

また、制御装置120は、フェイスカメラ113,117によって取得された動画像に基づいて、ユーザUの顔の表情(状態)とユーザUのアバターの顔の表情(状態)を対応付けることができる。ユーザUの顔の表情とアバターの顔の表情を互いに対応づける処理の詳細については後述する。   Further, the control device 120 can associate the facial expression (state) of the user U with the facial expression (state) of the avatar of the user U based on the moving images acquired by the face cameras 113 and 117. Details of the process of associating the facial expression of the user U with the facial expression of the avatar will be described later.

また、制御装置120は、ユーザUの右目の視線と左目の視線をそれぞれ特定し、当該右目の視線と当該左目の視線の交点である注視点を特定することができる。さらに、制御装置120は、特定された注視点に基づいて、ユーザUの両目の視線(ユーザUの視線)を特定することができる。ここで、ユーザUの視線は、ユーザUの両目の視線であって、ユーザUの右目と左目を結ぶ線分の中点と注視点を通る直線の方向に一致する。また、制御装置120は、注視センサ140(左目用注視センサと右目用注視センサ)から送信された検出データ(アイトラッキングデータ)に基づいて、ユーザUの右目の黒目の中心位置とユーザUの左目の黒目の中心位置とをそれぞれ特定することができる。   Further, the control device 120 can identify the right eye line of sight and the left eye line of sight of the user U, respectively, and can identify the gaze point that is the intersection of the right eye line of sight and the left eye line of sight. Furthermore, the control device 120 can specify the line of sight of both eyes of the user U (the line of sight of the user U) based on the specified gazing point. Here, the line of sight of the user U is the line of sight of both eyes of the user U, and coincides with the direction of a straight line passing through the middle point of the line connecting the right eye and the left eye of the user U and the gazing point. The control device 120 also determines the center position of the black eye of the user U and the left eye of the user U based on the detection data (eye tracking data) transmitted from the gaze sensor 140 (the left eye gaze sensor and the right eye gaze sensor). The center position of each black eye can be specified.

次に、図3を参照して、HMD110の位置や傾きに関する情報を取得する方法について以下に説明する。図3は、HMD110を装着したユーザUの頭部を示す図である。HMD110を装着したユーザUの頭部の動きに連動したHMD110の位置や傾きに関する情報は、位置センサ130及び/又はHMD110に搭載されたHMDセンサ114により検出可能である。図2に示すように、HMD110を装着したユーザUの頭部を中心として、3次元座標(uvw座標)が規定される。ユーザUが直立する垂直方向をv軸として規定し、v軸と直交しHMD110の中心を通る方向をw軸として規定し、v軸およびw軸と直交する方向をu軸として規定する。位置センサ130及び/又はHMDセンサ114は、各uvw軸回りの角度(すなわち、v軸を中心とする回転を示すヨー角、u軸を中心とした回転を示すピッチ角、w軸を中心とした回転を示すロール角で決定される傾き)を検出する。制御装置120は、検出された各uvw軸回りの角度変化に基づいて、仮想カメラの視軸を制御するための角度情報を決定する。   Next, a method for acquiring information related to the position and inclination of the HMD 110 will be described below with reference to FIG. FIG. 3 is a diagram illustrating the head of the user U wearing the HMD 110. Information on the position and inclination of the HMD 110 that is linked to the movement of the head of the user U wearing the HMD 110 can be detected by the position sensor 130 and / or the HMD sensor 114 mounted on the HMD 110. As shown in FIG. 2, three-dimensional coordinates (uvw coordinates) are defined centering on the head of the user U wearing the HMD 110. The vertical direction in which the user U stands up is defined as the v-axis, the direction orthogonal to the v-axis and passing through the center of the HMD 110 is defined as the w-axis, and the direction orthogonal to the v-axis and the w-axis is defined as the u-axis. The position sensor 130 and / or the HMD sensor 114 is an angle around each uvw axis (that is, a yaw angle indicating rotation around the v axis, a pitch angle indicating rotation around the u axis, and a center around the w axis). The inclination determined by the roll angle indicating rotation) is detected. The control device 120 determines angle information for controlling the visual axis of the virtual camera based on the detected angle change around each uvw axis.

次に、図4を参照することで、制御装置120のハードウェア構成について説明する。図4は、制御装置120のハードウェア構成を示す図である。図4に示すように、制御装置120は、制御部121と、記憶部123と、I/O(入出力)インターフェース124と、通信インターフェース125と、バス126とを備える。制御部121と、記憶部123と、I/Oインターフェース124と、通信インターフェース125は、バス126を介して互いに通信可能に接続されている。   Next, the hardware configuration of the control device 120 will be described with reference to FIG. FIG. 4 is a diagram illustrating a hardware configuration of the control device 120. As illustrated in FIG. 4, the control device 120 includes a control unit 121, a storage unit 123, an I / O (input / output) interface 124, a communication interface 125, and a bus 126. The control unit 121, the storage unit 123, the I / O interface 124, and the communication interface 125 are connected to each other via a bus 126 so as to communicate with each other.

制御装置120は、HMD110とは別体に、パーソナルコンピュータ、スマートフォン、ファブレット、タブレット又はウェアラブルデバイスとして構成されてもよいし、HMD110に内蔵されていてもよい。また、制御装置120の一部の機能がHMD110に搭載されると共に、制御装置120の残りの機能がHMD110とは別体の他の装置に搭載されてもよい。   The control device 120 may be configured as a personal computer, a smartphone, a fablet, a tablet, or a wearable device separately from the HMD 110, or may be built in the HMD 110. In addition, some functions of the control device 120 may be mounted on the HMD 110, and the remaining functions of the control device 120 may be mounted on another device separate from the HMD 110.

制御部121は、メモリとプロセッサを備えている。メモリは、例えば、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)及び/又はGPU(Graphics Processing Unit)であって、ROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。   The control unit 121 includes a memory and a processor. The memory includes, for example, a ROM (Read Only Memory) in which various programs are stored, a RAM (Random Access Memory) having a plurality of work areas in which various programs executed by the processor are stored, and the like. The processor is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and / or a GPU (Graphics Processing Unit), and a program specified from various programs embedded in the ROM is expanded on the RAM. It is comprised so that various processes may be performed in cooperation with.

特に、プロセッサが制御プログラムをRAM上に展開し、RAMとの協働で制御プログラムを実行することで、制御部121は、制御装置120の各種動作を制御してもよい。制御部121は、視野画像データに基づいてHMD110の表示部112に視野画像を表示する。これにより、ユーザUは、仮想空間に没入することができる。   In particular, the control unit 121 may control various operations of the control device 120 by a processor developing a control program on a RAM and executing the control program in cooperation with the RAM. The control unit 121 displays a field image on the display unit 112 of the HMD 110 based on the field image data. Thereby, the user U can be immersed in the virtual space.

記憶部(ストレージ)123は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、USBフラッシュメモリ等の記憶装置であって、プログラムや各種データを格納するように構成されている。記憶部123は、本実施形態に係る情報処理方法の少なくとも一部をコンピュータに実行させるための制御プログラムや、複数のユーザによる仮想空間の共有を実現するための制御プログラムを格納してもよい。また、記憶部123には、ユーザUの認証プログラムや各種画像やオブジェクト(例えば、アバター等)に関するデータが格納されてもよい。さらに、記憶部123には、各種データを管理するためのテーブルを含むデータベースが構築されてもよい。   The storage unit (storage) 123 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a USB flash memory, and is configured to store programs and various data. The storage unit 123 may store a control program for causing a computer to execute at least a part of the information processing method according to the present embodiment, or a control program for realizing sharing of a virtual space by a plurality of users. The storage unit 123 may store data related to the user U authentication program, various images, and objects (for example, an avatar). Furthermore, a database including tables for managing various data may be constructed in the storage unit 123.

I/Oインターフェース124は、HMD110と、位置センサ130と、外部コントローラ320と、ヘッドフォン116と、フェイスカメラ117と、マイク118とをそれぞれ制御装置120に通信可能に接続するように構成されており、例えば、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High―Definition Multimedia Interface)端子等により構成されている。尚、制御装置120は、HMD110と、位置センサ130と、外部コントローラ320と、ヘッドフォン116と、フェイスカメラ117と、マイク118とのそれぞれと無線接続されていてもよい。   The I / O interface 124 is configured to communicably connect the HMD 110, the position sensor 130, the external controller 320, the headphones 116, the face camera 117, and the microphone 118 to the control device 120, respectively. For example, it is configured by a USB (Universal Serial Bus) terminal, a DVI (Digital Visual Interface) terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) terminal, and the like. The control device 120 may be wirelessly connected to each of the HMD 110, the position sensor 130, the external controller 320, the headphones 116, the face camera 117, and the microphone 118.

通信インターフェース125は、制御装置120をLAN(Local Area Network)、WAN(Wide Area Network)又はインターネット等の通信ネットワーク3に接続させるように構成されている。通信インターフェース125は、通信ネットワーク3を介してサーバ2等の外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んでおり、通信ネットワーク3を介して通信するための通信規格に適合するように構成されている。   The communication interface 125 is configured to connect the control device 120 to a communication network 3 such as a LAN (Local Area Network), a WAN (Wide Area Network), or the Internet. The communication interface 125 includes various wired connection terminals for communicating with an external device such as the server 2 via the communication network 3 and various processing circuits for wireless connection, and communicates via the communication network 3. It is configured to conform to the communication standard.

次に、図5から図8を参照することで視野画像をHMD110に表示するための処理について説明する。図5は、視野画像をHMD110に表示する処理を示すフローチャートである。図6は、仮想空間200の一例を示すxyz空間図である。図7の状態(a)は、図6に示す仮想空間200のyx平面図である。図7の状態(b)は、図6に示す仮想空間200のzx平面図である。図8は、HMD110に表示された視野画像Vの一例を示す図である。   Next, processing for displaying a field-of-view image on the HMD 110 will be described with reference to FIGS. FIG. 5 is a flowchart showing a process for displaying the visual field image on the HMD 110. FIG. 6 is an xyz space diagram showing an example of the virtual space 200. The state (a) in FIG. 7 is a yx plan view of the virtual space 200 shown in FIG. The state (b) in FIG. 7 is a zx plan view of the virtual space 200 shown in FIG. FIG. 8 is a diagram illustrating an example of the visual field image V displayed on the HMD 110.

図5に示すように、ステップS1において、制御部121(図4参照)は、仮想カメラ300と、各種オブジェクトとを含む仮想空間200を示す仮想空間データを生成する。図6に示すように、仮想空間200は、中心位置210を中心とした全天球として規定される(図6では、上半分の天球のみが図示されている)。また、仮想空間200では、中心位置210を原点とするxyz座標系が設定されている。仮想カメラ300は、HMD110に表示される視野画像V(図8参照)を特定するための視軸Lを規定している。仮想カメラ300の視野を定義するuvw座標系は、現実空間におけるユーザUの頭部を中心として規定されたuvw座標系に連動するように決定される。また、HMD110を装着したユーザUの現実空間における移動に連動して、制御部121は、仮想カメラ300を仮想空間200内で移動させてもよい。   As illustrated in FIG. 5, in step S <b> 1, the control unit 121 (see FIG. 4) generates virtual space data indicating the virtual space 200 including the virtual camera 300 and various objects. As shown in FIG. 6, the virtual space 200 is defined as an omnidirectional sphere centered on the center position 210 (in FIG. 6, only the upper half celestial sphere is shown). In the virtual space 200, an xyz coordinate system with the center position 210 as the origin is set. The virtual camera 300 defines a visual axis L for specifying the visual field image V (see FIG. 8) displayed on the HMD 110. The uvw coordinate system that defines the visual field of the virtual camera 300 is determined so as to be linked to the uvw coordinate system that is defined around the head of the user U in the real space. Further, the control unit 121 may move the virtual camera 300 in the virtual space 200 in conjunction with the movement of the user U wearing the HMD 110 in the real space.

次に、ステップS2において、制御部121は、仮想カメラ300の視野CV(図7参照)を特定する。具体的には、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の状態を示すデータに基づいて、HMD110の位置や傾きに関する情報を取得する。次に、制御部121は、HMD110の位置や傾きに関する情報に基づいて、仮想空間200内における仮想カメラ300の位置や向きを特定する。次に、制御部121は、仮想カメラ300の位置や向きから仮想カメラ300の視軸Lを決定し、決定された視軸Lから仮想カメラ300の視野CVを特定する。ここで、仮想カメラ300の視野CVは、HMD110を装着したユーザUが視認可能な仮想空間200の一部の領域に相当する(換言すれば、HMD110に表示される仮想空間200の一部の領域に相当する)。また、視野CVは、図7の状態(a)に示すxy平面において、視軸Lを中心とした極角αの角度範囲として設定される第1領域CVaと、図7の状態(b)に示すxz平面において、視軸Lを中心とした方位角βの角度範囲として設定される第2領域CVbとを有する。尚、制御部121は、注視センサ140から送信されたユーザUの視線を示すデータに基づいてユーザUの視線を特定し、特定されたユーザUの視線とHMD110の位置や傾きに関する情報に基づいて、仮想カメラ300の向き(仮想カメラの視軸L)を決定してもよい。また、後述するように、制御部121は、HMD110の位置や傾きに関する情報に基づいて、ユーザUのアバターの顔の向きを決定してもよい。   Next, in step S <b> 2, the control unit 121 specifies the field of view CV (see FIG. 7) of the virtual camera 300. Specifically, the control unit 121 acquires information on the position and inclination of the HMD 110 based on data indicating the state of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. Next, the control unit 121 identifies the position and orientation of the virtual camera 300 in the virtual space 200 based on information regarding the position and tilt of the HMD 110. Next, the control unit 121 determines the visual axis L of the virtual camera 300 from the position and orientation of the virtual camera 300 and specifies the visual field CV of the virtual camera 300 from the determined visual axis L. Here, the visual field CV of the virtual camera 300 corresponds to a part of the virtual space 200 visible to the user U wearing the HMD 110 (in other words, a part of the virtual space 200 displayed on the HMD 110). Equivalent to Further, the visual field CV includes a first region CVa set as an angular range of the polar angle α around the visual axis L in the xy plane shown in the state (a) of FIG. 7, and the state (b) of FIG. 7. The xz plane shown has a second region CVb set as an angle range of the azimuth angle β with the visual axis L as the center. The control unit 121 identifies the line of sight of the user U based on the data indicating the line of sight of the user U transmitted from the gaze sensor 140, and based on the information regarding the identified line of sight of the user U and the position and inclination of the HMD 110. The orientation of the virtual camera 300 (the visual axis L of the virtual camera) may be determined. As will be described later, the control unit 121 may determine the orientation of the face of the user U's avatar based on information on the position and inclination of the HMD 110.

このように、制御部121は、位置センサ130及び/又はHMDセンサ114からのデータに基づいて、仮想カメラ300の視野CVを特定することができる。ここで、HMD110を装着したユーザUが動くと、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の動きを示すデータに基づいて、仮想カメラ300の視野CVを更新することができる。つまり、制御部121は、HMD110の動きに応じて、視野CVを更新することができる。同様に、ユーザUの視線が変化すると、制御部121は、注視センサ140から送信されたユーザUの視線を示すデータに基づいて、仮想カメラ300の視野CVを更新してもよい。つまり、制御部121は、ユーザUの視線の変化に応じて、視野CVを変化させてもよい。   As described above, the control unit 121 can specify the visual field CV of the virtual camera 300 based on the data from the position sensor 130 and / or the HMD sensor 114. Here, when the user U wearing the HMD 110 moves, the control unit 121 updates the visual field CV of the virtual camera 300 based on the data indicating the movement of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. be able to. That is, the control unit 121 can update the visual field CV according to the movement of the HMD 110. Similarly, when the line of sight of the user U changes, the control unit 121 may update the visual field CV of the virtual camera 300 based on the data indicating the line of sight of the user U transmitted from the gaze sensor 140. That is, the control unit 121 may change the visual field CV according to the change in the line of sight of the user U.

次に、ステップS3において、制御部121は、HMD110の表示部112に表示される視野画像Vを示す視野画像データを生成する。具体的には、制御部121は、仮想空間200を規定する仮想空間データと、仮想カメラ300の視野CVとに基づいて、視野画像データを生成する。   Next, in step S <b> 3, the control unit 121 generates visual field image data indicating the visual field image V displayed on the display unit 112 of the HMD 110. Specifically, the control unit 121 generates visual field image data based on virtual space data defining the virtual space 200 and the visual field CV of the virtual camera 300.

次に、ステップS4において、制御部121は、視野画像データに基づいて、HMD110の表示部112に視野画像Vを表示する(図7参照)。このように、HMD110を装着しているユーザUの動きに応じて、仮想カメラ300の視野CVが変化し、HMD110の表示部112に表示される視野画像Vが変化するので、ユーザUは仮想空間200に没入することができる。   Next, in step S4, the control unit 121 displays the field image V on the display unit 112 of the HMD 110 based on the field image data (see FIG. 7). As described above, the visual field CV of the virtual camera 300 is changed according to the movement of the user U wearing the HMD 110, and the visual field image V displayed on the display unit 112 of the HMD 110 is changed. I can immerse myself in 200.

尚、仮想カメラ300は、左目用仮想カメラと右目用仮想カメラを含んでもよい。この場合、制御部121は、仮想空間データと左目用仮想カメラの視野に基づいて、左目用の視野画像を示す左目用視野画像データを生成する。さらに、制御部121は、仮想空間データと、右目用仮想カメラの視野に基づいて、右目用の視野画像を示す右目用視野画像データを生成する。その後、制御部121は、左目用視野画像データに基づいて、左目用表示部に左目用の視野画像を表示すると共に、右目用視野画像データに基づいて、右目用表示部に右目用の視野画像を表示する。このようにして、ユーザUは、左目用視野画像と右目用視野画像との間の視差により、視野画像を3次元的に視認することができる。尚、仮想カメラは、後述するように、ユーザによって操作されるアバターの目の位置に配置されてもよい。例えば、左目用仮想カメラは、アバターの左目に配置される一方で、右目用仮想カメラは、アバターの右目に配置されてもよい。   Note that the virtual camera 300 may include a left-eye virtual camera and a right-eye virtual camera. In this case, the control unit 121 generates left-eye view image data indicating the left-eye view image based on the virtual space data and the view of the left-eye virtual camera. Further, the control unit 121 generates right-eye view image data indicating a right-eye view image based on the virtual space data and the view of the right-eye virtual camera. Thereafter, the control unit 121 displays the left-eye field image on the left-eye display unit based on the left-eye field image data, and also displays the right-eye field image on the right-eye display unit based on the right-eye field image data. Is displayed. In this way, the user U can visually recognize the visual field image three-dimensionally due to the parallax between the left-eye visual field image and the right-eye visual field image. As will be described later, the virtual camera may be arranged at the position of the avatar eye operated by the user. For example, the left-eye virtual camera may be placed in the left eye of the avatar, while the right-eye virtual camera may be placed in the right eye of the avatar.

また、図5に示すステップS1〜S4の処理は1フレーム毎に実行されてもよい。例えば、動画のフレームレートが90fpsである場合、ステップS1〜S4の処理はΔT=1/90(秒)間隔で繰り返し実行されてもよい。このように、ステップS1〜S4の処理が所定間隔ごとに繰り返し実行されるため、HMD110の動作に応じて仮想カメラ300の視野が更新されると共に、HMD110の表示部112に表示される視野画像Vが更新される。   Moreover, the process of step S1-S4 shown in FIG. 5 may be performed for every frame. For example, when the frame rate of the moving image is 90 fps, the processes in steps S1 to S4 may be repeatedly executed at intervals of ΔT = 1/90 (seconds). As described above, since the processes in steps S1 to S4 are repeatedly performed at predetermined intervals, the visual field of the virtual camera 300 is updated according to the operation of the HMD 110, and the visual field image V displayed on the display unit 112 of the HMD 110. Is updated.

次に、図1に示すサーバ2のハードウェア構成について図9を参照して説明する。図9は、サーバ2のハードウェア構成を示す図である。図9に示すように、サーバ2は、制御部23と、記憶部22と、通信インターフェース21と、バス24とを備える。制御部23と、記憶部22と、通信インターフェース21は、バス24を介して互いに通信可能に接続されている。制御部23は、メモリとプロセッサを備えており、メモリは、例えば、ROM及びRAM等から構成されると共に、プロセッサは、例えば、CPU、MPU及び/又はGPUにより構成される。   Next, the hardware configuration of the server 2 shown in FIG. 1 will be described with reference to FIG. FIG. 9 is a diagram illustrating a hardware configuration of the server 2. As shown in FIG. 9, the server 2 includes a control unit 23, a storage unit 22, a communication interface 21, and a bus 24. The control unit 23, the storage unit 22, and the communication interface 21 are communicably connected to each other via a bus 24. The control unit 23 includes a memory and a processor. The memory is composed of, for example, a ROM and a RAM, and the processor is composed of, for example, a CPU, an MPU, and / or a GPU.

記憶部(ストレージ)22は、例えば、大容量のHDD等である。記憶部22は、本実施形態に係る情報処理方法の少なくとも一部をコンピュータに実行させるための制御プログラムや、複数のユーザによる仮想空間の共有を実現させるための制御プログラムを格納してもよい。また、記憶部22は、各ユーザを管理するためのユーザ管理情報や各種画像やオブジェクト(例えば、アバター等)に関するデータを格納してもよい。通信インターフェース21は、サーバ2を通信ネットワーク3に接続させるように構成されている。   The storage unit (storage) 22 is, for example, a large-capacity HDD. The storage unit 22 may store a control program for causing a computer to execute at least a part of the information processing method according to the present embodiment, or a control program for realizing sharing of a virtual space by a plurality of users. Moreover, the memory | storage part 22 may store the data regarding the user management information for managing each user, various images, and objects (for example, avatar etc.). The communication interface 21 is configured to connect the server 2 to the communication network 3.

[アバター間の動作制御に関する説明]
次に、図1,10及び11を参照してユーザ端末1Aとユーザ端末1B間において各アバター4A,4Bの動きを同期制御する処理の一例について説明する。図10の状態(a)は、ユーザAに提供される仮想空間200Aを示す図である。図10の状態(b)は、ユーザBに提供される仮想空間200Bを示す図である。図11は、ユーザ端末1Aとユーザ端末1B間において各アバター4A,4Bの動きを同期させる処理の一例を説明するためのシーケンス図である。本説明では、前提条件として、図10に示すように、ユーザ端末1A(ユーザA)に関連付けられたアバター4A(第1アバター)と、ユーザ端末1B(ユーザB)に関連付けられたアバター4B(第2アバター)が同一の仮想空間を共有しているものとする。つまり、通信ネットワーク3を介してユーザAとユーザBが一つの仮想空間を共有するものとする。
[Explanation of motion control between avatars]
Next, an example of processing for synchronously controlling the movements of the avatars 4A and 4B between the user terminal 1A and the user terminal 1B will be described with reference to FIGS. The state (a) in FIG. 10 is a diagram showing the virtual space 200A provided to the user A. The state (b) in FIG. 10 is a diagram showing the virtual space 200B provided to the user B. FIG. 11 is a sequence diagram for explaining an example of processing for synchronizing the movements of the avatars 4A and 4B between the user terminal 1A and the user terminal 1B. In this description, as shown in FIG. 10, as a precondition, an avatar 4A (first avatar) associated with the user terminal 1A (user A) and an avatar 4B associated with the user terminal 1B (user B) (first 2 avatars) share the same virtual space. That is, it is assumed that the user A and the user B share one virtual space via the communication network 3.

図10の状態(a)に示すように、ユーザAの仮想空間200Aは、アバター4Aと、アバター4Bとを含む。アバター4Aは、ユーザAによって操作されると共に、ユーザAの動作に連動する。アバター4Aは、ユーザ端末1Aのコントローラ320Lの動作(ユーザAの左手の動作)に連動する左手と、ユーザ端末1Aのコントローラ320Rの動作に連動する右手と、表情がユーザAの顔の表情に連動する顔を有する。アバター4Aの顔は、複数の顔パーツ(例えば、目、まゆげ、口等)を有する。アバター4Bは、ユーザBによって操作されると共に、ユーザBの動作に連動する。アバター4Bは、ユーザBの左手の動作を示すユーザ端末1Bのコントローラ320Lの動作に連動する左手と、ユーザBの右手の動作を示すユーザ端末1Bのコントローラ320Rの動作に連動する右手と、表情がユーザBの顔の表情と連動する顔を有する。アバター4Bの顔は、複数の顔パーツ(例えば、目、まゆげ、口等)を有する。   As shown in the state (a) of FIG. 10, the virtual space 200A of the user A includes an avatar 4A and an avatar 4B. The avatar 4A is operated by the user A and interlocked with the operation of the user A. The avatar 4A has a left hand linked to the operation of the controller 320L of the user terminal 1A (the movement of the left hand of the user A), a right hand linked to the operation of the controller 320R of the user terminal 1A, and an expression linked to the facial expression of the user A. Have a face to do. The face of the avatar 4A has a plurality of face parts (for example, eyes, eyebrows, mouths, etc.). The avatar 4B is operated by the user B and interlocked with the operation of the user B. The avatar 4B has a left hand linked to the operation of the controller 320L of the user terminal 1B showing the operation of the user B's left hand, a right hand linked to the operation of the controller 320R of the user terminal 1B showing the operation of the user B's right hand, It has a face that is linked to the facial expression of user B. The face of the avatar 4B has a plurality of face parts (for example, eyes, eyebrows, mouths, etc.).

また、ユーザ端末1A,1BのHMD110の位置に応じてアバター4A,4Bの位置が特定されてもよい。同様に、ユーザ端末1A,1BのHMD110の傾きに応じてアバター4A,4Bの顔の向きが特定されてもよい。さらに、ユーザ端末1A,1Bの外部コントローラ320の動作に応じてアバター4A,4Bの手の動作が特定されてもよい。また、ユーザA,Bの顔の表情(状態)に応じてアバター4A,4Bの顔の表情が特定されてもよい。特に、ユーザA,Bの白目に対する黒目の位置に応じてアバター4A,4Bの白目に対する黒目の位置が特定されてもよい。   Further, the positions of the avatars 4A and 4B may be specified according to the position of the HMD 110 of the user terminals 1A and 1B. Similarly, the face orientations of the avatars 4A and 4B may be specified according to the inclination of the HMD 110 of the user terminals 1A and 1B. Furthermore, the movement of the hands of the avatars 4A and 4B may be specified according to the movement of the external controller 320 of the user terminals 1A and 1B. The facial expressions of the avatars 4A and 4B may be specified according to the facial expressions (states) of the users A and B. In particular, the position of the black eye for the white eyes of the avatars 4A and 4B may be specified according to the position of the black eye for the white eyes of the users A and B.

図10の状態(b)に示すように、ユーザBの仮想空間200Bは、アバター4Aと、アバター4Bとを含む。仮想空間200A内におけるアバター4A,4Bの位置は、仮想空間200B内におけるアバター4A,4Bの位置に対応してもよい。   As shown in the state (b) of FIG. 10, the virtual space 200B of the user B includes an avatar 4A and an avatar 4B. The positions of the avatars 4A and 4B in the virtual space 200A may correspond to the positions of the avatars 4A and 4B in the virtual space 200B.

次に、図11を参照すると、ステップS10において、ユーザ端末1Aの制御部121は、ユーザAの音声データを生成する。例えば、ユーザAがユーザ端末1Aのマイク118(音声入力部)に音声を入力したときに、マイク118は、入力された音声を示す音声データを生成する。その後、マイク118は生成された音声データをI/Oインターフェース124を介して制御部121に送信する。   Next, referring to FIG. 11, in step S10, the control unit 121 of the user terminal 1A generates voice data of the user A. For example, when the user A inputs voice to the microphone 118 (voice input unit) of the user terminal 1A, the microphone 118 generates voice data indicating the input voice. Thereafter, the microphone 118 transmits the generated audio data to the control unit 121 via the I / O interface 124.

次に、ステップS11において、ユーザ端末1Aの制御部121は、アバター4Aの制御情報を生成した上で、当該生成したアバター4Aの制御情報とユーザAの音声を示す音声データ(ユーザAの音声データ)をサーバ2に送信する。その後、サーバ2の制御部23は、ユーザ端末1Aからアバター4Aの制御情報とユーザAの音声データを受信する(ステップS12)。   Next, in step S11, the control unit 121 of the user terminal 1A generates control information of the avatar 4A, and then generates audio data indicating the control information of the generated avatar 4A and the voice of the user A (voice data of the user A) ) To the server 2. Thereafter, the control unit 23 of the server 2 receives the control information of the avatar 4A and the voice data of the user A from the user terminal 1A (step S12).

ここで、アバター4Aの制御情報は、アバター4Aの動作を制御するために必要な情報である。アバター4Aの制御情報は、アバター4Aの位置に関する情報(位置情報)と、アバター4Aの顔の向きに関する情報(顔向き情報)と、アバター4Aの手(左手と右手)の状態に関する情報(手情報)と、アバター4Aの顔の表情に関する情報(顔情報)とを含んでもよい。   Here, the control information of the avatar 4A is information necessary for controlling the operation of the avatar 4A. The control information of the avatar 4A includes information about the position of the avatar 4A (position information), information about the face orientation of the avatar 4A (face orientation information), and information about the state of the avatar 4A's hand (left hand and right hand) (hand information). ) And information (face information) related to the facial expression of the avatar 4A.

アバター4Aの顔情報は、複数の顔パーツの状態を示す情報を有する。複数の顔パーツの状態を示す情報は、アバター4Aの目の状態(白目の形状及び白目に対する黒目の位置等)を示す情報(目情報)と、アバター4Aのまゆげの情報(まゆげの位置及び形状等)を示す情報(まゆげ情報)と、アバター4Aの口の状態(口の位置及び形状等)を示す情報(口情報)を有する。   The face information of the avatar 4A has information indicating the states of a plurality of face parts. The information indicating the state of the plurality of face parts includes information (eye information) indicating the eye state of the avatar 4A (the shape of the white eye and the position of the black eye with respect to the white eye), and information on the eyebrow of the avatar 4A (the position and shape of the eyebrows) Etc.) and information (mouth information) indicating the mouth state (mouth position and shape, etc.) of the avatar 4A.

詳細には、アバター4Aの目情報は、アバター4Aの左目の状態を示す情報と、アバター4Aの右目の状態を示す情報を有する。アバター4Aのまゆげ情報は、アバター4Aの左まゆげの状態を示す情報と、アバター4Aの右まゆげの状態を示す情報を有する。   Specifically, the eye information of the avatar 4A includes information indicating the state of the left eye of the avatar 4A and information indicating the state of the right eye of the avatar 4A. The eyebrow information of the avatar 4A includes information indicating the state of the left eyebrow of the avatar 4A and information indicating the state of the right eyebrow of the avatar 4A.

ユーザ端末1Aの制御部121は、HMD110に搭載されたフェイスカメラ113からユーザAの目(左目と右目)とまゆげ(左まゆげと右まゆげ)を示す画像を取得した上で、当該取得された画像と所定の画像処理アルゴリズムに基づいてユーザAの目(左目と右目)とまゆげ(左まゆげと右まゆげ)の状態を特定する。次に、制御部121は、特定されたユーザAの目とまゆげの状態に基づいて、アバター4Aの目(左目と右目)の状態を示す情報とアバター4Aのまゆげ(左まゆげと右まゆげ)の状態を示す情報をそれぞれ生成する。尚、ユーザAの目の状態を示す情報のうち、ユーザAの黒目の位置(中心位置)を示す情報は、フェイスカメラ113の代わりに注視センサ140によって取得されてもよい。   The control unit 121 of the user terminal 1A acquires an image showing the eyes (left eye and right eye) and eyebrow (left eyebrow and right eyebrow) of the user A from the face camera 113 mounted on the HMD 110, and then acquires the acquired image. Based on a predetermined image processing algorithm, the state of user A's eyes (left eye and right eye) and eyebrows (left eyebrows and right eyebrows) is specified. Next, based on the eye and eyebrow state of the specified user A, the control unit 121 includes information indicating the eye state of the avatar 4A (left eye and right eye) and the eyebrow of the avatar 4A (left eyebrow and right eyebrow). Information indicating the state is generated. Of the information indicating the eye state of the user A, information indicating the position (center position) of the black eye of the user A may be acquired by the gaze sensor 140 instead of the face camera 113.

同様に、ユーザ端末1Aの制御部121は、フェイスカメラ117からユーザAの口及びその周辺を示す画像を取得した上で、当該取得された画像と所定の画像処理アルゴリズムに基づいてユーザAの口の状態を特定する。次に、制御部121は、特定されたユーザAの口の状態に基づいて、アバター4Aの口の状態を示す情報を生成する。   Similarly, the control unit 121 of the user terminal 1A acquires an image indicating the mouth of the user A and the periphery thereof from the face camera 117, and then based on the acquired image and a predetermined image processing algorithm, the control unit 121 of the user A The state of is identified. Next, the control unit 121 generates information indicating the mouth state of the avatar 4A based on the identified mouth state of the user A.

このように、ユーザ端末1Aの制御部121は、ユーザAの目に対応するアバター4Aの目情報と、ユーザAのまゆげに対応するアバター4Aのまゆげ情報と、ユーザAの口に対応するアバター4Aの口情報を生成することが可能となる。   As described above, the control unit 121 of the user terminal 1A includes the eye information of the avatar 4A corresponding to the eyes of the user A, the eyebrow information of the avatar 4A corresponding to the user A's eyebrows, and the avatar 4A corresponding to the mouth of the user A. It is possible to generate the mouth information.

また、制御部121は、フェイスカメラ113によって撮像された画像と、フェイスカメラ117によって撮像された画像と、所定の画像処理アルゴリズムに基づいて、記憶部123又はメモリに記憶された複数の種類の顔の表情(例えば、笑顔、悲しい表情、無表情、怒りの表情、驚いた表情、困った表情等)の中からユーザAの顔の表情(例えば、笑顔)を特定してもよい。その後、制御部121は、特定されたユーザAの顔の表情に基づいて、アバター4Aの顔の表情(例えば、笑顔)を示す顔情報を生成することが可能となる。この場合、アバター4Aの複数の種類の顔の表情と、各々が当該複数の種類の顔の表情の一つに関連付けられた複数のアバター4Aの顔情報を含む表情データベースが記憶部123に保存されてもよい。   In addition, the control unit 121 uses a plurality of types of faces stored in the storage unit 123 or the memory based on an image captured by the face camera 113, an image captured by the face camera 117, and a predetermined image processing algorithm. The facial expression (for example, smile) of the user A may be specified from among the facial expressions (for example, smile, sad expression, no expression, angry expression, surprised expression, troubled expression, etc.). Thereafter, the control unit 121 can generate face information indicating a facial expression (for example, a smile) of the avatar 4A based on the identified facial expression of the user A. In this case, a storage unit 123 stores a facial expression database including a plurality of types of facial expressions of the avatar 4A and facial information of the plurality of avatars 4A each associated with one of the plurality of types of facial expressions. May be.

例えば、制御部121は、アバター4Aの顔の表情を笑顔として特定した場合、アバター4Aの顔の表情(笑顔)と表情データベースに基づいて、アバター4Aの笑顔を示す顔情報を取得する。ここで、アバター4Aの笑顔を示す顔情報は、アバター4Aの顔の表情が笑顔のときのアバター4Aの目情報、まゆげ情報及び口情報を含む。   For example, when the facial expression of the avatar 4A is specified as a smile, the control unit 121 acquires facial information indicating the smile of the avatar 4A based on the facial expression (smile) of the avatar 4A and the facial expression database. Here, the face information indicating the smile of the avatar 4A includes eye information, eyebrow information, and mouth information of the avatar 4A when the facial expression of the avatar 4A is smiling.

次に、ステップS13において、ユーザ端末1Bの制御部121は、アバター4Bの制御情報を生成した上で、当該生成したアバター4Bの制御情報をサーバ2に送信する。その後、サーバ2の制御部23は、ユーザ端末1Bからアバター4Bの制御情報を受信する
(ステップS14)。
Next, in step S <b> 13, the control unit 121 of the user terminal 1 </ b> B generates control information for the avatar 4 </ b> B and transmits the generated control information for the avatar 4 </ b> B to the server 2. Thereafter, the control unit 23 of the server 2 receives the control information of the avatar 4B from the user terminal 1B (step S14).

ここで、アバター4Bの制御情報は、アバター4Bの動作を制御するために必要な情報である。アバター4Bの制御情報は、アバター4Bの位置に関する情報(位置情報)と、アバター4Bの顔の向きに関する情報(顔向き情報)と、アバター4Bの手(左手と右手)の状態に関する情報(手情報)と、アバター4Bの顔の表情に関する情報(顔情報)とを含んでもよい。   Here, the control information of the avatar 4B is information necessary for controlling the operation of the avatar 4B. The control information of the avatar 4B includes information about the position of the avatar 4B (position information), information about the face direction of the avatar 4B (face orientation information), and information about the state of the avatar 4B's hands (left hand and right hand) (hand information). ) And information (face information) related to the facial expression of the avatar 4B.

アバター4Bの顔情報は、複数の顔パーツの状態を示す情報を有する。複数の顔パーツの状態を示す情報は、アバター4Bの目の状態(白目の形状及び白目に対する黒目の位置等)を示す情報(目情報)と、アバター4Bのまゆげの情報(まゆげの位置及び形状等)を示す情報(まゆげ情報)と、アバター4Bの口の状態(口の位置及び形状等)を示す情報(口情報)を有する。アバター4Bの顔情報の取得方法は、アバター4Aの顔情報の取得方法と同様である。   The face information of the avatar 4B has information indicating the state of a plurality of face parts. The information indicating the state of the plurality of face parts includes information (eye information) indicating the eye state of the avatar 4B (white eye shape and position of the black eye with respect to the white eye), and eyebrow information of the avatar 4B (eyebrows position and shape). Etc.) and information (mouth information) indicating the mouth state (mouth position and shape, etc.) of the avatar 4B. The method for acquiring the face information of the avatar 4B is the same as the method for acquiring the face information of the avatar 4A.

次に、サーバ2は、アバター4Bの制御情報をユーザ端末1Aに送信する一方(ステップS15)、アバター4Aの制御情報とユーザAの音声データをユーザ端末1Bに送信する(ステップS19)。その後、ユーザ端末1Aの制御部121は、ステップS16においてアバター4Bの制御情報を受信した後に、アバター4A,4Bの制御情報に基づいて、アバター4A,4Bの状態を更新した上で、仮想空間200A(図10の状態(a)参照)を示す仮想空間データを更新する(ステップS17)。   Next, the server 2 transmits the control information of the avatar 4B to the user terminal 1A (step S15), and transmits the control information of the avatar 4A and the voice data of the user A to the user terminal 1B (step S19). Then, after receiving the control information of the avatar 4B in step S16, the control unit 121 of the user terminal 1A updates the state of the avatars 4A and 4B based on the control information of the avatars 4A and 4B, and then the virtual space 200A. The virtual space data indicating (see the state (a) in FIG. 10) is updated (step S17).

詳細には、ユーザ端末1Aの制御部121は、アバター4A,4Bの位置情報に基づいて、アバター4A,4Bの位置を更新する。制御部121は、アバター4A,4Bの顔向き情報に基づいて、アバター4A,4Bの顔の向きを更新する。制御部121は、アバター4A,4Bの手情報に基づいて、アバター4A,4Bの手を更新する。制御部121は、アバター4A,4Bの顔情報に基づいて、アバター4A,4Bの顔の表情を更新する。このように、更新されたアバター4A,4Bを含む仮想空間200Aを示す仮想空間データが更新される。   Specifically, the control unit 121 of the user terminal 1A updates the positions of the avatars 4A and 4B based on the position information of the avatars 4A and 4B. The control unit 121 updates the face orientation of the avatars 4A and 4B based on the face orientation information of the avatars 4A and 4B. The control unit 121 updates the hands of the avatars 4A and 4B based on the hand information of the avatars 4A and 4B. The control unit 121 updates the facial expressions of the avatars 4A and 4B based on the face information of the avatars 4A and 4B. Thus, the virtual space data indicating the virtual space 200A including the updated avatars 4A and 4B is updated.

その後、ユーザ端末1Aの制御部121は、HMD110の位置や傾きに応じてアバター4A(仮想カメラ300)の視野CVを特定した上で、更新された仮想空間データと、アバター4Aの視野CVとに基づいて、HMD110に表示される視野画像を更新する(ステップS18)。   Thereafter, the control unit 121 of the user terminal 1A specifies the visual field CV of the avatar 4A (virtual camera 300) according to the position and inclination of the HMD 110, and then updates the virtual space data and the visual field CV of the avatar 4A. Based on this, the visual field image displayed on the HMD 110 is updated (step S18).

一方、ユーザ端末1Bの制御部121は、ステップS20においてアバター4Aの制御情報とユーザAの音声データを受信した後に、アバター4A,4Bの制御情報に基づいて、アバター4A,4Bの状態を更新した上で、仮想空間200B(図10の状態(b)参照)を示す仮想空間データを更新する(ステップS21)。   On the other hand, the control unit 121 of the user terminal 1B updates the state of the avatars 4A and 4B based on the control information of the avatars 4A and 4B after receiving the control information of the avatar 4A and the voice data of the user A in step S20. The virtual space data indicating the virtual space 200B (see the state (b) in FIG. 10) is updated (step S21).

詳細には、ユーザ端末1Bの制御部121は、アバター4A,4Bの位置情報に基づいて、アバター4A,4Bの位置を更新する。制御部121は、アバター4A,4Bの顔向き情報に基づいて、アバター4A,4Bの顔の向きを更新する。制御部121は、アバター4A,4Bの手情報に基づいて、アバター4A,4Bの手を更新する。制御部121は、アバター4A,4Bの顔情報に基づいて、アバター4A,4Bの顔の表情を更新する。このように、更新されたアバター4A,4Bを含む仮想空間を示す仮想空間データが更新される。   Specifically, the control unit 121 of the user terminal 1B updates the positions of the avatars 4A and 4B based on the position information of the avatars 4A and 4B. The control unit 121 updates the face orientation of the avatars 4A and 4B based on the face orientation information of the avatars 4A and 4B. The control unit 121 updates the hands of the avatars 4A and 4B based on the hand information of the avatars 4A and 4B. The control unit 121 updates the facial expressions of the avatars 4A and 4B based on the face information of the avatars 4A and 4B. Thus, the virtual space data indicating the virtual space including the updated avatars 4A and 4B is updated.

その後、ユーザ端末1Bの制御部121は、HMD110の位置や傾きに応じてアバター4B(仮想カメラ300)の視野CVを特定した上で、更新された仮想空間データと、アバター4Bの視野CVとに基づいて、HMD110に表示される視野画像を更新する(ステップS22)。   Thereafter, the control unit 121 of the user terminal 1B specifies the visual field CV of the avatar 4B (virtual camera 300) according to the position and inclination of the HMD 110, and then updates the virtual space data and the visual field CV of the avatar 4B. Based on this, the visual field image displayed on the HMD 110 is updated (step S22).

次に、ユーザ端末1Bの制御部121は、受信したユーザAの音声データと、アバター4Aの制御情報に含まれるアバター4Aの位置に関する情報と、アバター4Bの位置に関する情報と、所定の音声処理アルゴリズムに基づいてユーザAの音声データを加工する。その後、制御部121は、加工された音声データをヘッドフォン116(音声出力部)に送信した上で、ヘッドフォン116は、加工された音声データに基づいてユーザAの音声を出力する(ステップS23)。このように、仮想空間上においてユーザ間(アバター間)の音声チャット(VRチャット)を実現することができる。   Next, the control unit 121 of the user terminal 1B includes the received voice data of the user A, information about the position of the avatar 4A included in the control information of the avatar 4A, information about the position of the avatar 4B, and a predetermined voice processing algorithm. Based on the above, the voice data of the user A is processed. Thereafter, the control unit 121 transmits the processed audio data to the headphones 116 (audio output unit), and then the headphones 116 outputs the user A's audio based on the processed audio data (step S23). Thus, voice chat (VR chat) between users (between avatars) can be realized in the virtual space.

本実施形態では、ユーザ端末1A,1Bがサーバ2にアバター4Aの制御情報とアバター4Bの制御情報をそれぞれ送信した後に、サーバ2がアバター4Aの制御情報をユーザ端末1Bに送信する一方、アバター4Bの制御情報をユーザ端末1Aに送信する。このように、ユーザ端末1Aとユーザ端末1B間において各アバター4A,4Bの動きを同期させることが可能となる。   In the present embodiment, after the user terminals 1A and 1B transmit the control information of the avatar 4A and the control information of the avatar 4B to the server 2, the server 2 transmits the control information of the avatar 4A to the user terminal 1B, while the avatar 4B. Is transmitted to the user terminal 1A. In this way, it is possible to synchronize the movements of the avatars 4A and 4B between the user terminal 1A and the user terminal 1B.

[第1実施形態に係る情報処理方法についての説明]
次に、図12から図17を参照することで、第1実施形態に係る情報処理方法について説明する。図12は、第1実施形態に係る情報処理方法の一例を説明するためのシーケンス図である。図13の状態(a)は、ユーザAの黒目53と白目52を示す図である。図13の状態(b)は、ユーザAの黒目53と白目52を包含する複数の部分領域Sから構成される身体領域F(第1身体領域)を示す図である。図14は、ユーザAの黒目53の中心位置Qの移動軌跡の一例を示す図である。図15の状態(a)は、アバター4Aの黒目63と白目62を示す図である。図15の状態(b)は、アバター4Aの黒目63と白目62を包含する身体領域E(第2身体領域)を示す図である。
[Description of Information Processing Method According to First Embodiment]
Next, the information processing method according to the first embodiment will be described with reference to FIGS. FIG. 12 is a sequence diagram for explaining an example of the information processing method according to the first embodiment. The state (a) in FIG. 13 is a diagram showing the black eye 53 and the white eye 52 of the user A. The state (b) of FIG. 13 is a diagram showing a body region F (first body region) composed of a plurality of partial regions S including the black eye 53 and the white eye 52 of the user A. FIG. 14 is a diagram illustrating an example of a movement locus of the center position Q of the black eye 53 of the user A. The state (a) of FIG. 15 is a diagram showing the black eye 63 and the white eye 62 of the avatar 4A. The state (b) of FIG. 15 is a diagram showing a body region E (second body region) including the black eyes 63 and the white eyes 62 of the avatar 4A.

本実施形態では、ユーザAの黒目53(身体の一部)の位置とユーザAに関連付けられたアバター4Aの黒目63(身体の一部)の位置を同期制御することを説明する。つまり、既に述べたアバター4Aの制御情報のうちアバター4Aの黒目63の位置情報(第2位置情報)に基づいて、アバター4Aの黒目63の位置を更新する処理について説明を行う。より具体的には、本実施形態では、ユーザ端末1Bは、ユーザ端末1Aからサーバ2を介して送信されたアバター4Aの黒目63の位置情報に基づいて、ユーザBに提供される仮想空間200B内のアバター4Aの黒目63の位置を更新するものとする。また、本実施形態では、アバター4Aの黒目63の位置情報を取得する取得レートC1(第2レート)と、アバター4Aの黒目63の位置情報を送信する送信レートC2(第3レート)と、ユーザ端末1B側でアバター4Aの黒目63の位置を更新するフレームレートC3(第1レート)は以下の関係を有するものとする。

取得レートC1>フレームレートC3>送信レートC2

例えば、取得レートC1は、200Hzであって、送信レートC2は、60Hzであって、フレームレートC3は、90fpsである。このように、本実施形態では、送信レートC2が取得レートC1よりも低いため、低い送信レートC2を考慮した上で、ユーザAの表情とアバター4Aの表情を同期制御させる必要がある。より具体的には、低い送信レートC2を考慮した上で、ユーザAの黒目53の位置とアバター4Aの黒目63の位置を同時制御させる必要がある。このように、送信レートが低い場合において、図1に示す配信システム100における通信負荷を低減させることが可能な情報処理方法について以下に説明する。尚、本実施形態では、ユーザAの目は、ユーザAの左目と右目を含むのとする。さらに、アバター4Aの目は、アバター4Aの左目と右目を含むものとする。
In the present embodiment, the synchronous control of the position of the black eye 53 (part of the body) of the user A and the position of the black eye 63 (part of the body) of the avatar 4A associated with the user A will be described. That is, the process of updating the position of the black eye 63 of the avatar 4A based on the position information (second position information) of the black eye 63 of the avatar 4A among the control information of the avatar 4A already described will be described. More specifically, in the present embodiment, the user terminal 1B is in the virtual space 200B provided to the user B based on the position information of the black eye 63 of the avatar 4A transmitted from the user terminal 1A via the server 2. The position of the black eye 63 of the avatar 4A is updated. In this embodiment, the acquisition rate C1 (second rate) for acquiring the position information of the black eye 63 of the avatar 4A, the transmission rate C2 (third rate) of transmitting the position information of the black eye 63 of the avatar 4A, and the user The frame rate C3 (first rate) for updating the position of the black eye 63 of the avatar 4A on the terminal 1B side has the following relationship.

Acquisition rate C1> Frame rate C3> Transmission rate C2

For example, the acquisition rate C1 is 200 Hz, the transmission rate C2 is 60 Hz, and the frame rate C3 is 90 fps. Thus, in this embodiment, since the transmission rate C2 is lower than the acquisition rate C1, it is necessary to synchronize the facial expression of the user A and the facial expression of the avatar 4A in consideration of the low transmission rate C2. More specifically, it is necessary to simultaneously control the position of the black eye 53 of the user A and the position of the black eye 63 of the avatar 4A in consideration of the low transmission rate C2. An information processing method capable of reducing the communication load in the distribution system 100 shown in FIG. 1 when the transmission rate is low will be described below. In the present embodiment, it is assumed that the eyes of the user A include the left eye and the right eye of the user A. Further, the eyes of the avatar 4A include the left eye and the right eye of the avatar 4A.

図12に示すように、ステップS30において、ユーザ端末1Aの制御部121は、取得レートC1(例えば、200Hz)で注視センサ140から検出データ(アイトラッキングデータ)を取得する。次に、制御部121は、取得レートC1で取得された検出データに基づいてユーザAの黒目53の中心位置Qを特定する(ステップS31)。その後、ステップS32において、制御部121は、取得レートC1で、ユーザAの黒目53の中心位置Qが現在位置している部分領域S(第1部分領域)を示す第1位置情報を取得する。   As shown in FIG. 12, in step S30, the control unit 121 of the user terminal 1A acquires detection data (eye tracking data) from the gaze sensor 140 at an acquisition rate C1 (for example, 200 Hz). Next, the control unit 121 specifies the center position Q of the black eye 53 of the user A based on the detection data acquired at the acquisition rate C1 (step S31). Thereafter, in step S32, the control unit 121 acquires first position information indicating the partial area S (first partial area) where the center position Q of the black eye 53 of the user A is currently located at the acquisition rate C1.

図13の状態(b)に示すように、ユーザAの黒目53と白目52を包含するように、身体領域Fが設定された上で、身体領域Fが複数の部分領域Sに区分されている。本図に示すように、ユーザAの黒目53の中心位置Qが部分領域S1に現在位置している場合、制御部121は、複数の部分領域Sと位置座標との間の対応関係(例えば、関係式やテーブル等)に基づいて、ユーザAの黒目53の中心位置Qが現在位置している部分領域Sを部分領域S1として特定する。その後、制御部121は、部分領域S1を示す第1位置情報を取得する。図14に示すように、中心位置Qが部分領域S1に位置している場合、制御部121は、部分領域S1を示す第1位置情報を取得する。また、中心位置Qが部分領域S2に位置している場合、制御部121は、部分領域S2を示す第1位置情報を取得する。   As shown in the state (b) of FIG. 13, the body region F is set so as to include the black eyes 53 and the white eyes 52 of the user A, and then the body region F is divided into a plurality of partial regions S. . As shown in the figure, when the center position Q of the black eye 53 of the user A is currently located in the partial area S1, the control unit 121 determines the correspondence between the partial areas S and the position coordinates (for example, The partial area S where the center position Q of the black eye 53 of the user A is currently located is specified as the partial area S1 based on a relational expression or a table. Thereafter, the control unit 121 acquires first position information indicating the partial region S1. As illustrated in FIG. 14, when the center position Q is located in the partial region S1, the control unit 121 acquires first position information indicating the partial region S1. When the center position Q is located in the partial area S2, the control unit 121 acquires first position information indicating the partial area S2.

次に、制御部121は、第1位置情報に基づいて、アバター4Aの黒目63の中心位置Pが現在位置している部分領域R(第2部分領域)を示す第2位置情報を取得レートC1で取得する(ステップS33)。図14の状態(a)に示すように、アバター4Aの黒目63と白目62を包含するように、身体領域Eが設定された上で、身体領域Eが複数の部分領域Rに区分されている。複数の部分領域Rの各々は、複数の部分領域Sのうちの一つと対応付けられていてもよい。例えば、第1位置情報が部分領域S1を示す場合、制御部121は、複数の部分領域Rと複数の部分領域Sとの間の対応関係(関係式やテーブル等)に基づいて、部分領域R1を示す第2位置情報を取得する。   Next, based on the first position information, the control unit 121 obtains second position information indicating the partial area R (second partial area) where the center position P of the black eye 63 of the avatar 4A is currently located at the acquisition rate C1. (Step S33). As shown in the state (a) of FIG. 14, the body region E is set so as to include the black eyes 63 and the white eyes 62 of the avatar 4 </ b> A, and then the body region E is divided into a plurality of partial regions R. . Each of the plurality of partial regions R may be associated with one of the plurality of partial regions S. For example, when the first position information indicates the partial region S1, the control unit 121 determines the partial region R1 based on the correspondence (relations, tables, etc.) between the plurality of partial regions R and the plurality of partial regions S. The second position information indicating is acquired.

次に、ステップS34において、制御部121は、通信ネットワーク3を介して、送信レートC2(例えば、60Hz)で、第2位置情報をサーバ2に送信する。特に、第2位置情報は、アバター4Aの黒目63の中心位置Pを制御するための情報であって、アバター4Aの制御情報のうちの一つである。このため、制御部121は、通信ネットワーク3を介して、第2位置情報を含むアバター4Aの制御情報(図11参照)をサーバ2に送信する。   Next, in step S <b> 34, the control unit 121 transmits the second position information to the server 2 at the transmission rate C <b> 2 (for example, 60 Hz) via the communication network 3. In particular, the second position information is information for controlling the center position P of the black eye 63 of the avatar 4A, and is one of the control information of the avatar 4A. For this reason, the control part 121 transmits the control information (refer FIG. 11) of the avatar 4A containing 2nd positional information to the server 2 via the communication network 3. FIG.

また、送信レートC2(例えば、60Hz)は取得レートC1(例えば、200Hz)よりも小さいため、制御部121は、取得レートC1で取得された第2位置情報を間引きした状態でサーバ2に送信する。例えば、一の第2位置情報が送信される時刻Ta1と次の第2位置情報が送信される時刻Ta2との間の時間間隔ΔT12の間において、3つの第2位置情報が取得された場合、制御部121は、第2位置情報を送信する時点(時刻T2)の直前に生成された第2位置情報をサーバ2に送信する。   Further, since the transmission rate C2 (for example, 60 Hz) is smaller than the acquisition rate C1 (for example, 200 Hz), the control unit 121 transmits the second position information acquired at the acquisition rate C1 to the server 2 in a thinned state. . For example, when three pieces of second position information are acquired during a time interval ΔT12 between a time Ta1 at which one second position information is transmitted and a time Ta2 at which the next second position information is transmitted. The control unit 121 transmits the second position information generated immediately before the time (time T2) to transmit the second position information to the server 2.

次に、サーバ2は、第2位置情報を含むアバター4Aの制御情報を受信した後に、通信ネットワーク3を介してアバター4Aの制御情報をユーザ端末1Bに送信する(ステップS35)。その後、ユーザ端末1Bの制御部121は、通信ネットワーク3及び通信インターフェース125を介して、第2位置情報を含むアバター4Aの制御情報を受信する(ステップS36)。次に、ユーザ端末1Bの制御部121は、受信した第2位置情報に基づいて、フレームレートC3(例えば、90fps)で、ユーザBに提供される仮想空間200B(図10参照)内のアバター4Aの黒目63の中心位置P(図15参照)を更新する(ステップS37)。例えば、受信した第2位置情報が部分領域R1を示す場合、制御部121は、第2位置情報に基づいて、アバター4Aの黒目63の中心位置Pが部分領域R1に位置するように中心位置Pを更新する。ここで、仮想空間200B内に配置されたアバター4Aの黒目63と白目62を包含する身体領域Eが設定されていると共に、身体領域Eは、複数の部分領域Rに区分されているものとする。このため、制御部121は、送信された第2位置情報に基づいて、アバター4Aの黒目63の中心位置Pを更新することが可能となる。   Next, after receiving the control information of the avatar 4A including the second position information, the server 2 transmits the control information of the avatar 4A to the user terminal 1B via the communication network 3 (step S35). Thereafter, the control unit 121 of the user terminal 1B receives the control information of the avatar 4A including the second position information via the communication network 3 and the communication interface 125 (step S36). Next, the control unit 121 of the user terminal 1B, based on the received second position information, the avatar 4A in the virtual space 200B (see FIG. 10) provided to the user B at the frame rate C3 (for example, 90 fps). The center position P of the black eye 63 (see FIG. 15) is updated (step S37). For example, when the received second position information indicates the partial area R1, the control unit 121 determines that the central position P is such that the central position P of the black eye 63 of the avatar 4A is located in the partial area R1 based on the second position information. Update. Here, it is assumed that the body region E including the black eyes 63 and the white eyes 62 of the avatar 4A arranged in the virtual space 200B is set, and the body region E is divided into a plurality of partial regions R. . For this reason, the control unit 121 can update the center position P of the black eye 63 of the avatar 4A based on the transmitted second position information.

また、制御部121は、アバター4Aの黒目63の中心位置Pを更新する際に、フレームレートC3で、仮想空間200B内のアバター4A,4Bの動作(例えば、手や顔の動作)も更新する。このように、制御部121は、仮想空間200Bを示す仮想空間データを更新した後に、HMD110の動き(仮想カメラの視野)と仮想空間データに基づいて、フレームレートC3で、ユーザBの頭部に装着されたHMD110に表示される視野画像を更新する。   Further, when updating the central position P of the black eye 63 of the avatar 4A, the control unit 121 also updates the operations of the avatars 4A and 4B in the virtual space 200B (for example, the motions of hands and faces) at the frame rate C3. . In this manner, after updating the virtual space data indicating the virtual space 200B, the control unit 121 updates the head of the user B at the frame rate C3 based on the movement of the HMD 110 (the visual field of the virtual camera) and the virtual space data. The visual field image displayed on the mounted HMD 110 is updated.

本実施形態によれば、取得レートC1及びフレームレートC3よりも低い送信レートC2で、第2位置情報がサーバ2を介してユーザ端末1Bに向けて送信される場合において、第2位置情報を送信する時点の直前に生成された第2位置情報がサーバ2を介してユーザ端末1Bに向けて送信される。このように、生成された第2位置情報は、間引かれた状態でユーザ端末1Bに向けて送信される。さらに、ユーザ端末1Bに送信された第2位置情報は、アバター4Aの黒目63が現在位置している部分領域Rを示す情報であって、アバター4Aの黒目63の位置座標を示す情報ではない。したがって、ユーザ端末1Bに送信すべき情報量を低減させることができるため、ユーザ端末1Aとユーザ端末1Bとの間における通信負荷を低減させることが可能となる。このように、配信システム100における通信負荷を低減させることが可能な情報処理方法を提供することができる。   According to the present embodiment, when the second position information is transmitted toward the user terminal 1B via the server 2 at the transmission rate C2 lower than the acquisition rate C1 and the frame rate C3, the second position information is transmitted. The second position information generated immediately before the point of time is transmitted to the user terminal 1B via the server 2. Thus, the generated second position information is transmitted toward the user terminal 1B in a thinned state. Further, the second position information transmitted to the user terminal 1B is information indicating the partial region R where the black eye 63 of the avatar 4A is currently located, and is not information indicating the position coordinates of the black eye 63 of the avatar 4A. Therefore, since the amount of information to be transmitted to the user terminal 1B can be reduced, the communication load between the user terminal 1A and the user terminal 1B can be reduced. As described above, an information processing method capable of reducing the communication load in the distribution system 100 can be provided.

さらに、ユーザAの黒目53に対応するアバター4Aの黒目63の第2位置情報に基づいて、仮想空間200B内のアバター4Aの黒目63の中心位置Pがユーザ端末1B側で更新される。このように、ユーザAの黒目53の中心位置Qと、仮想空間200B内に配置されたアバター4Aの黒目63の中心位置Pを同期制御することが可能となるため、ユーザAの表情をアバター4Aの表情にリアルに反映させることが可能となる。   Further, based on the second position information of the black eye 63 of the avatar 4A corresponding to the black eye 53 of the user A, the center position P of the black eye 63 of the avatar 4A in the virtual space 200B is updated on the user terminal 1B side. As described above, since the center position Q of the black eye 53 of the user A and the center position P of the black eye 63 of the avatar 4A arranged in the virtual space 200B can be controlled synchronously, the facial expression of the user A can be changed to the avatar 4A. It is possible to reflect it realistically in the facial expression.

尚、本実施形態では、ユーザ端末1Aの制御部121は、送信レートC2で、サーバ2を介して第2位置情報をユーザ端末1Bに送信しているが、第2位置情報の代わりに第1位置情報をサーバ2を介してユーザ端末1Bに送信レートC1で送信してもよい。この場合、送信レートC2は取得レートC1よりも小さいため、制御部121は、第1位置情報を送信する時点の直前に生成された第1位置情報をサーバ2に送信する。つまり、制御部121によって取得された第1位置情報は、間引かれた状態でサーバ2に送信される。その後、ユーザ端末1Bの制御部121は、第1位置情報をサーバ2から受信した後に、第1位置情報に基づいて第2位置情報を生成する。このとき、第2位置情報は、送信レートC2と同一のレートで生成されてもよい。その後、ユーザ端末1Bの制御部121は、生成された第2位置情報に基づいて、フレームレートC3で、仮想空間200B内に配置されたアバター4Aの黒目63の位置を更新する。   In the present embodiment, the control unit 121 of the user terminal 1A transmits the second position information to the user terminal 1B via the server 2 at the transmission rate C2, but instead of the second position information, the first position information is transmitted to the user terminal 1B. The position information may be transmitted to the user terminal 1B via the server 2 at the transmission rate C1. In this case, since the transmission rate C2 is smaller than the acquisition rate C1, the control unit 121 transmits the first position information generated immediately before the first position information is transmitted to the server 2. That is, the first position information acquired by the control unit 121 is transmitted to the server 2 in a thinned state. Thereafter, the control unit 121 of the user terminal 1B generates the second position information based on the first position information after receiving the first position information from the server 2. At this time, the second position information may be generated at the same rate as the transmission rate C2. Thereafter, the control unit 121 of the user terminal 1B updates the position of the black eye 63 of the avatar 4A arranged in the virtual space 200B at the frame rate C3 based on the generated second position information.

また、本実施形態では、ステップS32からS34に規定された処理がユーザ端末1A側で実行されなくてもよい。この点において、ステップS32からS34に規定された処理は、サーバ2側で実行されてもよい。   In the present embodiment, the process defined in steps S32 to S34 may not be executed on the user terminal 1A side. In this regard, the processing defined in steps S32 to S34 may be executed on the server 2 side.

[アバター4Aの黒目の更新処理]
次に、図16及び図17を参照することで、ステップS37で規定された処理を具体的に説明する。より具体的には、送信レートC2(例えば、60Hz)で送信された第2位置情報に基づいて、送信レートC2より高いフレームレートC3(例えば、90fps)でアバター4Aの黒目63の中心位置Pを更新する処理について説明する。図16の状態(a)は、ユーザ端末1Bに送信された第2位置情報に基づいて、送信レートC2より高いフレームレートC3で、アバター4Aの黒目63の中心位置Pを更新する処理を説明するための図である。図16の状態(b)は、各時刻T(T1,T2,T3・・・)においてユーザ端末1Bに送信された第2位置情報を示す図である。図17は、部分領域R1の中心位置O1から部分領域R2の中心位置O2に向けてアバター4Aの黒目63の中心位置Pが徐々に移動する様子を説明するための図である。
[Avatar 4A black eye update process]
Next, the process defined in step S37 will be described in detail with reference to FIGS. More specifically, based on the second position information transmitted at the transmission rate C2 (for example, 60 Hz), the center position P of the black eye 63 of the avatar 4A is determined at a frame rate C3 (for example, 90 fps) higher than the transmission rate C2. The update process will be described. State (a) in FIG. 16 illustrates processing for updating the center position P of the black eye 63 of the avatar 4A at a frame rate C3 higher than the transmission rate C2 based on the second position information transmitted to the user terminal 1B. FIG. The state (b) in FIG. 16 is a diagram illustrating the second position information transmitted to the user terminal 1B at each time T (T1, T2, T3...). FIG. 17 is a diagram for explaining how the center position P of the black eye 63 of the avatar 4A gradually moves from the center position O1 of the partial area R1 toward the center position O2 of the partial area R2.

図16の状態(a)に示すように、フレームレートC3は、送信レートC2よりも高いため、単位時間(例えば、1秒)当たりのアバター4Aの黒目の位置の更新回数は、単位時間(例えば、1秒)当たりに送信される第2位置情報の数よりも多い。例えば、図16及び図17に示すように、時刻T3において部分領域R1を示す第2位置情報がユーザ端末1Bに送信された場合、ユーザ端末1Bの制御部121は、時刻t5,t6(>T3)において、アバター4Aの黒目63の中心位置Pを部分領域R1の中心位置O1に配置する。ここで、図17に示すように、時刻t5での中心位置Pは、中心位置P5として示されると共に、時刻t6での中心位置Pは、中心位置P6として示される。   As shown in the state (a) of FIG. 16, since the frame rate C3 is higher than the transmission rate C2, the number of updates of the black eye position of the avatar 4A per unit time (for example, 1 second) is the unit time (for example, More than the number of second position information transmitted per second). For example, as shown in FIGS. 16 and 17, when the second position information indicating the partial region R1 is transmitted to the user terminal 1B at time T3, the control unit 121 of the user terminal 1B causes the times t5 and t6 (> T3 ), The center position P of the black eye 63 of the avatar 4A is arranged at the center position O1 of the partial region R1. Here, as shown in FIG. 17, the center position P at time t5 is shown as center position P5, and the center position P at time t6 is shown as center position P6.

次に、ユーザAの黒目53の中心位置Qが部分領域S1(第1部分領域)から部分領域S2(第3部分領域)に移動した場合に(図13参照)、ユーザ端末1Bの制御部121は、アバター4Aの黒目63の中心位置Pが部分領域R1(第2部分領域)から移動先の部分領域である部分領域R2(第4部分領域)の中心位置O2に向かって徐々に移動するように、アバター4Aの黒目63の中心位置Pを更新する。具体的には、最初に、制御部121は、中心位置Pが部分領域R1の中心位置O1と部分領域R2の中心位置O2とを結ぶ線分L1を特定する。次に、制御部121は、線分L1の長さD1を特定した上で、中心位置Pの移動速度(フレーム毎の移動量)を決定する。例えば、制御部121は、中心位置Pの移動速度を(1/4)D1として決定してもよい。その後、制御部121は、中心位置Pが線分L1上を決定された移動速度で徐々に移動するように、中心位置Pを更新する。   Next, when the center position Q of the black eye 53 of the user A moves from the partial area S1 (first partial area) to the partial area S2 (third partial area) (see FIG. 13), the control unit 121 of the user terminal 1B. Is such that the central position P of the black eye 63 of the avatar 4A gradually moves from the partial area R1 (second partial area) toward the central position O2 of the partial area R2 (fourth partial area) that is the destination partial area. The center position P of the black eye 63 of the avatar 4A is updated. Specifically, first, the control unit 121 specifies a line segment L1 in which the center position P connects the center position O1 of the partial region R1 and the center position O2 of the partial region R2. Next, after specifying the length D1 of the line segment L1, the control unit 121 determines the moving speed (the moving amount for each frame) of the center position P. For example, the control unit 121 may determine the moving speed of the center position P as (1/4) D1. Thereafter, the control unit 121 updates the center position P so that the center position P gradually moves on the line segment L1 at the determined moving speed.

ここで、時刻t7,t8,t9での中心位置Pをそれぞれ中心位置P7,P8,P9として規定すると共に、中心位置Pの移動速度を(1/4)D1とする。尚、時刻T4<t7<t8<t9である。この場合、図17に示すように、制御部121は、時刻t7において、中心位置P7と中心位置O1との間の距離が(1/4)D1となるように、中心位置P7を線分L1上に配置する。次に、制御部121は、時刻t8において、中心位置P8と中心位置O1との間の距離が(1/2)D1となるように、中心位置P8を線分L1上に配置する。さらに、制御部121は、時刻t9において、中心位置P9と中心位置O1との間の距離が(3/4)D1となるように、中心位置P9を線分L1上に配置する。   Here, the center position P at times t7, t8, and t9 is defined as center positions P7, P8, and P9, respectively, and the moving speed of the center position P is set to (1/4) D1. Note that time T4 <t7 <t8 <t9. In this case, as shown in FIG. 17, the control unit 121 sets the center position P7 to the line segment L1 so that the distance between the center position P7 and the center position O1 becomes (1/4) D1 at time t7. Place on top. Next, the control unit 121 arranges the center position P8 on the line segment L1 so that the distance between the center position P8 and the center position O1 is (1/2) D1 at time t8. Further, at time t9, control unit 121 arranges center position P9 on line segment L1 so that the distance between center position P9 and center position O1 is (3/4) D1.

このように、中心位置Qが部分領域S1から部分領域S2に移動した場合に、中心位置Pが部分領域R2の中心位置O2に向かって徐々に移動する。このように、ユーザAの黒目53が部分領域S1から部分領域S2に移動した場合に、アバター4Aの黒目63の中心位置Pを中心位置O1から中心位置O2に瞬時に移動(ワープ)させる処理と比較して、アバター4Aの黒目63を部分領域R1から部分領域R2に向けて滑らかに移動させることが可能となる。従って、アバター4Aの黒目63の動きをユーザAの黒目53の動きに滑らかに追従させることが可能となり、ユーザAの表情をアバター4Aの表情にリアルに反映させることが可能となる。   Thus, when the center position Q moves from the partial area S1 to the partial area S2, the center position P gradually moves toward the central position O2 of the partial area R2. As described above, when the black eye 53 of the user A moves from the partial area S1 to the partial area S2, the center position P of the black eye 63 of the avatar 4A is instantaneously moved (warped) from the central position O1 to the central position O2. In comparison, the black eye 63 of the avatar 4A can be smoothly moved from the partial region R1 toward the partial region R2. Accordingly, the movement of the black eye 63 of the avatar 4A can smoothly follow the movement of the black eye 53 of the user A, and the facial expression of the user A can be realistically reflected on the facial expression of the avatar 4A.

尚、本実施形態の説明では、中心位置Pの移動速度の一例として(1/4)D1を挙げたが、中心位置Pの移動速度はこれには限定されない。さらに、制御部121は、所定の数(例えば、3つ)の部分領域R2を示す第2位置情報を受信した場合に、中心位置Pを中心位置O2に向けて所定の移動速度で徐々に移動させてもよい。   In the description of the present embodiment, (1/4) D1 is given as an example of the moving speed of the center position P, but the moving speed of the center position P is not limited to this. Further, when receiving the second position information indicating a predetermined number (for example, three) of partial regions R2, the control unit 121 gradually moves the center position P toward the center position O2 at a predetermined moving speed. You may let them.

[第2実施形態に係る情報処理方法についての説明]
次に、図12及び図18−20を参照することで、第2実施形態に係る情報処理方法について説明する。本実施形態に係る情報処理方法は、第2位置情報及び第2方向情報に基づいてアバター4Aの黒目63の中心位置Pが更新される点で第1実施形態に係る情報処理方法とは異なる。ここで、第2方向情報は、アバター4Aの黒目63の中心位置Pの移動先の部分領域を示す情報である。図18の状態(a)は、ユーザ端末1Bに送信された第2位置情報と第2方向情報に基づいて、送信レートC2より高いフレームレートC3で、アバター4Aの黒目63の中心位置Pを更新する処理を説明するための図である。図18の状態(b)は、各時刻T(T1,T2,T3・・・)においてユーザ端末1Bに送信された第2位置情報と第2方向情報を示す図である。図19は、部分領域R1の中心位置O1から交差点X1に向けてアバター4Aの黒目63の中心位置Pが徐々に移動する様子を説明するための図である。図20は、ユーザAの黒目53の移動を示す移動ベクトルV1,V2,V3の合成ベクトルVcに基づいて第2方向情報を取得する処理を説明するための図である。
[Description of Information Processing Method According to Second Embodiment]
Next, an information processing method according to the second embodiment will be described with reference to FIGS. 12 and 18-20. The information processing method according to the present embodiment is different from the information processing method according to the first embodiment in that the center position P of the black eye 63 of the avatar 4A is updated based on the second position information and the second direction information. Here, the second direction information is information indicating a partial area to which the center position P of the black eye 63 of the avatar 4A is moved. In the state (a) of FIG. 18, the center position P of the black eye 63 of the avatar 4A is updated at the frame rate C3 higher than the transmission rate C2 based on the second position information and the second direction information transmitted to the user terminal 1B. It is a figure for demonstrating the process to perform. The state (b) in FIG. 18 is a diagram illustrating the second position information and the second direction information transmitted to the user terminal 1B at each time T (T1, T2, T3...). FIG. 19 is a diagram for explaining how the center position P of the black eye 63 of the avatar 4A gradually moves from the center position O1 of the partial region R1 toward the intersection X1. FIG. 20 is a diagram for describing a process of acquiring the second direction information based on the combined vector Vc of the movement vectors V1, V2, and V3 indicating the movement of the black eye 53 of the user A.

本実施形態では、図12に示すように、ステップS33の処理の後に、ユーザ端末1Aの制御部121は、ユーザAの黒目53の中心位置Qの移動先の部分領域Sを示す第1方向情報を取得する。以下に、図20を参照して第1方向情報の取得方法の一例について説明する。   In the present embodiment, as illustrated in FIG. 12, after the process of step S <b> 33, the control unit 121 of the user terminal 1 </ b> A displays first direction information indicating the partial area S to which the center position Q of the user A ’s black eye 53 To get. Below, an example of the acquisition method of 1st direction information is demonstrated with reference to FIG.

図20に示すように、例えば、取得レートC1が200Hzである一方、送信レートC2が60Hzである場合に、一の第2位置情報が送信される時刻Ta1と次の第2位置情報が送信される時刻Ta2(>Ta1)との間の時間間隔ΔT12の間において、ユーザ端末1Aの制御部121は、ユーザAの黒目53の3つの中心位置Qを取得するものとする。ここで、3つの中心位置Qのうち、時刻T12での中心位置Qを中心位置Q12として規定し、時刻T13での中心位置Qを中心位置Q13として規定し、時刻T14での中心位置Qを中心位置Q14として規定する。また、時刻T11(<時刻Ta1)での中心位置Qを中心位置Q11として規定する。ここで、時刻T11<Ta1<T12<T13<T14であるとする。時刻Ta1に送信される第2位置情報は、中心位置Q11が属する部分領域S1を示す。一方、時刻Ta2に送信される第2位置情報は、中心位置Q14が属する部分領域S1を示す。   As shown in FIG. 20, for example, when the acquisition rate C1 is 200 Hz and the transmission rate C2 is 60 Hz, the time Ta1 when the first second position information is transmitted and the next second position information are transmitted. It is assumed that the control unit 121 of the user terminal 1 </ b> A acquires the three center positions Q of the user's black eye 53 during the time interval ΔT <b> 12 with the time Ta <b> 2 (> Ta <b> 1). Here, of the three central positions Q, the central position Q at time T12 is defined as the central position Q12, the central position Q at time T13 is defined as the central position Q13, and the central position Q at time T14 is the center. The position is defined as Q14. Further, the center position Q at time T11 (<time Ta1) is defined as the center position Q11. Here, it is assumed that time T11 <Ta1 <T12 <T13 <T14. The second position information transmitted at time Ta1 indicates the partial area S1 to which the center position Q11 belongs. On the other hand, the second position information transmitted at time Ta2 indicates the partial region S1 to which the center position Q14 belongs.

次に、制御部121は、各中心位置Qに基づいて移動ベクトルV1〜V3を特定する。具体的には、制御部121は、中心位置Q11とQ12に基づいて、移動ベクトルV1を特定し、中心位置Q12と中心位置Q13に基づいて、移動ベクトルV2を特定し、中心位置Q13と中心位置Q14に基づいて、移動ベクトルV3を特定する。その後、制御部121は、3つの移動ベクトルV1〜V3の合成ベクトルVcを特定する。尚、制御部121は、中心位置Q11とQ14のみに基づいて合成ベクトルVcを特定してもよい。   Next, the control unit 121 specifies the movement vectors V1 to V3 based on each center position Q. Specifically, the control unit 121 specifies the movement vector V1 based on the center positions Q11 and Q12, specifies the movement vector V2 based on the center position Q12 and the center position Q13, and determines the center position Q13 and the center position. The movement vector V3 is specified based on Q14. Thereafter, the control unit 121 specifies a combined vector Vc of the three movement vectors V1 to V3. Note that the control unit 121 may specify the combined vector Vc based only on the center positions Q11 and Q14.

次に、制御部121は、合成ベクトルVcの方向に基づいて、中心位置Qの移動先の部分領域Sを特定する。例えば、図20に示すように、合成ベクトルVcが部分領域S2を向いている場合、制御部121は、移動先の部分領域Sを部分領域S2として決定する。このように、制御部121は、部分領域S2を示す第1方向情報を取得することができる。また、制御部121は、合成ベクトルVcのスカラ量に基づいて、移動先の部分領域Sが特定できない(NULL)と判定してもよい。例えば、制御部121は、合成ベクトルVcのスカラ量が所定の閾値以下であると判定した場合に、移動先の部分領域Sが特定できないと判定してもよい。このように、制御部121は、合成ベクトルVcの方向とスカラ量の両方に基づいて、移動先の部分領域Sを特定してもよい。   Next, the control unit 121 specifies the partial area S to which the center position Q is moved based on the direction of the combined vector Vc. For example, as illustrated in FIG. 20, when the combined vector Vc faces the partial area S2, the control unit 121 determines the partial area S that is the movement destination as the partial area S2. In this way, the control unit 121 can acquire the first direction information indicating the partial region S2. Further, the control unit 121 may determine that the destination partial area S cannot be specified (NULL) based on the scalar quantity of the combined vector Vc. For example, the control unit 121 may determine that the destination partial region S cannot be specified when it is determined that the scalar quantity of the combined vector Vc is equal to or less than a predetermined threshold. As described above, the control unit 121 may identify the destination partial area S based on both the direction of the combined vector Vc and the scalar quantity.

次に、制御部121は、第1方向情報と部分領域Sと部分領域Rとの間の対応関係に基づいて、アバター4Aの黒目63の中心位置Pの移動先の部分領域Rを部分領域R2として特定した上で、部分領域R2を示す第2方向情報を取得する。その後、ステップS34において、制御部121は、第2位置情報及び第2方向情報を送信レートC2で送信する。 Next, based on the correspondence between the first direction information, the partial area S, and the partial area R, the control unit 121 changes the partial area R to which the center position P of the black eye 63 of the avatar 4A is moved to the partial area R2. Then, the second direction information indicating the partial region R2 is acquired. Thereafter, in step S34, the control unit 121 transmits the second position information and the second direction information at the transmission rate C2.

次に、サーバ2は、第2位置情報と第2方向情報を受信した後に、通信ネットワーク3を介して第2位置情報と第2方向情報をユーザ端末1Bに送信する(ステップS35)。その後、ユーザ端末1Bの制御部121は、通信ネットワーク3及び通信インターフェース125を介して、第2位置情報と第2方向情報を受信する(ステップS36)。次に、ユーザ端末1Bの制御部121は、受信した第2位置情報及び第2方向情報に基づいて、フレームレートC3で、仮想空間200B内のアバター4Aの黒目63の中心位置Pを更新する(ステップS37)。   Next, after receiving the second position information and the second direction information, the server 2 transmits the second position information and the second direction information to the user terminal 1B via the communication network 3 (step S35). Thereafter, the control unit 121 of the user terminal 1B receives the second position information and the second direction information via the communication network 3 and the communication interface 125 (step S36). Next, the control unit 121 of the user terminal 1B updates the center position P of the black eye 63 of the avatar 4A in the virtual space 200B at the frame rate C3 based on the received second position information and second direction information ( Step S37).

次に、図18及び図19を参照することで、ステップS37で規定された処理を具体的に説明する。より具体的には、送信レートC2(例えば、60Hz)で送信された第2位置情報と第2方向情報に基づいて、送信レートC2より高いフレームレートC3(例えば、90fps)で中心位置Pを更新する処理について説明する。   Next, the process defined in step S37 will be described in detail with reference to FIGS. More specifically, the center position P is updated at a frame rate C3 (for example, 90 fps) higher than the transmission rate C2, based on the second position information and the second direction information transmitted at the transmission rate C2 (for example, 60 Hz). Processing to be performed will be described.

この点において、第2位置情報が部分領域R1を示す一方、第2方向情報が部分領域R2を示す場合、制御部121は、アバター4Aの黒目63の中心位置Pが部分領域R2に向かって部分領域R1内を徐々に移動するように中心位置Pを更新する。具体的には、最初に、制御部121は、部分領域R1の中心位置O1と部分領域R2の中心位置O2とを結ぶ線分L1を特定する。次に、制御部121は、部分領域R1と部分領域R2との間の境界線B1と線分L1との間の交差点X1を特定する。その後、制御部121は、交差点X1と中心位置O1との間の距離D2を特定する。   In this respect, when the second position information indicates the partial area R1 and the second direction information indicates the partial area R2, the control unit 121 determines that the center position P of the black eye 63 of the avatar 4A is partially directed toward the partial area R2. The center position P is updated so as to move gradually in the region R1. Specifically, first, the control unit 121 specifies a line segment L1 that connects the center position O1 of the partial region R1 and the center position O2 of the partial region R2. Next, the control unit 121 specifies the intersection X1 between the boundary line B1 and the line segment L1 between the partial region R1 and the partial region R2. Thereafter, the control unit 121 specifies a distance D2 between the intersection X1 and the center position O1.

ここで、時刻t1,t2,t3,t4での中心位置Pをそれぞれ中心位置P1,P2,P3,P4として規定する(尚、時刻t1<T1<t2<t3<t4である)。さらに、中心位置P1は中心位置O1に位置するものとする。この場合、図19に示すように、制御部121は、時刻t2において、中心位置P2と交差点X1との間の距離が(1/2)×D2となるように、中心位置P2を線分L1上に配置する。次に、制御部121は、時刻t3において、中心位置P3と交差点X1との間の距離が(1/2) 2 ×D2となるように、中心位置P3を線分L1上に配置する。さらに、制御部121は、時刻t4において、中心位置P4と交差点X1との間の距離が(1/2) 3 ×D2となるように中心位置P4を線分L1上に配置する。このように、時刻tnにおいて、中心位置Pnと交差点X1との間の距離が(1/2) n-1 ×D2となるように中心位置Pnを線分L1上に配置してもよい。さらに、時刻tnにおいて、中心位置Pnと交差点X1との間の距離がa n-1×D2となるように中心位置Pnを線分L1上に配置してもよい(ここで、a<1である)。また、制御部121は、中心位置Pの移動速度を、例えば、(1/4)D2として決定した上で、中心位置Pが線分L1上を移動速度(1/4)D2で徐々に移動するように、中心位置Pを更新してもよい。尚、上記移動速度の値は単なる一例である。   Here, center positions P at times t1, t2, t3, and t4 are defined as center positions P1, P2, P3, and P4, respectively (note that times t1 <T1 <t2 <t3 <t4). Further, it is assumed that the center position P1 is located at the center position O1. In this case, as shown in FIG. 19, the control unit 121 sets the center position P2 to the line segment L1 so that the distance between the center position P2 and the intersection X1 is (1/2) × D2 at time t2. Place on top. Next, at time t3, the control unit 121 arranges the center position P3 on the line segment L1 so that the distance between the center position P3 and the intersection X1 becomes (1/2) 2 × D2. Furthermore, the control unit 121 arranges the center position P4 on the line segment L1 so that the distance between the center position P4 and the intersection X1 is (1/2) 3 × D2 at time t4. Thus, at time tn, the center position Pn may be arranged on the line segment L1 such that the distance between the center position Pn and the intersection X1 is (1/2) n-1 × D2. Further, at time tn, the center position Pn may be arranged on the line segment L1 so that the distance between the center position Pn and the intersection X1 is an-1 × D2 (where a <1 is there). Further, the control unit 121 determines the moving speed of the center position P as, for example, (1/4) D2, and then the center position P gradually moves on the line segment L1 at the moving speed (1/4) D2. Thus, the center position P may be updated. Note that the value of the moving speed is merely an example.

また、制御部121は、時刻T4において部分領域R2を示す第2位置情報を受信した場合に、時刻t7以降において、中心位置Pが部分領域R2の中心位置O2に向かって線分L1上を徐々に移動するように中心位置Pを更新してもよい。この場合、時刻t7において、中心位置Pは交差点X1上に位置してもよい。   Further, when the control unit 121 receives the second position information indicating the partial region R2 at time T4, the center position P gradually moves on the line segment L1 toward the central position O2 of the partial region R2 after time t7. The center position P may be updated so as to move to. In this case, the center position P may be located on the intersection X1 at time t7.

このように、第2方向情報を用いることで、アバター4Aの黒目63の中心位置Pを部分領域R2に向かって部分領域R1内を徐々に移動させることができる。このため、ユーザAの黒目53の中心位置Qが部分領域S1から部分領域S2に移動した場合に、アバター4Aの黒目63を部分領域R1から部分領域R2に向けて滑らかに移動させることが可能となる。従って、アバター4Aの黒目63の動きをユーザAの黒目53の動きに滑らかに追従させることが可能となり、ユーザAの表情をアバター4Aの表情にリアルに反映させることが可能となる。   In this way, by using the second direction information, the center position P of the black eye 63 of the avatar 4A can be gradually moved in the partial region R1 toward the partial region R2. For this reason, when the center position Q of the black eye 53 of the user A moves from the partial region S1 to the partial region S2, the black eye 63 of the avatar 4A can be smoothly moved from the partial region R1 toward the partial region R2. Become. Accordingly, the movement of the black eye 63 of the avatar 4A can smoothly follow the movement of the black eye 53 of the user A, and the facial expression of the user A can be realistically reflected on the facial expression of the avatar 4A.

また、本実施形態の説明では、仮想空間200Bを示す仮想空間データがユーザ端末1B側で更新されていることを前提としているが、仮想空間データはサーバ2側で更新されてもよい。さらに、視野画像に対応する視野画像データがユーザ端末1B側で更新されていることを前提としているが、視野画像データはサーバ2側で更新されてもよい。この場合、ユーザ端末1Bは、サーバ2から送信された視野画像データに基づいて、HMD110に視野画像を表示する。   In the description of the present embodiment, it is assumed that the virtual space data indicating the virtual space 200B is updated on the user terminal 1B side, but the virtual space data may be updated on the server 2 side. Furthermore, although it is assumed that the visual field image data corresponding to the visual field image is updated on the user terminal 1B side, the visual field image data may be updated on the server 2 side. In this case, the user terminal 1 </ b> B displays the field image on the HMD 110 based on the field image data transmitted from the server 2.

また、ユーザ端末1の制御部121によって実行される各種処理をソフトウェアによって実現するために、各種処理をコンピュータ(プロセッサ)に実行させるための制御プログラムが記憶部123又はメモリに予め組み込まれていてもよい。または、制御プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD−ROM,DVD−ROM、Blu−rayディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体が制御装置120に接続されることで、当該記憶媒体に格納された制御プログラムが、記憶部123に組み込まれる。そして、記憶部123に組み込まれた制御プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部121は各種処理を実行する。   Further, in order to implement various processes executed by the control unit 121 of the user terminal 1 by software, a control program for causing the computer (processor) to execute various processes may be incorporated in the storage unit 123 or the memory in advance. Good. Alternatively, the control program includes a magnetic disk (HDD, floppy disk), an optical disk (CD-ROM, DVD-ROM, Blu-ray disk, etc.), a magneto-optical disk (MO, etc.), flash memory (SD card, USB memory, SSD). Etc.) may be stored in a computer-readable storage medium. In this case, when the storage medium is connected to the control device 120, the control program stored in the storage medium is incorporated into the storage unit 123. The control unit 121 executes various processes by loading the control program incorporated in the storage unit 123 onto the RAM and executing the loaded program.

また、制御プログラムは、通信ネットワーク3上のコンピュータから通信インターフェース125を介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該制御プログラムが記憶部123に組み込まれる。   The control program may be downloaded from a computer on the communication network 3 via the communication interface 125. Similarly in this case, the downloaded control program is incorporated into the storage unit 123.

以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。   As mentioned above, although embodiment of this indication was described, the technical scope of this invention should not be limitedly interpreted by description of this embodiment. This embodiment is an example, and it is understood by those skilled in the art that various modifications can be made within the scope of the invention described in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the equivalents thereof.

本実施形態では、ユーザ(アバター)の身体の一部の一例としてユーザ(アバター)の黒目をピックアップした上で、ユーザの黒目の中心位置とアバターの黒目の中心位置を同期制御する例について説明したが、ユーザ(アバター)の身体の一部は、黒目には限定されない。例えば、ユーザ(アバター)の身体の一部の一例として、ユーザの舌の位置とアバターの舌の位置を同期制御してもよい。このように、ユーザ(アバター)の身体の一部は、ユーザ(アバター)の黒目のみには限定されず、本実施形態に係る情報処理方法は、ユーザ(アバター)の身体の色々な部位にも適用可能である。   In the present embodiment, an example in which the user's (avatar) black eye is picked up as an example of a part of the user's (avatar) body and the center position of the user's black eye and the center position of the avatar's black eye are controlled synchronously has been described. However, the body part of the user (avatar) is not limited to black eyes. For example, as an example of a part of the user's (avatar) body, the position of the user's tongue and the position of the avatar's tongue may be synchronously controlled. Thus, a part of the user's (avatar) body is not limited to the user's (avatar) black eyes, and the information processing method according to the present embodiment can be applied to various parts of the user's (avatar) body. Applicable.

本実施形態において、仮想空間は、ユーザにVR(Virtual Reality)、AR(Argumented Reality)及びMR(Mixed Reality)といった、仮想体験を提供するために用いられる。仮想空間がVRを提供する場合、仮想空間の背景にはメモリに保存された背景データが使用される。仮想空間がAR又はMRを提供する場合、背景には現実空間が使用される。この場合、HMD110が透過型の表示装置(光学シースルーまたはビデオシースルー型の表示装置)を備えることにより、現実空間が背景として使用され得る。仮想空間がMRに適用される場合、オブジェクトは、現実空間によって影響を与えられてもよい。このように、仮想空間が背景や仮想オブジェクトといった仮想シーンを少なくとも一部に含むことにより、ユーザには当該仮想シーンとの相互作用が可能な仮想体験が提供され得る。   In this embodiment, the virtual space is used to provide a virtual experience such as VR (Virtual Reality), AR (Arranged Reality), and MR (Mixed Reality) to the user. When the virtual space provides VR, background data stored in the memory is used as the background of the virtual space. When the virtual space provides AR or MR, the real space is used as the background. In this case, the HMD 110 includes a transmissive display device (optical see-through or video see-through display device), so that the real space can be used as a background. If virtual space is applied to MR, the object may be influenced by real space. As described above, when the virtual space includes at least a part of a virtual scene such as a background or a virtual object, the user can be provided with a virtual experience capable of interacting with the virtual scene.

1,1A,1B:ユーザ端末
2:サーバ
3:通信ネットワーク
4A,4B:アバター
21:通信インターフェース
22:記憶部
23:制御部
24:バス
52:白目
53:黒目
62:白目
63:黒目
100:仮想空間配信システム
110:HMD
112:表示部
113:フェイスカメラ
114:HMDセンサ
116:ヘッドフォン
117:フェイスカメラ
118:マイク
120:制御装置
121:制御部
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
140:注視センサ
200,200A,200B:仮想空間
210:中心位置
300:仮想カメラ
320:外部コントローラ
320L:左手用外部コントローラ(コントローラ)
320R:右手用外部コントローラ(コントローラ)
A,B:ユーザ
B1:境界線
X1:交差点
E,F:身体領域
R,R1,R2:部分領域
S,S1,S2:部分領域
V1,V2,V3:移動ベクトル
Vc:合成ベクトル
1, 1A, 1B: User terminal 2: Server 3: Communication network 4A, 4B: Avatar 21: Communication interface 22: Storage unit 23: Control unit 24: Bus 52: White eye 53: Black eye 62: White eye 63: Black eye 100: Virtual Spatial distribution system 110: HMD
112: Display unit 113: Face camera 114: HMD sensor 116: Headphone 117: Face camera 118: Microphone 120: Control device 121: Control unit 123: Storage unit 124: I / O interface 125: Communication interface 126: Bus 130: Position Sensor 140: Gaze sensor 200, 200A, 200B: Virtual space 210: Center position 300: Virtual camera 320: External controller 320L: Left hand external controller (controller)
320R: External controller for right hand (controller)
A, B: User B1: Boundary line X1: Intersection E, F: Body region R, R1, R2: Partial region S, S1, S2: Partial region V1, V2, V3: Movement vector Vc: Composite vector

Claims (9)

第1ユーザの身体の一部の動きを検出するように構成されたセンサを有し、前記第1ユーザに関連付けられた第1ユーザ端末と、ヘッドマウントデバイスを有し、第2ユーザに関連付けられた第2ユーザ端末とを備えた情報処理システムにおいてコンピュータによって実行される情報処理方法であって、
前記情報処理方法は、
(a)前記第1ユーザに関連付けられた第1アバターを含み、前記第2ユーザに提供される仮想空間を規定する仮想空間データを生成するステップと、
(b)前記ヘッドマウントデバイスの動きと前記仮想空間データに基づいて、第1レートで、前記ヘッドマウントデバイスに表示される視野画像を更新するステップと、
(c)前記センサによって検出された検出データに基づいて、第2レートで前記第1ユーザの身体の一部の第1位置情報を取得するステップと、
(d)前記第1位置情報に基づいて、前記第1ユーザの身体の前記一部に対応する前記第1アバターの身体の一部の第2位置情報を生成するステップと、
(e)前記第1レート及び前記第2レートよりも低い第3レートで、前記第1位置情報又は前記第2位置情報を前記第2ユーザ端末に向けて送信するステップと、
(f)前記第2位置情報に基づいて、前記第1レートで、前記仮想空間内の前記第1アバターの身体の前記一部の位置を更新するステップと、を含み、
前記第1位置情報は、前記第1ユーザの身体の前記一部を包含する第1身体領域を構成する複数の部分領域のうちの前記第1ユーザの身体の前記一部が現在位置している第1部分領域を示す情報であって、
前記第2位置情報は、前記第1アバターの身体の前記一部を包含する第2身体領域を構成する複数の部分領域のうちの前記第1アバターの身体の前記一部が現在位置している第2部分領域を示す情報であって、
前記ステップ(e)では、
前記第1位置情報又は前記第2位置情報を送信する時点の直前に生成された前記第1位置情報又は前記第2位置情報を前記第2ユーザ端末に向けて送信する、情報処理方法。
A sensor configured to detect movement of a part of the body of the first user; a first user terminal associated with the first user; a head mounted device; and associated with a second user. An information processing method executed by a computer in an information processing system including the second user terminal,
The information processing method includes:
(A) generating virtual space data including a first avatar associated with the first user and defining a virtual space provided to the second user;
(B) updating a visual field image displayed on the head mounted device at a first rate based on the movement of the head mounted device and the virtual space data;
(C) obtaining first position information of a part of the body of the first user at a second rate based on detection data detected by the sensor;
(D) generating second position information of a part of the body of the first avatar corresponding to the part of the body of the first user based on the first position information;
(E) transmitting the first location information or the second location information to the second user terminal at a third rate lower than the first rate and the second rate;
(F) updating the position of the part of the body of the first avatar in the virtual space at the first rate based on the second position information;
In the first position information, the part of the body of the first user among the plurality of partial areas constituting the first body area including the part of the body of the first user is currently located. Information indicating the first partial region,
In the second position information, the part of the body of the first avatar among the plurality of partial areas constituting the second body area including the part of the body of the first avatar is currently located. Information indicating the second partial region,
In step (e),
An information processing method for transmitting the first position information or the second position information generated immediately before transmitting the first position information or the second position information to the second user terminal.
前記第1ユーザの身体の前記一部は、前記第1ユーザの黒目であり、
前記第1アバターの身体の前記一部は、前記第1アバターの黒目であり、
前記第1身体領域は、前記第1ユーザの白目を包含し、
前記第2身体領域は、前記第1アバターの白目を包含する、請求項1に記載の情報処理方法。
The portion of the first user's body is the first user's black eye;
The part of the body of the first avatar is the black eye of the first avatar;
The first body region includes a white eye of the first user;
The information processing method according to claim 1, wherein the second body region includes a white eye of the first avatar.
前記ステップ(f)では、
前記第1ユーザの身体の前記一部が前記第1部分領域から前記第1ユーザの身体の前記一部の移動先の部分領域である第3部分領域に移動した場合に、前記第1アバターの身体の前記一部が前記第1アバターの身体の前記一部の移動先の部分領域である第4部分領域の中心位置に向かって徐々に移動するように、前記第1アバターの身体の前記一部の位置を更新する、請求項1又は2に記載の情報処理方法。
In step (f),
When the part of the body of the first user moves from the first partial area to a third partial area that is a partial area to which the part of the body of the first user is moved, The one of the body of the first avatar is gradually moved so that the part of the body gradually moves toward a center position of a fourth partial area that is a partial area to which the part of the body of the first avatar is moved. The information processing method according to claim 1, wherein the position of the part is updated.
(g)前記第1ユーザの身体の前記一部の第1方向情報を取得するステップと、
(h)前記1方向情報に基づいて、前記第1アバターの身体の前記一部の第2方向情報を取得するステップと、をさらに含み、
前記第1方向情報は、前記第1ユーザの身体の前記一部の移動先の部分領域である第3部分領域を示す情報であって、
前記第2方向情報は、前記第1アバターの身体の前記一部の移動先の部分領域である第4部分領域を示す情報であって、
前記ステップ(e)は、前記第3レートで、前記1方向情報又は前記第2方向情報を送信するステップを含み、
前記ステップ(f)では、前記第2位置情報と前記第2方向情報に基づいて、前記仮想空間内の前記第1アバターの身体の前記一部の位置を更新する、請求項1から3のうちいずれか一項に記載の情報処理方法。
(G) obtaining first direction information of the part of the body of the first user;
(H) acquiring the second direction information of the part of the body of the first avatar based on the one direction information; and
The first direction information is information indicating a third partial area that is a partial area of the part of the body of the first user.
The second direction information is information indicating a fourth partial area that is a partial area of the part of the body of the first avatar.
The step (e) includes transmitting the one-direction information or the second direction information at the third rate,
The step (f) updates the position of the part of the body of the first avatar in the virtual space based on the second position information and the second direction information. The information processing method according to any one of the above.
前記ステップ(f)では、
前記第1アバターの身体の前記一部が前記第4部分領域に向かって前記第2部分領域内を徐々に移動するように前記第1アバターの身体の前記一部の位置を更新する、請求項4に記載の情報処理方法。
In step (f),
The position of the part of the body of the first avatar is updated so that the part of the body of the first avatar gradually moves in the second partial area toward the fourth partial area. 5. The information processing method according to 4.
前記第3部分領域は、前記第1部分領域内で移動する前記第1ユーザの身体の前記一部の少なくとも一つの移動方向に基づいて特定される、請求項4又は5に記載の情報処理方法。   6. The information processing method according to claim 4, wherein the third partial area is specified based on at least one movement direction of the part of the body of the first user that moves in the first partial area. . 請求項1から6のうちいずれか一項に記載の情報処理方法をコンピュータに実行させるための情報処理プログラム。   An information processing program for causing a computer to execute the information processing method according to any one of claims 1 to 6. 第1ユーザの身体の一部の動きを検出するように構成されたセンサを有し、前記第1ユーザに関連付けられた第1ユーザ端末と、
表示部を有し、第2ユーザに関連付けられた第2ユーザ端末とを備え、請求項1から6のうちいずれか一項に記載の情報処理方法を実行するように構成された、情報処理システム。
A first user terminal associated with the first user having a sensor configured to detect movement of a part of the body of the first user;
An information processing system comprising: a second user terminal associated with a second user, the information processing system having a display unit and configured to execute the information processing method according to any one of claims 1 to 6 .
プロセッサと、
コンピュータ可読命令を記憶するメモリと、を備えた情報処理装置であって、
前記コンピュータ可読命令が前記プロセッサにより実行されると、前記情報処理装置は請求項1から6のうちいずれか一項に記載の情報処理方法を実行する、情報処理装置。
A processor;
An information processing apparatus comprising a memory for storing computer-readable instructions,
The information processing apparatus that executes the information processing method according to any one of claims 1 to 6 when the computer-readable instruction is executed by the processor.
JP2017173559A 2017-09-08 2017-09-08 Information processing method, information processing program, information processing system, and information processing device Pending JP2018163637A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017173559A JP2018163637A (en) 2017-09-08 2017-09-08 Information processing method, information processing program, information processing system, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017173559A JP2018163637A (en) 2017-09-08 2017-09-08 Information processing method, information processing program, information processing system, and information processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017059063A Division JP6223614B1 (en) 2017-03-24 2017-03-24 Information processing method, information processing program, information processing system, and information processing apparatus

Publications (1)

Publication Number Publication Date
JP2018163637A true JP2018163637A (en) 2018-10-18

Family

ID=63860183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017173559A Pending JP2018163637A (en) 2017-09-08 2017-09-08 Information processing method, information processing program, information processing system, and information processing device

Country Status (1)

Country Link
JP (1) JP2018163637A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114201046A (en) * 2021-12-10 2022-03-18 北京字跳网络技术有限公司 Gaze direction optimization method and device, electronic equipment and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114201046A (en) * 2021-12-10 2022-03-18 北京字跳网络技术有限公司 Gaze direction optimization method and device, electronic equipment and storage medium
CN114201046B (en) * 2021-12-10 2023-12-01 北京字跳网络技术有限公司 Gaze direction optimization method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
JP6266814B1 (en) Information processing method and program for causing computer to execute information processing method
JP5996814B1 (en) Method and program for providing image of virtual space to head mounted display
US10394319B2 (en) Method of displaying an image, and system therefor
JP6462059B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
US20170098330A1 (en) Method for controlling head mounted display, and program for controlling head mounted display
US11373379B2 (en) Image generation apparatus and image generation method for generating augmented reality images based on user interaction
US10277814B2 (en) Display control method and system for executing the display control method
JP2018097427A (en) Information processing method, and program for causing computer to execute the information processing method
CN108037826B (en) Information processing method and program for causing computer to execute the information processing method
JP6223614B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6212666B1 (en) Information processing method, program, virtual space distribution system, and apparatus
JP6257825B1 (en) Method for communicating via virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
US20240036327A1 (en) Head-mounted display and image displaying method
JP6266823B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6289703B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP2018120583A (en) Information processing method and program for causing computer to execute the same
JP2018163637A (en) Information processing method, information processing program, information processing system, and information processing device
JP2018109940A (en) Information processing method and program for causing computer to execute the same
JP6535699B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS
JP2019036239A (en) Information processing method, information processing program, information processing system, and information processing device
JP7030075B2 (en) Programs, information processing devices, and information processing methods
JP2018097847A (en) Information processing method, and program for causing computer to execute the information processing method
JP6205047B1 (en) Information processing method and program for causing computer to execute information processing method
JP6738308B2 (en) Information processing method, program, virtual space distribution system and device
JP2017097918A (en) Image display method and program