JP6289703B1 - Information processing method, information processing program, information processing system, and information processing apparatus - Google Patents

Information processing method, information processing program, information processing system, and information processing apparatus Download PDF

Info

Publication number
JP6289703B1
JP6289703B1 JP2017058988A JP2017058988A JP6289703B1 JP 6289703 B1 JP6289703 B1 JP 6289703B1 JP 2017058988 A JP2017058988 A JP 2017058988A JP 2017058988 A JP2017058988 A JP 2017058988A JP 6289703 B1 JP6289703 B1 JP 6289703B1
Authority
JP
Japan
Prior art keywords
avatar
hand
user
virtual space
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017058988A
Other languages
Japanese (ja)
Other versions
JP2018163420A (en
Inventor
友輝 高野
友輝 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2017058988A priority Critical patent/JP6289703B1/en
Application granted granted Critical
Publication of JP6289703B1 publication Critical patent/JP6289703B1/en
Publication of JP2018163420A publication Critical patent/JP2018163420A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】仮想空間のエンターテイメント性を向上させる。【解決手段】情報処理方法は、仮想空間データを生成するステップと、ユーザ端末のHMDの動きと仮想空間データとに基づいて、HMDに表示される視野画像を示す視野画像データを生成するステップと、HMDを装着したユーザの手の動きに応じてアバター4Aの手を動かすステップと、マイクに入力された音声に基づく音声データを取得するステップと、アバター4Aの手の状態に関連する第1条件が満たされている場合において、アバター4Bが仮想空間における高伝達領域に位置している場合には、音量パラメータLを音量パラメータL1に設定するステップと、アバター4Bが仮想空間における高伝達領域に位置していない場合には、音量パラメータLを音量パラメータL2に設定するステップと、音声データと音量パラメータLに基づいて、ユーザ端末のヘッドフォンにユーザの音声を出力するステップと、を含む。【選択図】図12An object of the present invention is to improve entertainment in a virtual space. An information processing method includes: generating virtual space data; generating visual field image data indicating a visual field image displayed on the HMD based on the movement of the HMD of the user terminal and the virtual space data; The step of moving the hand of the avatar 4A according to the movement of the hand of the user wearing the HMD, the step of acquiring voice data based on the voice input to the microphone, and the first condition related to the hand state of the avatar 4A When the avatar 4B is located in the high transmission area in the virtual space, the step of setting the volume parameter L to the volume parameter L1 and the avatar 4B is located in the high transmission area in the virtual space. If not, the step of setting the volume parameter L to the volume parameter L2, and the audio data and volume parameter Based on, it includes the steps of outputting the voice of the user to the headphone of the user terminal. [Selection] Figure 12

Description

本開示は、情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置に関する。   The present disclosure relates to an information processing method, an information processing program, an information processing system, and an information processing apparatus.

特許文献1には、ゲームプログラムの実行中に、ゲーム空間内の視点となる移動体が移動した場合又は音源が移動した場合に、移動体と音源との間の相対位置関係を算出し、算出された相対位置関係に基づいた定位パラメータにより音源から出力される音声を加工する処理(音像定位処理)が開示されている。   Patent Document 1 calculates a relative positional relationship between a moving body and a sound source when the moving body serving as a viewpoint in the game space moves or the sound source moves during execution of the game program. Disclosed is a process (sound image localization process) for processing a sound output from a sound source using a localization parameter based on the relative positional relationship.

特開2007−050267号公報JP 2007-050267 A

しかしながら、特許文献1では、仮想空間のエンターテイメント性をさらに向上させるために、音源として規定されたオブジェクト(音源オブジェクト)から出力される音声に関連する異なるパラメータ(例えば、減衰係数)を仮想空間内の互いに異なる領域に設定する技術については何ら開示されていない。特に、仮想空間内において、音源オブジェクトから出力される音声に指向性を持たせる技術については何ら開示されていない。ここで、仮想空間は、VR(Virtual Reality)空間、AR(Augmented Reality)空間及びMR(Mixed Reality) 空間を含むものである。   However, in Patent Document 1, in order to further improve the entertainment property of the virtual space, different parameters (for example, attenuation coefficient) related to the sound output from the object (sound source object) defined as the sound source are set in the virtual space. There is no disclosure of a technique for setting different areas. In particular, there is no disclosure of a technique for imparting directivity to sound output from a sound source object in a virtual space. Here, the virtual space includes a VR (Virtual Reality) space, an AR (Augmented Reality) space, and an MR (Mixed Reality) space.

本開示は、仮想空間のエンターテイメント性を向上させることを目的とする。   The present disclosure aims to improve the entertainment property of a virtual space.

本開示が示す一態様によれば、情報処理方法は、
a)操作オブジェクトと、対象オブジェクトとを含む仮想空間を規定する仮想空間データを生成するステップと、
b)前記第1ユーザ端末に関連付けられたヘッドマウントデバイスの動きと前記仮想空間データとに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを生成するステップと、
c)前記ヘッドマウントデバイスを装着した第1ユーザの身体の一部の動きに応じて、前記操作オブジェクトを動かすステップと、
d)音声入力部に入力された音声に基づく音声データを取得するステップと、
e)前記操作オブジェクトの状態に関連する第1条件が満たされている場合において、
e1)前記対象オブジェクトが前記仮想空間における第1領域に位置している場合には、前記音声データに関連するパラメータを第1パラメータに設定するステップと、
e2)前記対象オブジェクトが前記仮想空間における第1領域とは異なる第2領域に位置している場合には、前記音声データに関連するパラメータを前記第1パラメータとは異なる第2パラメータに設定するステップと、
f)前記音声データと前記パラメータに基づいて、前記対象オブジェクト又は前記対象オブジェクトに関連付けられた第2ユーザ端末に影響を与えるステップと、
を含む。
According to one aspect of the present disclosure, an information processing method includes:
a) generating virtual space data defining a virtual space including an operation object and a target object;
b) generating visual field image data indicating a visual field image displayed on the head mounted device based on the movement of the head mounted device associated with the first user terminal and the virtual space data;
c) moving the operation object in response to movement of a part of the body of the first user wearing the head mounted device;
d) obtaining voice data based on the voice input to the voice input unit;
e) When a first condition related to the state of the operation object is satisfied,
e1) when the target object is located in a first region in the virtual space, setting a parameter related to the audio data as a first parameter;
e2) When the target object is located in a second area different from the first area in the virtual space, a parameter related to the audio data is set to a second parameter different from the first parameter. When,
f) affecting the target object or a second user terminal associated with the target object based on the audio data and the parameter;
including.

本開示によれば、仮想空間のエンターテイメント性を向上させることができる。   According to the present disclosure, the entertainment property of the virtual space can be improved.

本発明の実施形態(以下、単に本実施形態という。)に係る仮想空間配信システムを示す概略図である。It is the schematic which shows the virtual space delivery system which concerns on embodiment (henceforth this embodiment only) of this invention. ユーザ端末を示す概略図である。It is the schematic which shows a user terminal. HMDを装着したユーザの頭部を示す図である。It is a figure which shows the head of the user with which HMD was mounted | worn. 制御装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a control apparatus. 視野画像をHMDに表示する処理を示すフローチャートである。It is a flowchart which shows the process which displays a visual field image on HMD. 仮想空間の一例を示すxyz空間図である。It is xyz space figure which shows an example of virtual space. 状態(a)は、図6に示す仮想空間のyx平面図である。状態(b)は、図6に示す仮想空間のzx平面図である。The state (a) is a yx plan view of the virtual space shown in FIG. The state (b) is a zx plan view of the virtual space shown in FIG. HMDに表示された視野画像の一例を示す図である。It is a figure which shows an example of the visual field image displayed on HMD. 図1に示すサーバのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the server shown in FIG. 状態(a)は、ユーザAに提供される仮想空間を示す図である。状態(b)は、ユーザBに提供される仮想空間を示す図である。The state (a) is a diagram showing a virtual space provided to the user A. The state (b) is a diagram showing a virtual space provided to the user B. ユーザ端末間において各アバターの動きを同期させる処理の一例を説明するためのシーケンス図である。It is a sequence figure for explaining an example of processing which synchronizes movement of each avatar between user terminals. 本実施形態に係る音量パラメータの設定処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the volume parameter setting process which concerns on this embodiment. 状態(a)は、高伝達領域が設定されたユーザAに提供される仮想空間を示す平面図である。状態(b)は、アバター4Aの正面図である。A state (a) is a top view which shows the virtual space provided to the user A in which the high transmission area | region was set. The state (b) is a front view of the avatar 4A. 高伝達領域が設定されたユーザAに提供される仮想空間を示す平面図である。It is a top view which shows the virtual space provided to the user A to which the high transmission area | region was set. 高伝達領域が設定されたユーザAに提供される仮想空間を示す平面図である。It is a top view which shows the virtual space provided to the user A to which the high transmission area | region was set. 状態(a)は、高伝達領域が設定されたユーザAに提供される仮想空間を示す平面図である。状態(b)は、アバター4Aの正面図である。A state (a) is a top view which shows the virtual space provided to the user A in which the high transmission area | region was set. The state (b) is a front view of the avatar 4A. 状態(a)は、高伝達領域が設定されたユーザAに提供される仮想空間を示す平面図である。状態(b)は、アバター4Aの正面図である。A state (a) is a top view which shows the virtual space provided to the user A in which the high transmission area | region was set. The state (b) is a front view of the avatar 4A. 状態(a)は、高伝達領域が設定されたユーザAに提供される仮想空間を示す平面図である。状態(b)は、アバター4Aの正面図である。A state (a) is a top view which shows the virtual space provided to the user A in which the high transmission area | region was set. The state (b) is a front view of the avatar 4A.

[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)a)操作オブジェクトと、対象オブジェクトとを含む仮想空間を規定する仮想空間データを生成するステップと、
b)前記第1ユーザ端末に関連付けられたヘッドマウントデバイスの動きと前記仮想空間データとに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを生成するステップと、
c)前記ヘッドマウントデバイスを装着した第1ユーザの身体の一部の動きに応じて、前記操作オブジェクトを動かすステップと、
d)音声入力部に入力された音声に基づく音声データを取得するステップと、
e)前記操作オブジェクトの状態に関連する第1条件が満たされている場合において、
e1)前記対象オブジェクトが前記仮想空間における第1領域に位置している場合には、前記音声データに関連するパラメータを第1パラメータに設定するステップと、
e2)前記対象オブジェクトが前記仮想空間における第1領域とは異なる第2領域に位置している場合には、前記音声データに関連するパラメータを前記第1パラメータとは異なる第2パラメータに設定するステップと、
f)前記音声データと前記パラメータに基づいて、前記対象オブジェクト又は前記対象オブジェクトに関連付けられた第2ユーザ端末に影響を与えるステップと、
を含む情報処理方法。
[Description of Embodiments Presented by the Present Disclosure]
An overview of an embodiment indicated by the present disclosure will be described.
(1) a) generating virtual space data defining a virtual space including an operation object and a target object;
b) generating visual field image data indicating a visual field image displayed on the head mounted device based on the movement of the head mounted device associated with the first user terminal and the virtual space data;
c) moving the operation object in response to movement of a part of the body of the first user wearing the head mounted device;
d) obtaining voice data based on the voice input to the voice input unit;
e) When a first condition related to the state of the operation object is satisfied,
e1) when the target object is located in a first region in the virtual space, setting a parameter related to the audio data as a first parameter;
e2) When the target object is located in a second area different from the first area in the virtual space, a parameter related to the audio data is set to a second parameter different from the first parameter. When,
f) affecting the target object or a second user terminal associated with the target object based on the audio data and the parameter;
An information processing method including:

上記方法によれば、操作オブジェクトの状態に関連する第1条件が満たされる場合に、対象オブジェクトが第1領域又は第2領域に位置しているかに応じて、音声データに関連するパラメータが第1パラメータまたは第2パラメータに設定される。その後、音声データとパラメータ(第1パラメータ又は第2パラメータ)に基づいて、対象オブジェクト又は前記対象オブジェクトに関連付けられた第2ユーザ端末に影響を与えさせることが可能となる。したがって、仮想空間のエンターテイメント性を向上させることができる。   According to the above method, when the first condition related to the state of the operation object is satisfied, the parameter related to the audio data is the first parameter depending on whether the target object is located in the first area or the second area. Set to parameter or second parameter. Thereafter, based on the audio data and the parameters (first parameter or second parameter), it is possible to influence the target object or the second user terminal associated with the target object. Therefore, the entertainment property of the virtual space can be improved.

(2)g)前記第1条件が満たされない場合には、前記音声データに関連するパラメータを第3パラメータに設定するステップをさらに含む、
項目(1)に記載の情報処理方法。
(2) g) when the first condition is not satisfied, further includes a step of setting a parameter related to the audio data as a third parameter;
The information processing method according to item (1).

上記方法によれば、操作オブジェクトの状態に関連する第2条件が満たされない場合には、音声データに関連するパラメータが第3パラメータに設定される。その後、音声データと第3パラメータに基づいて、対象オブジェクト又は前記対象オブジェクトに関連付けられた第2ユーザ端末に影響を与えさせることが可能となる。したがって、仮想空間のエンターテイメント性を向上させることができる。   According to the above method, when the second condition related to the state of the operation object is not satisfied, the parameter related to the audio data is set as the third parameter. Thereafter, based on the audio data and the third parameter, the target object or the second user terminal associated with the target object can be affected. Therefore, the entertainment property of the virtual space can be improved.

(3)前記視野画像の視点位置と前記対象オブジェクトとの間の相対位置関係に基づいて、前記第1から第3パラメータが設定される、
項目(2)に記載の情報処理方法。
(3) The first to third parameters are set based on a relative positional relationship between the viewpoint position of the visual field image and the target object.
The information processing method according to item (2).

上記方法によれば、視野画像の視点位置と対象オブジェクトとの間の相対的位置関係に基づいて第1から第3パラメータが設定されるので、仮想空間のエンターテイメント性を向上させることができる。   According to the above method, since the first to third parameters are set based on the relative positional relationship between the viewpoint position of the visual field image and the target object, the entertainment property of the virtual space can be improved.

(4)前記操作オブジェクトは、第1操作オブジェクトと、第2操作オブジェクトとを有し、
前記第1条件は、前記第1操作オブジェクトと前記第2操作オブジェクトとの間の相対位置関係に関連する第2条件を含む、項目(1)から(3)のうちいずれか一項に記載の情報処理方法。
(4) The operation object includes a first operation object and a second operation object,
The first condition according to any one of items (1) to (3), including a second condition related to a relative positional relationship between the first operation object and the second operation object. Information processing method.

上記方法によれば、第1操作オブジェクトと第2操作オブジェクトとの間の相対位置関係に関連する第2条件を含む第1条件が満たされる場合に、対象オブジェクトが第1領域又は第2領域に位置しているかに応じて、互いに異なるパラメータ(第1パラメータと第2パラメータ)を設定することが可能となる。したがって、仮想空間のエンターテイメント性を向上させることができる。   According to the above method, when the first condition including the second condition related to the relative positional relationship between the first operation object and the second operation object is satisfied, the target object is placed in the first area or the second area. It is possible to set different parameters (first parameter and second parameter) depending on whether they are located. Therefore, the entertainment property of the virtual space can be improved.

(5)前記第1条件は、前記操作オブジェクトの形状に関連する第3条件を含む、項目(1)から(4)のうちいずれか一項に記載の情報処理方法。   (5) The information processing method according to any one of items (1) to (4), wherein the first condition includes a third condition related to a shape of the operation object.

上記方法によれば、操作オブジェクトの形状に関連する第3条件を含む第1条件が満たされる場合に、対象オブジェクトが第1領域又は第2領域に位置しているかに応じて、互いに異なるパラメータ(第1パラメータと第2パラメータ)を設定することが可能となる。したがって、仮想空間のエンターテイメント性を向上させることができる。   According to the above method, when the first condition including the third condition related to the shape of the operation object is satisfied, different parameters (depending on whether the target object is located in the first area or the second area) ( It is possible to set the first parameter and the second parameter. Therefore, the entertainment property of the virtual space can be improved.

(6)前記第1条件は、前記ヘッドマウントデバイスの動きに基づいて前記視野画像を定義する仮想カメラと、前記操作オブジェクトとの間の相対位置関係に関連する第4条件を含む、項目(1)から(5)のうちいずれか一項に記載の情報処理方法。   (6) The first condition includes an item (1) related to a relative positional relationship between a virtual camera that defines the field-of-view image based on the movement of the head mounted device and the operation object. The information processing method according to any one of (5) to (5).

上記方法によれば、操作オブジェクトと仮想カメラとの間の相対位置関係に関連する第4条件を含む第1条件が満たされる場合に、対象オブジェクトが第1領域又は第2領域に位置しているかに応じて、互いに異なるパラメータ(第1パラメータと第2パラメータ)を設定することが可能となる。したがって、仮想空間のエンターテイメント性を向上させることができる。   According to the above method, whether the target object is located in the first region or the second region when the first condition including the fourth condition related to the relative positional relationship between the operation object and the virtual camera is satisfied. Accordingly, different parameters (first parameter and second parameter) can be set. Therefore, the entertainment property of the virtual space can be improved.

(7)前記第1領域と前記第2領域のうちの少なくとも一方は、前記ヘッドマウントデバイスの動きに基づいて前記視野画像を定義する仮想カメラの視野に基づいて区画される、項目(1)から(6)のうちいずれか一項に記載の情報処理方法。   (7) From the item (1), at least one of the first area and the second area is partitioned based on a visual field of a virtual camera that defines the visual field image based on a movement of the head mounted device. The information processing method according to any one of (6).

上記方法によれば、第1領域と第2領域のうちの少なくとも一方が仮想カメラの視野に基づいて区画される。このように、仮想カメラの視野に基づいて、互いに異なるパラメータ(第1パラメータと第2パラメータ)を仮想空間内に設定することが可能となる。したがって、仮想空間のエンターテイメント性を向上させることができる。   According to the above method, at least one of the first region and the second region is partitioned based on the visual field of the virtual camera. In this way, different parameters (first parameter and second parameter) can be set in the virtual space based on the visual field of the virtual camera. Therefore, the entertainment property of the virtual space can be improved.

(8)前記第1領域と前記第2領域は、前記操作オブジェクトの位置に基づいて区画される、項目(1)から(6)のうちいずれか一項に記載の情報処理方法。   (8) The information processing method according to any one of items (1) to (6), wherein the first area and the second area are partitioned based on a position of the operation object.

上記方法によれば、第1領域と第2領域が操作オブジェクトの位置に基づいて区画される。このように、操作オブジェクトの位置に基づいて、互いに異なるパラメータ(第1パラメータと第2パラメータ)を仮想空間内に設定することが可能となる。したがって、仮想空間のエンターテイメント性を向上させることができる。   According to the above method, the first area and the second area are partitioned based on the position of the operation object. In this way, different parameters (first parameter and second parameter) can be set in the virtual space based on the position of the operation object. Therefore, the entertainment property of the virtual space can be improved.

(9)前記操作オブジェクトは、第1操作オブジェクトと第2操作オブジェクトを有し、
前記第1領域と前記第2領域は、前記第1操作オブジェクトの位置と前記第2操作オブジェクトの位置に基づいて区画される、
項目(1)から(6)のうちいずれか一項に記載の情報処理方法。
(9) The operation object includes a first operation object and a second operation object,
The first area and the second area are partitioned based on the position of the first operation object and the position of the second operation object.
The information processing method according to any one of items (1) to (6).

上記方法によれば、第1領域と第2領域が第1操作オブジェクトの位置と第2操作オブジェクトの位置に基づいて区画される。このように、第1操作オブジェクトと第2操作オブジェクトの位置に基づいて、互いに異なる所定のパラメータ(第1パラメータと第2パラメータ)を仮想空間内に設定することが可能となる。したがって、仮想空間のエンターテイメント性を向上させることができる。   According to the above method, the first area and the second area are partitioned based on the position of the first operation object and the position of the second operation object. In this way, different predetermined parameters (first parameter and second parameter) can be set in the virtual space based on the positions of the first operation object and the second operation object. Therefore, the entertainment property of the virtual space can be improved.

(10)前記第1領域と前記第2領域は、前記ヘッドマウントデバイスの動きに基づいて前記視野画像を定義する仮想カメラの位置と、前記操作オブジェクトの位置と、に基づいて区画される、項目(1)から(6)のうちいずれか一項に記載の情報処理方法。   (10) The first area and the second area are divided based on a position of a virtual camera that defines the visual field image based on a movement of the head mounted device and a position of the operation object. The information processing method according to any one of (1) to (6).

上記方法によれば、第1領域と第2領域が仮想カメラの位置と操作オブジェクトの位置に基づいて区画される。このように、仮想カメラの位置と操作オブジェクトの位置に基づいて、互いに異なる所定のパラメータ(第1パラメータと第2パラメータ)を仮想空間内に設定することが可能となる。したがって、仮想空間のエンターテイメント性を向上させることができる。   According to the above method, the first area and the second area are partitioned based on the position of the virtual camera and the position of the operation object. As described above, it is possible to set different predetermined parameters (first parameter and second parameter) in the virtual space based on the position of the virtual camera and the position of the operation object. Therefore, the entertainment property of the virtual space can be improved.

(11)a)現実空間に重畳して表示される対象オブジェクトを規定する仮想空間データを生成するステップと、
b)第1ユーザ端末に関連付けられたヘッドマウントデバイスの動きと前記仮想空間データとに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを生成するステップと、
c)前記ヘッドマウントデバイスを装着したユーザの身体の一部の動きを特定するステップと、
d)音声入力部に入力された音声に基づく音声データを取得するステップと、
e)前記身体の一部の状態に関連する第1条件が満たされている場合において、
e1)前記対象オブジェクトが前記現実空間における第1領域に位置している場合には、前記音声データに関連するパラメータを第1パラメータに設定するステップと、
e2)前記対象オブジェクトが前記現実空間における第1領域とは異なる第2領域に位置している場合には、前記音声データに関連するパラメータを前記第1パラメータとは異なる第2パラメータに設定するステップと、
f)前記音声データと前記パラメータに基づいて、前記対象オブジェクト又は前記対象オブジェクトに関連付けられた第2ユーザ端末に影響を与えるステップと、
を含む、情報処理方法。
(11) a) generating virtual space data defining a target object displayed superimposed on the real space;
b) generating visual field image data indicating a visual field image displayed on the head mounted device based on the movement of the head mounted device associated with the first user terminal and the virtual space data;
c) identifying the movement of the body part of the user wearing the head mounted device;
d) obtaining voice data based on the voice input to the voice input unit;
e) when a first condition relating to the state of the body part is satisfied,
e1) when the target object is located in a first area in the real space, setting a parameter related to the audio data as a first parameter;
e2) When the target object is located in a second area different from the first area in the real space, a step of setting a parameter related to the audio data to a second parameter different from the first parameter When,
f) affecting the target object or a second user terminal associated with the target object based on the audio data and the parameter;
Including an information processing method.

上記方法によれば、仮想空間のエンターテイメント性を向上させることができる。   According to the above method, the entertainment property of the virtual space can be improved.

(12)項目(1)から(11)のうちいずれか一項に記載の情報処理方法をコンピュータに実行させるための情報処理プログラム。   (12) An information processing program for causing a computer to execute the information processing method according to any one of items (1) to (11).

上記情報処理プログラムによれば、仮想空間のエンターテイメント性を向上させることができる。   According to the information processing program, the entertainment property of the virtual space can be improved.

(13)音声入力部とヘッドマウントデバイスとを備えた第1ユーザ端末と、前記第1ユーザ端末と通信可能に接続されたサーバとを備え、項目(1)から(11)のうちいずれか一項に記載の情報処理方法を実行するように構成された、情報処理システム。   (13) A first user terminal including a voice input unit and a head-mounted device, and a server connected to be communicable with the first user terminal, and any one of items (1) to (11) An information processing system configured to execute the information processing method according to claim.

上記情報処理システムによれば、仮想空間のエンターテイメント性を向上させることができる。   According to the information processing system, the entertainment property of the virtual space can be improved.

(14)プロセッサと、
コンピュータ可読命令を記憶するメモリと、を備えた情報処理装置であって、
前記コンピュータ可読命令が前記プロセッサにより実行されると、前記情報処理装置は項目(1)から(11)のうちいずれか一項に記載の情報処理方法を実行する、情報処理装置。
(14) a processor;
An information processing apparatus comprising a memory for storing computer-readable instructions,
When the computer-readable instruction is executed by the processor, the information processing apparatus executes the information processing method according to any one of items (1) to (11).

上記情報処理装置によれば、仮想空間のエンターテイメント性を向上させることができる。尚、上記情報処理装置は、ユーザ端末及びサーバの両方を含む点に留意されたい。   According to the information processing apparatus, the entertainment property of the virtual space can be improved. It should be noted that the information processing apparatus includes both a user terminal and a server.

[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。尚、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Presented by the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, about the member which has the same reference number as the member already demonstrated in description of this embodiment, the description is not repeated for convenience of explanation.

最初に、仮想空間配信システム100の構成の概略について図1を参照して説明する。図1は、仮想空間配信システム100(以下、単に配信システム100という。)の概略図である。図1に示すように、配信システム100は、ユーザA(第1ユーザ)によって操作されるユーザ端末1A(第1ユーザ端末)と、ユーザB(第2ユーザ)によって操作されるユーザ端末1B(第2ユーザ端末)と、サーバ2とを備える。ユーザ端末1A,1Bは、インターネット等の通信ネットワーク3を介してサーバ2に通信可能に接続されている。尚、本実施形態において、仮想空間とは、VR(Virtual Reality)空間と、AR(Argumented Reality)空間と、MR(Mixed Reality)空間を含むものである。また、以降では、説明の便宜上、各ユーザ端末1A,1Bを単にユーザ端末1と総称する場合がある。さらに、各ユーザA,Bを単にユーザUと総称する場合がある。また、本実施形態では、ユーザ端末1A,1Bは、同一の構成を備えているものとする。   First, an outline of the configuration of the virtual space distribution system 100 will be described with reference to FIG. FIG. 1 is a schematic diagram of a virtual space distribution system 100 (hereinafter simply referred to as distribution system 100). As shown in FIG. 1, the distribution system 100 includes a user terminal 1A (first user terminal) operated by a user A (first user) and a user terminal 1B (first user) operated by a user B (second user). 2 user terminals) and the server 2. User terminals 1A and 1B are communicably connected to a server 2 via a communication network 3 such as the Internet. In the present embodiment, the virtual space includes a VR (Virtual Reality) space, an AR (Arranged Reality) space, and an MR (Mixed Reality) space. Further, hereinafter, for convenience of explanation, the user terminals 1A and 1B may be simply referred to as the user terminal 1 in some cases. Further, the users A and B may be simply referred to as a user U. In the present embodiment, the user terminals 1A and 1B are assumed to have the same configuration.

次に、図2を参照してユーザ端末1の構成について説明する。図2は、ユーザ端末1を示す概略図である。図2に示すように、ユーザ端末1は、ユーザUの頭部に装着されたヘッドマウントデバイス(HMD)110と、ヘッドフォン116と、マイク118と、位置センサ130と、外部コントローラ320と、制御装置120とを備える。   Next, the configuration of the user terminal 1 will be described with reference to FIG. FIG. 2 is a schematic diagram showing the user terminal 1. As shown in FIG. 2, the user terminal 1 includes a head mounted device (HMD) 110, a headphone 116, a microphone 118, a position sensor 130, an external controller 320, and a control device mounted on the user U's head. 120.

HMD110は、表示部112と、HMDセンサ114と、注視センサ140とを備えている。表示部112は、HMD110を装着したユーザUの視界(視野)を完全に覆うように構成された非透過型の表示装置を備えている。これにより、ユーザUは、表示部112に表示された視野画像のみを見ることで仮想空間に没入することができる。尚、表示部112は、ユーザUの左目に画像を提供するように構成された左目用表示部と、ユーザUの右目に画像を提供するように構成された右目用表示部とから構成されてもよい。また、HMD110は、透過型の表示装置を備えてもよい。この場合、透過型の表示装置は、その透過率を調整することで、一時的に非透過型の表示装置として構成されてもよい。   The HMD 110 includes a display unit 112, an HMD sensor 114, and a gaze sensor 140. The display unit 112 includes a non-transmissive display device configured to completely cover the field of view (field of view) of the user U wearing the HMD 110. Thereby, the user U can immerse in the virtual space by viewing only the visual field image displayed on the display unit 112. The display unit 112 includes a left-eye display unit configured to provide an image to the user U's left eye and a right-eye display unit configured to provide an image to the user U's right eye. Also good. Further, the HMD 110 may include a transmissive display device. In this case, the transmissive display device may be temporarily configured as a non-transmissive display device by adjusting the transmittance.

HMDセンサ114は、HMD110の表示部112の近傍に搭載される。HMDセンサ114は、地磁気センサ、加速度センサ、傾きセンサ(角速度センサやジャイロセンサ等)のうちの少なくとも1つを含み、ユーザUの頭部に装着されたHMD110の各種動き(傾き等)を検出することができる。   The HMD sensor 114 is mounted in the vicinity of the display unit 112 of the HMD 110. The HMD sensor 114 includes at least one of a geomagnetic sensor, an acceleration sensor, and a tilt sensor (such as an angular velocity sensor and a gyro sensor), and detects various movements (tilt and the like) of the HMD 110 mounted on the user U's head. be able to.

注視センサ140は、ユーザUの視線を検出するアイトラッキング機能を有する。注視センサ140は、例えば、右目用注視センサと、左目用注視センサを備えてもよい。右目用注視センサは、ユーザUの右目に例えば赤外光を照射して、右目(特に、角膜や虹彩)から反射された反射光を検出することで、右目の眼球の回転角に関する情報を取得してもよい。一方、左目用注視センサは、ユーザUの左目に例えば赤外光を照射して、左目(特に、角膜や虹彩)から反射された反射光を検出することで、左目の眼球の回転角に関する情報を取得してもよい。   The gaze sensor 140 has an eye tracking function that detects the line of sight of the user U. The gaze sensor 140 may include, for example, a right eye gaze sensor and a left eye gaze sensor. The right eye gaze sensor irradiates, for example, infrared light to the right eye of the user U, and detects reflected light reflected from the right eye (particularly the cornea and iris), thereby acquiring information related to the rotation angle of the right eye's eyeball. May be. On the other hand, the left eye gaze sensor irradiates the left eye of the user U with, for example, infrared light, and detects reflected light reflected from the left eye (particularly the cornea and iris), thereby providing information on the rotation angle of the left eye's eyeball. May be obtained.

ヘッドフォン116(音声出力部)は、ユーザUの左耳と右耳にそれぞれ装着されている。ヘッドフォン116は、制御装置120から音声データ(電気信号)を受信し、当該受信した音声データに基づいて音声を出力するように構成されている。マイク118(音声入力部)は、ユーザUから発声された音声を収集し、当該収集された音声に基づいて音声データ(電気信号)を生成するように構成されている。さらに、マイク118は、音声データを制御装置120に送信するように構成されている。   Headphones 116 (audio output units) are attached to the left and right ears of the user U, respectively. The headphones 116 are configured to receive audio data (electrical signals) from the control device 120 and output audio based on the received audio data. The microphone 118 (voice input unit) is configured to collect voice uttered by the user U and generate voice data (electrical signal) based on the collected voice. Furthermore, the microphone 118 is configured to transmit audio data to the control device 120.

位置センサ130は、例えば、ポジション・トラッキング・カメラにより構成され、HMD110と外部コントローラ320の位置を検出するように構成されている。位置センサ130は、制御装置120に無線又は有線により通信可能に接続されており、HMD110に設けられた図示しない複数の検知点の位置、傾き又は発光強度に関する情報を検出するように構成されている。さらに、位置センサ130は、外部コントローラ320に設けられた図示しない複数の検知点の位置、傾き及び/又は発光強度に関する情報を検出するように構成されている。検知点は、例えば、赤外線や可視光を放射する発光部である。また、位置センサ130は、赤外線センサや複数の光学カメラを含んでもよい。   The position sensor 130 is configured by, for example, a position tracking camera, and is configured to detect the positions of the HMD 110 and the external controller 320. The position sensor 130 is communicably connected to the control device 120 by wireless or wired communication, and is configured to detect information on the position, inclination, or light emission intensity of a plurality of detection points (not shown) provided in the HMD 110. . Further, the position sensor 130 is configured to detect information on the position, inclination and / or light emission intensity of a plurality of detection points (not shown) provided in the external controller 320. The detection point is, for example, a light emitting unit that emits infrared light or visible light. The position sensor 130 may include an infrared sensor and a plurality of optical cameras.

外部コントローラ320は、ユーザUの身体の一部(頭部以外の部位であり、本実施形態においてはユーザUの手)の動きを検知することにより、仮想空間内に表示されるアバターの手の動作を制御するために使用される。外部コントローラ320は、ユーザUの右手によって操作される右手用外部コントローラ320R(以下、単にコントローラ320Rという。)と、ユーザUの左手によって操作される左手用外部コントローラ320L(以下、単にコントローラ320Lという。)と、を有する。コントローラ320Rは、ユーザUの右手の位置や右手の手指の動きを示す装置である。また、コントローラ320Rの動きに応じて仮想空間内に存在するアバターの右手が動く。コントローラ320Lは、ユーザUの左手の位置や左手の手指の動きを示す装置である。また、コントローラ320Lの動きに応じて仮想空間内に存在するアバターの左手が動く。   The external controller 320 detects the movement of a part of the body of the user U (a part other than the head, which is the user U's hand in the present embodiment), and thereby the avatar hand displayed in the virtual space. Used to control the operation. The external controller 320 is an external controller 320R for right hand operated by the right hand of the user U (hereinafter simply referred to as controller 320R) and an external controller 320L for left hand operated by the left hand of the user U (hereinafter simply referred to as controller 320L). And). The controller 320R is a device that indicates the position of the right hand of the user U and the movement of the finger of the right hand. Further, the right hand of the avatar that exists in the virtual space moves according to the movement of the controller 320R. The controller 320L is a device that indicates the position of the left hand of the user U and the movement of the finger of the left hand. Further, the left hand of the avatar that exists in the virtual space moves according to the movement of the controller 320L.

制御装置120は、HMD110を制御するように構成されたコンピュータである。制御装置120は、位置センサ130から取得された情報に基づいて、HMD110の位置情報を特定し、当該特定された位置情報に基づいて、仮想空間における仮想カメラの位置と、現実空間におけるHMD110を装着したユーザUの位置を正確に対応付けることができる。さらに、制御装置120は、位置センサ130及び/又は外部コントローラ320に内蔵されたセンサから取得された情報に基づいて、外部コントローラ320の動作を特定し、当該特定された外部コントローラ320の動作に基づいて、仮想空間内に表示されるアバターの手の動作と現実空間における外部コントローラ320の動作を正確に対応付けることができる。特に、制御装置120は、位置センサ130及び/又はコントローラ320Lに内蔵されたセンサから取得された情報に基づいて、コントローラ320Lの動作を特定し、当該特定されたコントローラ320Lの動作に基づいて、仮想空間内に表示されるアバターの左手の動作と現実空間におけるコントローラ320Lの動作(ユーザUの左手の動作)を正確に対応付けることができる。同様に、制御装置120は、位置センサ及び/コントローラ320Rに内蔵されたセンサから取得された情報に基づいて、コントローラ320Rの動作を特定し、当該特定されたコントローラ320Rの動作に基づいて、仮想空間内に表示されるアバターの右手の動作と現実空間におけるコントローラ320Rの動作(ユーザUの右手の動作)を正確に対応付けることができる。   The control device 120 is a computer configured to control the HMD 110. The control device 120 identifies the position information of the HMD 110 based on the information acquired from the position sensor 130, and installs the position of the virtual camera in the virtual space and the HMD 110 in the real space based on the identified position information. Thus, the position of the user U can be accurately associated. Further, the control device 120 identifies the operation of the external controller 320 based on information acquired from the position sensor 130 and / or a sensor built in the external controller 320, and based on the identified operation of the external controller 320. Thus, the motion of the avatar's hand displayed in the virtual space can be accurately associated with the motion of the external controller 320 in the real space. In particular, the control device 120 identifies the operation of the controller 320L based on the information acquired from the position sensor 130 and / or the sensor built in the controller 320L, and determines the virtual operation based on the identified operation of the controller 320L. The motion of the left hand of the avatar displayed in the space and the motion of the controller 320L in the real space (the motion of the left hand of the user U) can be accurately associated. Similarly, the control device 120 specifies the operation of the controller 320R based on the information acquired from the position sensor and / or the sensor built in the controller 320R, and based on the operation of the specified controller 320R, the virtual space The motion of the right hand of the avatar displayed inside the motion of the controller 320R in the real space (the motion of the right hand of the user U) can be accurately associated.

また、制御装置120は、注視センサ140(左目用注視センサと右目用注視センサ)から送信された情報に基づいて、ユーザUの右目の視線と左目の視線をそれぞれ特定し、当該右目の視線と当該左目の視線の交点である注視点を特定することができる。さらに、制御装置120は、特定された注視点に基づいて、ユーザUの両目の視線(ユーザUの視線)を特定することができる。ここで、ユーザUの視線は、ユーザUの両目の視線であって、ユーザUの右目と左目を結ぶ線分の中点と注視点を通る直線の方向に一致する。   Further, the control device 120 specifies the gaze of the right eye and the gaze of the left eye of the user U based on the information transmitted from the gaze sensor 140 (the left eye gaze sensor and the right eye gaze sensor), and the right eye gaze. It is possible to specify the point of gaze that is the intersection of the left eye gaze. Furthermore, the control device 120 can specify the line of sight of both eyes of the user U (the line of sight of the user U) based on the specified gazing point. Here, the line of sight of the user U is the line of sight of both eyes of the user U, and coincides with the direction of a straight line passing through the middle point of the line connecting the right eye and the left eye of the user U and the gazing point.

次に、図3を参照して、HMD110の位置や傾きに関する情報を取得する方法について説明する。図3は、HMD110を装着したユーザUの頭部を示す図である。HMD110を装着したユーザUの頭部の動きに連動したHMD110の位置や傾きに関する情報は、位置センサ130及び/又はHMD110に搭載されたHMDセンサ114により検出可能である。図2に示すように、HMD110を装着したユーザUの頭部を中心として、3次元座標(uvw座標)が規定される。ユーザUが直立する垂直方向をv軸として規定し、v軸と直交しHMD110の中心を通る方向をw軸として規定し、v軸およびw軸と直交する方向をu軸として規定する。位置センサ130及び/又はHMDセンサ114は、各uvw軸回りの角度(すなわち、v軸を中心とする回転を示すヨー角、u軸を中心とした回転を示すピッチ角、w軸を中心とした回転を示すロール角で決定される傾き)を検出する。制御装置120は、検出された各uvw軸回りの角度変化に基づいて、仮想カメラの視軸を制御するための角度情報を決定する。   Next, with reference to FIG. 3, a method for acquiring information related to the position and inclination of the HMD 110 will be described. FIG. 3 is a diagram illustrating the head of the user U wearing the HMD 110. Information on the position and inclination of the HMD 110 that is linked to the movement of the head of the user U wearing the HMD 110 can be detected by the position sensor 130 and / or the HMD sensor 114 mounted on the HMD 110. As shown in FIG. 2, three-dimensional coordinates (uvw coordinates) are defined centering on the head of the user U wearing the HMD 110. The vertical direction in which the user U stands up is defined as the v-axis, the direction orthogonal to the v-axis and passing through the center of the HMD 110 is defined as the w-axis, and the direction orthogonal to the v-axis and the w-axis is defined as the u-axis. The position sensor 130 and / or the HMD sensor 114 is an angle around each uvw axis (that is, a yaw angle indicating rotation around the v axis, a pitch angle indicating rotation around the u axis, and a center around the w axis). The inclination determined by the roll angle indicating rotation) is detected. The control device 120 determines angle information for controlling the visual axis of the virtual camera based on the detected angle change around each uvw axis.

次に、図4を参照することで、制御装置120のハードウェア構成について説明する。図4は、制御装置120のハードウェア構成を示す図である。図4に示すように、制御装置120は、制御部121と、記憶部123と、I/O(入出力)インターフェース124と、通信インターフェース125と、バス126とを備える。制御部121と、記憶部123と、I/Oインターフェース124と、通信インターフェース125は、バス126を介して互いに通信可能に接続されている。   Next, the hardware configuration of the control device 120 will be described with reference to FIG. FIG. 4 is a diagram illustrating a hardware configuration of the control device 120. As illustrated in FIG. 4, the control device 120 includes a control unit 121, a storage unit 123, an I / O (input / output) interface 124, a communication interface 125, and a bus 126. The control unit 121, the storage unit 123, the I / O interface 124, and the communication interface 125 are connected to each other via a bus 126 so as to communicate with each other.

制御装置120は、HMD110とは別体に、パーソナルコンピュータ、タブレット又はウェアラブルデバイスとして構成されてもよいし、HMD110に内蔵されていてもよい。また、制御装置120の一部の機能がHMD110に搭載されると共に、制御装置120の残りの機能がHMD110とは別体の他の装置に搭載されてもよい。   The control device 120 may be configured as a personal computer, a tablet, or a wearable device separately from the HMD 110, or may be built in the HMD 110. In addition, some functions of the control device 120 may be mounted on the HMD 110, and the remaining functions of the control device 120 may be mounted on another device separate from the HMD 110.

制御部121は、メモリとプロセッサを備えている。メモリは、例えば、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)及び/又はGPU(Graphics Processing Unit)であって、ROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。   The control unit 121 includes a memory and a processor. The memory includes, for example, a ROM (Read Only Memory) in which various programs are stored, a RAM (Random Access Memory) having a plurality of work areas in which various programs executed by the processor are stored, and the like. The processor is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and / or a GPU (Graphics Processing Unit), and a program specified from various programs embedded in the ROM is expanded on the RAM. It is comprised so that various processes may be performed in cooperation with.

特に、プロセッサが制御プログラムをRAM上に展開し、RAMとの協働で制御プログラムを実行することで、制御部121は、制御装置120の各種動作を制御してもよい。制御部121は、視野画像データに基づいてHMD110の表示部112に視野画像を表示する。これにより、ユーザUは、仮想空間に没入することができる。   In particular, the control unit 121 may control various operations of the control device 120 by a processor developing a control program on a RAM and executing the control program in cooperation with the RAM. The control unit 121 displays a field image on the display unit 112 of the HMD 110 based on the field image data. Thereby, the user U can be immersed in the virtual space.

記憶部(ストレージ)123は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、USBフラッシュメモリ等の記憶装置であって、プログラムや各種データを格納するように構成されている。記憶部123は、本実施形態に係る情報処理方法の少なくとも一部をコンピュータに実行させるための制御プログラムや、複数のユーザによる仮想空間の共有を実現するための制御プログラムを格納してもよい。また、記憶部123には、ユーザUの認証プログラムや各種画像やオブジェクト(例えば、アバター等)に関するデータが格納されてもよい。さらに、記憶部123には、各種データを管理するためのテーブルを含むデータベースが構築されてもよい。   The storage unit (storage) 123 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a USB flash memory, and is configured to store programs and various data. The storage unit 123 may store a control program for causing a computer to execute at least a part of the information processing method according to the present embodiment, or a control program for realizing sharing of a virtual space by a plurality of users. The storage unit 123 may store data related to the user U authentication program, various images, and objects (for example, an avatar). Furthermore, a database including tables for managing various data may be constructed in the storage unit 123.

I/Oインターフェース124は、位置センサ130と、HMD110と、外部コントローラ320と、ヘッドフォン116と、マイク118とをそれぞれ制御装置120に通信可能に接続するように構成されており、例えば、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High―Definition Multimedia Interface)端子等により構成されている。尚、制御装置120は、位置センサ130と、HMD110と、外部コントローラ320と、ヘッドフォン116と、マイク118とのそれぞれと無線接続されていてもよい。   The I / O interface 124 is configured to connect the position sensor 130, the HMD 110, the external controller 320, the headphones 116, and the microphone 118 to the control device 120 so that they can communicate with each other, for example, a USB (Universal) The terminal includes a serial bus (D) terminal, a digital visual interface (DVI) terminal, a high-definition multimedia interface (HDMI) (registered trademark) terminal, and the like. The control device 120 may be wirelessly connected to each of the position sensor 130, the HMD 110, the external controller 320, the headphones 116, and the microphone 118.

通信インターフェース125は、制御装置120をLAN(Local Area Network)、WAN(Wide Area Network)又はインターネット等の通信ネットワーク3に接続させるように構成されている。通信インターフェース125は、通信ネットワーク3を介してサーバ2等の外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んでおり、通信ネットワーク3を介して通信するための通信規格に適合するように構成されている。   The communication interface 125 is configured to connect the control device 120 to a communication network 3 such as a LAN (Local Area Network), a WAN (Wide Area Network), or the Internet. The communication interface 125 includes various wired connection terminals for communicating with an external device such as the server 2 via the communication network 3 and various processing circuits for wireless connection, and communicates via the communication network 3. It is configured to conform to the communication standard.

次に、図5から図8を参照することで視野画像をHMD110に表示するための処理について説明する。図5は、視野画像をHMD110に表示する処理を示すフローチャートである。図6は、仮想空間200の一例を示すxyz空間図である。図7の状態(a)は、図6に示す仮想空間200のyx平面図である。図7の状態(b)は、図6に示す仮想空間200のzx平面図である。図8は、HMD110に表示された視野画像Vの一例を示す図である。   Next, processing for displaying a field-of-view image on the HMD 110 will be described with reference to FIGS. FIG. 5 is a flowchart showing a process for displaying the visual field image on the HMD 110. FIG. 6 is an xyz space diagram showing an example of the virtual space 200. The state (a) in FIG. 7 is a yx plan view of the virtual space 200 shown in FIG. The state (b) in FIG. 7 is a zx plan view of the virtual space 200 shown in FIG. FIG. 8 is a diagram illustrating an example of the visual field image V displayed on the HMD 110.

図5に示すように、ステップS1において、制御部121(図4参照)は、仮想カメラ300と、各種オブジェクトとを含む仮想空間200を示す仮想空間データを生成する。図6に示すように、仮想空間200は、中心位置210を中心とした全天球として規定される(図6では、上半分の天球のみが図示されている)。また、仮想空間200では、中心位置210を原点とするxyz座標系が設定されている。仮想カメラ300は、HMD110に表示される視野画像V(図8参照)を特定するための視軸Lを規定している。仮想カメラ300の視野を定義するuvw座標系は、現実空間におけるユーザUの頭部を中心として規定されたuvw座標系に連動するように決定される。また、HMD110を装着したユーザUの現実空間における移動に連動して、制御部121は、仮想カメラ300を仮想空間200内で移動させてもよい。   As illustrated in FIG. 5, in step S <b> 1, the control unit 121 (see FIG. 4) generates virtual space data indicating the virtual space 200 including the virtual camera 300 and various objects. As shown in FIG. 6, the virtual space 200 is defined as an omnidirectional sphere centered on the center position 210 (in FIG. 6, only the upper half celestial sphere is shown). In the virtual space 200, an xyz coordinate system with the center position 210 as the origin is set. The virtual camera 300 defines a visual axis L for specifying the visual field image V (see FIG. 8) displayed on the HMD 110. The uvw coordinate system that defines the visual field of the virtual camera 300 is determined so as to be linked to the uvw coordinate system that is defined around the head of the user U in the real space. Further, the control unit 121 may move the virtual camera 300 in the virtual space 200 in conjunction with the movement of the user U wearing the HMD 110 in the real space.

次に、ステップS2において、制御部121は、仮想カメラ300の視野CV(図7参照)を特定する。具体的には、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の状態を示すデータに基づいて、HMD110の位置や傾きに関する情報を取得する。次に、制御部121は、HMD110の位置や傾きに関する情報に基づいて、仮想空間200内における仮想カメラ300の位置や向きを特定する。次に、制御部121は、仮想カメラ300の位置や向きから仮想カメラ300の視軸Lを決定し、決定された視軸Lから仮想カメラ300の視野CVを特定する。ここで、仮想カメラ300の視野CVは、HMD110を装着したユーザUが視認可能な仮想空間200の一部の領域に相当する(換言すれば、HMD110に表示される仮想空間200の一部の領域に相当する)。また、視野CVは、図7の状態(a)に示すxy平面において、視軸Lを中心とした極角αの角度範囲として設定される第1領域CVaと、図7の状態(b)に示すxz平面において、視軸Lを中心とした方位角βの角度範囲として設定される第2領域CVbとを有する。尚、制御部121は、注視センサ140から送信されたユーザUの視線を示すデータに基づいてユーザUの視線を特定し、特定されたユーザUの視線とHMD110の位置や傾きに関する情報に基づいて、仮想カメラ300の向き(仮想カメラ300の視軸L)を決定してもよい。また、後述するように、制御部121は、HMD110の位置や傾きに関する情報に基づいて、ユーザUのアバターの顔の向きを決定してもよい。   Next, in step S <b> 2, the control unit 121 specifies the field of view CV (see FIG. 7) of the virtual camera 300. Specifically, the control unit 121 acquires information on the position and inclination of the HMD 110 based on data indicating the state of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. Next, the control unit 121 identifies the position and orientation of the virtual camera 300 in the virtual space 200 based on information regarding the position and tilt of the HMD 110. Next, the control unit 121 determines the visual axis L of the virtual camera 300 from the position and orientation of the virtual camera 300 and specifies the visual field CV of the virtual camera 300 from the determined visual axis L. Here, the visual field CV of the virtual camera 300 corresponds to a part of the virtual space 200 visible to the user U wearing the HMD 110 (in other words, a part of the virtual space 200 displayed on the HMD 110). Equivalent to Further, the visual field CV includes a first region CVa set as an angular range of the polar angle α around the visual axis L in the xy plane shown in the state (a) of FIG. 7, and the state (b) of FIG. 7. The xz plane shown has a second region CVb set as an angle range of the azimuth angle β with the visual axis L as the center. The control unit 121 identifies the line of sight of the user U based on the data indicating the line of sight of the user U transmitted from the gaze sensor 140, and based on the information regarding the identified line of sight of the user U and the position and inclination of the HMD 110. The orientation of the virtual camera 300 (the visual axis L of the virtual camera 300) may be determined. As will be described later, the control unit 121 may determine the orientation of the face of the user U's avatar based on information on the position and inclination of the HMD 110.

このように、制御部121は、位置センサ130及び/又はHMDセンサ114からのデータに基づいて、仮想カメラ300の視野CVを特定することができる。ここで、HMD110を装着したユーザUが動くと、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の動きを示すデータに基づいて、仮想カメラ300の視野CVを更新することができる。つまり、制御部121は、HMD110の動きに応じて、視野CVを更新することができる。同様に、ユーザUの視線が変化すると、制御部121は、注視センサ140から送信されたユーザUの視線を示すデータに基づいて、仮想カメラ300の視野CVを更新してもよい。つまり、制御部121は、ユーザUの視線の変化に応じて、視野CVを変化させてもよい。   As described above, the control unit 121 can specify the visual field CV of the virtual camera 300 based on the data from the position sensor 130 and / or the HMD sensor 114. Here, when the user U wearing the HMD 110 moves, the control unit 121 updates the visual field CV of the virtual camera 300 based on the data indicating the movement of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. be able to. That is, the control unit 121 can update the visual field CV according to the movement of the HMD 110. Similarly, when the line of sight of the user U changes, the control unit 121 may update the visual field CV of the virtual camera 300 based on the data indicating the line of sight of the user U transmitted from the gaze sensor 140. That is, the control unit 121 may change the visual field CV according to the change in the line of sight of the user U.

次に、ステップS3において、制御部121は、HMD110の表示部112に表示される視野画像Vを示す視野画像データを生成する。具体的には、制御部121は、仮想空間200を規定する仮想空間データと、仮想カメラ300の視野CVとに基づいて、視野画像データを生成する。   Next, in step S <b> 3, the control unit 121 generates visual field image data indicating the visual field image V displayed on the display unit 112 of the HMD 110. Specifically, the control unit 121 generates visual field image data based on virtual space data defining the virtual space 200 and the visual field CV of the virtual camera 300.

次に、ステップS4において、制御部121は、視野画像データに基づいて、HMD110の表示部112に視野画像Vを表示する(図7参照)。このように、HMD110を装着しているユーザUの動きに応じて、仮想カメラ300の視野CVが変化し、HMD110の表示部112に表示される視野画像Vが変化するので、ユーザUは仮想空間200に没入することができる。   Next, in step S4, the control unit 121 displays the field image V on the display unit 112 of the HMD 110 based on the field image data (see FIG. 7). As described above, the visual field CV of the virtual camera 300 is changed according to the movement of the user U wearing the HMD 110, and the visual field image V displayed on the display unit 112 of the HMD 110 is changed. I can immerse myself in 200.

尚、仮想カメラ300は、左目用仮想カメラと右目用仮想カメラを含んでもよい。この場合、制御部121は、仮想空間データと左目用仮想カメラの視野に基づいて、左目用の視野画像を示す左目用視野画像データを生成する。さらに、制御部121は、仮想空間データと、右目用仮想カメラの視野に基づいて、右目用の視野画像を示す右目用視野画像データを生成する。その後、制御部121は、左目用視野画像データに基づいて、左目用表示部に左目用の視野画像を表示すると共に、右目用視野画像データに基づいて、右目用表示部に右目用の視野画像を表示する。このようにして、ユーザUは、左目用視野画像と右目用視野画像との間の視差により、視野画像を3次元的に視認することができる。尚、仮想カメラは、後述するように、ユーザによって操作されるアバターの目の位置に配置されてもよい。例えば、左目用仮想カメラは、アバターの左目に配置される一方で、右目用仮想カメラは、アバターの右目に配置されてもよい。   Note that the virtual camera 300 may include a left-eye virtual camera and a right-eye virtual camera. In this case, the control unit 121 generates left-eye view image data indicating the left-eye view image based on the virtual space data and the view of the left-eye virtual camera. Further, the control unit 121 generates right-eye view image data indicating a right-eye view image based on the virtual space data and the view of the right-eye virtual camera. Thereafter, the control unit 121 displays the left-eye field image on the left-eye display unit based on the left-eye field image data, and also displays the right-eye field image on the right-eye display unit based on the right-eye field image data. Is displayed. In this way, the user U can visually recognize the visual field image three-dimensionally due to the parallax between the left-eye visual field image and the right-eye visual field image. As will be described later, the virtual camera may be arranged at the position of the avatar eye operated by the user. For example, the left-eye virtual camera may be placed in the left eye of the avatar, while the right-eye virtual camera may be placed in the right eye of the avatar.

また、図5に示すステップS1〜S4の処理は1フレーム(動画を構成する静止画像)毎に実行されてもよい。例えば、動画のフレームレートが90fpsである場合、ステップS1〜S4の処理はΔT=1/90(秒)間隔で繰り返し実行されてもよい。このように、ステップS1〜S4の処理が所定間隔ごとに繰り返し実行されるため、HMD110の動作に応じて仮想カメラ300の視野が更新されると共に、HMD110の表示部112に表示される視野画像Vが更新される。   Further, the processes in steps S1 to S4 shown in FIG. 5 may be executed for each frame (a still image constituting a moving image). For example, when the frame rate of the moving image is 90 fps, the processes in steps S1 to S4 may be repeatedly executed at intervals of ΔT = 1/90 (seconds). As described above, since the processes in steps S1 to S4 are repeatedly performed at predetermined intervals, the visual field of the virtual camera 300 is updated according to the operation of the HMD 110, and the visual field image V displayed on the display unit 112 of the HMD 110. Is updated.

次に、図1に示すサーバ2のハードウェア構成について図9を参照して説明する。図9は、サーバ2のハードウェア構成を示す図である。図9に示すように、サーバ2は、制御部23と、記憶部22と、通信インターフェース21と、バス24とを備える。制御部23と、記憶部22と、通信インターフェース21は、バス24を介して互いに通信可能に接続されている。制御部23は、メモリとプロセッサを備えており、メモリは、例えば、ROM及びRAM等から構成されると共に、プロセッサは、例えば、CPU、MPU及び/又はGPUにより構成される。   Next, the hardware configuration of the server 2 shown in FIG. 1 will be described with reference to FIG. FIG. 9 is a diagram illustrating a hardware configuration of the server 2. As shown in FIG. 9, the server 2 includes a control unit 23, a storage unit 22, a communication interface 21, and a bus 24. The control unit 23, the storage unit 22, and the communication interface 21 are communicably connected to each other via a bus 24. The control unit 23 includes a memory and a processor. The memory is composed of, for example, a ROM and a RAM, and the processor is composed of, for example, a CPU, an MPU, and / or a GPU.

記憶部(ストレージ)22は、例えば、大容量のHDD等である。記憶部22は、本実施形態に係る情報処理方法の少なくとも一部をコンピュータに実行させるための制御プログラムや、複数のユーザによる仮想空間の共有を実現させるための制御プログラムを格納してもよい。また、記憶部22は、各ユーザを管理するためのユーザ管理情報や各種画像やオブジェクト(例えば、アバター等)に関するデータを格納してもよい。通信インターフェース21は、サーバ2を通信ネットワーク3に接続させるように構成されている。   The storage unit (storage) 22 is, for example, a large-capacity HDD. The storage unit 22 may store a control program for causing a computer to execute at least a part of the information processing method according to the present embodiment, or a control program for realizing sharing of a virtual space by a plurality of users. Moreover, the memory | storage part 22 may store the data regarding the user management information for managing each user, various images, and objects (for example, avatar etc.). The communication interface 21 is configured to connect the server 2 to the communication network 3.

次に、図1,10及び11を参照してユーザ端末1Aとユーザ端末1B間において各アバター4A,4Bの動きを同期させる処理の一例について説明する。図10の状態(a)は、ユーザAに提供される仮想空間200Aを示す図である。図10の状態(b)は、ユーザBに提供される仮想空間200Bを示す図である。図11は、ユーザ端末1Aとユーザ端末1B間において各アバター4A,4Bの動きを同期させる処理の一例を説明するためのシーケンス図である。本説明では、前提条件として、図10に示すように、ユーザ端末1A(ユーザA)に関連付けられたアバター4A(第1アバター)と、ユーザ端末1B(ユーザB)に関連付けられたアバター4B(第2アバター)が同一の仮想空間を共有しているものとする。つまり、通信ネットワーク3を介してユーザAとユーザBが一つの仮想空間を共有するものとする。   Next, an example of processing for synchronizing the movements of the avatars 4A and 4B between the user terminal 1A and the user terminal 1B will be described with reference to FIGS. The state (a) in FIG. 10 is a diagram showing the virtual space 200A provided to the user A. The state (b) in FIG. 10 is a diagram showing the virtual space 200B provided to the user B. FIG. 11 is a sequence diagram for explaining an example of processing for synchronizing the movements of the avatars 4A and 4B between the user terminal 1A and the user terminal 1B. In this description, as shown in FIG. 10, as a precondition, an avatar 4A (first avatar) associated with the user terminal 1A (user A) and an avatar 4B associated with the user terminal 1B (user B) (first 2 avatars) share the same virtual space. That is, it is assumed that the user A and the user B share one virtual space via the communication network 3.

図10の状態(a)に示すように、ユーザAの仮想空間200Aは、アバター4Aと、アバター4Bとを含む。アバター4Aは、ユーザAによって操作されると共に、ユーザAの動作に連動する。アバター4Aは、ユーザ端末1Aのコントローラ320Lの動作(ユーザAの左手の動作)に連動する左手43A(第1操作オブジェクト)と、ユーザ端末1Aのコントローラ320Rの動作(ユーザAの右手の動作)に連動する右手42A(第2操作オブジェクト)とを有する。   As shown in the state (a) of FIG. 10, the virtual space 200A of the user A includes an avatar 4A and an avatar 4B. The avatar 4A is operated by the user A and interlocked with the operation of the user A. The avatar 4A uses the left hand 43A (first operation object) linked to the operation of the controller 320L of the user terminal 1A (the operation of the left hand of the user A) and the operation of the controller 320R of the user terminal 1A (the operation of the right hand of the user A). It has a interlocking right hand 42A (second operation object).

アバター4Aは、仮想カメラ300A(図14参照)と、マイク118に入力されたユーザAの音声の音源として規定された音源オブジェクトと、仮想空間200A上を伝搬する音声を収集する集音器として規定された集音オブジェクトとをさらに有する。尚、音源オブジェクトと、集音オブジェクトは、アバター4Aから分離されていてもよい。仮想カメラ300Aは、アバター4Aの目に配置されてもよい。特に、仮想カメラ300Aが、左目用仮想カメラと、右目用仮想カメラを有する場合、左目用仮想カメラは、アバター4Aの左目に配置されると共に、右目用仮想カメラは、アバター4Aの右目に配置されてもよい。尚、以降の説明では、アバター4Aの視野CVは、アバター4Aの目に配置された仮想カメラ300Aの視野CV(図15参照)と一致するものとする。   The avatar 4A is defined as a sound collector that collects a virtual camera 300A (see FIG. 14), a sound source object defined as the sound source of the user A's voice input to the microphone 118, and a sound propagating on the virtual space 200A. And a collected sound object. Note that the sound source object and the sound collection object may be separated from the avatar 4A. Virtual camera 300A may be placed in the eyes of avatar 4A. In particular, when the virtual camera 300A includes a left-eye virtual camera and a right-eye virtual camera, the left-eye virtual camera is disposed in the left eye of the avatar 4A, and the right-eye virtual camera is disposed in the right eye of the avatar 4A. May be. In the following description, it is assumed that the visual field CV of the avatar 4A matches the visual field CV (see FIG. 15) of the virtual camera 300A arranged in the eyes of the avatar 4A.

尚、仮想空間200Aでは、アバター4Aの身体が可視化されない場合も想定される。この場合でも、仮想空間200Aに配置されるアバター4Aは、仮想カメラ300Aと、音源オブジェクトと、集音オブジェクトと、左手43Aと、右手42Aとを含む。   In the virtual space 200A, a case where the body of the avatar 4A is not visualized is also assumed. Even in this case, the avatar 4A arranged in the virtual space 200A includes a virtual camera 300A, a sound source object, a sound collection object, a left hand 43A, and a right hand 42A.

アバター4Bは、ユーザBによって操作されると共に、ユーザBの動作に連動する。アバター4Bは、ユーザ端末1Bのコントローラ320Lの動作(ユーザBの左手の動作)に連動する左手43B(第1操作オブジェクト)と、ユーザ端末1Bのコントローラ320Rの動作(ユーザBの右手の動作)に連動する右手42B(第2操作オブジェクト)とを有する。   The avatar 4B is operated by the user B and interlocked with the operation of the user B. The avatar 4B uses the left hand 43B (first operation object) linked to the operation of the controller 320L of the user terminal 1B (the operation of the left hand of the user B) and the operation of the controller 320R of the user terminal 1B (the operation of the right hand of the user B). It has a linked right hand 42B (second operation object).

アバター4Bは、仮想カメラ300B(図示せず)と、マイク118に入力されたユーザBの音声の音源として規定された音源オブジェクトと、仮想空間200B上を伝搬する音声を収集する集音器として規定された集音オブジェクトとをさらに有する。ここで、アバター4B又は集音オブジェクトは、対象オブジェクトとして規定される。尚、音源オブジェクトと、集音オブジェクトは、アバター4Bから分離されていてもよい。仮想カメラ300Bは、アバター4Bの目に配置されてもよい。特に、仮想カメラ300Bが、左目用仮想カメラと、右目用仮想カメラを有する場合、左目用仮想カメラは、アバター4Bの左目に配置されると共に、右目用仮想カメラは、アバター4Bの右目に配置されてもよい。尚、以降の説明では、アバター4Bの視野CVは、アバター4Bの目に配置された仮想カメラ300Bの視野CVと一致するものとする。   The avatar 4B is defined as a sound collector that collects a virtual camera 300B (not shown), a sound source object defined as the sound source of the user B's voice input to the microphone 118, and a sound propagating on the virtual space 200B. And a collected sound object. Here, the avatar 4B or the sound collection object is defined as a target object. Note that the sound source object and the sound collection object may be separated from the avatar 4B. Virtual camera 300B may be placed in the eyes of avatar 4B. In particular, when the virtual camera 300B includes a left-eye virtual camera and a right-eye virtual camera, the left-eye virtual camera is disposed on the left eye of the avatar 4B, and the right-eye virtual camera is disposed on the right eye of the avatar 4B. May be. In the following description, it is assumed that the visual field CV of the avatar 4B matches the visual field CV of the virtual camera 300B arranged in the eyes of the avatar 4B.

尚、仮想空間200Bでは、アバター4Bの身体が可視化されない場合も想定される。この場合でも、仮想空間200Bに配置されるアバター4Bは、仮想カメラ300Bと、音源オブジェクトと、集音オブジェクトと、左手43Bと、右手42Bとを含む。   In the virtual space 200B, it is assumed that the body of the avatar 4B is not visualized. Even in this case, the avatar 4B arranged in the virtual space 200B includes the virtual camera 300B, the sound source object, the sound collection object, the left hand 43B, and the right hand 42B.

また、ユーザ端末1A,1BのHMD110の位置に応じてアバター4A,4Bの位置が特定されてもよい。同様に、ユーザ端末1A,1BのHMD110の傾きに応じてアバター4A,4Bの顔の向きが特定されてもよい。さらに、ユーザ端末1A,1Bの外部コントローラの動作に応じてアバター4A,4Bの手(操作オブジェクトの一例)の動作が特定されてもよい。特に、ユーザ端末1A,1Bのコントローラ320Lの動作に応じてアバター4A,4Bの左手の動作が特定されると共に、ユーザ端末1A,1Bのコントローラ320Rの動作に応じてアバター4A,4Bの右手の動作が特定されてもよい。また、注視センサ140によって検出されたユーザA,Bの視線を示すデータに応じてアバター4A,4Bの白目に対する黒目の相対的位置が特定されてもよい。特に、左目用注視センサによって検出されたユーザの左目の視線を示すデータに応じてアバターの左白目に対する左黒目の相対的位置が特定されてもよい。さらに、右目用注視センサによって検出されたユーザの右目の視線を示すデータに応じてアバターの右白目に対する右黒目の相対的位置が特定されてもよい。   Further, the positions of the avatars 4A and 4B may be specified according to the position of the HMD 110 of the user terminals 1A and 1B. Similarly, the face orientations of the avatars 4A and 4B may be specified according to the inclination of the HMD 110 of the user terminals 1A and 1B. Furthermore, the operation of the hand of the avatar 4A, 4B (an example of an operation object) may be specified according to the operation of the external controller of the user terminals 1A, 1B. In particular, the action of the left hand of the avatars 4A and 4B is specified according to the action of the controller 320L of the user terminals 1A and 1B, and the action of the right hand of the avatars 4A and 4B is determined according to the action of the controller 320R of the user terminals 1A and 1B. May be specified. Further, the relative positions of the black eyes with respect to the white eyes of the avatars 4A and 4B may be specified according to data indicating the lines of sight of the users A and B detected by the gaze sensor 140. In particular, the relative position of the left black eye with respect to the left white eye of the avatar may be specified according to data indicating the line of sight of the user's left eye detected by the left eye gaze sensor. Furthermore, the relative position of the right black eye with respect to the right white eye of the avatar may be specified in accordance with data indicating the line of sight of the user's right eye detected by the right eye gaze sensor.

図10の状態(b)に示すように、ユーザBの仮想空間200Bは、アバター4Aと、アバター4Bとを含む。仮想空間200A内におけるアバター4A,4Bの位置は、仮想空間200B内におけるアバター4A,4Bの位置に対応してもよい。   As shown in the state (b) of FIG. 10, the virtual space 200B of the user B includes an avatar 4A and an avatar 4B. The positions of the avatars 4A and 4B in the virtual space 200A may correspond to the positions of the avatars 4A and 4B in the virtual space 200B.

次に、図11を参照すると、ステップS10において、ユーザ端末1Aは、ユーザAの音声データを生成する。例えば、ユーザAがユーザ端末1Aのマイク118(音声入力部)に音声を入力したときに、ユーザAの音声がマイク118によって電気信号に変換される。その後、電気信号は増幅回路によって増幅された後に、A/D変換によって音声データに変換される。その後、音声データは、I/Oインターフェース124を介して制御部121に送信される。このように、制御部121は、ユーザAの音声に対応する音声データを取得する。   Next, referring to FIG. 11, in step S10, the user terminal 1A generates voice data of the user A. For example, when the user A inputs voice into the microphone 118 (voice input unit) of the user terminal 1A, the voice of the user A is converted into an electrical signal by the microphone 118. Thereafter, the electric signal is amplified by an amplifier circuit and then converted into audio data by A / D conversion. Thereafter, the audio data is transmitted to the control unit 121 via the I / O interface 124. In this way, the control unit 121 acquires audio data corresponding to the user A's audio.

次に、ステップS11において、ユーザ端末1Aの制御部121は、アバター4Aの制御情報を生成した上で、当該生成したアバター4Aの制御情報とユーザAの音声を示す音声データ(ユーザAの音声データ)をサーバ2に送信する。その後、サーバ2の制御部23は、ユーザ端末1Aからアバター4Aの制御情報とユーザAの音声データを受信する(ステップS12)。ここで、アバター4Aの制御情報は、アバター4Aの動作を制御するために必要な情報である。例えば、アバター4Aの制御情報は、アバター4Aの位置に関する情報(位置情報)と、アバター4Aの顔の向きに関する情報(顔向き情報)と、アバター4Aの顔の状態に関する情報(顔情報)と、アバター4Aの手の状態に関する情報(手情報)を含んでもよい。アバター4Aの手情報は、アバター4Aの左手43Aの状態に関する情報(左手情報)と、アバター4Aの右手42Aの状態に関する情報(右手情報)とを含む。   Next, in step S11, the control unit 121 of the user terminal 1A generates control information of the avatar 4A, and then generates audio data indicating the control information of the generated avatar 4A and the voice of the user A (voice data of the user A) ) To the server 2. Thereafter, the control unit 23 of the server 2 receives the control information of the avatar 4A and the voice data of the user A from the user terminal 1A (step S12). Here, the control information of the avatar 4A is information necessary for controlling the operation of the avatar 4A. For example, the control information of the avatar 4A includes information about the position of the avatar 4A (position information), information about the face direction of the avatar 4A (face direction information), information about the face state of the avatar 4A (face information), Information (hand information) about the hand state of the avatar 4A may be included. The hand information of the avatar 4A includes information regarding the state of the left hand 43A of the avatar 4A (left hand information) and information regarding the state of the right hand 42A of the avatar 4A (right hand information).

次に、ステップS13において、ユーザ端末1Bの制御部121は、アバター4Bの制御情報を生成した上で、当該生成したアバター4Bの制御情報をサーバ2に送信する。その後、サーバ2の制御部23は、ユーザ端末1Bからアバター4Bの制御情報を受信する(ステップS14)。ここで、アバター4Bの制御情報は、アバター4Bの動作を制御するために必要な情報である。例えば、アバター4Bの制御情報は、アバター4Bの位置に関する情報(位置情報)と、アバター4Bの顔の向きに関する情報(顔向き情報)と、アバター4Bの顔の状態に関する情報(顔情報)と、アバター4Bの手の状態に関する情報(手情報)を含んでもよい。アバター4Bの手情報は、アバター4Bの左手43Bの状態に関する情報(左手情報)と、アバター4Bの右手42Bの状態に関する情報(右手情報)とを含む。   Next, in step S <b> 13, the control unit 121 of the user terminal 1 </ b> B generates control information for the avatar 4 </ b> B and transmits the generated control information for the avatar 4 </ b> B to the server 2. Thereafter, the control unit 23 of the server 2 receives the control information of the avatar 4B from the user terminal 1B (step S14). Here, the control information of the avatar 4B is information necessary for controlling the operation of the avatar 4B. For example, the control information of the avatar 4B includes information about the position of the avatar 4B (position information), information about the face direction of the avatar 4B (face orientation information), information about the face state of the avatar 4B (face information), Information (hand information) regarding the hand state of the avatar 4B may be included. The avatar 4B hand information includes information (left hand information) regarding the state of the left hand 43B of the avatar 4B and information (right hand information) regarding the state of the right hand 42B of the avatar 4B.

次に、サーバ2の制御部23は、ユーザ端末1Aから受信したユーザAの音声データに関連する音量パラメータLを設定する(ステップS15)。ここで、音量パラメータLは、ユーザ端末1Bのヘッドフォン116(音声出力部)に出力されるユーザAの音声の音量(音圧レベル)を規定するパラメータである。音量パラメータLの設定方法については後述する。   Next, the control unit 23 of the server 2 sets a volume parameter L related to the voice data of the user A received from the user terminal 1A (Step S15). Here, the volume parameter L is a parameter that defines the volume (sound pressure level) of the voice of the user A output to the headphones 116 (audio output unit) of the user terminal 1B. A method for setting the volume parameter L will be described later.

次に、サーバ2は、アバター4Bの制御情報をユーザ端末1Aに送信する一方(ステップS16)、アバター4Aの制御情報と、ユーザAの音声データと、音量パラメータLをユーザ端末1Bに送信する(ステップS20)。その後、ユーザ端末1Aの制御部121は、ステップS17においてアバター4Bの制御情報を受信した後に、アバター4A,4Bの制御情報に基づいて、仮想空間200A(図10の状態(a)参照)を示す仮想空間データを更新する(ステップS18)。例えば、アバター4A,4Bが移動した場合、移動後のアバター4A,4Bを含む仮想空間200Aを示す仮想空間データが生成される。その後、ユーザ端末1Aの制御部121は、HMD110の位置や傾きに応じてアバター4A(仮想カメラ300)の視野CVを更新した上で、更新された仮想空間データと、更新されたアバター4Aの視野CVとに基づいて、HMD110に表示される視野画像を更新する(ステップS19)。   Next, the server 2 transmits the control information of the avatar 4B to the user terminal 1A (step S16), while transmitting the control information of the avatar 4A, the voice data of the user A, and the volume parameter L to the user terminal 1B ( Step S20). Then, after receiving the control information of the avatar 4B in step S17, the control unit 121 of the user terminal 1A indicates the virtual space 200A (see state (a) in FIG. 10) based on the control information of the avatars 4A and 4B. The virtual space data is updated (step S18). For example, when the avatars 4A and 4B move, virtual space data indicating the virtual space 200A including the moved avatars 4A and 4B is generated. Thereafter, the control unit 121 of the user terminal 1A updates the visual field CV of the avatar 4A (virtual camera 300) according to the position and inclination of the HMD 110, and then updates the virtual space data and the updated visual field of the avatar 4A. Based on the CV, the visual field image displayed on the HMD 110 is updated (step S19).

一方、ユーザ端末1Bの制御部121は、ステップS21においてアバター4Aの制御情報と、ユーザAの音声データと、音量パラメータLを受信した後に、アバター4A,4Bの制御情報に基づいて、仮想空間200B(図10の状態(b)参照)を示す仮想空間データを更新する(ステップS22)。その後、ユーザ端末1Bの制御部121は、HMD110の位置や傾きに応じてアバター4B(仮想カメラ300)の視野CVを更新した上で、更新された仮想空間データと、更新されたアバター4Bの視野CVとに基づいて、HMD110に表示される視野画像を更新する(ステップS23)。   On the other hand, the control unit 121 of the user terminal 1B receives the control information of the avatar 4A, the voice data of the user A, and the volume parameter L in step S21, and then, based on the control information of the avatars 4A and 4B, the virtual space 200B. The virtual space data indicating (see state (b) in FIG. 10) is updated (step S22). Thereafter, the control unit 121 of the user terminal 1B updates the visual field CV of the avatar 4B (virtual camera 300) according to the position and inclination of the HMD 110, and then updates the virtual space data and the updated visual field of the avatar 4B. Based on the CV, the visual field image displayed on the HMD 110 is updated (step S23).

その後、ユーザ端末1Bの制御部121は、ユーザAの音声データと、音量パラメータLとに基づいて、ユーザAの音声をヘッドフォン116に出力する(ステップS24)。ここで、制御部121は、音量パラメータLに基づいてヘッドフォン116に出力されるユーザAの音声の音量を決定することができる。また、制御部121は、ユーザAの音声データと、音量パラメータLとに基づいて、ユーザAの音声データを加工した上で、加工した音声データに基づいて、ユーザAの音声をヘッドフォン116に出力してもよい。このように、仮想空間上においてユーザ間(アバター間)の音声チャット(VRチャット)を実現することができる。   Thereafter, the control unit 121 of the user terminal 1B outputs the voice of the user A to the headphones 116 based on the voice data of the user A and the volume parameter L (step S24). Here, the control unit 121 can determine the volume of the voice of the user A output to the headphones 116 based on the volume parameter L. Further, the control unit 121 processes the user A's voice data based on the user A's voice data and the volume parameter L, and then outputs the user A's voice to the headphones 116 based on the processed voice data. May be. Thus, voice chat (VR chat) between users (between avatars) can be realized in the virtual space.

本実施形態では、ユーザ端末1A,1Bがサーバ2にアバター4Aの制御情報とアバター4Bの制御情報をそれぞれ送信した後に、サーバ2がアバター4Aの制御情報をユーザ端末1Bに送信する一方、アバター4Bの制御情報をユーザ端末1Aに送信する。このように、ユーザ端末1Aとユーザ端末1B間において各アバター4A,4Bの動きを同期させることが可能となる。   In the present embodiment, after the user terminals 1A and 1B transmit the control information of the avatar 4A and the control information of the avatar 4B to the server 2, the server 2 transmits the control information of the avatar 4A to the user terminal 1B, while the avatar 4B. Is transmitted to the user terminal 1A. In this way, it is possible to synchronize the movements of the avatars 4A and 4B between the user terminal 1A and the user terminal 1B.

次に、図12及び図13を参照することで本実施形態に係る情報処理方法の一例(即ち、図11のステップS15で規定された音量パラメータLの設定処理の一例)について説明する。図12は、本実施形態に係る音量パラメータLの設定処理(図11のステップS15で規定される処理)の一例を説明するためのフローチャートである。図13の状態(a)は、高伝達領域S1が設定された仮想空間200Aを示す平面図である。図13の状態(b)は、アバター4Aの正面図である。   Next, an example of the information processing method according to the present embodiment (that is, an example of the volume parameter L setting process defined in step S15 in FIG. 11) will be described with reference to FIGS. FIG. 12 is a flowchart for explaining an example of the volume parameter L setting process (the process defined in step S15 in FIG. 11) according to the present embodiment. The state (a) in FIG. 13 is a plan view showing the virtual space 200A in which the high transmission area S1 is set. The state (b) of FIG. 13 is a front view of the avatar 4A.

本実施形態では、前提条件として、図13の状態(a)に示すように、アバター4Aと、アバター4Bと、アバター4Cが同一の仮想空間を共有しているものとする。アバター4Cは、ユーザCによって操作されるアバターであって、ユーザ端末1Cに関連付けられている。つまり、通信ネットワーク3を介してユーザA,B,Cが一つの仮想空間を共有するものとする。ユーザAに提供される仮想空間200Aは、アバター4Aと、アバター4Bと、アバター4Cとを含む。図11に示すように、ユーザ端末1Aの制御部121は、仮想空間200Aを示す仮想空間データを生成する。また、前提条件として、音源オブジェクトと集音オブジェクトがアバター4A,4B,4Cに含まれる。   In the present embodiment, as a precondition, it is assumed that the avatar 4A, the avatar 4B, and the avatar 4C share the same virtual space as shown in the state (a) of FIG. The avatar 4C is an avatar operated by the user C and is associated with the user terminal 1C. That is, it is assumed that users A, B, and C share one virtual space via the communication network 3. The virtual space 200A provided to the user A includes an avatar 4A, an avatar 4B, and an avatar 4C. As illustrated in FIG. 11, the control unit 121 of the user terminal 1A generates virtual space data indicating the virtual space 200A. As a precondition, the sound source object and the sound collection object are included in the avatars 4A, 4B, and 4C.

図12に示すように、ステップS30において、サーバ2の制御部23(以降では、単に制御部23という。)は、アバター4A(音源オブジェクト)とアバター4B(集音オブジェクト)との間の距離D1を特定する。具体的には、制御部23は、アバター4Aの制御情報に含まれるアバター4Aの位置情報に基づいて、アバター4Aの位置を特定すると共に、アバター4Bの制御情報に含まれるアバター4Bの位置情報に基づいて、アバター4Bの位置を特定する。その後、制御部23は、特定されたアバター4Aの位置と特定されたアバター4Bの位置に基づいて、アバター4Aとアバター4Bとの間の距離D1を特定する。尚、音源オブジェクトと集音オブジェクトがアバターから分離している場合では、制御部23は、アバター4Aに関連付けられた音源オブジェクトとアバター4Bに関連付けられた集音オブジェクトとの間の距離を特定してもよい。また、仮想カメラ300Aは、アバター4Aの目に位置しているので、HMD110に表示される視野画像の視点位置は、アバター4Aの位置となる。   As shown in FIG. 12, in step S30, the control unit 23 of the server 2 (hereinafter simply referred to as the control unit 23) determines the distance D1 between the avatar 4A (sound source object) and the avatar 4B (sound collection object). Is identified. Specifically, the control unit 23 specifies the position of the avatar 4A based on the position information of the avatar 4A included in the control information of the avatar 4A, and uses the position information of the avatar 4B included in the control information of the avatar 4B. Based on this, the position of the avatar 4B is specified. Thereafter, the control unit 23 specifies the distance D1 between the avatar 4A and the avatar 4B based on the specified position of the avatar 4A and the specified position of the avatar 4B. If the sound source object and the sound collection object are separated from the avatar, the control unit 23 specifies the distance between the sound source object associated with the avatar 4A and the sound collection object associated with the avatar 4B. Also good. Further, since the virtual camera 300A is located in the eyes of the avatar 4A, the viewpoint position of the visual field image displayed on the HMD 110 is the position of the avatar 4A.

次に、制御部23は、ステップS31において、アバター4Aの左手43Aの位置とアバター4Aの右手42Aの位置に基づいて、左手43Aと右手42Aとの間の距離D2を特定する。特に、制御部23は、アバター4Aの制御情報に含まれるアバター4Aの左手情報に基づいてアバター4Aの左手43Aの位置を特定すると共に、アバター4Aの右手情報に基づいてアバター4Aの右手42Aの位置を特定する。   Next, in step S31, the control unit 23 specifies a distance D2 between the left hand 43A and the right hand 42A based on the position of the left hand 43A of the avatar 4A and the position of the right hand 42A of the avatar 4A. In particular, the control unit 23 specifies the position of the left hand 43A of the avatar 4A based on the left hand information of the avatar 4A included in the control information of the avatar 4A, and positions of the right hand 42A of the avatar 4A based on the right hand information of the avatar 4A. Is identified.

次に、制御部23は、アバター4Aの左手43Aと右手42Aとの間の距離D2が所定の距離Dth以下であるかどうかを判定する(ステップS32)。ステップS32の判定結果がNOの場合、処理はステップS40に進む。一方、制御部23は、距離D2が所定の距離Dth以下であると判定した場合(ステップS32でYES)、アバター4Aの左手43Aの手のひらと右手42Aの手のひらが互いに対向しているかどうかを判定する(ステップS33)。具体的には、制御部23は、アバター4Aの左手情報に基づいて左手43Aの状態を特定すると共に、アバター4Aの右手情報に基づいて右手42Aの状態を特定する。その後、制御部23は、左手43Aの状態と右手42Aの状態に基づいて、左手43Aの手のひらと右手42Aの手のひらが互いに対向しているかどうかを判定する。   Next, the control unit 23 determines whether or not the distance D2 between the left hand 43A and the right hand 42A of the avatar 4A is equal to or less than a predetermined distance Dth (step S32). If the determination result of step S32 is NO, the process proceeds to step S40. On the other hand, when it is determined that the distance D2 is equal to or less than the predetermined distance Dth (YES in step S32), the control unit 23 determines whether the palm of the left hand 43A of the avatar 4A and the palm of the right hand 42A are facing each other. (Step S33). Specifically, the control unit 23 specifies the state of the left hand 43A based on the left hand information of the avatar 4A and specifies the state of the right hand 42A based on the right hand information of the avatar 4A. Thereafter, the control unit 23 determines whether the palm of the left hand 43A and the palm of the right hand 42A are opposed to each other based on the state of the left hand 43A and the state of the right hand 42A.

ステップS33の判定結果がNOの場合、処理はステップS40に進む。一方、制御部23は、左手43Aの手のひらと右手42Aの手のひらが互いに対向していると判定した場合(ステップS33でYES)、仮想空間200A中に高伝達領域S1を設定する(ステップS34)。ここで、高伝達領域S1では、仮想空間中を伝搬する音声の伝達度合いが高伝達領域S1以外の領域における音声の伝達度合いよりも高い。つまり、高伝達領域S1では、仮想空間中を伝搬する音声の減衰係数α1(dB/距離)が高伝達領域S1以外の領域の減衰係数α2(dB/距離)よりも小さい(α1<α2)。ここで、減衰係数αは、仮想空間200中を伝搬する音声の単位距離当たりの減衰量を規定するパラメータである。   If the determination result of step S33 is NO, the process proceeds to step S40. On the other hand, when it is determined that the palm of the left hand 43A and the palm of the right hand 42A are opposed to each other (YES in step S33), the control unit 23 sets the high transmission area S1 in the virtual space 200A (step S34). Here, in the high transmission area S1, the transmission degree of sound propagating in the virtual space is higher than the transmission degree of sound in the area other than the high transmission area S1. That is, in the high transmission region S1, the attenuation coefficient α1 (dB / distance) of the sound propagating in the virtual space is smaller than the attenuation coefficient α2 (dB / distance) of the region other than the high transmission region S1 (α1 <α2). Here, the attenuation coefficient α is a parameter that defines the amount of attenuation per unit distance of the sound propagating in the virtual space 200.

ステップS32で規定される条件とステップS33で規定される条件は、アバター4Aの手(左手43Aと右手42A)の状態に関連する第1条件となる。ステップS34では、制御部23は、アバター4Aの左手43Aの位置とアバター4Aの右手42Aの位置に基づいて、仮想空間200A中に高伝達領域S1を設定する。具体的には、制御部23は、左手43Aの位置と右手42Aの位置に基づいて、基準位置P1(図13の状態(a))を特定した上で、基準位置P1を起点とする高伝達領域S1を設定する。ここで、基準位置P1は、左手43Aの基準位置と右手42Aの基準位置を結ぶ線分の中点として決定されてもよい。また、高伝達領域S1は、xy平面において基準位置P1を起点とした極角の角度範囲として規定される角度領域と、xz平面において基準位置P1を起点とした方位角の角度範囲として規定される角度領域とを有してもよい。   The condition defined in step S32 and the condition defined in step S33 are the first conditions related to the state of the avatar 4A's hand (left hand 43A and right hand 42A). In step S34, the control unit 23 sets the high transmission area S1 in the virtual space 200A based on the position of the left hand 43A of the avatar 4A and the position of the right hand 42A of the avatar 4A. Specifically, the control unit 23 specifies the reference position P1 (state (a) in FIG. 13) based on the position of the left hand 43A and the position of the right hand 42A, and then performs high transmission starting from the reference position P1. Region S1 is set. Here, the reference position P1 may be determined as a midpoint of a line segment connecting the reference position of the left hand 43A and the reference position of the right hand 42A. The high transmission region S1 is defined as an angular region defined as a polar angle range starting from the reference position P1 on the xy plane and an azimuth angle range defined from the reference position P1 on the xz plane. And an angle region.

次に、ステップS35において、制御部23は、アバター4Bの位置と高伝達領域S1に基づいて、アバター4Bが高伝達領域S1(第1領域)に位置しているかどうかを判定する。制御部23は、アバター4Bが高伝達領域S1に位置していると判定した場合(ステップS35でYES)、仮想空間200A内を伝搬する音声の単位距離当たりの減衰量を規定する減衰係数αを減衰係数α1に設定する(ステップS36)。その後、制御部23は、減衰係数α1と、アバター4Aとアバター4Bとの間の距離D1とに基づいて、音量パラメータL(音声データに関連するパラメータ)を音量パラメータL1(第1パラメータ)に設定する(ステップS37)。   Next, in step S35, the control unit 23 determines whether or not the avatar 4B is located in the high transmission area S1 (first area) based on the position of the avatar 4B and the high transmission area S1. When the control unit 23 determines that the avatar 4B is located in the high transmission area S1 (YES in step S35), the control unit 23 sets an attenuation coefficient α that defines the attenuation amount per unit distance of the sound propagating in the virtual space 200A. The attenuation coefficient α1 is set (step S36). Thereafter, the control unit 23 sets the volume parameter L (parameter related to audio data) to the volume parameter L1 (first parameter) based on the attenuation coefficient α1 and the distance D1 between the avatar 4A and the avatar 4B. (Step S37).

一方、制御部23は、アバター4Bが高伝達領域S1に位置していないと判定した場合(換言すれば、アバター4Bが高伝達領域S1の外側領域(第2領域)に位置していると判定した場合)(ステップS35でNO)、減衰係数αを減衰係数α2に設定する(ステップS38)。ここで、減衰係数α2は、減衰係数α1よりも大きい(α1<α2)。その後、制御部23は、減衰係数α2と、アバター4Aとアバター4Bとの間の距離D1とに基づいて、音量パラメータLを音量パラメータL2(第2パラメータ)に設定する(ステップS39)。   On the other hand, the control unit 23 determines that the avatar 4B is not located in the high transmission area S1 (in other words, determines that the avatar 4B is located in the outer area (second area) of the high transmission area S1. (If NO in step S35), the attenuation coefficient α is set to the attenuation coefficient α2 (step S38). Here, the attenuation coefficient α2 is larger than the attenuation coefficient α1 (α1 <α2). Thereafter, the control unit 23 sets the volume parameter L to the volume parameter L2 (second parameter) based on the attenuation coefficient α2 and the distance D1 between the avatar 4A and the avatar 4B (step S39).

また、アバター4Aの手の状態に関連する第1条件が満たされなかった場合(つまり、アバター4Aの手の状態がステップS32の条件とステップS33の条件のうちの少なくとも一方を満たさない場合)、ステップS40において、制御部23は、減衰係数αを減衰係数α0に設定した上で、減衰係数α0と距離D1とに基づいて、音量パラメータLを音量パラメータL0(第3パラメータ)に設定する(ステップS41)。アバター4Aの手の状態に関連する第1条件が満たされなかった場合では、仮想空間200A中に高伝達領域S1が設定されないので、仮想空間200Aの全体領域の減衰係数αは減衰係数α0となる。ここで、減衰係数α0=α1<α2でもよいし、α1<α2=α0でもよい。さらに、各減衰係数α0,α1,α2がそれぞれ異なる値でもよい(例えば、α1<α0<α2,α0<α1<α2又はα1<α2<α0)。   In addition, when the first condition related to the hand state of the avatar 4A is not satisfied (that is, when the hand state of the avatar 4A does not satisfy at least one of the condition of step S32 and the condition of step S33), In step S40, the control unit 23 sets the attenuation coefficient α to the attenuation coefficient α0, and then sets the volume parameter L to the volume parameter L0 (third parameter) based on the attenuation coefficient α0 and the distance D1 (step S40). S41). When the first condition related to the hand state of the avatar 4A is not satisfied, the high transmission region S1 is not set in the virtual space 200A, and thus the attenuation coefficient α of the entire region of the virtual space 200A becomes the attenuation coefficient α0. . Here, the attenuation coefficient α0 = α1 <α2 may be satisfied, or α1 <α2 = α0 may be satisfied. Further, the attenuation coefficients α0, α1, and α2 may be different values (for example, α1 <α0 <α2, α0 <α1 <α2 or α1 <α2 <α0).

本実施形態では、アバター4A(音源オブジェクト)とアバター4B(集音オブジェクト)との間の距離D1の値が大きい程、音量パラメータLの値は小さくなる。その反対に、アバター4Aとアバター4Bとの間の距離D1が小さい程、音量パラメータLの値は大きくなる。さらに、減衰係数α(dB/距離)の値が大きい程、音量パラメータLの値は小さくなる。その反対に、減衰係数αの値が小さい程、音量パラメータLの値は大きくなる。また、音量パラメータLの値が大きい程、ユーザ端末1Bのヘッドフォン116に出力されるユーザAの音声の音量(音圧レベル)は大きくなる。その反対に、音量パラメータLの値が小さい程、ユーザ端末1Bのヘッドフォン116に出力されるユーザAの音声の音量が小さくなる。例えば、制御部23は、距離D1と、減衰係数αと、以下の関係式(1)に基づいて音量パラメータLを設定してもよい。尚、関係式(1)は単なる一例であって、距離D1と減衰係数αと音量パラメータLとの間の関係式が複数想定される。

L=L0−α×D1・・・(1)

L:音量パラメータ(dB)
L0:基準距離D0における音量パラメータ(dB)
α:減衰係数(dB/距離)
D1:アバター4Aとアバター4Bとの間の距離
In the present embodiment, the value of the volume parameter L decreases as the value of the distance D1 between the avatar 4A (sound source object) and the avatar 4B (sound collection object) increases. On the contrary, the value of the volume parameter L increases as the distance D1 between the avatar 4A and the avatar 4B decreases. Furthermore, the value of the volume parameter L decreases as the value of the attenuation coefficient α (dB / distance) increases. On the contrary, the smaller the value of the attenuation coefficient α, the larger the value of the volume parameter L. In addition, as the volume parameter L increases, the volume (sound pressure level) of the voice of the user A output to the headphones 116 of the user terminal 1B increases. On the contrary, the smaller the volume parameter L, the smaller the volume of the voice of the user A output to the headphones 116 of the user terminal 1B. For example, the control unit 23 may set the volume parameter L based on the distance D1, the attenuation coefficient α, and the following relational expression (1). The relational expression (1) is merely an example, and a plurality of relational expressions among the distance D1, the attenuation coefficient α, and the volume parameter L are assumed.

L = L0−α × D1 (1)

L: Volume parameter (dB)
L0: Volume parameter (dB) at the reference distance D0
α: Damping coefficient (dB / distance)
D1: Distance between avatar 4A and avatar 4B

例えば、減衰係数αがα1の場合、上記関係式(1)より音量パラメータL1は以下のように表すことができる。

L1=L0−α1×D1
For example, when the attenuation coefficient α is α1, the volume parameter L1 can be expressed as follows from the relational expression (1).

L1 = L0−α1 × D1

本実施形態によれば、制御部23は、アバター4Aの手の状態がステップS32,S33で規定された条件を満たすと判定した場合、アバター4Bが高伝達領域S1に位置しているかどうかに応じて、減衰係数αが減衰係数α1又は減衰係数α2(α1<α2)に設定される。次に、ユーザAの音声データに関連付けられた音量パラメータLが音量パラメータL1又は音量パラメータL2に設定される。その後、ユーザAの音声データと音量パラメータL(音量パラメータL1,L2)に基づいて、ユーザAの音声がアバター4Bに関連付けられたユーザ端末1Bのヘッドフォン116に出力される。特に、送信された音量パラメータLに基づいてユーザ端末1Bのヘッドフォン116に出力されるユーザAの音声の音量が決定される。   According to the present embodiment, when the control unit 23 determines that the hand state of the avatar 4A satisfies the conditions defined in steps S32 and S33, the control unit 23 determines whether the avatar 4B is located in the high transmission area S1. Thus, the attenuation coefficient α is set to the attenuation coefficient α1 or the attenuation coefficient α2 (α1 <α2). Next, the volume parameter L associated with the voice data of the user A is set to the volume parameter L1 or the volume parameter L2. Thereafter, based on the voice data of the user A and the volume parameter L (volume parameters L1, L2), the voice of the user A is output to the headphones 116 of the user terminal 1B associated with the avatar 4B. In particular, the volume of the voice of the user A output to the headphones 116 of the user terminal 1B is determined based on the transmitted volume parameter L.

このように、アバター4A(ユーザA)の手の状態に応じて、仮想空間200A中に高伝達領域S1が設定される。さらに、アバター4Bが高伝達領域S1に位置しているかどうかに応じて、ユーザ端末1Bのヘッドフォン116に出力されるユーザAの音声の音量が変化する。例えば、アバター4Aとアバター4Bとの間の距離とアバター4Aとアバター4Cとの間の距離が同一であると仮定する。図13の状態(a)に示すように、アバター4Bが高伝達領域S1に位置する一方、アバター4Cが高伝達領域S1の外側の領域に位置する場合、減衰係数α1は減衰係数α2よりも小さいので、ユーザ端末1Bのヘッドフォン116から出力される音声の音量は、ユーザ端末1Cのヘッドフォン116から出力される音声の音量よりも大きい。このように、アバター4A(ユーザA)の手の状態に応じて、仮想空間200Aを伝搬する音声に指向性を持たせることが可能となる。   In this way, the high transmission area S1 is set in the virtual space 200A according to the hand state of the avatar 4A (user A). Furthermore, the volume of the voice of the user A output to the headphones 116 of the user terminal 1B changes depending on whether or not the avatar 4B is located in the high transmission area S1. For example, it is assumed that the distance between the avatar 4A and the avatar 4B is the same as the distance between the avatar 4A and the avatar 4C. As shown in the state (a) of FIG. 13, when the avatar 4B is located in the high transmission area S1 and the avatar 4C is located outside the high transmission area S1, the attenuation coefficient α1 is smaller than the attenuation coefficient α2. Therefore, the volume of the sound output from the headphones 116 of the user terminal 1B is larger than the volume of the sound output from the headphones 116 of the user terminal 1C. Thus, it becomes possible to give directivity to the voice propagating through the virtual space 200A according to the state of the hand of the avatar 4A (user A).

例えば、アバター4Bを操作するユーザBは、ユーザAの音声を聞き取ることができる一方、アバター4Cを操作するユーザCは、ユーザAの音声を聞き取ることができないといった状況が想定される。また、アバター4Bを操作するユーザBには、ユーザAの音声が大音量で聞こえる一方、アバター4Cを操作するユーザCには、ユーザAの音声が通常の音量で聞こえるといった状況が想定される。このため、ユーザAは、アバター4Cを操作するユーザCに気付かれずに、アバター4Bを操作するユーザBに音声指示を出すことが可能となる。したがって、仮想空間のエンターテイメント性を向上させることができる。   For example, it is assumed that the user B who operates the avatar 4B can hear the voice of the user A, while the user C who operates the avatar 4C cannot hear the voice of the user A. In addition, it is assumed that the user B who operates the avatar 4B can hear the voice of the user A at a high volume, while the user C who operates the avatar 4C can hear the voice of the user A at a normal volume. For this reason, the user A can give a voice instruction to the user B who operates the avatar 4B without being noticed by the user C who operates the avatar 4C. Therefore, the entertainment property of the virtual space can be improved.

一方、本実施形態によれば、アバター4Aの手の状態がステップS32,S33で規定された条件を満たさないと判定された場合に、仮想空間200Aの全体領域における減衰係数αは減衰係数α0に設定される。その後、減衰係数α0と距離D1とに基づいて音量パラメータLが音量パラメータL0に設定される。その後、ユーザAの音声データと音量パラメータL0に基づいて、ユーザAの音声がユーザ端末1Bのヘッドフォン116から出力される。特に、送信された音量パラメータL0に基づいてユーザ端末1Bのヘッドフォン116に出力されるユーザAの音声の音量が決定される。このように、アバター4A(ユーザA)の手の状態がステップS32,S33で規定された条件を満たさないと判定された場合には、仮想空間200Aを伝搬する音声は指向性を持たない。   On the other hand, according to the present embodiment, when it is determined that the hand state of the avatar 4A does not satisfy the conditions defined in steps S32 and S33, the attenuation coefficient α in the entire area of the virtual space 200A is changed to the attenuation coefficient α0. Is set. Thereafter, the volume parameter L is set to the volume parameter L0 based on the attenuation coefficient α0 and the distance D1. Then, based on the user A's voice data and the volume parameter L0, the user A's voice is output from the headphones 116 of the user terminal 1B. In particular, the volume of the voice of the user A output to the headphones 116 of the user terminal 1B is determined based on the transmitted volume parameter L0. As described above, when it is determined that the hand state of the avatar 4A (user A) does not satisfy the conditions defined in steps S32 and S33, the voice propagating through the virtual space 200A has no directivity.

尚、本実施形態では、アバター4BはユーザBによって操作されることを前提としているが、アバター4Bが制御部23(例えば、ゲームプログラム)によって制御される場合、制御部23は、設定された音量パラメータLに基づいて、アバター4Bに関連付けられたパラメータを決定してもよい。例えば、制御部23は、音量パラメータLに基づいて、アバター4Bに与えられるダメージ量を決定してもよい。具体的には、制御部23は、音量パラメータLと、音量パラメータLとダメージ量との間の関係を示すLUT(ルックアップテーブル)に基づいて、アバター4Bに与えられるダメージ量を決定してもよい。この点において、音量パラメータLが大きい程、アバター4Bに与えられるダメージ量は大きくもよい。図13の状態(a)に示すように、制御部23によって制御されるアバター4Bが高伝達領域S1に位置する一方、制御部23によって制御されるアバター4Cが高伝達領域S1の外側領域に位置する場合、減衰係数α1は減衰係数α2よりも小さいので、アバター4Bに与えられるダメージ量はアバター4Cに与えられるダメージ量よりも大きくてもよい。このように、アバターの配置位置に応じてアバターに与えられるダメージ量を変動させることができるので、仮想空間のエンターテイメント性を向上させることができる。また、制御部23は、アバターに与えられるダメージ量を決定した後に、アバターのダメージ量を示すテーブルを更新してもよい。   In this embodiment, it is assumed that the avatar 4B is operated by the user B. However, when the avatar 4B is controlled by the control unit 23 (for example, a game program), the control unit 23 sets the set volume. Based on the parameter L, a parameter associated with the avatar 4B may be determined. For example, the control unit 23 may determine the amount of damage given to the avatar 4B based on the volume parameter L. Specifically, the control unit 23 may determine the amount of damage given to the avatar 4B based on the volume parameter L and the LUT (lookup table) indicating the relationship between the volume parameter L and the amount of damage. Good. In this regard, the greater the volume parameter L, the greater the amount of damage given to the avatar 4B. As shown in the state (a) of FIG. 13, the avatar 4B controlled by the control unit 23 is located in the high transmission region S1, while the avatar 4C controlled by the control unit 23 is located in the outer region of the high transmission region S1. In this case, since the attenuation coefficient α1 is smaller than the attenuation coefficient α2, the amount of damage given to the avatar 4B may be larger than the amount of damage given to the avatar 4C. Thus, since the amount of damage given to an avatar can be changed according to the arrangement position of an avatar, the entertainment property of virtual space can be improved. Moreover, the control part 23 may update the table which shows the amount of damage of an avatar after determining the amount of damage given to an avatar.

また、本実施形態の説明では、アバター4Bが高伝達領域S1に位置する場合に、減衰係数αがα1に設定される一方、アバター4Bが高伝達領域の外側に位置する場合に、減衰係数αがα2(α1<α2)に設定される。さらに、減衰係数αとアバター4Aとアバター4Bとの間の距離D1に基づいて音量パラメータLが設定される。しかしながら、本実施形態における音量パラメータLの設定処理はこれには限定されない。例えば、減衰係数αや距離D1を考慮せずに、音量パラメータLを直接的に設定してもよい。具体的には、アバター4Bが高伝達領域S1に位置する場合に、音量パラメータLがL1に設定される一方、アバター4Bが高伝達領域の外側に位置する場合に、音量パラメータLがL2(L2<L1)に設定されてもよい。同様に、アバター4Aの手の状態がステップS32に規定される条件とステップS33に規定される条件の両方を満たさない場合に、音量パラメータLがL0に設定されてもよい。   In the description of this embodiment, when the avatar 4B is located in the high transmission area S1, the attenuation coefficient α is set to α1, while when the avatar 4B is located outside the high transmission area, the attenuation coefficient α. Is set to α2 (α1 <α2). Further, the volume parameter L is set based on the attenuation coefficient α and the distance D1 between the avatar 4A and the avatar 4B. However, the setting process of the volume parameter L in the present embodiment is not limited to this. For example, the volume parameter L may be set directly without considering the attenuation coefficient α and the distance D1. Specifically, when the avatar 4B is located in the high transmission area S1, the volume parameter L is set to L1, while when the avatar 4B is located outside the high transmission area, the volume parameter L is set to L2 (L2 <L1) may be set. Similarly, the volume parameter L may be set to L0 when the hand state of the avatar 4A does not satisfy both the condition defined in step S32 and the condition defined in step S33.

また、本実施形態では、図11に示すように、サーバ2の制御部23が音量パラメータLを設定しているが、ユーザ端末1Aの制御部121が音量パラメータLを設定してもよいし、ユーザ端末1Bの制御部121が音量パラメータLを設定してもよい。ユーザ端末1Aの制御部121が音量パラメータLを設定する場合、当該音量パラメータLの設定処理は、ステップS17の処理とステップS18の処理の間に実行されてもよい。ユーザ端末1Aの制御部121は、音量パラメータLを設定した後に、音量パラメータLをサーバ2を介してユーザ端末1Bに向けて送信する。ユーザ端末1Bの制御部121が音量パラメータLを設定する場合、当該音量パラメータLの設定処理は、ステップS22の処理以降に実行されてもよい。   In the present embodiment, as shown in FIG. 11, the control unit 23 of the server 2 sets the volume parameter L, but the control unit 121 of the user terminal 1A may set the volume parameter L. The control unit 121 of the user terminal 1B may set the volume parameter L. When the control unit 121 of the user terminal 1A sets the volume parameter L, the volume parameter L setting process may be executed between the process of step S17 and the process of step S18. After setting the volume parameter L, the control unit 121 of the user terminal 1A transmits the volume parameter L to the user terminal 1B via the server 2. When the control unit 121 of the user terminal 1B sets the volume parameter L, the volume parameter L setting process may be executed after the process of step S22.

また、本実施形態では、図12に示すアバター4Aの手の状態に関連する条件(以下、アバター手条件という。)は、ステップS32の条件と、ステップS33の条件の2つの条件を含むが、本実施形態はこれには限定されない。例えば、アバター手条件は、ステップS32の条件と、ステップS33の条件のうちのいずれか一方の条件から構成されてもよい。   In the present embodiment, the condition related to the hand state of the avatar 4A shown in FIG. 12 (hereinafter referred to as the avatar hand condition) includes two conditions, the condition of step S32 and the condition of step S33. The present embodiment is not limited to this. For example, the avatar hand condition may be configured by either one of the condition in step S32 and the condition in step S33.

次に、アバター手条件の他の一例について説明する。つまり、アバター手条件は、図12に示すステップS32に規定される条件とステップS33に規定される条件に追加して、アバター4Aの手と仮想カメラ300Aとの間の相対的位置関係に関連する条件(第4条件)を含んでもよい。第4条件の一例としては、図14に示すように、サーバ2の制御部23は、アバター4Aの左手43Aと右手42Aが仮想カメラ300Aの位置を基準とした所定領域内に含まれているかどうかを判定してもよい。この場合、左手43Aと右手42Aが当該所定領域内に含まれる場合、制御部23は第4条件が満たされると判定する。第4条件の別の例としては、制御部23は、左手43Aと仮想カメラ300Aとの間の距離が所定の距離Dth2以下であると共に、右手42Aと仮想カメラ300Aとの間の距離が所定の距離Dth2以下であるかどうかを判定してもよい。この場合、左手43Aと仮想カメラ300Aとの間の距離が所定の距離Dth2以下であると共に、右手42Aと仮想カメラ300Aとの間の距離が所定の距離Dth2以下である場合に、制御部23は第4条件が満たされると判定する。尚、アバター手条件は、上記第4条件のみから構成されてもよい。   Next, another example of the avatar hand condition will be described. That is, the avatar hand condition is related to the relative positional relationship between the hand of the avatar 4A and the virtual camera 300A in addition to the condition defined in step S32 and the condition defined in step S33 shown in FIG. A condition (fourth condition) may be included. As an example of the fourth condition, as illustrated in FIG. 14, the control unit 23 of the server 2 determines whether the left hand 43A and the right hand 42A of the avatar 4A are included in a predetermined area based on the position of the virtual camera 300A. May be determined. In this case, when the left hand 43A and the right hand 42A are included in the predetermined area, the control unit 23 determines that the fourth condition is satisfied. As another example of the fourth condition, the control unit 23 determines that the distance between the left hand 43A and the virtual camera 300A is equal to or less than a predetermined distance Dth2, and the distance between the right hand 42A and the virtual camera 300A is a predetermined distance. It may be determined whether the distance is equal to or less than Dth2. In this case, when the distance between the left hand 43A and the virtual camera 300A is equal to or smaller than the predetermined distance Dth2, and the distance between the right hand 42A and the virtual camera 300A is equal to or smaller than the predetermined distance Dth2, the control unit 23 It is determined that the fourth condition is satisfied. The avatar hand condition may be configured only from the fourth condition.

また、アバター手条件は、図12に示すステップS32に規定される条件とステップS33に規定される条件に追加して、アバター4Aの手とアバター4Aの口との間の相対的位置関係に関連する条件(第5条件)を含んでもよい。第5条件の一例としては、制御部23は、アバター4Aの左手43Aと右手42Aがアバター4Aの口の位置を基準とした所定領域内に含まれているかどうかを判定してもよい。この場合、左手43Aと右手42Aが当該所定領域内に含まれる場合、制御部23は第5条件が満たされると判定する。第5条件の別の例としては、制御部23は、左手43Aとアバター4Aの口との間の距離が所定の距離Dth3以下であると共に、右手42Aとアバター4Aの口との間の距離が所定の距離Dth3以下であるかどうかを判定してもよい。この場合、左手43Aとアバター4Aの口との間の距離が所定の距離Dth3以下であると共に、右手42Aとアバター4Aの口との間の距離が所定の距離Dth3以下である場合に、制御部23は第5条件が満たされると判定する。尚、アバター手条件は、上記第5条件のみから構成されてもよい。   In addition, the avatar hand condition is related to the relative positional relationship between the hand of the avatar 4A and the mouth of the avatar 4A in addition to the condition defined in step S32 and the condition defined in step S33 shown in FIG. The condition (fifth condition) may be included. As an example of the fifth condition, the control unit 23 may determine whether the left hand 43A and the right hand 42A of the avatar 4A are included in a predetermined area based on the mouth position of the avatar 4A. In this case, when the left hand 43A and the right hand 42A are included in the predetermined area, the control unit 23 determines that the fifth condition is satisfied. As another example of the fifth condition, the control unit 23 determines that the distance between the left hand 43A and the mouth of the avatar 4A is not more than a predetermined distance Dth3 and the distance between the right hand 42A and the mouth of the avatar 4A is It may be determined whether the distance is equal to or less than a predetermined distance Dth3. In this case, when the distance between the left hand 43A and the mouth of the avatar 4A is a predetermined distance Dth3 or less and the distance between the right hand 42A and the mouth of the avatar 4A is a predetermined distance Dth3 or less, the control unit 23 determines that the fifth condition is satisfied. The avatar hand condition may be configured only from the fifth condition.

また、本実施形態では、高伝達領域S1は、アバター4Aの左手43Aの位置とアバター4Aの右手42Aの位置に基づいて設定されているが、高伝達領域S1の設定処理はこれには限定されない。例えば、図15に示すように、高伝達領域S2は、仮想カメラ300Aの視野CVに基づいて設定されてもよい。つまり、仮想カメラ300Aの視野CV内の領域が高伝達領域S2として設定される。   In the present embodiment, the high transmission area S1 is set based on the position of the left hand 43A of the avatar 4A and the position of the right hand 42A of the avatar 4A, but the setting process of the high transmission area S1 is not limited to this. . For example, as shown in FIG. 15, the high transmission area S2 may be set based on the field of view CV of the virtual camera 300A. That is, the area within the visual field CV of the virtual camera 300A is set as the high transmission area S2.

また、仮想カメラ300Aの視野CV内の所定の角度領域が高伝達領域S2として設定されてもよい。例えば、仮想カメラ300Aの視軸Laに基づいて高伝達領域S2が設定されてもよい。この場合、高伝達領域S2は、xy平面において視軸Laを中心とした極角の角度範囲として規定される角度領域と、xz平面において視軸Laを中心とした方位角の角度範囲として規定される角度範囲とを有してもよい。   In addition, a predetermined angle region in the field of view CV of the virtual camera 300A may be set as the high transmission region S2. For example, the high transmission area S2 may be set based on the visual axis La of the virtual camera 300A. In this case, the high transmission region S2 is defined as an angular region defined as a polar angle range centered on the visual axis La on the xy plane, and an azimuth angle range centered on the visual axis La on the xz plane. Angle range.

(第1変形例)
次に、図12及び図16を参照することで本実施形態の第1変形例に係る情報処理方法(即ち、図11のステップS15で規定された音量パラメータLの設定処理の第1変形例)について説明する。図16の状態(a)は、高伝達領域S3が設定された仮想空間200Aを示す平面図である。図16の状態(b)は、アバター4Aの正面図である。尚、第1変形例に係る情報処理方法は、既に説明した本実施形態に係る情報処理方法と、ステップS31からS34で規定される処理において相違する。従って、以下では、本実施形態に係る情報処理方法と第1変形例に係る情報処理方法との間の相違点についてのみ説明を行う。
(First modification)
Next, an information processing method according to the first modification of the present embodiment with reference to FIGS. 12 and 16 (that is, a first modification of the volume parameter L setting process defined in step S15 in FIG. 11). Will be described. The state (a) in FIG. 16 is a plan view showing the virtual space 200A in which the high transmission area S3 is set. The state (b) of FIG. 16 is a front view of the avatar 4A. Note that the information processing method according to the first modification differs from the information processing method according to the present embodiment described above in the processes defined in steps S31 to S34. Accordingly, only the difference between the information processing method according to the present embodiment and the information processing method according to the first modification will be described below.

最初に、図12に示すステップS31において、アバター4Aの右手42A(アバター4Aの片手の一例)と仮想カメラ300Aとの間の距離D3が特定される。次に、ステップS32において、サーバ2の制御部23は、右手42Aと仮想カメラ300Aとの間の距離D3が所定の距離Dth3以下であるかどうかを判定する。制御部23は、右手42Aと仮想カメラ300Aとの間の距離D3が所定の距離Dth3以下であると判定した場合に(ステップS32でYES)、右手42Aが開かれているかどうかを判定する(ステップS33)。制御部23は、右手42Aが開かれていると判定した場合(ステップS33でYES)、仮想空間200A中に高伝達領域S3を設定する(ステップS34)。   First, in step S31 shown in FIG. 12, the distance D3 between the right hand 42A of the avatar 4A (an example of one hand of the avatar 4A) and the virtual camera 300A is specified. Next, in step S32, the control unit 23 of the server 2 determines whether the distance D3 between the right hand 42A and the virtual camera 300A is equal to or less than a predetermined distance Dth3. When the control unit 23 determines that the distance D3 between the right hand 42A and the virtual camera 300A is equal to or less than the predetermined distance Dth3 (YES in step S32), the control unit 23 determines whether the right hand 42A is open (step S32). S33). When it is determined that the right hand 42A is opened (YES in step S33), the control unit 23 sets the high transmission area S3 in the virtual space 200A (step S34).

例えば、図16の状態(a)に示すように、制御部23は、仮想カメラ300Aの位置と、右手42Aの位置と、仮想カメラ300Aの視野CVに基づいて、高伝達領域S3を設定してもよい。具体的には、仮想カメラ300Aの視野CVの2つの境界のうち、アバター4Aの左手43A側の境界を境界B1とする一方、アバター4Aの右手42A側の境界を境界B2とする。この場合、高伝達領域S3の一方の境界L1は、仮想カメラ300Aの視野CVの境界B1に一致する。さらに、高伝達領域S3の他方の境界L2は、仮想カメラ300Aと右手42Aの所定位置を通るにように設定される。このようにして、境界L1,L2によって規定される高伝達領域S3が設定されてもよい。   For example, as shown in the state (a) of FIG. 16, the control unit 23 sets the high transmission region S3 based on the position of the virtual camera 300A, the position of the right hand 42A, and the field of view CV of the virtual camera 300A. Also good. Specifically, of the two boundaries of the visual field CV of the virtual camera 300A, the boundary on the left hand 43A side of the avatar 4A is defined as a boundary B1, while the boundary on the right hand 42A side of the avatar 4A is defined as a boundary B2. In this case, one boundary L1 of the high transmission region S3 coincides with the boundary B1 of the visual field CV of the virtual camera 300A. Further, the other boundary L2 of the high transmission area S3 is set so as to pass through predetermined positions of the virtual camera 300A and the right hand 42A. In this way, the high transmission area S3 defined by the boundaries L1 and L2 may be set.

一方、高伝達領域S3の代わりに、図17の状態(a)に示すように、制御部23は、仮想カメラ300Aの位置と、右手42Aの位置とに基づいて、高伝達領域S4を設定してもよい。具体的には、高伝達領域S4の一方の境界L2は、仮想カメラ300Aと右手42Aの所定位置を通るように設定される。また、高伝達領域S4の他方の境界L3は、仮想カメラ300Aの撮像面に対して平行となるように設定される。このように、境界L2,L3によって規定される高伝達領域S4が設定されてもよい。   On the other hand, instead of the high transmission area S3, as shown in the state (a) of FIG. 17, the control unit 23 sets the high transmission area S4 based on the position of the virtual camera 300A and the position of the right hand 42A. May be. Specifically, one boundary L2 of the high transmission area S4 is set so as to pass through predetermined positions of the virtual camera 300A and the right hand 42A. In addition, the other boundary L3 of the high transmission region S4 is set to be parallel to the imaging surface of the virtual camera 300A. Thus, the high transmission area S4 defined by the boundaries L2 and L3 may be set.

尚、本例では、アバター4Aの片手の一例として右手42Aを挙げているが、アバター4Aの左手43Aの位置と状態に基づいてアバター手条件(ステップS32,S33の条件)が決定されてもよい。さらに、左手43Aの位置と、仮想カメラ300Aの位置に基づいて高伝達領域が設定されてもよい。   In this example, the right hand 42A is cited as an example of one hand of the avatar 4A, but the avatar hand conditions (conditions of steps S32 and S33) may be determined based on the position and state of the left hand 43A of the avatar 4A. . Further, the high transmission area may be set based on the position of the left hand 43A and the position of the virtual camera 300A.

また、ステップS31において、右手42Aとアバター4Aの口の基準位置との間の距離が特定されてもよい。この場合、ステップS32では、制御部23は、右手42Aとアバター4Aの口の基準位置との間の距離が所定の距離以下であるかどうかを判定してもよい。   In step S31, the distance between the right hand 42A and the reference position of the mouth of the avatar 4A may be specified. In this case, in step S32, the control unit 23 may determine whether or not the distance between the right hand 42A and the reference position of the mouth of the avatar 4A is equal to or less than a predetermined distance.

(第2変形例)
次に、図12及び図18を参照することで本実施形態の第2変形例に係る情報処理方法(即ち、図11のステップS15で規定された音量パラメータLの設定処理の第2変形例)について説明する。図18の状態(a)は、高伝達領域S5が設定された仮想空間200Aを示す平面図である。図18の状態(b)は、アバター4Aの正面図である。尚、第2変形例に係る情報処理方法は、既に説明した本実施形態に係る情報処理方法と、ステップS31からS34で規定される処理において相違する。従って、以下では、本実施形態に係る情報処理方法と第2変形例に係る情報処理方法との間の相違点についてのみ説明を行う。
(Second modification)
Next, an information processing method according to the second modification of the present embodiment with reference to FIGS. 12 and 18 (that is, a second modification of the volume parameter L setting process defined in step S15 in FIG. 11). Will be described. The state (a) in FIG. 18 is a plan view showing the virtual space 200A in which the high transmission area S5 is set. The state (b) in FIG. 18 is a front view of the avatar 4A. Note that the information processing method according to the second modification differs from the information processing method according to the present embodiment described above in the processing defined in steps S31 to S34. Accordingly, only the difference between the information processing method according to the present embodiment and the information processing method according to the second modification will be described below.

本例では、図12に示すステップS31,S32の処理は実行されないため、ステップS30の処理が実行された後に、ステップS33において、サーバ2の制御部23は、アバター4Aの右手42Aの形状が指差し形状になっているかどうかを判定する。制御部23は、右手42Aの形状が指差し形状になっていると判定した場合(ステップS33でYES)、仮想空間200A中に高伝達領域S5を設定する(ステップS34)。   In this example, since the process of steps S31 and S32 shown in FIG. 12 is not executed, after the process of step S30 is executed, the control unit 23 of the server 2 indicates that the shape of the right hand 42A of the avatar 4A is the finger in step S33. It is determined whether or not the shape is a feed. When it is determined that the shape of the right hand 42A is the pointing shape (YES in step S33), the control unit 23 sets the high transmission area S5 in the virtual space 200A (step S34).

例えば、図18の状態(a)に示すように、制御部23は、右手42Aの人差し指の先端420Aの位置を特定した上で、先端420Aを起点とする高伝達領域S5を設定してもよい。高伝達領域S5は、xy平面において先端420Aを起点とした極角の角度範囲として規定される角度領域と、xz平面において先端420Aを起点とした方位角の角度範囲として規定される角度領域とを有してもよい。このように、高伝達領域S5が設定されてもよい。   For example, as shown in the state (a) of FIG. 18, the control unit 23 may specify the position of the tip 420A of the index finger of the right hand 42A and set the high transmission region S5 starting from the tip 420A. . The high transmission region S5 includes an angle region defined as a polar angle range starting from the tip 420A on the xy plane, and an angle region defined as an azimuth angle range starting from the tip 420A on the xz plane. You may have. In this way, the high transmission area S5 may be set.

本例では、アバター手条件は、右手42Aの形状に関連する条件のみを含む。さらに、高伝達領域S5は右手42Aの位置(具体的には、先端420Aの位置)のみに基づいて決定される。尚、本例では、アバター4Aの片手の一例として右手42Aを挙げているが、アバター4Aの左手43Aの形状に基づいてアバター手条件が決定されてもよい。さらに、左手43Aの位置に基づいて高伝達領域が設定されてもよい。   In this example, the avatar hand condition includes only a condition related to the shape of the right hand 42A. Further, the high transmission area S5 is determined based only on the position of the right hand 42A (specifically, the position of the tip 420A). In this example, the right hand 42A is cited as an example of one hand of the avatar 4A, but the avatar hand condition may be determined based on the shape of the left hand 43A of the avatar 4A. Further, the high transmission area may be set based on the position of the left hand 43A.

本実施形態では、ユーザUの手の動きを示す外部コントローラ320の動きに応じて、アバターの手の移動が制御されているが、ユーザUの手自体の移動量に応じて、仮想空間内におけるアバターの手の移動が制御されてもよい。例えば、外部コントローラを用いる代わりに、ユーザの手指に装着されるグローブ型デバイスや指輪型デバイスを用いることで、位置センサ130により、ユーザUの手の位置や移動量を検出することができると共に、ユーザUの手指の動きや状態を検出することができる。また、位置センサ130は、ユーザUの手(手指を含む)を撮像するように構成されたカメラであってもよい。この場合、カメラを用いてユーザの手を撮像することにより、ユーザの手指に直接何らかのデバイスを装着させることなく、ユーザの手が表示された画像に基づいて、ユーザUの手の位置や移動量を検出することができると共に、ユーザUの手指の動きや状態を検出することができる。   In the present embodiment, the movement of the avatar's hand is controlled according to the movement of the external controller 320 indicating the movement of the user U's hand, but in the virtual space according to the movement amount of the user U's hand itself. The movement of the avatar's hand may be controlled. For example, instead of using an external controller, by using a glove-type device or a ring-type device worn on the user's finger, the position sensor 130 can detect the position and movement amount of the user U's hand, The movement and state of the user's U finger can be detected. Further, the position sensor 130 may be a camera configured to image the user U's hand (including fingers). In this case, the position and amount of movement of the user U's hand are captured based on the image on which the user's hand is displayed without capturing any device directly on the user's finger by imaging the user's hand using the camera. Can be detected, and the movement and state of the finger of the user U can be detected.

また、本実施形態では、ユーザAの身体の一部である手の動きに応じてアバター4Aの手(操作オブジェクトの一例)が動かされ、アバター4Aの手の状態に関連する条件(アバター手条件)が満たされている場合に、仮想空間200A中に高伝達領域が設定される。しかしながら、本実施形態はこれには限定されない。例えば、ユーザAの足の動きに応じてアバター4Aの足が動かされ、アバター4Aの足の状態に関連する条件(アバター足条件)が満たされている場合に、仮想空間200A中に高伝達領域が設定されてもよい。このように、操作オブジェクトはアバターの手(左手と右手)に限定されるものではない。   In the present embodiment, the hand of the avatar 4A (an example of an operation object) is moved according to the movement of the hand that is a part of the user A's body, and the condition related to the hand state of the avatar 4A (avatar hand condition) ) Is satisfied, a high transmission area is set in the virtual space 200A. However, the present embodiment is not limited to this. For example, when the foot of the avatar 4A is moved in accordance with the movement of the foot of the user A and a condition (avatar foot condition) related to the state of the foot of the avatar 4A is satisfied, the high transmission area in the virtual space 200A May be set. Thus, the operation object is not limited to the avatar's hands (left hand and right hand).

また、ユーザ端末1の制御部121によって実行される各種処理をソフトウェアによって実現するために、各種処理をコンピュータ(プロセッサ)に実行させるための制御プログラムが記憶部123又はメモリに予め組み込まれていてもよい。または、制御プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD−ROM,DVD−ROM、Blu−rayディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体が制御装置120に通信可能に接続されることで、当該記憶媒体に格納された制御プログラムが、記憶部123に組み込まれる。そして、記憶部123に組み込まれた制御プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部121は各種処理を実行する。   Further, in order to implement various processes executed by the control unit 121 of the user terminal 1 by software, a control program for causing the computer (processor) to execute various processes may be incorporated in the storage unit 123 or the memory in advance. Good. Alternatively, the control program can be a magnetic disk (HDD, floppy disk), optical disk (CD-ROM, DVD-ROM, Blu-ray disk, etc.), magneto-optical disk (MO, etc.), flash memory (SD card, USB memory, SSD). Etc.) may be stored in a computer-readable storage medium. In this case, the storage medium is communicably connected to the control device 120, whereby the control program stored in the storage medium is incorporated into the storage unit 123. The control unit 121 executes various processes by loading the control program incorporated in the storage unit 123 onto the RAM and executing the loaded program.

さらに、サーバ2の制御部23によって実行される各種処理をソフトウェアによって実現するために、各種処理をコンピュータ(プロセッサ)に実行させるための制御プログラムが記憶部22又はメモリに予め組み込まれていてもよい。または、制御プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD−ROM,DVD−ROM、Blu−rayディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体がサーバ2に通信可能に接続されることで、当該記憶媒体に格納された制御プログラムが、記憶部22に組み込まれる。そして、記憶部22に組み込まれた制御プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部23は各種処理を実行する。   Furthermore, in order to implement various processes executed by the control unit 23 of the server 2 by software, a control program for causing a computer (processor) to execute various processes may be incorporated in the storage unit 22 or the memory in advance. . Alternatively, the control program can be a magnetic disk (HDD, floppy disk), optical disk (CD-ROM, DVD-ROM, Blu-ray disk, etc.), magneto-optical disk (MO, etc.), flash memory (SD card, USB memory, SSD). Etc.) may be stored in a computer-readable storage medium. In this case, the control program stored in the storage medium is incorporated into the storage unit 22 by connecting the storage medium to the server 2 so as to be communicable. The control unit 23 executes various processes by loading the control program incorporated in the storage unit 22 onto the RAM and executing the program loaded by the processor.

また、制御プログラムは、通信ネットワーク3上のコンピュータから通信インターフェース125を介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該制御プログラムが制御装置120の記憶部123又はサーバ2の記憶部22に組み込まれる。   The control program may be downloaded from a computer on the communication network 3 via the communication interface 125. In this case as well, the downloaded control program is incorporated into the storage unit 123 of the control device 120 or the storage unit 22 of the server 2.

以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。   As mentioned above, although embodiment of this indication was described, the technical scope of this invention should not be limitedly interpreted by description of this embodiment. This embodiment is an example, and it is understood by those skilled in the art that various modifications can be made within the scope of the invention described in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the equivalents thereof.

本実施形態において、仮想空間は、ユーザにVR(Virtual Reality)、AR(Argumented Reality)及びMR(Mixed Reality)といった、仮想体験を提供するために用いられる。仮想空間がVRを提供する場合、仮想空間の背景にはメモリに保存された背景データが使用される。仮想空間がAR又はMRを提供する場合、背景には現実空間が使用される。この場合、HMD110が透過型の表示装置(光学シースルーまたはビデオシースルー型の表示装置)を備えることにより、現実空間が背景として使用され得る。仮想空間がMRに適用される場合、オブジェクトは、現実空間によって影響を与えられてもよい。このように、仮想空間が背景や仮想オブジェクトといった仮想シーンを少なくとも一部に含むことにより、ユーザには当該仮想シーンとの相互作用が可能な仮想体験が提供され得る。   In this embodiment, the virtual space is used to provide a virtual experience such as VR (Virtual Reality), AR (Arranged Reality), and MR (Mixed Reality) to the user. When the virtual space provides VR, background data stored in the memory is used as the background of the virtual space. When the virtual space provides AR or MR, the real space is used as the background. In this case, the HMD 110 includes a transmissive display device (optical see-through or video see-through display device), so that the real space can be used as a background. If virtual space is applied to MR, the object may be influenced by real space. As described above, when the virtual space includes at least a part of a virtual scene such as a background or a virtual object, the user can be provided with a virtual experience capable of interacting with the virtual scene.

仮想空間がAR又はMRに適用される場合、アバター手の代わりにユーザの手が用いられてもよい。特に、アバター4Aの手の状態に関連する条件(アバター手条件)の代わりにユーザAの手(ユーザAの身体の一部)の状態に関連する条件(ユーザ手条件)が適用されてもよい。この場合、現実空間において上述の仮想空間における条件(アバター手条件)と同様の条件(ユーザ手条件)を満たした場合には、現実空間中に高伝達領域が設定されてもよい。その後、音声データと音量パラメータに基づいて、アバター4B(対象オブジェクト)又はアバター4Bに関連付けられたユーザ端末B(第2ユーザ端末)に影響が与えられてもよい。 When the virtual space is applied to AR or MR, the user's hand may be used instead of the avatar hand. In particular, a condition (user hand condition) related to the state of user A's hand (a part of the body of user A) may be applied instead of the condition related to the hand state of avatar 4A (avatar hand condition). . In this case, when a condition (user hand condition) similar to the above-described condition (avatar hand condition) in the virtual space is satisfied in the real space, a high transmission area may be set in the real space. Thereafter, the avatar 4B (target object) or the user terminal B (second user terminal) associated with the avatar 4B may be influenced based on the audio data and the volume parameter.

1,1A,1B,1C:ユーザ端末
2:サーバ
3:通信ネットワーク
4A,4B,4C:アバター
21:通信インターフェース
22:記憶部
23:制御部
24:バス
42A,42B:右手
43A,43B:左手
100:仮想空間配信システム(配信システム)
110:HMD
112:表示部
114:HMDセンサ
116:ヘッドフォン
118:マイク
120:制御装置
121:制御部
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
140:注視センサ
200,200A,200B:仮想空間
210:中心位置
300,300A:仮想カメラ
320:外部コントローラ
320L:左手用外部コントローラ(コントローラ)
320R:右手用外部コントローラ(コントローラ)
420A:先端
1, 1A, 1B, 1C: User terminal 2: Server 3: Communication network 4A, 4B, 4C: Avatar 21: Communication interface 22: Storage unit 23: Control unit 24: Bus 42A, 42B: Right hand 43A, 43B: Left hand 100 : Virtual space distribution system (distribution system)
110: HMD
112: Display unit 114: HMD sensor 116: Headphone 118: Microphone 120: Control device 121: Control unit 123: Storage unit 124: I / O interface 125: Communication interface 126: Bus 130: Position sensor 140: Gaze sensor 200, 200A , 200B: Virtual space 210: Center position 300, 300A: Virtual camera 320: External controller 320L: Left hand external controller (controller)
320R: External controller for right hand (controller)
420A: tip

Claims (8)

a)オブジェクトと、対象オブジェクトとを含む仮想空間を規定する仮想空間データを生成するステップと、
b)第1ユーザ端末に関連付けられたヘッドマウントデバイスの動きと前記仮想空間データとに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを生成するステップと、
c)前記ヘッドマウントデバイスを装着した第1ユーザのの動きに応じて、前記オブジェクトを動かすステップと、
d)音声入力部に入力された音声に基づく音声データを取得するステップと、
e)前記オブジェクトの状態に関連する第1条件が満たされている場合において、
e1)前記対象オブジェクトが前記仮想空間における第1領域に位置している場合には、前記音声データに関連する音量パラメータを第1音量パラメータに設定するステップと、
e2)前記対象オブジェクトが前記仮想空間における第1領域とは異なる第2領域に位置している場合には、前記音量パラメータを前記第1音量パラメータとは異なる第2音量パラメータに設定するステップと、
f)前記音声データと前記音量パラメータに基づいて、前記対象オブジェクトに与えられるダメージ量、又は前記対象オブジェクトに関連付けられた第2ユーザ端末から出力される音声の音量を決定するステップと、を含み、
前記第1条件は、以下に規定されるi)からiii)の条件のうちの少なくとも一つを含み、
i)前記手オブジェクトのうち左手オブジェクトと右手オブジェクトとの間の相対位置関係に関連する条件;
ii)前記手オブジェクトの形状に関連する条件;
iii)前記ヘッドマウントデバイスの動きに基づいて前記視野画像を定義する仮想カメラと、前記手オブジェクトとの間の相対位置関係に関連する条件;
前記第1領域と前記第2領域は、前記仮想カメラの視野と、前記手オブジェクトの位置と、前記仮想カメラの位置及び前記手オブジェクトの位置とのうちのいずれか一方に基づいて区画される、
情報処理方法。
a) generating virtual space data defining a virtual space including a hand object and a target object;
b) generating visual field image data indicating a visual field image displayed on the head mounted device based on the movement of the head mounted device associated with the first user terminal and the virtual space data;
c) moving the hand object in response to the movement of the hand of the first user wearing the head mounted device;
d) obtaining voice data based on the voice input to the voice input unit;
e) In a case where the first condition related to the state of the hand object is satisfied,
when e1) the target object is located in the first region in the virtual space, setting a volume parameter associated with the voice data in the first volume parameter,
if e2) the target object is located in a second area different from the first region in the virtual space includes the steps of setting a different second volume parameter and the volume parameter of the first volume parameter,
f) based on the audio data and the volume parameter, the amount of damage applied to said target object, or viewing including the steps, the determining the volume of sound output from the second user terminal associated with the target object ,
The first condition includes at least one of the following conditions i) to iii):
i) a condition relating to a relative positional relationship between a left hand object and a right hand object among the hand objects;
ii) conditions relating to the shape of the hand object;
iii) a condition relating to a relative positional relationship between the virtual object defining the visual field image based on the movement of the head mounted device and the hand object;
The first area and the second area are partitioned based on one of the visual field of the virtual camera, the position of the hand object, the position of the virtual camera, and the position of the hand object.
Information processing method.
g)前記第1条件が満たされない場合には、前記音量パラメータを第3音量パラメータに設定するステップをさらに含む、請求項1に記載の情報処理方法。 g) when said first condition is not satisfied, further comprising information processing method according to claim 1 the step of setting the volume parameter in the third volume parameter. 前記視野画像の視点位置と前記対象オブジェクトとの間の相対位置関係に基づいて、前記第1から第3音量パラメータが設定される、請求項2に記載の情報処理方法。 The information processing method according to claim 2, wherein the first to third volume parameters are set based on a relative positional relationship between a viewpoint position of the visual field image and the target object. 前記第1領域と前記第2領域は、前記左手オブジェクトの位置と前記右手オブジェクトの位置に基づいて区画される、請求項1から3のうちいずれか一項に記載の情報処理方法。  The information processing method according to any one of claims 1 to 3, wherein the first area and the second area are partitioned based on a position of the left hand object and a position of the right hand object. a)現実空間に重畳して表示される対象オブジェクトを規定する仮想空間データを生成するステップと、
b)第1ユーザ端末に関連付けられたヘッドマウントデバイスの動きと前記仮想空間データとに基づいて、前記ヘッドマウントデバイスに表示される視野画像を示す視野画像データを生成するステップと、
c)前記ヘッドマウントデバイスを装着したユーザのの動きを特定するステップと、
d)音声入力部に入力された音声に基づく音声データを取得するステップと、
e)前記の状態に関連する第1条件が満たされている場合において、
e1)前記対象オブジェクトが前記現実空間における第1領域に位置している場合には、前記音声データに関連する音量パラメータを第1音量パラメータに設定するステップと、
e2)前記対象オブジェクトが前記現実空間における第1領域とは異なる第2領域に位置している場合には、前記音量パラメータを前記第1音量パラメータとは異なる第2音量パラメータに設定するステップと、
f)前記音声データと前記音量パラメータに基づいて、前記対象オブジェクトに与えられるダメージ量、又は前記対象オブジェクトに関連付けられた第2ユーザ端末から出力される音声の音量を決定するステップと、を含
前記第1条件は、以下に規定されるi)からiii)の条件のうちの少なくとも一つを含み、
i)前記手のうち左手と右手との間の相対位置関係に関連する条件;
ii)前記手の形状に関連する条件;
iii)前記ヘッドマウントデバイスの動きに基づいて前記視野画像を定義する仮想カメラと、前記手との間の相対位置関係に関連する条件;
前記第1領域と前記第2領域は、前記仮想カメラの視野と、前記手の位置と、前記仮想カメラの位置及び前記手の位置とのうちのいずれか一方に基づいて区画される、
情報処理方法。
a) generating virtual space data defining a target object displayed superimposed on the real space;
b) generating visual field image data indicating a visual field image displayed on the head mounted device based on the movement of the head mounted device associated with the first user terminal and the virtual space data;
c) identifying the movement of the hand of the user wearing the head mounted device;
d) obtaining voice data based on the voice input to the voice input unit;
e) when a first condition related to the hand condition is satisfied,
when e1) the target object is located in the first area in the real space, setting a volume parameter associated with the voice data in the first volume parameter,
if e2) the target object is located in a second area different from the first region in the real space, and setting the different second volume parameter and the volume parameter of the first volume parameter,
f) based on the audio data and the volume parameter, the amount of damage applied to said target object, or viewing including the steps, the determining the volume of sound output from the second user terminal associated with the target object ,
The first condition includes at least one of the following conditions i) to iii):
i) a condition relating to a relative positional relationship between the left hand and the right hand of the hands;
ii) conditions related to the hand shape;
iii) conditions related to the relative positional relationship between the virtual camera defining the field-of-view image based on the movement of the head mounted device and the hand;
The first area and the second area are partitioned based on any one of the visual field of the virtual camera, the position of the hand, the position of the virtual camera, and the position of the hand.
Information processing method.
請求項1からのうちいずれか一項に記載の情報処理方法をコンピュータに実行させるための情報処理プログラム。 An information processing program for causing a computer to execute the information processing method according to any one of claims 1 to 5 . 音声入力部とヘッドマウントデバイスとを備えた第1ユーザ端末と、前記第1ユーザ端末と通信可能に接続されたサーバとを備え、請求項1からのうちいずれか一項に記載の情報処理方法を実行するように構成された、情報処理システム。 A first user terminal having a voice input portion and the head-mounted device, the first user terminal and a communicatively connected server, information processing as claimed in any one of claims 1 6 An information processing system configured to perform the method. プロセッサと、
コンピュータ可読命令を記憶するメモリと、を備えた情報処理装置であって、
前記コンピュータ可読命令が前記プロセッサにより実行されると、前記情報処理装置は請求項1からのうちいずれか一項に記載の情報処理方法を実行する、情報処理装置。
A processor;
An information processing apparatus comprising a memory for storing computer-readable instructions,
Wherein the computer readable instructions are executed by the processor, wherein the information processing apparatus to execute an information processing method as claimed in any one of claims 1 7, the information processing apparatus.
JP2017058988A 2017-03-24 2017-03-24 Information processing method, information processing program, information processing system, and information processing apparatus Active JP6289703B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017058988A JP6289703B1 (en) 2017-03-24 2017-03-24 Information processing method, information processing program, information processing system, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017058988A JP6289703B1 (en) 2017-03-24 2017-03-24 Information processing method, information processing program, information processing system, and information processing apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018017700A Division JP2018163649A (en) 2018-02-02 2018-02-02 Information processing method, information processing program, information processing system, and information processing device

Publications (2)

Publication Number Publication Date
JP6289703B1 true JP6289703B1 (en) 2018-03-07
JP2018163420A JP2018163420A (en) 2018-10-18

Family

ID=61557982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017058988A Active JP6289703B1 (en) 2017-03-24 2017-03-24 Information processing method, information processing program, information processing system, and information processing apparatus

Country Status (1)

Country Link
JP (1) JP6289703B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7166983B2 (en) * 2019-05-08 2022-11-08 株式会社バーチャルキャスト terminal and program
CN110099333B (en) * 2019-05-24 2021-08-10 北京字节跳动网络技术有限公司 Audio signal processing method and device, terminal and storage medium

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
VR空間でYOUTUBEも再生可能!ソーシャルプラットフォーム「VRCHAT」プレイレビュー, JPN6017032822, 12 February 2017 (2017-02-12) *
ソーシャルVRプラットフォーム「VRCHAT」リリース!VRアバターシステムも使用可能に!, JPN6017032821, 2 February 2017 (2017-02-02) *

Also Published As

Publication number Publication date
JP2018163420A (en) 2018-10-18

Similar Documents

Publication Publication Date Title
JP6266814B1 (en) Information processing method and program for causing computer to execute information processing method
JP6058855B1 (en) Information processing method and program for causing computer to execute information processing method
JP6462059B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6228640B1 (en) Display control method and program for causing a computer to execute the display control method
JP6212666B1 (en) Information processing method, program, virtual space distribution system, and apparatus
JP6289703B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6223614B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6207691B1 (en) Information processing method and program for causing computer to execute information processing method
JP6266823B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP2018120583A (en) Information processing method and program for causing computer to execute the same
JP6535699B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS
JP2018109940A (en) Information processing method and program for causing computer to execute the same
JP6416338B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP2019036239A (en) Information processing method, information processing program, information processing system, and information processing device
JP6403843B1 (en) Information processing method, information processing program, and information processing apparatus
JP6190497B1 (en) Information processing method and program for causing computer to execute information processing method
JP6999538B2 (en) Information processing methods, information processing programs, information processing systems, and information processing equipment
JP2018163649A (en) Information processing method, information processing program, information processing system, and information processing device
JP6205047B1 (en) Information processing method and program for causing computer to execute information processing method
JP2019145161A (en) Program, information processing device, and information processing method
JP2018163637A (en) Information processing method, information processing program, information processing system, and information processing device
JP6738308B2 (en) Information processing method, program, virtual space distribution system and device
JP6941130B2 (en) Information processing method, information processing program and information processing device
JP6275809B1 (en) Display control method and program for causing a computer to execute the display control method
JP2019021331A (en) Information processing method, information processing program and information processing device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180206

R150 Certificate of patent or registration of utility model

Ref document number: 6289703

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250