JP6190497B1 - Information processing method and program for causing computer to execute information processing method - Google Patents

Information processing method and program for causing computer to execute information processing method Download PDF

Info

Publication number
JP6190497B1
JP6190497B1 JP2016138832A JP2016138832A JP6190497B1 JP 6190497 B1 JP6190497 B1 JP 6190497B1 JP 2016138832 A JP2016138832 A JP 2016138832A JP 2016138832 A JP2016138832 A JP 2016138832A JP 6190497 B1 JP6190497 B1 JP 6190497B1
Authority
JP
Japan
Prior art keywords
avatar object
virtual camera
attenuation
virtual space
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016138832A
Other languages
Japanese (ja)
Other versions
JP2018010480A (en
Inventor
集平 寺畑
集平 寺畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2016138832A priority Critical patent/JP6190497B1/en
Priority to US15/647,396 priority patent/US20180015362A1/en
Application granted granted Critical
Publication of JP6190497B1 publication Critical patent/JP6190497B1/en
Publication of JP2018010480A publication Critical patent/JP2018010480A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】仮想空間内において音源として規定されたオブジェクトから出力される音声に指向性を持たせる情報処理方法を提供する。【解決手段】情報処理方法は、仮想カメラ300と、マイクに入力された音声の音源として規定される音源オブジェクトMCとを含む仮想空間200を規定する仮想空間データを生成するステップと、HMDの動きに応じて、仮想カメラ300の視野CVを決定するステップと、仮想カメラ300の視野CVと仮想空間データとに基づいて、視野画像データを生成するステップと、視野画像データに基づいて、HMDに視野画像を表示させるステップと、仮想空間200の仮想カメラ300の視野CV内において、仮想空間200内を伝搬する音声の単位距離当たりの減衰量を規定する減衰係数を減衰係数α1に設定すると共に、仮想カメラ300の視野CV外において、減衰係数を減衰係数α1とは異なる減衰係数α2に設定するステップと、を含む。【選択図】図10An information processing method for providing directivity to sound output from an object defined as a sound source in a virtual space. An information processing method includes generating virtual space data defining a virtual space 200 including a virtual camera 300 and a sound source object MC defined as a sound source of sound input to a microphone, and movement of an HMD The visual field CV of the virtual camera 300, a step of generating visual field image data based on the visual field CV of the virtual camera 300 and the virtual space data, and a visual field in the HMD based on the visual field image data. In the step of displaying an image, and in the field of view CV of the virtual camera 300 in the virtual space 200, an attenuation coefficient that defines the attenuation per unit distance of the sound propagating in the virtual space 200 is set to the attenuation coefficient α1, and the virtual Outside the field of view CV of the camera 300, setting the attenuation coefficient to an attenuation coefficient α2 different from the attenuation coefficient α1; Including the. [Selection] Figure 10

Description

本開示は、情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラムに関する。   The present disclosure relates to an information processing method and a program for causing a computer to execute the information processing method.

特許文献1には、ゲームプログラムの実行中に、ゲーム空間内の視点となる移動体が移動した場合又は音源が移動した場合に、移動体と音源との間の相対的位置関係を算出し、算出された相対位置関係に基づいた定位パラメータにより音源から出力される音声を加工する処理(音像定位処理)が開示されている。   Patent Document 1 calculates a relative positional relationship between a moving object and a sound source when the moving object serving as a viewpoint in the game space moves or when the sound source moves during the execution of the game program, A process (sound image localization process) for processing a sound output from a sound source using a localization parameter based on the calculated relative positional relationship is disclosed.

特開2007−050267号公報JP 2007-050267 A

しかしながら、特許文献1では、仮想空間(VR(Virtual Reality)空間)内において、音源として規定されたオブジェクトから出力される音声に指向性を持たせる技術については何ら開示されていない。   However, Patent Document 1 does not disclose any technique for imparting directivity to sound output from an object defined as a sound source in a virtual space (VR (Virtual Reality) space).

本発明は、仮想空間内において音源として規定されたオブジェクトから出力される音声に指向性を持たせる情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラムを提供することを目的とする。   An object of the present invention is to provide an information processing method for providing directivity to sound output from an object defined as a sound source in a virtual space, and a program for causing a computer to execute the information processing method.

本開示が示す一態様によれば、第1ヘッドマウントディスプレイと、音声入力部とを有する第1ユーザ端末を備えたシステムにおける情報処理方法が提供される。
当該情報処理方法は、
仮想カメラと、前記音声入力部に入力された音声の音源として規定される音源オブジェクトとを含む仮想空間を規定する仮想空間データを生成するステップと、
前記第1ヘッドマウントディスプレイの動きに応じて、前記仮想カメラの視野を決定するステップと、
前記仮想カメラの視野と仮想空間データとに基づいて、視野画像データを生成するステップと、
前記視野画像データに基づいて、前記第1ヘッドマウントディスプレイに視野画像を表示させるステップと、
前記仮想空間の第1領域において、前記仮想空間内を伝搬する音声の単位距離当たりの減衰量を規定する減衰係数を第1減衰係数に設定すると共に、前記第1領域とは異なる前記仮想空間の第2領域において、前記減衰係数を第2減衰係数に設定するステップと、
を含む。
前記第1減衰係数と前記第2減衰係数は互いに異なる。
According to an aspect of the present disclosure, an information processing method in a system including a first user terminal having a first head mounted display and a voice input unit is provided.
The information processing method is as follows:
Generating virtual space data defining a virtual space including a virtual camera and a sound source object defined as a sound source of sound input to the sound input unit;
Determining a field of view of the virtual camera in response to movement of the first head mounted display;
Generating visual field image data based on the virtual camera visual field and virtual space data;
Displaying a field image on the first head mounted display based on the field image data;
In the first area of the virtual space, an attenuation coefficient that defines an attenuation amount per unit distance of sound propagating in the virtual space is set as the first attenuation coefficient, and the virtual space different from the first area In a second region, setting the attenuation coefficient to a second attenuation coefficient;
including.
The first attenuation coefficient and the second attenuation coefficient are different from each other.

本開示によれば、仮想空間内において音源として規定されたオブジェクトから出力される音声に指向性を持たせる情報処理方法を提供することができる。さらに、当該情報処理方法をコンピュータに実行させるためのプログラムを提供することができる。   According to the present disclosure, it is possible to provide an information processing method that imparts directivity to sound output from an object defined as a sound source in a virtual space. Further, it is possible to provide a program for causing a computer to execute the information processing method.

ゲームシステムの構成を示す概略図である。It is the schematic which shows the structure of a game system. 本ヘッドマウントディスプレイ(HMD)システムを示す概略図である。It is the schematic which shows this head mounted display (HMD) system. HMDを装着したユーザの頭部を示す図である。It is a figure which shows the head of the user wearing HMD. 制御装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a control apparatus. 視野画像をHMDに表示する処理を示すフローチャートである。It is a flowchart which shows the process which displays a visual field image on HMD. 仮想空間の一例を示すxyz空間図である。It is xyz space figure which shows an example of virtual space. (a)は、図6に示す仮想空間のyx平面図である。(b)は、図6に示す仮想空間のzx平面図である。(A) is yx top view of the virtual space shown in FIG. FIG. 7B is a zx plan view of the virtual space illustrated in FIG. 6. HMDに表示された視野画像の一例を示す図である。It is a figure which shows an example of the visual field image displayed on HMD. 第1実施形態に係る情報処理方法を説明するためのフローチャートである。It is a flowchart for demonstrating the information processing method which concerns on 1st Embodiment. 仮想カメラと音源オブジェクトが一体的に構成された場合における、仮想カメラの視野内(第1領域の一例)に位置する味方アバターオブジェクトと仮想カメラの視野外(第2領域の一例)に位置する敵アバターオブジェクトを示す図である。When a virtual camera and a sound source object are integrally configured, an ally avatar object located within the visual field of the virtual camera (an example of the first area) and an enemy located outside the visual field of the virtual camera (an example of the second area) It is a figure which shows an avatar object. 自己アバターオブジェクトと音源オブジェクトが一体的に構成された場合における、仮想カメラの視野内に位置する自己のアバターオブジェクト及び味方アバターオブジェクトと仮想カメラの視野外に位置する敵アバターオブジェクトとを示す図である。It is a figure which shows the self avatar object and friend avatar object which are located in the visual field of a virtual camera, and the enemy avatar object located out of the visual field of a virtual camera in case a self-avatar object and a sound source object are comprised integrally. . 第1実施形態の第2変形例に係る情報処理方法を説明するためのフローチャートである。It is a flowchart for demonstrating the information processing method which concerns on the 2nd modification of 1st Embodiment. 仮想カメラと音源オブジェクトが一体的に構成された場合における、注視領域内(第1領域の一例)に位置する味方アバターオブジェクトと当該注視領域以外の仮想カメラの視野内(第2領域の一例)に位置する敵アバターオブジェクトを示す図である。In the case where the virtual camera and the sound source object are integrally configured, an ally avatar object located in the gaze area (an example of the first area) and a field of view of the virtual camera other than the gaze area (an example of the second area) It is a figure which shows the enemy avatar object located. 第1実施形態の第3変形例に係る情報処理方法を説明するためのフローチャートである。It is a flowchart for demonstrating the information processing method which concerns on the 3rd modification of 1st Embodiment. 仮想カメラと音源オブジェクトが一体的に構成された場合における、視軸領域内(第1領域の一例)に位置する味方アバターオブジェクトと当該視軸領域以外の仮想カメラの視野内(第2領域の一例)に位置する敵アバターオブジェクトを示す図である。When a virtual camera and a sound source object are integrally configured, a teammate avatar object positioned in the visual axis region (an example of the first region) and a visual field of the virtual camera other than the visual axis region (an example of the second region) It is a figure which shows the enemy avatar object located in (). 第1実施形態の第4変形例に係る情報処理方法を説明するためのフローチャートである。It is a flowchart for demonstrating the information processing method which concerns on the 4th modification of 1st Embodiment. 自己アバターオブジェクトと音源オブジェクトが一体的に構成された場合における、減衰オブジェクトの内側(仮想カメラの視野内)に位置する味方アバターオブジェクト及び自己アバターオブジェクトと、減衰オブジェクトの外側(仮想カメラの視野外)に位置する敵アバターオブジェクトを示す図である。When the self-avatar object and the sound source object are integrally configured, the teammate avatar object and the self-avatar object that are located inside the attenuation object (within the visual field of the virtual camera) and the outside of the attenuation object (out of the visual field of the virtual camera) It is a figure which shows the enemy avatar object located in. 第2実施形態に係る情報処理方法を説明するためのフローチャートである。It is a flowchart for demonstrating the information processing method which concerns on 2nd Embodiment. 第2実施形態の第1変形例に係る情報処理方法を説明するためのフローチャートである。It is a flowchart for demonstrating the information processing method which concerns on the 1st modification of 2nd Embodiment. 仮想カメラと音源オブジェクトが一体的に構成された場合における、減衰オブジェクトの内側に位置する味方アバターオブジェクトと、減衰オブジェクトの外側に位置する敵アバターオブジェクトを示す図である。It is a figure which shows the friend avatar object located inside the attenuation | damping object, and the enemy avatar object located outside the attenuation | damping object when a virtual camera and a sound source object are comprised integrally.

[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)第1ヘッドマウントディスプレイと、音声入力部とを有する第1ユーザ端末を備えたシステムにおける情報処理方法であって、
仮想カメラと、前記音声入力部に入力された音声の音源として規定される音源オブジェクトとを含む仮想空間を規定する仮想空間データを生成するステップと、
前記第1ヘッドマウントディスプレイの動きに応じて、前記仮想カメラの視野を決定するステップと、
前記仮想カメラの視野と仮想空間データとに基づいて、視野画像データを生成するステップと、
前記視野画像データに基づいて、前記第1ヘッドマウントディスプレイに視野画像を表示させるステップと、
前記仮想空間の第1領域において、前記仮想空間内を伝搬する音声の単位距離当たりの減衰量を規定する減衰係数を第1減衰係数に設定すると共に、前記第1領域とは異なる前記仮想空間の第2領域において、前記減衰係数を第2減衰係数に設定するステップと、
を含み、
前記第1減衰係数と前記第2減衰係数は互いに異なる、情報処理方法。
[Description of Embodiments Presented by the Present Disclosure]
An overview of an embodiment indicated by the present disclosure will be described.
(1) An information processing method in a system including a first user terminal having a first head mounted display and a voice input unit,
Generating virtual space data defining a virtual space including a virtual camera and a sound source object defined as a sound source of sound input to the sound input unit;
Determining a field of view of the virtual camera in response to movement of the first head mounted display;
Generating visual field image data based on the virtual camera visual field and virtual space data;
Displaying a field image on the first head mounted display based on the field image data;
In the first area of the virtual space, an attenuation coefficient that defines an attenuation amount per unit distance of sound propagating in the virtual space is set as the first attenuation coefficient, and the virtual space different from the first area In a second region, setting the attenuation coefficient to a second attenuation coefficient;
Including
The information processing method, wherein the first attenuation coefficient and the second attenuation coefficient are different from each other.

上記方法によれば、仮想空間の第1領域において、減衰係数が第1減衰係数に設定されると共に、仮想空間の第2領域において、減衰係数が第1減衰係数とは異なる第2減衰係数に設定される。このように、第1,2領域の各々において異なる減衰係数が設定されるので、仮想空間内において音源オブジェクトから出力される音声に指向性を持たせることができる。   According to the above method, the attenuation coefficient is set to the first attenuation coefficient in the first area of the virtual space, and the attenuation coefficient is set to the second attenuation coefficient different from the first attenuation coefficient in the second area of the virtual space. Is set. In this way, since different attenuation coefficients are set in the first and second regions, the sound output from the sound source object can be given directivity in the virtual space.

(2)前記システムは、第2ヘッドマウントディスプレイと、音声出力部とを有する第2ユーザ端末をさらに備え、
前記仮想空間は、前記第2ユーザ端末に関連付けられたアバターオブジェクトをさらに含み、
前記情報処理方法は、
前記音声入力部に入力された音声を示す音声データを取得するステップと、
前記音源オブジェクトと前記アバターオブジェクトとの間の相対位置関係を特定するステップと、
前記アバターオブジェクトが前記第1領域に位置しているかどうかを判定するステップと、
前記特定された相対位置関係と、前記減衰定数とに基づいて、前記音声データを加工するステップと、
前記加工された音声データに対応する音声を前記音声出力部に出力させるステップと、
をさらに含み、
前記アバターオブジェクトが前記第1領域に位置していると判定された場合、前記減衰係数が前記第1減衰係数に設定され、その後、前記音声データは、前記相対位置関係と前記第1減衰定数とに基づいて加工され、
前記アバターオブジェクトが前記第2領域に位置していると判定された場合、前記減衰係数が前記第2減衰係数に設定され、その後、前記音声データは、前記相対位置関係と前記第2減衰係数とに基づいて加工される、
項目(1)に記載の情報処理方法。
(2) The system further includes a second user terminal having a second head mounted display and an audio output unit,
The virtual space further includes an avatar object associated with the second user terminal,
The information processing method includes:
Obtaining voice data indicating voice input to the voice input unit;
Identifying a relative positional relationship between the sound source object and the avatar object;
Determining whether the avatar object is located in the first region;
Processing the audio data based on the specified relative positional relationship and the attenuation constant;
Outputting audio corresponding to the processed audio data to the audio output unit;
Further including
If it is determined that the avatar object is located in the first region, the attenuation coefficient is set to the first attenuation coefficient, and then the audio data includes the relative positional relationship and the first attenuation constant. Is processed based on
When it is determined that the avatar object is located in the second region, the attenuation coefficient is set to the second attenuation coefficient, and then the audio data includes the relative positional relationship and the second attenuation coefficient. Processed based on the
The information processing method according to item (1).

上記方法によれば、アバターオブジェクトが第1領域に位置していると判定された場合に、減衰係数が第1減衰係数に設定され、その後、音声データは、相対位置関係と第1減衰定数とに基づいて加工される。一方、アバターオブジェクトが第2領域に位置していると判定された場合に、減衰係数が第2減衰係数に設定され、その後、音声データは、相対位置関係と第2減衰係数とに基づいて加工される。   According to the above method, when it is determined that the avatar object is located in the first region, the attenuation coefficient is set to the first attenuation coefficient, and thereafter, the audio data includes the relative positional relationship and the first attenuation constant. It is processed based on. On the other hand, when it is determined that the avatar object is located in the second region, the attenuation coefficient is set to the second attenuation coefficient, and then the audio data is processed based on the relative positional relationship and the second attenuation coefficient. Is done.

このように、仮想空間上におけるアバターオブジェクトの存在位置に応じて、音声出力部から出力される音声の音量(音圧レベル)が異なる。例えば、第1減衰係数が第2減衰係数よりも小さいと仮定したとき、アバターオブジェクトが第1領域に存在する場合における音声出力部から出力される音声の音量は、アバターオブジェクトが第2領域に存在する場合における音声出力部から出力される音声の音量よりも大きくなる。このため、味方アバターオブジェクトが第1領域に存在しつつ、敵アバターオブジェクトが第2領域に存在する場合、第1ユーザ端末のユーザは、敵アバターオブジェクトを操作するユーザに気付かれずに味方アバターオブジェクトを操作するユーザに音声により指示を出すことが可能となる。従って、仮想空間のエンターテイメント性を向上させることができる。   Thus, the volume (sound pressure level) of the sound output from the sound output unit varies depending on the position of the avatar object in the virtual space. For example, when it is assumed that the first attenuation coefficient is smaller than the second attenuation coefficient, the sound volume output from the audio output unit when the avatar object is present in the first area is the avatar object is present in the second area. In this case, the volume is higher than the volume of the sound output from the sound output unit. For this reason, when the teammate avatar object exists in the first area and the enemy avatar object exists in the second area, the user of the first user terminal does not notice the friend avatar object without operating by the user operating the enemy avatar object. It is possible to give an instruction to the operating user by voice. Therefore, the entertainment property of the virtual space can be improved.

(3)前記第1領域は、前記仮想カメラの視野内であり、
前記第2領域は、前記仮想カメラの視野外である、
項目(1)又は(2)に記載の情報処理方法。
(3) the first region is within the field of view of the virtual camera;
The second region is outside the field of view of the virtual camera;
The information processing method according to item (1) or (2).

上記方法によれば、アバターオブジェクトが視野内に位置していると判定された場合に、減衰係数が第1減衰係数に設定され、その後、音声データは、相対位置関係と第1減衰定数とに基づいて加工される。一方、アバターオブジェクトが視野外に位置していると判定された場合に、減衰係数が第2減衰係数に設定され、その後、音声データは、相対位置関係と第2減衰係数とに基づいて加工される。   According to the above method, when it is determined that the avatar object is located in the field of view, the attenuation coefficient is set to the first attenuation coefficient, and then the audio data is converted into the relative positional relationship and the first attenuation constant. Processed based on. On the other hand, when it is determined that the avatar object is located outside the field of view, the attenuation coefficient is set to the second attenuation coefficient, and then the audio data is processed based on the relative positional relationship and the second attenuation coefficient. The

このように、仮想空間上におけるアバターオブジェクトの存在位置に応じて、音声出力部から出力される音声の音量(音圧レベル)が異なる。例えば、第1減衰係数が第2減衰係数よりも小さいと仮定したとき、アバターオブジェクトが視野内に存在する場合における音声出力部から出力される音声の音量は、アバターオブジェクトが視野外に存在する場合における音声出力部から出力される音声の音量よりも大きくなる。このため、味方アバターオブジェクトが視野内に存在しつつ、敵アバターオブジェクトが視野外に存在する場合、第1ユーザ端末のユーザは、敵アバターオブジェクトを操作するユーザに気付かれずに味方アバターオブジェクトを操作するユーザに音声により指示を出すことが可能となる。従って、仮想空間のエンターテイメント性を向上させることができる。   Thus, the volume (sound pressure level) of the sound output from the sound output unit varies depending on the position of the avatar object in the virtual space. For example, when it is assumed that the first attenuation coefficient is smaller than the second attenuation coefficient, the sound volume output from the audio output unit when the avatar object exists in the field of view is the case where the avatar object exists outside the field of view. Becomes larger than the volume of the sound output from the sound output unit. For this reason, when the friend avatar object exists in the field of view and the enemy avatar object exists outside the field of view, the user of the first user terminal operates the friend avatar object without being noticed by the user operating the enemy avatar object. It is possible to give an instruction to the user by voice. Therefore, the entertainment property of the virtual space can be improved.

(4)前記第1領域は、前記第1ヘッドマウントディスプレイを装着したユーザの視線方向によって規定される注視領域であり、
前記第2領域は、前記注視領域以外の前記仮想カメラの視野内である、
項目(1)又は(2)に記載の情報処理方法。
(4) The first area is a gaze area defined by the line of sight of the user wearing the first head mounted display,
The second area is within the field of view of the virtual camera other than the gaze area.
The information processing method according to item (1) or (2).

上記方法によれば、アバターオブジェクトが注視領域に位置していると判定された場合に、減衰係数が第1減衰係数に設定され、その後、音声データは、相対位置関係と第1減衰定数とに基づいて加工される。一方、アバターオブジェクトが注視領域以外の仮想カメラの視野内(以下、単に注視外領域という。)に位置していると判定された場合に、減衰係数が第2減衰係数に設定され、その後、音声データは、相対位置関係と第2減衰係数とに基づいて加工される。   According to the above method, when it is determined that the avatar object is located in the gaze area, the attenuation coefficient is set to the first attenuation coefficient, and then the audio data is converted into the relative positional relationship and the first attenuation constant. Processed based on. On the other hand, when it is determined that the avatar object is located within the visual field of the virtual camera other than the gaze area (hereinafter simply referred to as the non-gaze area), the attenuation coefficient is set to the second attenuation coefficient, and then the voice The data is processed based on the relative positional relationship and the second attenuation coefficient.

このように、仮想空間上におけるアバターオブジェクトの存在位置に応じて、音声出力部から出力される音声の音量(音圧レベル)が異なる。例えば、第1減衰係数が第2減衰係数よりも小さいと仮定したとき、アバターオブジェクトが注視領域内に存在する場合における音声出力部から出力される音声の音量は、アバターオブジェクトが注視外領域に存在する場合における音声出力部から出力される音声の音量よりも大きくなる。このため、味方アバターオブジェクトが注視領域に存在しつつ、敵アバターオブジェクトが注視外領域に存在する場合、第1ユーザ端末のユーザは、敵アバターオブジェクトを操作するユーザに気付かれずに味方アバターオブジェクトを操作するユーザに音声により指示を出すことが可能となる。従って、仮想空間のエンターテイメント性を向上させることができる。   Thus, the volume (sound pressure level) of the sound output from the sound output unit varies depending on the position of the avatar object in the virtual space. For example, when it is assumed that the first attenuation coefficient is smaller than the second attenuation coefficient, the sound volume output from the audio output unit when the avatar object exists in the gaze area is the avatar object exists in the non-gaze area In this case, the volume is higher than the volume of the sound output from the sound output unit. For this reason, when an ally avatar object exists in the gaze area and an enemy avatar object exists in the non-gaze area, the user of the first user terminal operates the ally avatar object without being noticed by the user operating the enemy avatar object. It is possible to give an instruction to the user by voice. Therefore, the entertainment property of the virtual space can be improved.

(5)前記第1領域は、前記仮想カメラの視軸によって規定される視軸領域であり、
前記第2領域は、前記視軸領域以外の前記仮想カメラの視野内である、
項目(1)又は(2)に記載の情報処理方法。
(5) The first region is a visual axis region defined by the visual axis of the virtual camera,
The second region is within the field of view of the virtual camera other than the visual axis region.
The information processing method according to item (1) or (2).

上記方法によれば、アバターオブジェクトが視軸領域に位置していると判定された場合に、減衰係数が第1減衰係数に設定され、その後、音声データは、相対位置関係と第1減衰定数とに基づいて加工される。一方、アバターオブジェクトが視軸領域以外の仮想カメラの視野内(以下、単に視軸外領域という。)に位置していると判定された場合に、減衰係数が第2減衰係数に設定され、その後、音声データは、相対位置関係と第2減衰係数とに基づいて加工される。   According to the above method, when it is determined that the avatar object is located in the visual axis region, the attenuation coefficient is set to the first attenuation coefficient, and thereafter, the audio data includes the relative positional relationship and the first attenuation constant. It is processed based on. On the other hand, when it is determined that the avatar object is located in the field of view of the virtual camera other than the visual axis region (hereinafter, simply referred to as the off-axial region), the attenuation coefficient is set to the second attenuation coefficient, and thereafter The audio data is processed based on the relative positional relationship and the second attenuation coefficient.

このように、仮想空間上におけるアバターオブジェクトの存在位置に応じて、音声出力部から出力される音声の音量(音圧レベル)が異なる。例えば、第1減衰係数が第2減衰係数よりも小さいと仮定したとき、アバターオブジェクトが視軸領域内に存在する場合における音声出力部から出力される音声の音量は、アバターオブジェクトが視軸外領域に存在する場合における音声出力部から出力される音声の音量よりも大きくなる。このため、味方アバターオブジェクトが視軸領域に存在しつつ、敵アバターオブジェクトが視軸外領域に存在する場合、第1ユーザ端末のユーザは、敵アバターオブジェクトを操作するユーザに気付かれずに味方アバターオブジェクトを操作するユーザに音声により指示を出すことが可能となる。従って、仮想空間のエンターテイメント性を向上させることができる。   Thus, the volume (sound pressure level) of the sound output from the sound output unit varies depending on the position of the avatar object in the virtual space. For example, when it is assumed that the first attenuation coefficient is smaller than the second attenuation coefficient, the sound volume output from the audio output unit when the avatar object exists in the visual axis region Is larger than the volume of the sound output from the sound output unit. For this reason, when the friend avatar object exists in the visual axis region and the enemy avatar object exists in the off-axis region, the user of the first user terminal is not noticed by the user operating the enemy avatar object. It is possible to give an instruction by voice to the user who operates. Therefore, the entertainment property of the virtual space can be improved.

(6)第1ヘッドマウントディスプレイと、音声入力部とを有する第1ユーザ端末を備えたシステムにおける情報処理方法であって、
仮想カメラと、前記音声入力部に入力された音声の音源として規定された音源オブジェクトとを含む仮想空間を規定する仮想空間データを生成するステップと、
前記第1ヘッドマウントディスプレイの動きに応じて、前記仮想カメラの視野を決定するステップと、
前記仮想カメラの視野と前記仮想空間データとに基づいて、視野画像データを生成するステップと、
前記視野画像データに基づいて、前記第1ヘッドマウントディスプレイに視野画像を表示させるステップと、
を含み、
前記仮想空間は、前記仮想空間の第1領域と第2領域との間の境界に配置されると共に、前記仮想空間内を伝搬する音声の減衰量を規定する減衰オブジェクトをさらに含む、
情報処理方法。
(6) An information processing method in a system including a first user terminal having a first head mounted display and a voice input unit,
Generating virtual space data defining a virtual space including a virtual camera and a sound source object defined as a sound source of sound input to the sound input unit;
Determining a field of view of the virtual camera in response to movement of the first head mounted display;
Generating visual field image data based on the visual field of the virtual camera and the virtual space data;
Displaying a field image on the first head mounted display based on the field image data;
Including
The virtual space further includes an attenuation object that is disposed at a boundary between the first region and the second region of the virtual space, and that defines an attenuation amount of sound propagating in the virtual space.
Information processing method.

上記方法によれば、仮想空間内を伝搬する音声の減衰量を規定する減衰オブジェクトが仮想空間の第1領域と第2領域との間の境界に配置される。このため、例えば、音源として規定された音源オブジェクトから出力される音声の減衰量は、仮想空間の第1領域と第2領域のそれぞれにおいて異なる。このように、仮想空間内において音源オブジェクトから出力される音声に指向性を持たせることができる。   According to the above method, the attenuation object that defines the attenuation amount of the sound propagating in the virtual space is arranged at the boundary between the first region and the second region of the virtual space. For this reason, for example, the attenuation amount of the sound output from the sound source object defined as the sound source is different in each of the first region and the second region of the virtual space. Thus, directivity can be given to the sound output from the sound source object in the virtual space.

(7)前記減衰オブジェクトは、透明であって、前記視野画像内に表示されない、項目(6)に記載の情報処理方法。   (7) The information processing method according to item (6), wherein the attenuation object is transparent and is not displayed in the visual field image.

上記方法によれば、減衰オブジェクトが視野画像内に表示されないので、仮想空間へのユーザの没入感(仮想空間に対する臨場感)を損なわずに音源オブジェクトから出力された音声に指向性を持たせることができる。   According to the above method, since the attenuation object is not displayed in the field-of-view image, the sound output from the sound source object has directivity without impairing the user's sense of immersion in the virtual space (the sense of presence in the virtual space). Can do.

(8)前記音源オブジェクトは、前記仮想空間の第1領域に配置される、項目(6)又は(7)に記載の情報処理方法。   (8) The information processing method according to item (6) or (7), wherein the sound source object is arranged in a first region of the virtual space.

上記方法によれば、音源オブジェクトは、仮想空間の第1領域に配置される。このため、仮想空間の第2領域では、音源オブジェクトから出力される音声は、仮想空間の第1領域と比較して、減衰オブジェクトにより規定される減衰量だけ更に減衰する。このように、音源オブジェクトから出力される音声に指向性を持たせることができる。   According to the above method, the sound source object is arranged in the first area of the virtual space. For this reason, in the second region of the virtual space, the sound output from the sound source object is further attenuated by an attenuation amount defined by the attenuation object, as compared with the first region of the virtual space. In this way, the sound output from the sound source object can be given directivity.

(9)前記システムは、第2ヘッドマウントディスプレイと、音声出力部とを有する第2ユーザ端末をさらに備え、
前記仮想空間は、前記第2ユーザ端末に関連付けられたアバターオブジェクトをさらに含み、
前記情報処理方法は、
前記音声入力部に入力された音声を示す音声データを取得するステップと、
前記音源オブジェクトと前記アバターオブジェクトとの間の相対位置関係を特定するステップと、
前記アバターオブジェクトが前記仮想空間の第1領域に位置しているかどうかを判定するステップと、
前記音声データを加工するステップと、
前記加工された音声データに対応する音声を前記音声出力部に出力させるステップと、
をさらに含み、
前記アバターオブジェクトが前記仮想空間の第1領域に位置していると判定された場合、前記音声データは、前記相対位置関係に基づいて加工され、
前記アバターオブジェクトが前記仮想空間の第2領域に位置していると判定された場合、前記音声データは、前記相対位置関係と前記減衰オブジェクトによって規定された減衰量に基づいて加工される、
項目(8)に記載の情報処理方法。
(9) The system further includes a second user terminal having a second head mounted display and an audio output unit,
The virtual space further includes an avatar object associated with the second user terminal,
The information processing method includes:
Obtaining voice data indicating voice input to the voice input unit;
Identifying a relative positional relationship between the sound source object and the avatar object;
Determining whether the avatar object is located in a first region of the virtual space;
Processing the audio data;
Outputting audio corresponding to the processed audio data to the audio output unit;
Further including
When it is determined that the avatar object is located in the first region of the virtual space, the audio data is processed based on the relative positional relationship,
When it is determined that the avatar object is located in the second region of the virtual space, the audio data is processed based on the relative positional relationship and the attenuation amount defined by the attenuation object.
The information processing method according to item (8).

上記方法によれば、アバターオブジェクトが、音源が位置する仮想空間の第1領域に位置していると判定された場合、音声データは、相対位置関係に基づいて加工される。一方、アバターオブジェクトが仮想空間の第2領域に位置していると判定された場合、音声データは、相対位置関係と減衰オブジェクトによって規定された減衰量に基づいて加工される。
このように、仮想空間上におけるアバターオブジェクトの存在位置に応じて、音声出力部から出力される音声の音量(音圧レベル)が異なる。アバターオブジェクトが仮想空間の第1領域に存在する場合における音声出力部から出力される音声の音量は、アバターオブジェクトが仮想空間の第2領域に存在する場合における音声出力部から出力される音声の音量よりも大きくなる。このため、味方アバターオブジェクトが仮想空間の第1領域に存在しつつ、敵アバターオブジェクトが仮想空間の第2領域に存在する場合、第1ユーザ端末のユーザは、敵アバターオブジェクトを操作するユーザに気付かれずに味方アバターオブジェクトを操作するユーザに音声により指示を出すことが可能となる。従って、仮想空間のエンターテイメント性を向上させることができる。
According to the above method, when it is determined that the avatar object is located in the first region of the virtual space where the sound source is located, the audio data is processed based on the relative positional relationship. On the other hand, when it is determined that the avatar object is located in the second region of the virtual space, the audio data is processed based on the relative positional relationship and the attenuation amount defined by the attenuation object.
Thus, the volume (sound pressure level) of the sound output from the sound output unit varies depending on the position of the avatar object in the virtual space. The sound volume output from the sound output unit when the avatar object exists in the first area of the virtual space is the sound volume of the sound output from the sound output unit when the avatar object exists in the second area of the virtual space. Bigger than. For this reason, when the friend avatar object exists in the first area of the virtual space and the enemy avatar object exists in the second area of the virtual space, the user of the first user terminal notices the user operating the enemy avatar object. Instead, it is possible to give a voice instruction to the user who operates the teammate avatar object. Therefore, the entertainment property of the virtual space can be improved.

(10)前記第1領域は、前記仮想カメラの視野内であり、
前記第2領域は、前記仮想カメラの視野外である、
項目(8)又は(9)に記載の情報処理方法。
(10) The first region is within the field of view of the virtual camera;
The second region is outside the field of view of the virtual camera;
The information processing method according to item (8) or (9).

上記方法によれば、音源オブジェクトが仮想カメラの視野内に配置されると共に、減衰オブジェクトは、仮想カメラの視野の境界に配置される。このため、仮想カメラの視野外では、仮想カメラから出力される音声は、仮想カメラの視野内と比較して、減衰オブジェクトにより規定される減衰量だけ更に減衰する。このように、仮想空間内において音源オブジェクトから出力される音声に指向性を持たせることができる。   According to the above method, the sound source object is arranged in the visual field of the virtual camera, and the attenuation object is arranged at the boundary of the visual field of the virtual camera. For this reason, outside the visual field of the virtual camera, the sound output from the virtual camera is further attenuated by an attenuation amount defined by the attenuation object as compared to the visual field of the virtual camera. Thus, directivity can be given to the sound output from the sound source object in the virtual space.

(11)項目(1)から(10)のうちいずれか一項に記載の情報処理方法をコンピュータに実行させるためのプログラムを提供する。   (11) A program for causing a computer to execute the information processing method according to any one of items (1) to (10) is provided.

上記によれば、仮想空間内において音源として規定された音源オブジェクトから出力される音声に指向性を持たせることができるプログラムを提供することができる。   According to the above, it is possible to provide a program that can give directivity to the sound output from the sound source object defined as the sound source in the virtual space.

[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。尚、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Presented by the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, about the member which has the same reference number as the member already demonstrated in description of this embodiment, the description is not repeated for convenience of explanation.

本開示の実施形態(以下、単に本実施形態という。)に係る情報処理方法を実現するゲームシステム100の構成について図1を参照して説明する。図1は、ゲームシステム100の構成を示す概略図である。図1に示すように、ゲームシステム100は、ユーザXが操作するヘッドマウントディスプレイ(以下、単にHMDという。)システム1A(第1ユーザ端末の一例)と、ユーザYが操作するHMDシステム1B(第2ユーザ端末の一例)と、ユーザZが操作するHMDシステム1C(第3ユーザ端末の一例)と、HMDシステム1A〜1Cを同期制御するゲームサーバ2を備える。HMDシステム1A,1B,1Cとゲームサーバ2は、互いにインターネット等の通信ネットワーク3を介して互いに通信可能に接続されている。尚、本実施形態では、HMDシステム1A〜1Cとゲームサーバ2とからなるクライアントサーバシステムが構築されているが、ゲームサーバ2を設けずに、HMDシステム1AとHMDシステム1BとHMDシステム1Cが相互に直接通信(P2P通信)を行ってもよい。また、説明の便宜上、HMDシステム1A,1B,1Cを単にHMDシステム1という場合がある。また、HMDシステム1A,1B,1Cは、同一の構成を備えているものとする。   A configuration of a game system 100 that realizes an information processing method according to an embodiment of the present disclosure (hereinafter simply referred to as the present embodiment) will be described with reference to FIG. FIG. 1 is a schematic diagram showing the configuration of the game system 100. As shown in FIG. 1, the game system 100 includes a head-mounted display (hereinafter simply referred to as an HMD) system 1A (an example of a first user terminal) operated by a user X and an HMD system 1B (first operation) operated by a user Y. An example of a two-user terminal), an HMD system 1C operated by a user Z (an example of a third user terminal), and a game server 2 that controls the HMD systems 1A to 1C in synchronization. The HMD systems 1A, 1B, 1C and the game server 2 are connected to each other via a communication network 3 such as the Internet so that they can communicate with each other. In the present embodiment, a client server system including the HMD systems 1A to 1C and the game server 2 is constructed. However, without providing the game server 2, the HMD system 1A, the HMD system 1B, and the HMD system 1C are mutually connected. Direct communication (P2P communication) may be performed. For convenience of explanation, the HMD systems 1A, 1B, and 1C may be simply referred to as the HMD system 1. Further, the HMD systems 1A, 1B, and 1C are assumed to have the same configuration.

次に、図2を参照してHMDシステム1の構成について説明する。図2は、HMDシステム1を示す概略図である。図2に示すように、HMDシステム1は、ユーザUの頭部に装着されたHMD110と、ユーザUの両耳に装着されたヘッドフォン116(音声出力部の一例)と、ユーザUの口の周辺に位置するマイク118(音声入力部の一例)と、位置センサ130と、外部コントローラ320と、制御装置120とを備える。   Next, the configuration of the HMD system 1 will be described with reference to FIG. FIG. 2 is a schematic diagram showing the HMD system 1. As shown in FIG. 2, the HMD system 1 includes an HMD 110 attached to the head of the user U, headphones 116 (an example of an audio output unit) attached to both ears of the user U, and the periphery of the mouth of the user U. A microphone 118 (an example of a voice input unit), a position sensor 130, an external controller 320, and a control device 120.

HMD110は、表示部112と、HMDセンサ114と、注視センサ140とを備えている。表示部112は、HMD110を装着したユーザUの視界(視野)を完全に覆うように構成された非透過型の表示装置を備えている。これにより、ユーザUは、表示部112に表示された視野画像のみを見ることで仮想空間に没入することができる。尚、表示部112は、ユーザUの左目に画像を提供するように構成された左目用の表示部とユーザUの右目に画像を提供するように構成された右目用の表示部から構成されてもよい。   The HMD 110 includes a display unit 112, an HMD sensor 114, and a gaze sensor 140. The display unit 112 includes a non-transmissive display device configured to completely cover the field of view (field of view) of the user U wearing the HMD 110. Thereby, the user U can immerse in the virtual space by viewing only the visual field image displayed on the display unit 112. The display unit 112 includes a display unit for the left eye configured to provide an image to the left eye of the user U and a display unit for the right eye configured to provide an image to the right eye of the user U. Also good.

HMDセンサ114は、HMD110の表示部112の近傍に搭載される。HMDセンサ114は、地磁気センサ、加速度センサ、傾きセンサ(角速度センサやジャイロセンサ等)のうちの少なくとも1つを含み、ユーザUの頭部に装着されたHMD110の各種動きを検出することができる。   The HMD sensor 114 is mounted in the vicinity of the display unit 112 of the HMD 110. The HMD sensor 114 includes at least one of a geomagnetic sensor, an acceleration sensor, and a tilt sensor (such as an angular velocity sensor and a gyro sensor), and can detect various movements of the HMD 110 mounted on the head of the user U.

注視センサ140は、ユーザUの視線方向を検出するアイトラッキング機能を有する。
注視センサ140は、例えば、右目用注視センサと、左目用注視センサを備えてもよい。右目用注視センサは、ユーザUの右目に例えば赤外光を照射して、右目(特に、角膜や虹彩)から反射された反射光を検出することで、右目の眼球の回転角に関する情報を取得してもよい。一方、左目用注視センサは、ユーザUの左目に例えば赤外光を照射して、左目(特に、角膜や虹彩)から反射された反射光を検出することで、左目の眼球の回転角に関する情報を取得してもよい。
The gaze sensor 140 has an eye tracking function that detects the direction of the line of sight of the user U.
The gaze sensor 140 may include, for example, a right eye gaze sensor and a left eye gaze sensor. The right eye gaze sensor irradiates, for example, infrared light to the right eye of the user U, and detects reflected light reflected from the right eye (particularly the cornea and iris), thereby acquiring information related to the rotation angle of the right eye's eyeball. May be. On the other hand, the left eye gaze sensor irradiates the left eye of the user U with, for example, infrared light, and detects reflected light reflected from the left eye (particularly the cornea and iris), thereby providing information on the rotation angle of the left eye's eyeball. May be obtained.

ヘッドフォン116は、ユーザUの左耳と右耳にそれぞれ装着されている。ヘッドフォン116は、制御装置120から音声データ(電気信号)を受信し、当該受信した音声データに基づいて音声を出力するように構成されている。ヘッドフォン116の右耳用のスピーカに出力される音声は、ヘッドフォン116の左耳用のスピーカに出力される音声と異なってもよい。例えば、制御装置120は、頭部伝達関数に基づいて、右耳用スピーカに入力される音声データと、左耳用スピーカに入力される音声データを取得し、当該異なる2つの音声データをヘッドフォン116の左耳用スピーカと右耳用スピーカのそれぞれに出力してもよい。尚、音声出力部の他の一例として、独立した2つの据置型スピーカやイヤホンを設けてもよい。   The headphones 116 are respectively attached to the left ear and the right ear of the user U. The headphones 116 are configured to receive audio data (electrical signals) from the control device 120 and output audio based on the received audio data. The sound output to the right ear speaker of the headphones 116 may be different from the sound output to the left ear speaker of the headphones 116. For example, the control device 120 obtains audio data input to the right ear speaker and audio data input to the left ear speaker based on the head-related transfer function, and the two different audio data are stored in the headphones 116. May be output to each of the left ear speaker and the right ear speaker. As another example of the audio output unit, two independent stationary speakers and earphones may be provided.

マイク118は、ユーザUから発声された音声を収集し、当該収集された音声に基づいて音声データ(電気信号)を生成するように構成されている。さらに、マイク118は、音声データを制御装置120に送信するように構成されている。マイク118は、音声データをAD(Analog−to―Digital)変換する機能を有してもよい。また、マイク118は、ヘッドフォン116に物理的に接続されてもよい。制御装置120は、受信した音声データを加工し、加工された音声データを通信ネットワーク3を介して他のHMDシステムに送信してもよい。   The microphone 118 is configured to collect the voice uttered by the user U and generate voice data (electrical signal) based on the collected voice. Furthermore, the microphone 118 is configured to transmit audio data to the control device 120. The microphone 118 may have a function of AD (Analog-to-Digital) conversion of audio data. In addition, the microphone 118 may be physically connected to the headphones 116. The control device 120 may process the received audio data and transmit the processed audio data to another HMD system via the communication network 3.

位置センサ130は、例えば、ポジション・トラッキング・カメラにより構成され、HMD110と外部コントローラ320の位置を検出するように構成されている。位置センサ130は、制御装置120に無線又は有線により通信可能に接続されており、HMD110に設けられた図示しない複数の検知点の位置、傾き又は発光強度に関する情報を検出するように構成されている。さらに、位置センサ130は、外部コントローラ320に設けられた図示しない複数の検知点の位置、傾き及び/又は発光強度に関する情報を検出するように構成されている。検知点は、例えば、赤外線や可視光を放射する発光部である。また、位置センサ130は、赤外線センサや複数の光学カメラを含んでもよい。   The position sensor 130 is configured by, for example, a position tracking camera, and is configured to detect the positions of the HMD 110 and the external controller 320. The position sensor 130 is communicably connected to the control device 120 by wireless or wired communication, and is configured to detect information on the position, inclination, or light emission intensity of a plurality of detection points (not shown) provided in the HMD 110. . Further, the position sensor 130 is configured to detect information on the position, inclination and / or light emission intensity of a plurality of detection points (not shown) provided in the external controller 320. The detection point is, for example, a light emitting unit that emits infrared light or visible light. The position sensor 130 may include an infrared sensor and a plurality of optical cameras.

外部コントローラ320は、例えば、仮想空間内に表示される手指オブジェクトの動作を制御するために使用される。外部コントローラ320は、ユーザUが右手に持って使用する右手用外部コントローラと、ユーザUが左手に持って使用する左手用外部コントローラを有してもよい。右手用外部コントローラは、ユーザUの右手の位置や右手の手指の動きを検出する装置である。左手用外部コントローラは、ユーザUの左手の位置や左手の手指の動きを検出する装置である。外部コントローラ320は、複数の操作ボタンと、複数の検知点と、センサと、トランシーバとを備えてもよい。例えば、外部コントローラ320の操作ボタンがユーザUに操作されることで、仮想空間内にメニューオブジェクトが表示されてもよい。さらに、外部コントローラ320の操作ボタンがユーザUに操作されることで、仮想空間上におけるユーザUの視野が変更されてもよい(つまり、視野画像が変更されてもよい)。この場合、外部コントローラ320から出力される操作信号に基づいて、制御装置120は、仮想カメラを所定の位置に移動させてもよい。   The external controller 320 is used, for example, to control the movement of the finger object displayed in the virtual space. The external controller 320 may include a right-handed external controller used by the user U with the right hand and a left-handed external controller used by the user U with the left hand. The external controller for the right hand is a device that detects the position of the right hand of the user U and the movement of the finger of the right hand. The left-hand external controller is a device that detects the position of the left hand of the user U and the movement of the finger of the left hand. The external controller 320 may include a plurality of operation buttons, a plurality of detection points, a sensor, and a transceiver. For example, the menu object may be displayed in the virtual space when the operation button of the external controller 320 is operated by the user U. Further, the field of view of the user U in the virtual space may be changed by operating the operation button of the external controller 320 by the user U (that is, the field of view image may be changed). In this case, based on the operation signal output from the external controller 320, the control device 120 may move the virtual camera to a predetermined position.

制御装置120は、位置センサ130から取得された情報に基づいて、HMD110の位置情報を取得し、当該取得された位置情報に基づいて、仮想空間における仮想カメラの位置と、現実空間におけるHMD110を装着したユーザUの位置を正確に対応付けることができる。さらに、制御装置120は、位置センサ130から取得された情報に基づいて、外部コントローラ320の位置情報を取得し、当該取得された位置情報に基づいて、仮想空間内に表示される手指オブジェクトの位置と現実空間における外部コントローラ320とHMD110との間の相対関係位置を正確に対応付けることができる。   The control device 120 acquires the position information of the HMD 110 based on the information acquired from the position sensor 130, and wears the position of the virtual camera in the virtual space and the HMD 110 in the real space based on the acquired position information. Thus, the position of the user U can be accurately associated. Further, the control device 120 acquires the position information of the external controller 320 based on the information acquired from the position sensor 130, and the position of the finger object displayed in the virtual space based on the acquired position information. And the relative position between the external controller 320 and the HMD 110 in the real space can be accurately associated.

また、制御装置120は、注視センサ140から送信された情報に基づいて、ユーザUの右目の視線と左目の視線をそれぞれ特定し、当該右目の視線と当該左目の視線の交点である注視点を特定することができる。さらに、制御装置120は、特定された注視点に基づいて、ユーザUの視線方向を特定することができる。ここで、ユーザUの視線方向は、ユーザUの両目の視線方向であって、ユーザUの右目と左目を結ぶ線分の中点と注視点を通る直線の方向に一致する。   Further, the control device 120 specifies the gaze of the right eye and the gaze of the left eye of the user U based on the information transmitted from the gaze sensor 140, and determines the gaze point that is the intersection of the gaze of the right eye and the gaze of the left eye. Can be identified. Furthermore, the control device 120 can specify the line-of-sight direction of the user U based on the specified gaze point. Here, the line-of-sight direction of the user U is the line-of-sight direction of both eyes of the user U and coincides with the direction of a straight line passing through the middle point of the line segment connecting the right eye and the left eye of the user U and the gazing point.

次に、図3を参照して、HMD110の位置や傾きに関する情報を取得する方法について説明する。図3は、HMD110を装着したユーザUの頭部を示す図である。HMD110を装着したユーザUの頭部の動きに連動したHMD110の位置や傾きに関する情報は、位置センサ130及び/又はHMD110に搭載されたHMDセンサ114により検出可能である。図2に示すように、HMD110を装着したユーザUの頭部を中心として、3次元座標(uvw座標)が規定される。ユーザUが直立する垂直方向をv軸として規定し、v軸と直交しHMD110の中心を通る方向をw軸として規定し、v軸およびw軸と直交する方向をu軸として規定する。位置センサ130及び/又はHMDセンサ114は、各uvw軸回りの角度(すなわち、v軸を中心とする回転を示すヨー角、u軸を中心とした回転を示すピッチ角、w軸を中心とした回転を示すロール角で決定される傾き)を検出する。制御装置120は、検出された各uvw軸回りの角度変化に基づいて、仮想カメラの視軸を制御するための角度情報を決定する。   Next, with reference to FIG. 3, a method for acquiring information related to the position and inclination of the HMD 110 will be described. FIG. 3 is a diagram illustrating the head of the user U wearing the HMD 110. Information on the position and inclination of the HMD 110 that is linked to the movement of the head of the user U wearing the HMD 110 can be detected by the position sensor 130 and / or the HMD sensor 114 mounted on the HMD 110. As shown in FIG. 2, three-dimensional coordinates (uvw coordinates) are defined centering on the head of the user U wearing the HMD 110. The vertical direction in which the user U stands up is defined as the v-axis, the direction orthogonal to the v-axis and passing through the center of the HMD 110 is defined as the w-axis, and the direction orthogonal to the v-axis and the w-axis is defined as the u-axis. The position sensor 130 and / or the HMD sensor 114 is an angle around each uvw axis (that is, a yaw angle indicating rotation around the v axis, a pitch angle indicating rotation around the u axis, and a center around the w axis). The inclination determined by the roll angle indicating rotation) is detected. The control device 120 determines angle information for controlling the visual axis of the virtual camera based on the detected angle change around each uvw axis.

次に、図4を参照することで、制御装置120のハードウェア構成について説明する。図4は、制御装置120のハードウェア構成を示す図である。図4に示すように、制御装置120は、制御部121と、記憶部123と、I/O(入出力)インターフェース124と、通信インターフェース125と、バス126とを備える。制御部121と、記憶部123と、I/Oインターフェース124と、通信インターフェース125は、バス126を介して互いに通信可能に接続されている。   Next, the hardware configuration of the control device 120 will be described with reference to FIG. FIG. 4 is a diagram illustrating a hardware configuration of the control device 120. As illustrated in FIG. 4, the control device 120 includes a control unit 121, a storage unit 123, an I / O (input / output) interface 124, a communication interface 125, and a bus 126. The control unit 121, the storage unit 123, the I / O interface 124, and the communication interface 125 are connected to each other via a bus 126 so as to communicate with each other.

制御装置120は、HMD110とは別体に、パーソナルコンピュータ、タブレット又はウェアラブルデバイスとして構成されてもよいし、HMD110に内蔵されていてもよい。また、制御装置120の一部の機能がHMD110に搭載されると共に、制御装置120の残りの機能がHMD110とは別体の他の装置に搭載されてもよい。   The control device 120 may be configured as a personal computer, a tablet, or a wearable device separately from the HMD 110, or may be built in the HMD 110. In addition, some functions of the control device 120 may be mounted on the HMD 110, and the remaining functions of the control device 120 may be mounted on another device separate from the HMD 110.

制御部121は、メモリとプロセッサを備えている。メモリは、例えば、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)及び/又はGPU(Graphics Processing Unit)であって、ROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。   The control unit 121 includes a memory and a processor. The memory includes, for example, a ROM (Read Only Memory) in which various programs are stored, a RAM (Random Access Memory) having a plurality of work areas in which various programs executed by the processor are stored, and the like. The processor is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and / or a GPU (Graphics Processing Unit), and a program specified from various programs embedded in the ROM is expanded on the RAM. It is comprised so that various processes may be performed in cooperation with.

特に、プロセッサが本実施形態に係る情報処理方法をコンピュータに実行させるためのプログラム(後述する)をRAM上に展開し、RAMとの協働で当該プログラムを実行することで、制御部121は、制御装置120の各種動作を制御してもよい。制御部121は、メモリや記憶部123に格納された所定のアプリケーションプログラム(ゲームプログラム)を実行することで、HMD110の表示部112に仮想空間(視野画像)を表示する。これにより、ユーザUは、表示部112に表示された仮想空間に没入することができる。   In particular, the processor 121 develops a program (described later) for causing the computer to execute the information processing method according to the present embodiment on the RAM, and executes the program in cooperation with the RAM. Various operations of the control device 120 may be controlled. The control unit 121 displays a virtual space (view image) on the display unit 112 of the HMD 110 by executing a predetermined application program (game program) stored in the memory or the storage unit 123. Thereby, the user U can be immersed in the virtual space displayed on the display unit 112.

記憶部(ストレージ)123は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、USBフラッシュメモリ等の記憶装置であって、プログラムや各種データを格納するように構成されている。記憶部123は、本実施形態に係る情報処理方法をコンピュータに実行させるプログラムを格納してもよい。また、ユーザUの認証プログラムや各種画像やオブジェクトに関するデータを含むゲームプログラム等が格納されてもよい。さらに、記憶部123には、各種データを管理するためのテーブルを含むデータベースが構築されてもよい。   The storage unit (storage) 123 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a USB flash memory, and is configured to store programs and various data. The storage unit 123 may store a program that causes a computer to execute the information processing method according to the present embodiment. In addition, a user U authentication program, a game program including data on various images and objects, and the like may be stored. Furthermore, a database including tables for managing various data may be constructed in the storage unit 123.

I/Oインターフェース124は、位置センサ130と、HMD110と、外部コントローラ320と、ヘッドフォン116と、マイク118とをそれぞれ制御装置120に通信可能に接続するように構成されており、例えば、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High―Definition Multimedia Interface)端子等により構成されている。尚、制御装置120は、位置センサ130と、HMD110と、外部コントローラ320と、ヘッドフォン116と、マイク118とのそれぞれと無線接続されていてもよい。   The I / O interface 124 is configured to connect the position sensor 130, the HMD 110, the external controller 320, the headphones 116, and the microphone 118 to the control device 120 so that they can communicate with each other, for example, a USB (Universal) The terminal includes a serial bus (D) terminal, a digital visual interface (DVI) terminal, a high-definition multimedia interface (HDMI) (registered trademark) terminal, and the like. The control device 120 may be wirelessly connected to each of the position sensor 130, the HMD 110, the external controller 320, the headphones 116, and the microphone 118.

通信インターフェース125は、制御装置120をLAN(Local Area Network)、WAN(Wide Area Network)又はインターネット等の通信ネットワーク3に接続させるように構成されている。通信インターフェース125は、通信ネットワーク3を介してゲームサーバ2等の外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んでおり、通信ネットワーク3を介して通信するための通信規格に適合するように構成されている。   The communication interface 125 is configured to connect the control device 120 to a communication network 3 such as a LAN (Local Area Network), a WAN (Wide Area Network), or the Internet. The communication interface 125 includes various wired connection terminals for communicating with an external device such as the game server 2 via the communication network 3 and various processing circuits for wireless connection, and communicates via the communication network 3. It is configured to conform to the communication standard.

次に、図5から図8を参照することで視野画像をHMD110に表示するための処理について説明する。図5は、視野画像をHMD110に表示する処理を示すフローチャートである。図6は、仮想空間200の一例を示すxyz空間図である。図7(a)は、図6に示す仮想空間200のyx平面図である。図7(b)は、図6に示す仮想空間200のzx平面図である。図8は、HMD110に表示された視野画像Vの一例を示す図である。   Next, processing for displaying a field-of-view image on the HMD 110 will be described with reference to FIGS. FIG. 5 is a flowchart showing a process for displaying the visual field image on the HMD 110. FIG. 6 is an xyz space diagram showing an example of the virtual space 200. FIG. 7A is a yx plan view of the virtual space 200 shown in FIG. FIG. 7B is a zx plan view of the virtual space 200 shown in FIG. FIG. 8 is a diagram illustrating an example of the visual field image V displayed on the HMD 110.

図5に示すように、ステップS1において、制御部121(図4参照)は、仮想カメラ300と、各種オブジェクトとを含む仮想空間200を示す仮想空間データを生成する。図6に示すように、仮想空間200は、中心位置21を中心とした全天球として規定される(図6では、上半分の天球のみが図示されている)。また、仮想空間200では、中心位置21を原点とするxyz座標系が設定されている。仮想カメラ300は、HMD110に表示される視野画像V(図8参照)を特定するための視軸Lを規定している。仮想カメラ300の視野を定義するuvw座標系は、現実空間におけるユーザUの頭部を中心として規定されたuvw座標系に連動するように決定される。また、HMD110を装着したユーザUの現実空間における移動に連動して、制御部121は、仮想カメラ300を仮想空間200内で移動させてもよい。   As illustrated in FIG. 5, in step S <b> 1, the control unit 121 (see FIG. 4) generates virtual space data indicating the virtual space 200 including the virtual camera 300 and various objects. As shown in FIG. 6, the virtual space 200 is defined as an omnidirectional sphere with the center position 21 as the center (in FIG. 6, only the upper half celestial sphere is shown). In the virtual space 200, an xyz coordinate system with the center position 21 as the origin is set. The virtual camera 300 defines a visual axis L for specifying the visual field image V (see FIG. 8) displayed on the HMD 110. The uvw coordinate system that defines the visual field of the virtual camera 300 is determined so as to be linked to the uvw coordinate system that is defined around the head of the user U in the real space. Further, the control unit 121 may move the virtual camera 300 in the virtual space 200 in conjunction with the movement of the user U wearing the HMD 110 in the real space.

次に、ステップS2において、制御部121は、仮想カメラ300の視野CV(図7参照)を特定する。具体的には、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の状態を示すデータに基づいて、HMD110の位置や傾きに関する情報を取得する。次に、制御部121は、HMD110の位置や傾きに関する情報に基づいて、仮想空間200内における仮想カメラ300の位置や向きを特定する。次に、制御部121は、仮想カメラ300の位置や向きから仮想カメラ300の視軸Lを決定し、決定された視軸Lから仮想カメラ300の視野CVを特定する。ここで、仮想カメラ300の視野CVは、HMD110を装着したユーザUが視認可能な仮想空間200の一部の領域に相当する(換言すれば、HMD110に表示される仮想空間200の一部の領域に相当する)。また、視野CVは、図7(a)に示すxy平面において、視軸Lを中心とした極角αの角度範囲として設定される第1領域CVaと、図7(b)に示すxz平面において、視軸Lを中心とした方位角βの角度範囲として設定される第2領域CVbとを有する。尚、制御部121は、注視センサ140から送信されたユーザUの視線方向を示すデータに基づいて、ユーザUの視線方向を特定し、ユーザUの視線方向に基づいて仮想カメラ300の向きを決定してもよい。   Next, in step S <b> 2, the control unit 121 specifies the field of view CV (see FIG. 7) of the virtual camera 300. Specifically, the control unit 121 acquires information on the position and inclination of the HMD 110 based on data indicating the state of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. Next, the control unit 121 identifies the position and orientation of the virtual camera 300 in the virtual space 200 based on information regarding the position and tilt of the HMD 110. Next, the control unit 121 determines the visual axis L of the virtual camera 300 from the position and orientation of the virtual camera 300 and specifies the visual field CV of the virtual camera 300 from the determined visual axis L. Here, the visual field CV of the virtual camera 300 corresponds to a part of the virtual space 200 visible to the user U wearing the HMD 110 (in other words, a part of the virtual space 200 displayed on the HMD 110). Equivalent to Further, the visual field CV has a first region CVa set as an angular range of the polar angle α around the visual axis L in the xy plane shown in FIG. 7A and an xz plane shown in FIG. 7B. And a second region CVb set as an angular range of the azimuth angle β with the visual axis L as the center. The control unit 121 identifies the line of sight of the user U based on the data indicating the line of sight of the user U transmitted from the gaze sensor 140, and determines the direction of the virtual camera 300 based on the line of sight of the user U. May be.

このように、制御部121は、位置センサ130及び/又はHMDセンサ114からのデータに基づいて、仮想カメラ300の視野CVを特定することができる。ここで、HMD110を装着したユーザUが動くと、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の動きを示すデータに基づいて、仮想カメラ300の視野CVを変化させることができる。つまり、制御部121は、HMD110の動きに応じて、視野CVを変化させることができる。同様に、ユーザUの視線方向が変化すると、制御部121は、注視センサ140から送信されたユーザUの視線方向を示すデータに基づいて、仮想カメラ300の視野CVを移動させることができる。つまり、制御部121は、ユーザUの視線方向の変化に応じて、視野CVを変化させることができる。   As described above, the control unit 121 can specify the visual field CV of the virtual camera 300 based on the data from the position sensor 130 and / or the HMD sensor 114. Here, when the user U wearing the HMD 110 moves, the control unit 121 changes the visual field CV of the virtual camera 300 based on the data indicating the movement of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. be able to. That is, the control unit 121 can change the visual field CV according to the movement of the HMD 110. Similarly, when the line-of-sight direction of the user U changes, the control unit 121 can move the visual field CV of the virtual camera 300 based on the data indicating the line-of-sight direction of the user U transmitted from the gaze sensor 140. That is, the control unit 121 can change the visual field CV according to the change in the user U's line-of-sight direction.

次に、ステップS3において、制御部121は、HMD110の表示部112に表示される視野画像Vを示す視野画像データを生成する。具体的には、制御部121は、仮想空間200を規定する仮想空間データと、仮想カメラ300の視野CVとに基づいて、視野画像データを生成する。   Next, in step S <b> 3, the control unit 121 generates visual field image data indicating the visual field image V displayed on the display unit 112 of the HMD 110. Specifically, the control unit 121 generates visual field image data based on virtual space data defining the virtual space 200 and the visual field CV of the virtual camera 300.

次に、ステップS4において、制御部121は、視野画像データに基づいて、HMD110の表示部112に視野画像Vを表示する(図7参照)。このように、HMD110を装着しているユーザUの動きに応じて、仮想カメラ300の視野CVが変化し、HMD110の表示部112に表示される視野画像Vが変化するので、ユーザUは仮想空間200に没入することができる。   Next, in step S4, the control unit 121 displays the field image V on the display unit 112 of the HMD 110 based on the field image data (see FIG. 7). As described above, the visual field CV of the virtual camera 300 is changed according to the movement of the user U wearing the HMD 110, and the visual field image V displayed on the display unit 112 of the HMD 110 is changed. I can immerse myself in 200.

尚、仮想カメラ300は、左目用仮想カメラと右目用仮想カメラを含んでもよい。この場合、制御部121は、仮想空間データと左目用仮想カメラの視野に基づいて、左目用の視野画像を示す左目用視野画像データを生成する。さらに、制御部121は、仮想空間データと、右目用仮想カメラの視野に基づいて、右目用の視野画像を示す右目用視野画像データを生成する。その後、制御部121は、左目用視野画像データと右目用視野画像データに基づいて、HMD110の表示部112に左目用視野画像と右目用視野画像を表示する。このようにして、ユーザUは、左目用視野画像と右目用視野画像から、視野画像を3次元画像として視認することができる。尚、本明細書では、説明の便宜上、仮想カメラ300の数は一つとする。勿論、本開示の実施形態は、仮想カメラの数が2つの場合でも適用可能である。   Note that the virtual camera 300 may include a left-eye virtual camera and a right-eye virtual camera. In this case, the control unit 121 generates left-eye view image data indicating the left-eye view image based on the virtual space data and the view of the left-eye virtual camera. Further, the control unit 121 generates right-eye view image data indicating a right-eye view image based on the virtual space data and the view of the right-eye virtual camera. Thereafter, the control unit 121 displays the left-eye view image and the right-eye view image on the display unit 112 of the HMD 110 based on the left-eye view image data and the right-eye view image data. In this way, the user U can visually recognize the visual field image as a three-dimensional image from the left-eye visual field image and the right-eye visual field image. In this specification, for convenience of explanation, the number of virtual cameras 300 is one. Of course, the embodiment of the present disclosure is applicable even when the number of virtual cameras is two.

(第1実施形態)
次に、本実施形態に係る情報処理方法について図9及び図10を参照して説明する。図9は、第1実施形態に係る情報処理方法を説明するためのフローチャートである。図10は、仮想カメラ300と音源オブジェクトMCが一体的に構成された場合における、仮想カメラ300の視野CV内(第1領域の一例)に位置する味方アバターオブジェクトFCと、仮想カメラ300の視野CV外(第2領域の一例)に位置する敵アバターオブジェクトECを示す図である
(First embodiment)
Next, the information processing method according to the present embodiment will be described with reference to FIGS. FIG. 9 is a flowchart for explaining the information processing method according to the first embodiment. FIG. 10 shows a teammate avatar object FC located in the field of view CV (an example of the first region) of the virtual camera 300 and the field of view CV of the virtual camera 300 when the virtual camera 300 and the sound source object MC are integrally configured. It is a figure showing enemy avatar object EC located outside (an example of the 2nd field)

最初に、図10に示すように、仮想空間200は、仮想カメラ300と、音源オブジェクトMCと、味方アバターオブジェクトFCと、敵アバターオブジェクトECとを含む。制御部121は、これらのオブジェクトを含む仮想空間200を規定する仮想空間データを生成している。   First, as shown in FIG. 10, the virtual space 200 includes a virtual camera 300, a sound source object MC, a teammate avatar object FC, and an enemy avatar object EC. The control unit 121 generates virtual space data that defines the virtual space 200 including these objects.

仮想カメラ300は、ユーザXが操作するHMDシステム1Aに関連付けられている。つまり、ユーザXが装着するHMD110の動きに応じて仮想カメラ300の位置や向き(つまり、仮想カメラ300の視野CV)が変更される。音源オブジェクトMCは、マイク118に入力されたユーザX(図1参照)の音声の音源として規定されており、仮想カメラ300と一体的に構成されている。音源オブジェクトMCと仮想カメラ300が一体的に構成されている場合、仮想カメラ300は、音源の機能を有すると解釈してもよい。また、音源オブジェクトMCは透明であってもよい。この場合、音源オブジェクトMCは視野画像V上には表示されない。尚、音源オブジェクトMCは、仮想カメラ300と分離していてもよい。例えば、音源オブジェクトMCは、仮想カメラ300に近接していると共に、仮想カメラ300に追従してもよい(つまり、音源オブジェクトMCは、仮想カメラ300の動きに応じて移動してもよい)。   The virtual camera 300 is associated with the HMD system 1A operated by the user X. That is, the position and orientation of the virtual camera 300 (that is, the visual field CV of the virtual camera 300) are changed according to the movement of the HMD 110 worn by the user X. The sound source object MC is defined as the sound source of the sound of the user X (see FIG. 1) input to the microphone 118 and is configured integrally with the virtual camera 300. When the sound source object MC and the virtual camera 300 are integrally configured, the virtual camera 300 may be interpreted as having a sound source function. The sound source object MC may be transparent. In this case, the sound source object MC is not displayed on the visual field image V. Note that the sound source object MC may be separated from the virtual camera 300. For example, the sound source object MC may be close to the virtual camera 300 and may follow the virtual camera 300 (that is, the sound source object MC may move according to the movement of the virtual camera 300).

味方アバターオブジェクトFCは、ユーザYが操作するHMDシステム1Bに関連付けられている。つまり、味方アバターオブジェクトFCは、ユーザYのアバターオブジェクトであって、ユーザYの操作により制御される。また、味方アバターオブジェクトFCは、仮想空間200上を伝搬する音声を収集する集音器として機能してもよい。換言すれば、味方アバターオブジェクトFCは、仮想空間200上を伝搬する音声を収集する集音オブジェクトと一体的に構成されてもよい。   The teammate avatar object FC is associated with the HMD system 1B operated by the user Y. That is, the teammate avatar object FC is the avatar object of the user Y and is controlled by the operation of the user Y. Further, the teammate avatar object FC may function as a sound collector that collects sound propagating on the virtual space 200. In other words, the teammate avatar object FC may be configured integrally with a sound collection object that collects sound propagating on the virtual space 200.

敵アバターオブジェクトECは、ユーザZの操作により制御される。つまり、敵アバターオブジェクトECは、ユーザZの操作により制御される。また、敵アバターオブジェクトECは、仮想空間200上を伝搬する音声を収集する集音器として機能してもよい。換言すれば、敵アバターオブジェクトECは、仮想空間200上を伝搬する音声を収集する集音オブジェクトと一体的に構成されてもよい。本実施形態では、ユーザX〜Zが、多人数が参加可能なオンラインゲームをプレイしている場合、ユーザXとユーザYが味方同士である一方、ユーザZはユーザX,Yに対して敵となることを前提としている。   The enemy avatar object EC is controlled by the operation of the user Z. That is, the enemy avatar object EC is controlled by the operation of the user Z. Further, the enemy avatar object EC may function as a sound collector that collects sound propagating in the virtual space 200. In other words, the enemy avatar object EC may be configured integrally with a sound collection object that collects sound propagating in the virtual space 200. In this embodiment, when the users X to Z are playing an online game in which a large number of people can participate, the user X and the user Y are allies, while the user Z is an enemy against the users X and Y. It is assumed that

次に、ユーザXが発声した音声がどのようにユーザYのヘッドフォン116から出力されるかについて図9を参照して説明する。図9に示すように、ユーザXがマイク118に向けて音声を発したとき、HMDシステム1Aのマイク118は、ユーザXから発せられた音声を収集して、当該収集された音声を示す音声データを生成する(ステップS10)。その後、マイク118は、音声データを制御部121に送信し、制御部121は、ユーザXの音声に対応する音声データを取得する。HMDシステム1Aの制御部121は、仮想カメラ300の位置と向きに関する情報と音声データとを通信ネットワーク3を介してゲームサーバ2に送信する(ステップS11)。   Next, how the voice uttered by the user X is output from the headphone 116 of the user Y will be described with reference to FIG. As illustrated in FIG. 9, when the user X utters a sound toward the microphone 118, the microphone 118 of the HMD system 1 </ b> A collects the sound uttered from the user X and the sound data indicating the collected sound. Is generated (step S10). Thereafter, the microphone 118 transmits audio data to the control unit 121, and the control unit 121 acquires audio data corresponding to the user X's audio. The control unit 121 of the HMD system 1A transmits information regarding the position and orientation of the virtual camera 300 and audio data to the game server 2 via the communication network 3 (step S11).

ゲームサーバ2は、HMDシステム1AからユーザXの仮想カメラ300の位置と向きに関する情報と音声データを受信した後に、当該情報と音声データをHMDシステム1Bに送信する(ステップS12)。その後、HMDシステム1Bの制御部121は、通信ネットワーク3と通信インターフェース125を介して、ユーザXの仮想カメラ300の位置と向きに関する情報と音声データを受信する(ステップS13)。   The game server 2 receives the information and audio data regarding the position and orientation of the virtual camera 300 of the user X from the HMD system 1A, and then transmits the information and audio data to the HMD system 1B (step S12). Thereafter, the control unit 121 of the HMD system 1B receives information and audio data regarding the position and orientation of the virtual camera 300 of the user X via the communication network 3 and the communication interface 125 (step S13).

次に、HMDシステム1Bの制御部121(以下、単に制御部121という。)は、ユーザYのアバターオブジェクト(つまり、味方アバターオブジェクトFC)の位置を特定する(ステップS14)。その後、制御部121は、ユーザXの仮想カメラ300(音源オブジェクトMC)と味方アバターオブジェクトFCとの間の距離D(相対位置関係の一例)を特定する(ステップS15)。距離Dは、ユーザXの仮想カメラ300と味方アバターオブジェクトFCとの間の最短距離であってもよい。また、本実施形態では、仮想カメラ300と音源オブジェクトMCが一体的に構成されているため、仮想カメラ300と味方アバターオブジェクトFCとの間の距離Dは、音源オブジェクトMCと味方アバターオブジェクトFCとの間の距離に相当する。   Next, the control unit 121 (hereinafter simply referred to as the control unit 121) of the HMD system 1B specifies the position of the user Y avatar object (that is, the teammate avatar object FC) (step S14). Thereafter, the control unit 121 specifies a distance D (an example of a relative positional relationship) between the virtual camera 300 (sound source object MC) of the user X and the teammate avatar object FC (step S15). The distance D may be the shortest distance between the virtual camera 300 of the user X and the teammate avatar object FC. In the present embodiment, since the virtual camera 300 and the sound source object MC are integrally configured, the distance D between the virtual camera 300 and the teammate avatar object FC is the distance between the sound source object MC and the teammate avatar object FC. It corresponds to the distance between.

次に、制御部121は、ユーザXの仮想カメラ300の位置と向きに基づいて、ユーザXの仮想カメラ300の視野CVを特定する(ステップS16)。ステップS17において、制御部121は、味方アバターオブジェクトFCがユーザXの仮想カメラ300の視野CV内に位置しているかどうかを判定する。   Next, the control unit 121 specifies the field of view CV of the virtual camera 300 of the user X based on the position and orientation of the virtual camera 300 of the user X (Step S16). In step S <b> 17, the control unit 121 determines whether the teammate avatar object FC is located within the field of view CV of the user X virtual camera 300.

制御部121は、味方アバターオブジェクトFCが仮想カメラ300の視野CV内(第1領域の一例)に位置していると判定した場合(ステップS17でYES)、仮想空間200内を伝搬する音声の単位距離当たりの減衰量を規定する減衰係数を減衰係数α1(第1減衰係数の一例)に設定すると共に、仮想カメラ300と味方アバターオブジェクトFCとの間の距離Dと減衰係数α1に基づいて、音声データを加工する(ステップS18)。ここで、味方アバターオブジェクトFCが視野CV内に位置する場合、図10に示すように味方アバターオブジェクトFCは実線で表示される。   When it is determined that the teammate avatar object FC is located within the field of view CV (an example of the first region) of the virtual camera 300 (YES in step S17), the control unit 121 is a unit of sound that propagates in the virtual space 200. The attenuation coefficient that defines the attenuation per distance is set to the attenuation coefficient α1 (an example of the first attenuation coefficient), and the audio is based on the distance D between the virtual camera 300 and the ally avatar object FC and the attenuation coefficient α1. Data is processed (step S18). Here, when the teammate avatar object FC is located in the visual field CV, the teammate avatar object FC is displayed with a solid line as shown in FIG.

一方、制御部121は、味方アバターオブジェクトFCが仮想カメラ300の視野CV外(第2領域の一例)に位置していると判定した場合(ステップS17でNO)、減衰係数を減衰係数α2(第2減衰係数の一例)に設定すると共に、仮想カメラ300と味方アバターオブジェクトFCとの間の距離Dと減衰係数α2に基づいて、音声データを加工する(ステップS19)。ここで、味方アバターオブジェクトFCが視野CV外に位置する場合、図10に示すように味方アバターオブジェクトFCは破線で表示される。ここで、減衰係数α1と減衰係数α2は異なり、α1<α2である。   On the other hand, when it is determined that the teammate avatar object FC is located outside the field of view CV of the virtual camera 300 (an example of the second region) (NO in step S17), the control unit 121 sets the attenuation coefficient to the attenuation coefficient α2 (first 2 is an example of the attenuation coefficient, and the audio data is processed based on the distance D between the virtual camera 300 and the teammate avatar object FC and the attenuation coefficient α2 (step S19). Here, when the teammate avatar object FC is located outside the field of view CV, the teammate avatar object FC is displayed with a broken line as shown in FIG. Here, the attenuation coefficient α1 and the attenuation coefficient α2 are different, and α1 <α2.

次に、ステップS20において、制御部121は、加工された音声データに対応する音声をHMDシステム1Bのヘッドフォン116に出力させる。   Next, in step S20, the control unit 121 causes the headphones 116 of the HMD system 1B to output sound corresponding to the processed sound data.

本実施形態では、仮想カメラ300と音源オブジェクトMCが一体的に構成されていると共に、味方アバターオブジェクトFCは集音機能を有するので、ユーザXの仮想カメラ300と味方アバターオブジェクトFCとの間の距離Dが大きい場合、HMDシステム1Bのヘッドフォン116に出力される音声の音量(音圧レベル)は小さくなる(換言すれば、音声の減衰量(dB)は大きい)。その反対に、ユーザXの仮想カメラ300と味方アバターオブジェクトFCとの間の距離Dが小さい場合、HMDシステム1Bのヘッドフォン116に出力される音声の音量(音圧レベル)は大きくなる(つまり、音声の減衰量(dB)は小さい)。   In the present embodiment, the virtual camera 300 and the sound source object MC are integrally configured, and the ally avatar object FC has a sound collection function, so the distance between the virtual camera 300 of the user X and the ally avatar object FC. When D is large, the volume (sound pressure level) of the sound output to the headphones 116 of the HMD system 1B is small (in other words, the sound attenuation (dB) is large). On the other hand, when the distance D between the virtual camera 300 of the user X and the teammate avatar object FC is small, the sound volume (sound pressure level) output to the headphones 116 of the HMD system 1B increases (that is, the sound). (Attenuation amount (dB) is small).

さらに、減衰係数が大きい場合、HMDシステム1Bのヘッドフォン116に出力される音声の音量(音圧レベル)は小さくなる(換言すれば、音声の減衰量(dB)は大きい)。その反対に、減衰係数が小さい場合、HMDシステム1Bのヘッドフォン116に出力される音声の音量(音圧レベル)は大きくなる(換言すれば、音声の減衰量(dB)は小さい)。このように、制御部121は、ユーザXの仮想カメラ300と味方アバターオブジェクトFCとの間の距離Dと減衰係数とに基づいて、音声データの音量(音圧レベル)を決定する。   Furthermore, when the attenuation coefficient is large, the volume (sound pressure level) of the sound output to the headphones 116 of the HMD system 1B is small (in other words, the sound attenuation (dB) is large). On the contrary, when the attenuation coefficient is small, the volume (sound pressure level) of the sound output to the headphones 116 of the HMD system 1B increases (in other words, the sound attenuation (dB) is small). Thus, the control unit 121 determines the volume (sound pressure level) of the audio data based on the distance D between the virtual camera 300 of the user X and the teammate avatar object FC and the attenuation coefficient.

この点において、制御部121は、ユーザXの仮想カメラ300と味方アバターオブジェクトFCとの間の距離Dと、減衰係数αと、音声データとの音量Lとの関係を示す関数を参照することで、音声データの音量を決定してもよい。例えば、基準距離Dにおける音量が既知である場合、制御部121は、例えば、以下の式(1)を参照して音声データの音量Lを決定してもよい。尚、式(1)はあくまでも一例であって、他の式を用いて音声データの音量Lを決定してもよい。

L=L−20log(D/D)−8.7α(D−D)・・・(1)

D:ユーザXの仮想カメラ300と味方アバターオブジェクトFCとの間の距離
:ユーザXの仮想カメラ300と味方アバターオブジェクトFCとの間の基準距離
L:距離Dにおける音声データの音量(dB)
:基準距離Dにおける音声データの音量(dB)
α:減衰係数(dB/距離)
In this respect, the control unit 121 refers to a function indicating the relationship between the distance D between the virtual camera 300 of the user X and the teammate avatar object FC, the attenuation coefficient α, and the volume L of the audio data. The volume of the audio data may be determined. For example, when the volume at the reference distance D 0 is known, the control unit 121 may determine the volume L of the audio data with reference to the following formula (1), for example. Expression (1) is merely an example, and the volume L of the audio data may be determined using another expression.

L = L 0 −20 log (D / D 0 ) −8.7α (D−D 0 ) (1)

D: Distance D 0 between the virtual camera 300 of the user X and the ally avatar object FC 0 : Reference distance L between the virtual camera 300 of the user X and the ally avatar object FC: Volume of sound data (dB) at the distance D
L 0 : Volume of sound data at the reference distance D 0 (dB)
α: Damping coefficient (dB / distance)

味方アバターオブジェクトFCが視野CV内に存在する場合、減衰係数αは、減衰係数α1となる一方、味方アバターオブジェクトFCが視野CV外に存在する場合、減衰係数αは、減衰係数α2となる。また、減衰係数α1は、減衰係数α2よりも小さい。このため、ユーザXの仮想カメラ300と味方アバターオブジェクトFCとの間の距離D1であって、味方アバターオブジェクトFCが視野CV内に存在する場合における音声データの音量は、ユーザXの仮想カメラ300と味方アバターオブジェクトFCとの間の距離D1であって、味方アバターオブジェクトFCが視野CV外に存在する場合における音声データの音量よりも大きくなる。つまり、視野CVの内側と外側の各々において異なる減衰係数α1,α2が設定されるので、仮想空間200内において音源オブジェクトMC(仮想カメラ300)から出力される音声に指向性を持たせることができる。   When the teammate avatar object FC is present within the field of view CV, the attenuation coefficient α is the attenuation coefficient α1, while when the teammate avatar object FC is present outside the field of view CV, the attenuation coefficient α is the attenuation coefficient α2. Further, the attenuation coefficient α1 is smaller than the attenuation coefficient α2. Therefore, the sound volume of the audio data when the friend avatar object FC is in the field of view CV is the distance D1 between the virtual camera 300 of the user X and the friend avatar object FC and the virtual camera 300 of the user X. It is the distance D1 between the teammate avatar object FC and is larger than the volume of the audio data when the teammate avatar object FC exists outside the field of view CV. That is, since different attenuation coefficients α1 and α2 are set inside and outside the visual field CV, the sound output from the sound source object MC (virtual camera 300) can be given directivity in the virtual space 200. .

さらに、制御部121は、ユーザXの仮想カメラ300と味方アバターオブジェクトFCとの間の相対位置関係から所定の頭部伝達関数を決定し、決定された頭部伝達関数と音声データとに基づいて音声データを加工してもよい。   Furthermore, the control unit 121 determines a predetermined head-related transfer function from the relative positional relationship between the virtual camera 300 of the user X and the teammate avatar object FC, and based on the determined head-related transfer function and audio data Audio data may be processed.

本実施形態によれば、味方アバターオブジェクトFCが視野CV内に位置していると判定された場合に、減衰係数αが減衰係数α1に設定され、その後、音声データは、距離Dと減衰係数α1とに基づいて加工される。一方、味方アバターオブジェクトFCが視野CV外に位置していると判定された場合に、減衰係数αが減衰係数α2に設定され、その後、音声データは、距離Dと減衰係数α2とに基づいて加工される。このように、仮想空間200上における味方アバターオブジェクトFCの存在位置に応じて、ヘッドフォン116から出力される音声の音量(音圧レベル)が異なる。本実施形態では、α1<α2であるため、図10に示すように、味方アバターオブジェクトFCが視野CV内に存在しつつ、敵アバターオブジェクトECが視野CV外に存在する場合、味方アバターオブジェクトFCを操作するユーザYに装着されたヘッドフォン116から出力される音声の音量は、敵アバターオブジェクトECを操作するユーザZに装着されたヘッドフォン116から出力される音声の音量よりも大きい。このため、ユーザXは、敵アバターオブジェクトECを操作するユーザZに気付かれずに味方アバターオブジェクトFCを操作するユーザYに音声により指示を出すことが可能となる。従って、仮想空間200のエンターテイメント性を向上させることができる。   According to the present embodiment, when it is determined that the teammate avatar object FC is located in the field of view CV, the attenuation coefficient α is set to the attenuation coefficient α1, and then the audio data includes the distance D and the attenuation coefficient α1. It is processed based on. On the other hand, when it is determined that the teammate avatar object FC is located outside the field of view CV, the attenuation coefficient α is set to the attenuation coefficient α2, and then the audio data is processed based on the distance D and the attenuation coefficient α2. Is done. As described above, the volume (sound pressure level) of the sound output from the headphones 116 differs depending on the position of the teammate avatar object FC on the virtual space 200. In this embodiment, since α1 <α2, as shown in FIG. 10, when the teammate avatar object FC exists in the field of view CV and the enemy avatar object EC exists outside the field of view CV, the teammate avatar object FC is displayed. The volume of the sound output from the headphones 116 attached to the user Y who operates is larger than the volume of the sound output from the headphones 116 attached to the user Z who operates the enemy avatar object EC. Therefore, the user X can give a voice instruction to the user Y who operates the teammate avatar object FC without being noticed by the user Z who operates the enemy avatar object EC. Therefore, the entertainment property of the virtual space 200 can be improved.

(第1実施形態の第1変形例)
次に、図11を参照することで第1実施形態の第1変形例について説明する。図11は、自己アバターオブジェクト400と音源オブジェクトMCが一体的に構成された場合における、仮想カメラ300の視野CV内に位置する自己アバターオブジェクト400及び味方アバターオブジェクトFCと仮想カメラ300の視野CV外に位置する敵アバターオブジェクトECとを示す図である。
(First modification of the first embodiment)
Next, a first modification of the first embodiment will be described with reference to FIG. FIG. 11 shows that when the self-avatar object 400 and the sound source object MC are integrally formed, the self-avatar object 400 and the ally avatar object FC that are located within the visual field CV of the virtual camera 300 and the visual field CV of the virtual camera 300 are outside. It is a figure which shows the enemy avatar object EC located.

最初に、図11に示すように、仮想空間200Aは、仮想カメラ300と、音源オブジェクトMCと、自己アバターオブジェクト400と、味方アバターオブジェクトFCと、敵アバターオブジェクトECとを含む。制御部121は、これらのオブジェクトを含む仮想空間200を規定する仮想空間データを生成している。ここで、自己アバターオブジェクト400は、ユーザXの操作によって制御されるアバターオブジェクト(つまり、ユーザXに関連付けられたアバターオブジェクト)である。   First, as shown in FIG. 11, the virtual space 200A includes a virtual camera 300, a sound source object MC, a self-avatar object 400, a teammate avatar object FC, and an enemy avatar object EC. The control unit 121 generates virtual space data that defines the virtual space 200 including these objects. Here, the self-avatar object 400 is an avatar object (that is, an avatar object associated with the user X) controlled by the operation of the user X.

図11に示す仮想空間200Aは、自己アバターオブジェクト400が配置されていると共に、音源オブジェクトMCが自己アバターオブジェクト400と一体的に構成されている点で図10に示す仮想空間200と相違する。このように、図10に示す仮想空間200では、ユーザに提供される仮想空間の視点は一人称視点である一方、図11に示す仮想空間200Aでは、ユーザに提供される仮想空間の視点は三人称視点である。第1変形例のように自己アバターオブジェクト400と音源オブジェクトMCが一体的に構成されている場合、自己アバターオブジェクト400は音源の機能を有すると解釈してもよい。   A virtual space 200 </ b> A illustrated in FIG. 11 is different from the virtual space 200 illustrated in FIG. 10 in that the self-avatar object 400 is arranged and the sound source object MC is configured integrally with the self-avatar object 400. Thus, in the virtual space 200 shown in FIG. 10, the viewpoint of the virtual space provided to the user is the first person viewpoint, while in the virtual space 200A shown in FIG. 11, the viewpoint of the virtual space provided to the user is the third person viewpoint. It is. When the self-avatar object 400 and the sound source object MC are integrally configured as in the first modification, the self-avatar object 400 may be interpreted as having a sound source function.

次に、第1実施形態の第1変形例に係る情報処理方法について図9を参照して説明する。以下では、既に説明した第1実施形態に係る情報処理方法と第1変形例に係る情報処理方法との間の相違点についてのみ詳細に説明する。第1変形例に係る情報処理方法では、図9に示すステップS10からS13の処理が実行される。ステップS14において、HMDシステム1Bの制御部121(以下、単に制御部121という。)は、ユーザYのアバターオブジェクト(味方アバターオブジェクトFC)の位置とユーザXのアバターオブジェクト(自己アバターオブジェクト400)の位置をそれぞれ特定する。ここで、HMDシステム1Aは自己アバターオブジェクト400の位置情報等をゲームサーバ2に所定の時間間隔で送信しつつ、ゲームサーバ2は自己アバターオブジェクト400の位置情報等をHMDシステム1Bに所定の時間間隔で送信してもよい。   Next, an information processing method according to a first modification of the first embodiment will be described with reference to FIG. Hereinafter, only differences between the already described information processing method according to the first embodiment and the information processing method according to the first modification will be described in detail. In the information processing method according to the first modification, steps S10 to S13 shown in FIG. 9 are executed. In step S <b> 14, the control unit 121 (hereinafter simply referred to as the control unit 121) of the HMD system 1 </ b> B positions the user Y avatar object (friend avatar object FC) and the user X avatar object (self-avatar object 400). Identify each. Here, the HMD system 1A transmits the position information of the self-avatar object 400 to the game server 2 at a predetermined time interval, while the game server 2 transmits the position information of the self-avatar object 400 to the HMD system 1B at a predetermined time interval. You may send it with

次に、ステップS15において、制御部121は、自己アバターオブジェクト400(音源オブジェクトMC)と味方アバターオブジェクトFCとの間の距離Da(相対位置関係の一例)を特定する。距離Daは、自己アバターオブジェクト400と味方アバターオブジェクトFCとの間の最短距離であってもよい。また、第1変形例では、自己アバターオブジェクト400と音源オブジェクトMCが一体的に構成されているため、自己アバターオブジェクト400と味方アバターオブジェクトFCとの間の距離Daは、音源オブジェクトMCと味方アバターオブジェクトFCとの間の距離に相当する。   Next, in step S15, the control unit 121 specifies a distance Da (an example of a relative positional relationship) between the self-avatar object 400 (sound source object MC) and the teammate avatar object FC. The distance Da may be the shortest distance between the self-avatar object 400 and the teammate avatar object FC. In the first modification, since the self-avatar object 400 and the sound source object MC are integrally configured, the distance Da between the self-avatar object 400 and the teammate avatar object FC is equal to the sound source object MC and the teammate avatar object. Corresponds to the distance to FC.

その後、制御部121は、ステップS17で規定される判定処理を実行し、味方アバターオブジェクトFCが仮想カメラ300の視野CV内に位置していると判定した場合(ステップS17でYES)、減衰係数を減衰係数α1に設定した上で、自己アバターオブジェクト400と味方アバターオブジェクトFCとの間の距離Daと減衰係数α1に基づいて、音声データを加工する(ステップS18)。   Then, the control part 121 performs the determination process prescribed | regulated by step S17, and when it determines with the ally avatar object FC being located in the visual field CV of the virtual camera 300 (it is YES at step S17), an attenuation coefficient is set. After setting the attenuation coefficient α1, the audio data is processed based on the distance Da between the self-avatar object 400 and the teammate avatar object FC and the attenuation coefficient α1 (step S18).

一方、制御部121は、味方アバターオブジェクトFCが仮想カメラ300の視野CV外に位置していると判定した場合(ステップS17でNO)、減衰係数を減衰係数α2に設定した上で、自己アバターオブジェクト400と味方アバターオブジェクトFCとの間の距離Daと減衰係数α2に基づいて、音声データを加工する(ステップS19)。   On the other hand, when it is determined that the teammate avatar object FC is located outside the field of view CV of the virtual camera 300 (NO in step S17), the control unit 121 sets the attenuation coefficient to the attenuation coefficient α2 and then sets the self-avatar object. The voice data is processed based on the distance Da between 400 and the teammate avatar object FC and the attenuation coefficient α2 (step S19).

次に、ステップS20において、制御部121は、加工された音声データに対応する音声をHMDシステム1Bのヘッドフォン116に出力させる。   Next, in step S20, the control unit 121 causes the headphones 116 of the HMD system 1B to output sound corresponding to the processed sound data.

(第1実施形態の第2変形例)
次に、図12を参照することで第1実施形態の第2変形例に係る情報処理方法について説明する。第2変形例に係る情報処理方法は、音声データがHMDシステム1Aで加工される点で、第1実施形態に係る情報処理方法とは相違する。図12は、第1実施形態の第2変形例に係る情報処理方法を説明するためのフローチャートである。
(Second modification of the first embodiment)
Next, an information processing method according to a second modification of the first embodiment will be described with reference to FIG. The information processing method according to the second modification is different from the information processing method according to the first embodiment in that audio data is processed by the HMD system 1A. FIG. 12 is a flowchart for explaining the information processing method according to the second modification of the first embodiment.

図12に示すように、ステップS30において、HMDシステム1Aのマイク118は、ユーザXから発せられた音声を収集して、当該収集された音声を示す音声データを生成する。次に、HMDシステム1Aの制御部121(以下、単に制御部121という。)は、ユーザXの仮想カメラ300の位置と向きに基づいて、ユーザXの仮想カメラ300の視野CVを特定する(ステップS31)。その後、制御部121は、ユーザYのアバターオブジェクト(味方アバターオブジェクトFC)の位置を特定する(ステップS32)。ここで、HMDシステム1Bは味方アバターオブジェクトFCの位置情報等をゲームサーバ2に所定の時間間隔で送信しつつ、ゲームサーバ2は味方アバターオブジェクトFCの位置情報等をHMDシステム1Bに所定の時間間隔で送信してもよい。   As shown in FIG. 12, in step S30, the microphone 118 of the HMD system 1A collects voices uttered from the user X, and generates voice data indicating the collected voices. Next, the control unit 121 (hereinafter simply referred to as the control unit 121) of the HMD system 1A specifies the field of view CV of the virtual camera 300 of the user X based on the position and orientation of the virtual camera 300 of the user X (step) S31). Thereafter, the control unit 121 specifies the position of the avatar object (friend avatar object FC) of the user Y (step S32). Here, while the HMD system 1B transmits the position information of the ally avatar object FC to the game server 2 at a predetermined time interval, the game server 2 transmits the position information of the ally avatar object FC to the HMD system 1B at a predetermined time interval. You may send it with

ステップS33において、制御部121は、ユーザXの仮想カメラ300(音源オブジェクトMC)と味方アバターオブジェクトFCとの間の距離Dを特定する。次に、制御部121は、味方アバターオブジェクトFCがユーザXの仮想カメラ300の視野CV内に位置しているかどうかを判定する。制御部121は、味方アバターオブジェクトFCが仮想カメラ300の視野CV内に位置していると判定した場合(ステップS34でYES)、減衰係数を減衰係数α1に設定した上で、仮想カメラ300と味方アバターオブジェクトFCとの間の距離Dと減衰係数α1に基づいて、音声データを加工する(ステップS35)。一方、制御部121は、味方アバターオブジェクトFCが仮想カメラ300の視野CV外に位置していると判定した場合(ステップS34でNO)、減衰係数を減衰係数α2に設定した上で、仮想カメラ300と味方アバターオブジェクトFCとの間の距離Dと減衰係数α2に基づいて、音声データを加工する(ステップS36)。   In step S33, the control unit 121 specifies the distance D between the virtual camera 300 (sound source object MC) of the user X and the teammate avatar object FC. Next, the control unit 121 determines whether or not the teammate avatar object FC is located within the field of view CV of the virtual camera 300 of the user X. When it is determined that the teammate avatar object FC is located in the field of view CV of the virtual camera 300 (YES in step S34), the control unit 121 sets the attenuation coefficient to the attenuation coefficient α1, and then the virtual camera 300 and the friend The audio data is processed based on the distance D between the avatar object FC and the attenuation coefficient α1 (step S35). On the other hand, when it is determined that the teammate avatar object FC is located outside the field of view CV of the virtual camera 300 (NO in step S34), the control unit 121 sets the attenuation coefficient to the attenuation coefficient α2 and then sets the virtual camera 300. The voice data is processed on the basis of the distance D and the attenuation coefficient α2 between the user and the teammate avatar object FC (step S36).

その後、制御部121は、加工された音声データを通信ネットワーク3を介してゲームサーバ2に送信する(ステップS37)。ゲームサーバ2は、HMDシステム1Aから加工された音声データを受信した後に、当該加工された音声データをHMDシステム1Bに送信する(ステップS38)。次に、HMDシステム1Bの制御部121は、ゲームサーバ2から加工された音声データを受信した上で、当該加工された音声データに対応する音声をHMDシステム1Bのヘッドフォン116に出力させる(ステップS39)。   Thereafter, the control unit 121 transmits the processed audio data to the game server 2 via the communication network 3 (step S37). After receiving the processed voice data from the HMD system 1A, the game server 2 transmits the processed voice data to the HMD system 1B (step S38). Next, the control unit 121 of the HMD system 1B receives the sound data processed from the game server 2, and then outputs the sound corresponding to the processed sound data to the headphones 116 of the HMD system 1B (step S39). ).

(第1実施形態の第3変形例)
次に、図13及び図14を参照することで第1実施形態の第3変形例に係る情報処理方法について説明する。図13は、仮想カメラ300と音源オブジェクトMCが一体的に構成された場合における、注視領域R1内(第1領域の一例)に位置する味方アバターオブジェクトFCと注視領域R1以外の仮想カメラ300の視野CV内(第2領域の一例)に位置する敵アバターオブジェクトECを示す図である。図14は、第1実施形態の第3変形例に係る情報処理方法を説明するためのフローチャートである。
(Third Modification of First Embodiment)
Next, an information processing method according to a third modification of the first embodiment will be described with reference to FIGS. 13 and 14. FIG. 13 shows the field of view of the virtual camera 300 other than the ally avatar object FC and the gaze area R1 located in the gaze area R1 (an example of the first area) when the virtual camera 300 and the sound source object MC are integrally configured. It is a figure showing enemy avatar object EC located in CV (an example of the 2nd field). FIG. 14 is a flowchart for explaining an information processing method according to the third modification of the first embodiment.

第1実施形態に係る情報処理方法では、味方アバターオブジェクトFCが仮想カメラ300の視野CV内に位置している場合に、減衰係数が減衰係数α1に設定される。一方、味方アバターオブジェクトFCが仮想カメラ300の視野CV外に位置している場合に、減衰係数が減衰係数α2に設定される。   In the information processing method according to the first embodiment, when the teammate avatar object FC is located in the visual field CV of the virtual camera 300, the attenuation coefficient is set to the attenuation coefficient α1. On the other hand, when the teammate avatar object FC is located outside the field of view CV of the virtual camera 300, the attenuation coefficient is set to the attenuation coefficient α2.

その一方、第3変形例に係る情報処理方法では、図13に示すように、味方アバターオブジェクトFCがユーザXの視線方向Sによって規定される注視領域R1(第1領域の一例)に位置している場合に、減衰係数が減衰係数α3(第1減衰係数の一例)に設定される。一方、味方アバターオブジェクトFCが注視領域R1以外の仮想カメラ300の視野CV内(第2領域の一例)に位置している場合に、減衰係数が減衰係数α1(第2減衰係数の一例)に設定される。また、味方アバターオブジェクトFCが仮想カメラ300の視野CV外に位置している場合に、減衰係数が減衰係数α2に設定されてもよい。ここで、減衰係数α1と、減衰係数α2と、減衰係数α3はそれぞれ異なっており、例えば、α3<α1<α2である。このように、第3変形例に係る情報処理方法は、仮想カメラ300の視野CV内において異なる2つの減衰係数α3,α1が設定されている点で第1実施形態に係る情報処理方法と相違する。   On the other hand, in the information processing method according to the third modification, as shown in FIG. 13, the teammate avatar object FC is located in the gaze area R1 (an example of the first area) defined by the line-of-sight direction S of the user X. The attenuation coefficient is set to the attenuation coefficient α3 (an example of the first attenuation coefficient). On the other hand, when the teammate avatar object FC is located in the field of view CV of the virtual camera 300 other than the gaze area R1 (an example of the second area), the attenuation coefficient is set to the attenuation coefficient α1 (an example of the second attenuation coefficient). Is done. Further, when the teammate avatar object FC is located outside the field of view CV of the virtual camera 300, the attenuation coefficient may be set to the attenuation coefficient α2. Here, the attenuation coefficient α1, the attenuation coefficient α2, and the attenuation coefficient α3 are different from each other, for example, α3 <α1 <α2. As described above, the information processing method according to the third modification is different from the information processing method according to the first embodiment in that two different attenuation coefficients α3 and α1 are set in the visual field CV of the virtual camera 300. .

また、HMDシステム1Aの制御部121は、HMDシステム1Aの注視センサ140から送信されたユーザXの視線方向Sを示すデータに基づいて、ユーザXの視線方向Sを特定する。注視領域R1は、xy平面において視線方向Sを中心とした所定の極角の角度範囲として設定される第1領域と、xz平面において視線方向Sを中心とした所定の方位角の角度範囲として設定される第2領域とを有する。尚、所定の極角と所定の方位角は、ゲームプログラムの仕様に応じて適宜設定されてもよい。   Further, the control unit 121 of the HMD system 1A specifies the line-of-sight direction S of the user X based on the data indicating the line-of-sight direction S of the user X transmitted from the gaze sensor 140 of the HMD system 1A. The gaze region R1 is set as an angle range of a predetermined polar angle centered on the line-of-sight direction S on the xy plane and an angle range of a predetermined azimuth angle centered on the line-of-sight direction S on the xz plane. Second region. The predetermined polar angle and the predetermined azimuth angle may be set as appropriate according to the specifications of the game program.

次に、第3変形例に係る情報処理方法について図14を参照して以下説明する。尚、以下では、既に説明した第1実施形態に係る情報処理方法と第3変形例に係る情報処理方法との間の相違点についてのみ詳細に説明する。   Next, an information processing method according to a third modification will be described below with reference to FIG. In the following, only the difference between the information processing method according to the first embodiment described above and the information processing method according to the third modification will be described in detail.

ステップS40の処理の後、HMDシステム1Aは、仮想カメラ300の位置と向きに関する情報と、視線方向Sに関する情報と、音声データとを通信ネットワーク3を介してゲームサーバ2に送信する(ステップS41)。ゲームサーバ2は、HMDシステム1AからユーザXの仮想カメラ300の位置と向きに関する情報と、視線方向Sに関する情報と、音声データとを受信した後に、当該情報と音声データをHMDシステム1Bに送信する(ステップS42)。その後、HMDシステム1Bの制御部121は、通信ネットワーク3と通信インターフェース125を介して、ユーザXの仮想カメラ300の位置と向きに関する情報と、視線方向Sに関する情報と、音声データとを受信する(ステップS43)。   After the process of step S40, the HMD system 1A transmits information regarding the position and orientation of the virtual camera 300, information regarding the line-of-sight direction S, and audio data to the game server 2 via the communication network 3 (step S41). . The game server 2 receives the information regarding the position and orientation of the virtual camera 300 of the user X, the information regarding the line-of-sight direction S, and the audio data from the HMD system 1A, and then transmits the information and the audio data to the HMD system 1B. (Step S42). Thereafter, the control unit 121 of the HMD system 1B receives information regarding the position and orientation of the virtual camera 300 of the user X, information regarding the line-of-sight direction S, and audio data via the communication network 3 and the communication interface 125 ( Step S43).

次に、HMDシステム1Bの制御部121(以下、単に制御部121という。)は、ステップS44からS46の処理を実行した後に、ユーザXの視線方向Sに関する情報に基づいて、注視領域R1を特定する(ステップS47)。次に、制御部121は、味方アバターオブジェクトFCが注視領域R1内に位置しているかどうかを判定する(ステップS48)。制御部121は、味方アバターオブジェクトFCが注視領域R1内に位置していると判定した場合(ステップS48でYES)、減衰係数を減衰係数α3に設定した上で、ユーザXの仮想カメラ300と味方アバターオブジェクトFCとの間の距離Dと減衰係数α3とに基づいて、音声データを加工する(ステップS49)。   Next, the control unit 121 (hereinafter simply referred to as the control unit 121) of the HMD system 1B specifies the gaze region R1 based on the information regarding the line-of-sight direction S of the user X after executing the processing of steps S44 to S46. (Step S47). Next, the control unit 121 determines whether or not the teammate avatar object FC is located in the gaze region R1 (step S48). When it is determined that the teammate avatar object FC is located in the gaze region R1 (YES in step S48), the control unit 121 sets the attenuation coefficient to the attenuation coefficient α3, and then the virtual camera 300 of the user X and the friend The audio data is processed based on the distance D between the avatar object FC and the attenuation coefficient α3 (step S49).

一方、制御部121は、味方アバターオブジェクトFCが注視領域R1以外に位置していると判定した場合(ステップS48でNO)、味方アバターオブジェクトFCが視野CV内に位置しているかどうかを判定する(ステップS50)。制御部121は、味方アバターオブジェクトFCが視野CV内に位置していると判定した場合(ステップS50でYES)、減衰係数を減衰係数α1に設定した上で、ユーザXの仮想カメラ300と味方アバターオブジェクトFCとの間の距離Dと減衰係数α1とに基づいて、音声データを加工する(ステップS51)。一方、制御部121は、味方アバターオブジェクトFCが視野CV外に位置していると判定した場合(ステップS50でNO)、減衰係数を減衰係数α2に設定した上で、ユーザXの仮想カメラ300と味方アバターオブジェクトFCとの間の距離Dと減衰係数α2とに基づいて、音声データを加工する(ステップS52)。   On the other hand, when it is determined that the teammate avatar object FC is located outside the gaze area R1 (NO in step S48), the control unit 121 determines whether the teammate avatar object FC is located within the field of view CV ( Step S50). When the control unit 121 determines that the teammate avatar object FC is located within the field of view CV (YES in step S50), the controller 121 sets the attenuation coefficient to the attenuation coefficient α1, and then the virtual camera 300 of the user X and the teammate avatar. The audio data is processed based on the distance D between the object FC and the attenuation coefficient α1 (step S51). On the other hand, when it is determined that the teammate avatar object FC is located outside the field of view CV (NO in step S50), the control unit 121 sets the attenuation coefficient to the attenuation coefficient α2, and then the virtual camera 300 of the user X The audio data is processed based on the distance D between the ally avatar object FC and the attenuation coefficient α2 (step S52).

次に、ステップS53において、制御部121は、加工された音声データに対応する音声をHMDシステム1Bのヘッドフォン116に出力させる。   Next, in step S53, the control unit 121 causes the audio corresponding to the processed audio data to be output to the headphones 116 of the HMD system 1B.

第3変形例によれば、味方アバターオブジェクトFCが注視領域R1内に位置していると判定された場合に、減衰係数αが減衰係数α3に設定され、その後、音声データは、距離Dと減衰係数α3とに基づいて加工される。一方、味方アバターオブジェクトFCが注視領域R1以外の仮想カメラ300の視野CV内に位置していると判定された場合に、減衰係数αが減衰係数α1に設定され、その後、音声データは、距離Dと減衰係数α1とに基づいて加工される。   According to the third modification, when it is determined that the teammate avatar object FC is located in the gaze region R1, the attenuation coefficient α is set to the attenuation coefficient α3, and then the audio data is the distance D and the attenuation. Processing is performed based on the coefficient α3. On the other hand, when it is determined that the teammate avatar object FC is located in the field of view CV of the virtual camera 300 other than the gaze region R1, the attenuation coefficient α is set to the attenuation coefficient α1, and then the audio data is the distance D And the damping coefficient α1.

このように、仮想空間200上における味方アバターオブジェクトFCの存在位置に応じて、ヘッドフォン116から出力される音声の音量(音圧レベル)が異なる。本変形例では、α3<α1であるため、図13に示すように、味方アバターオブジェクトFCが注視領域R1内に存在しつつ、敵アバターオブジェクトECが注視領域R1以外の視野CV内に存在する場合、味方アバターオブジェクトFCを操作するユーザYに装着されたヘッドフォン116から出力される音声の音量は、敵アバターオブジェクトECを操作するユーザZに装着されたヘッドフォン116から出力される音声の音量よりも大きい。このため、ユーザXは、敵アバターオブジェクトECを操作するユーザZに気付かれずに味方アバターオブジェクトFCを操作するユーザYに音声により指示を出すことが可能となる。従って、仮想空間200のエンターテイメント性を向上させることができる。   As described above, the volume (sound pressure level) of the sound output from the headphones 116 differs depending on the position of the teammate avatar object FC on the virtual space 200. In this modified example, α3 <α1, and therefore, as shown in FIG. 13, the teammate avatar object FC exists in the gaze area R1, and the enemy avatar object EC exists in the field of view CV other than the gaze area R1. The sound volume output from the headphones 116 attached to the user Y who operates the teammate avatar object FC is larger than the sound volume output from the headphones 116 attached to the user Z who operates the enemy avatar object EC. . Therefore, the user X can give a voice instruction to the user Y who operates the teammate avatar object FC without being noticed by the user Z who operates the enemy avatar object EC. Therefore, the entertainment property of the virtual space 200 can be improved.

(第1実施形態の第4変形例)
次に、図15及び図16を参照することで第1実施形態の第4変形例に係る情報処理方法について説明する。図15は、仮想カメラ300と音源オブジェクトMCが一体的に構成された場合における、視軸領域R2内(第1領域の一例)に位置する味方アバターオブジェクトFCと視軸領域R2以外の仮想カメラ300の視野CV内(第2領域の一例)に位置する敵アバターオブジェクトECを示す図である。図16は、第1実施形態の第4変形例に係る情報処理方法を説明するためのフローチャートである。
(Fourth modification of the first embodiment)
Next, an information processing method according to a fourth modification of the first embodiment will be described with reference to FIGS. 15 and 16. FIG. 15 illustrates a virtual camera 300 other than the teammate avatar object FC and the visual axis region R2 positioned in the visual axis region R2 (an example of the first region) when the virtual camera 300 and the sound source object MC are integrally configured. It is a figure which shows enemy avatar object EC located in the visual field CV (an example of 2nd area | region). FIG. 16 is a flowchart for explaining an information processing method according to a fourth modification of the first embodiment.

第1実施形態に係る情報処理方法では、味方アバターオブジェクトFCが仮想カメラ300の視野CV内に位置している場合に、減衰係数が減衰係数α1に設定される。一方、味方アバターオブジェクトFCが仮想カメラ300の視野CV外に位置している場合に、減衰係数が減衰係数α2に設定される。   In the information processing method according to the first embodiment, when the teammate avatar object FC is located in the visual field CV of the virtual camera 300, the attenuation coefficient is set to the attenuation coefficient α1. On the other hand, when the teammate avatar object FC is located outside the field of view CV of the virtual camera 300, the attenuation coefficient is set to the attenuation coefficient α2.

その一方、第4変形例に係る情報処理方法では、図15に示すように、味方アバターオブジェクトFCが仮想カメラ300の視軸Lによって規定される視軸領域R2(第1領域の一例)に位置している場合に、減衰係数が減衰係数α3(第1減衰係数の一例)に設定される。一方、味方アバターオブジェクトFCが視軸領域R2以外の仮想カメラ300の視野CV内(第2領域の一例)に位置している場合に、減衰係数が減衰係数α1(第2減衰係数の一例)に設定される。また、味方アバターオブジェクトFCが仮想カメラ300の視野CV外に位置している場合に、減衰係数が減衰係数α2に設定されてもよい。ここで、減衰係数α1と、減衰係数α2と、減衰係数α3はそれぞれ異なっており、例えば、α3<α1<α2である。このように、第4変形例に係る情報処理方法は、第3変形例に係る情報処理方法と同様に、仮想カメラ300の視野CV内において異なる2つの減衰係数α3,α1が設定されている点で第1実施形態に係る情報処理方法と相違する。   On the other hand, in the information processing method according to the fourth modified example, the teammate avatar object FC is positioned in the visual axis region R2 (an example of the first region) defined by the visual axis L of the virtual camera 300, as shown in FIG. In this case, the attenuation coefficient is set to the attenuation coefficient α3 (an example of the first attenuation coefficient). On the other hand, when the teammate avatar object FC is located within the field of view CV of the virtual camera 300 other than the visual axis region R2 (an example of the second region), the attenuation coefficient becomes the attenuation coefficient α1 (an example of the second attenuation coefficient). Is set. Further, when the teammate avatar object FC is located outside the field of view CV of the virtual camera 300, the attenuation coefficient may be set to the attenuation coefficient α2. Here, the attenuation coefficient α1, the attenuation coefficient α2, and the attenuation coefficient α3 are different from each other, for example, α3 <α1 <α2. As described above, in the information processing method according to the fourth modification, two different attenuation coefficients α3 and α1 are set in the field of view CV of the virtual camera 300, as in the information processing method according to the third modification. This is different from the information processing method according to the first embodiment.

また、HMDシステム1Aの制御部121は、仮想カメラ300の位置と向きに基づいて、仮想カメラ300の視軸Lを特定する。視軸領域R2は、xy平面において視線方向Sを中心とした所定の極角の角度範囲として設定される第1領域と、xz平面において視線方向Sを中心とした所定の方位角の角度範囲として設定される第2領域とを有する。尚、所定の極角と所定の方位角は、ゲームプログラムの仕様に応じて適宜設定されてもよい。当該所定の極角は、仮想カメラ300の視野CVを特定するための極角αよりも小さいと共に、当該所定の方位角は、仮想カメラ300の視野CVを特定するための方位角βよりも小さい。   Further, the control unit 121 of the HMD system 1A specifies the visual axis L of the virtual camera 300 based on the position and orientation of the virtual camera 300. The visual axis region R2 is a first region set as a predetermined polar angle range centered on the visual line direction S on the xy plane, and an angular range of a predetermined azimuth angle centered on the visual line direction S on the xz plane. And a second region to be set. The predetermined polar angle and the predetermined azimuth angle may be set as appropriate according to the specifications of the game program. The predetermined polar angle is smaller than the polar angle α for specifying the visual field CV of the virtual camera 300, and the predetermined azimuth angle is smaller than the azimuth angle β for specifying the visual field CV of the virtual camera 300. .

次に、第4変形例に係る情報処理方法について図16を参照して以下説明する。尚、以下では、既に説明した第1実施形態に係る情報処理方法と第4変形例に係る情報処理方法との間の相違点についてのみ詳細に説明する。   Next, an information processing method according to a fourth modification will be described below with reference to FIG. In the following, only the difference between the information processing method according to the first embodiment already described and the information processing method according to the fourth modification will be described in detail.

ステップS60からS66の処理は、図9に示すステップS10からS16の処理と対応しているので、これらの処理についての説明は割愛する。ステップS67において、制御部121は、仮想カメラ300の視軸Lに基づいて、視軸領域R2を特定する(ステップS67)。次に、制御部121は、味方アバターオブジェクトFCが視軸領域R2内に位置しているかどうかを判定する(ステップS68)。制御部121は、味方アバターオブジェクトFCが視軸領域R2内に位置していると判定した場合(ステップS68でYES)、減衰係数を減衰係数α3に設定した上で、ユーザXの仮想カメラ300と味方アバターオブジェクトFCとの間の距離Dと減衰係数α3とに基づいて、音声データを加工する(ステップS69)。   Since the process of steps S60 to S66 corresponds to the process of steps S10 to S16 shown in FIG. 9, the description of these processes is omitted. In step S67, the control unit 121 specifies the visual axis region R2 based on the visual axis L of the virtual camera 300 (step S67). Next, the control unit 121 determines whether or not the teammate avatar object FC is located in the visual axis region R2 (step S68). When it is determined that the teammate avatar object FC is located in the visual axis region R2 (YES in step S68), the control unit 121 sets the attenuation coefficient to the attenuation coefficient α3, and the virtual camera 300 of the user X The voice data is processed based on the distance D between the avatar object FC and the attenuation coefficient α3 (step S69).

一方、制御部121は、味方アバターオブジェクトFCが視軸領域R2以外に位置していると判定した場合(ステップS68でNO)、味方アバターオブジェクトFCが視野CV内に位置しているかどうかを判定する(ステップS70)。制御部121は、味方アバターオブジェクトFCが視野CV内に位置していると判定した場合(ステップS70でYES)、減衰係数を減衰係数α1に設定した上で、ユーザXの仮想カメラ300と味方アバターオブジェクトFCとの間の距離Dと減衰係数α1とに基づいて、音声データを加工する(ステップS71)。一方、制御部121は、味方アバターオブジェクトFCが視野CV外に位置していると判定した場合(ステップS70でNO)、減衰係数を減衰係数α2に設定した上で、ユーザXの仮想カメラ300と味方アバターオブジェクトFCとの間の距離Dと減衰係数α2とに基づいて、音声データを加工する(ステップS72)。   On the other hand, when it is determined that the teammate avatar object FC is located outside the visual axis region R2 (NO in step S68), the control unit 121 determines whether the teammate avatar object FC is located within the field of view CV. (Step S70). When the control unit 121 determines that the teammate avatar object FC is located within the field of view CV (YES in step S70), the control unit 121 sets the attenuation coefficient to the attenuation coefficient α1, and then the virtual camera 300 of the user X and the teammate avatar. The audio data is processed based on the distance D between the object FC and the attenuation coefficient α1 (step S71). On the other hand, if the control unit 121 determines that the teammate avatar object FC is located outside the field of view CV (NO in step S70), the control unit 121 sets the attenuation coefficient to the attenuation coefficient α2, and the virtual camera 300 of the user X The voice data is processed based on the distance D between the ally avatar object FC and the attenuation coefficient α2 (step S72).

次に、ステップS73において、制御部121は、加工された音声データに対応する音声をHMDシステム1Bのヘッドフォン116に出力させる。   Next, in step S73, the control unit 121 causes the audio corresponding to the processed audio data to be output to the headphones 116 of the HMD system 1B.

第4変形例によれば、味方アバターオブジェクトFCが視軸領域R2内に位置していると判定された場合に、減衰係数αが減衰係数α3に設定され、その後、音声データは、距離Dと減衰係数α3とに基づいて加工される。一方、味方アバターオブジェクトFCが視軸領域R2以外の仮想カメラ300の視野CV内に位置していると判定された場合に、減衰係数αが減衰係数α1に設定され、その後、音声データは、距離Dと減衰係数α2とに基づいて加工される。   According to the fourth modification, when it is determined that the teammate avatar object FC is located in the visual axis region R2, the attenuation coefficient α is set to the attenuation coefficient α3, and then the audio data is the distance D and Processing is performed based on the attenuation coefficient α3. On the other hand, when it is determined that the teammate avatar object FC is located in the visual field CV of the virtual camera 300 other than the visual axis region R2, the attenuation coefficient α is set to the attenuation coefficient α1, and then the audio data is the distance Processing is performed based on D and the attenuation coefficient α2.

このように、仮想空間200上における味方アバターオブジェクトFCの存在位置に応じて、ヘッドフォン116から出力される音声の音量(音圧レベル)が異なる。本変形例では、α3<α1であるため、図15に示すように、味方アバターオブジェクトFCが視軸領域R2内に存在しつつ、敵アバターオブジェクトECが視軸領域R2以外の視野CV内に存在する場合、味方アバターオブジェクトFCを操作するユーザYに装着されたヘッドフォン116から出力される音声の音量は、敵アバターオブジェクトECを操作するユーザZに装着されたヘッドフォン116から出力される音声の音量よりも大きい。このため、ユーザXは、敵アバターオブジェクトECを操作するユーザZに気付かれずに味方アバターオブジェクトFCを操作するユーザYに音声により指示を出すことが可能となる。従って、仮想空間200のエンターテイメント性を向上させることができる。   As described above, the volume (sound pressure level) of the sound output from the headphones 116 differs depending on the position of the teammate avatar object FC on the virtual space 200. In this modified example, α3 <α1, so that the teammate avatar object FC exists in the visual axis region R2 and the enemy avatar object EC exists in the field of view CV other than the visual axis region R2, as shown in FIG. In this case, the sound volume output from the headphones 116 attached to the user Y who operates the friend avatar object FC is higher than the sound volume output from the headphones 116 attached to the user Z who operates the enemy avatar object EC. Is also big. Therefore, the user X can give a voice instruction to the user Y who operates the teammate avatar object FC without being noticed by the user Z who operates the enemy avatar object EC. Therefore, the entertainment property of the virtual space 200 can be improved.

(第2実施形態)
次に、図17及び図18を参照することで第2実施形態に係る情報処理方法について説明する。図17は、自己アバターオブジェクト400と音源オブジェクトMCが一体的に構成された場合における、減衰オブジェクトSAの内側(仮想カメラ300の視野CV内)に位置する味方アバターオブジェクトFC及び自己アバターオブジェクト400と、減衰オブジェクトSAの外側(仮想カメラ300の視野CV外)に位置する敵アバターオブジェクトECを示す図である。図18は、第2実施形態に係る情報処理方法を説明するためのフローチャートである。
(Second Embodiment)
Next, an information processing method according to the second embodiment will be described with reference to FIGS. 17 and 18. FIG. 17 shows a friend avatar object FC and a self avatar object 400 that are located inside the attenuation object SA (within the field of view CV of the virtual camera 300) when the self avatar object 400 and the sound source object MC are integrally configured. It is a figure which shows enemy avatar object EC located in the outer side (outside the visual field CV of virtual camera 300) of attenuation object SA. FIG. 18 is a flowchart for explaining an information processing method according to the second embodiment.

最初に、図17に示すように、仮想空間200Bは、仮想カメラ300と、音源オブジェクトMCと、自己アバターオブジェクト400と、味方アバターオブジェクトFCと、敵アバターオブジェクトECと、減衰オブジェクトSAとを含む。制御部121は、これらのオブジェクトを含む仮想空間200を規定する仮想空間データを生成している。第2実施形態に係る情報処理方法は、減衰オブジェクトSAが配置されている点で第1実施形態に係る情報処理方法とは相違する。   First, as shown in FIG. 17, the virtual space 200B includes a virtual camera 300, a sound source object MC, a self-avatar object 400, a friend avatar object FC, an enemy avatar object EC, and an attenuation object SA. The control unit 121 generates virtual space data that defines the virtual space 200 including these objects. The information processing method according to the second embodiment is different from the information processing method according to the first embodiment in that the attenuation object SA is arranged.

減衰オブジェクトSAは、仮想空間200B内を伝搬する音声の減衰量を規定するオブジェクトであって、仮想カメラ300の視野CV内(第1領域の一例)と視野CV外(第2領域の一例)との境界に配置されている。また、減衰オブジェクトSAは、透明であって、HMD110に表示される視野画像V(図8参照)内に表示されなくてもよい。この場合、仮想空間200Bへのユーザの没入感(仮想空間200Bに対する臨場感)を損なわずに音源オブジェクトMCから出力された音声に指向性を持たせることができる。   The attenuation object SA is an object that defines an attenuation amount of sound propagating in the virtual space 200B, and is within the field of view CV (an example of the first area) and outside the field of view CV (an example of the second area) of the virtual camera 300. It is arranged at the boundary. Further, the attenuation object SA is transparent, and may not be displayed in the visual field image V (see FIG. 8) displayed on the HMD 110. In this case, the sound output from the sound source object MC can be given directivity without impairing the user's immersion in the virtual space 200B (a sense of presence in the virtual space 200B).

また、図17に示す仮想空間200Bでは、音源オブジェクトMCが自己アバターオブジェクト400と一体的に構成されており、これらのオブジェクトは、仮想カメラ300の視野CV内に配置されている。   In the virtual space 200B shown in FIG. 17, the sound source object MC is integrally formed with the self-avatar object 400, and these objects are arranged in the field of view CV of the virtual camera 300.

次に、第2実施形態に係る情報処理方法について図18を参照して説明する。図18に示すステップS80からS83の処理は、図9に示すS10からS13の処理にそれぞれ相当するので、その説明は割愛する。ステップS84において、HMDシステム1Bの制御部121(以下、単に制御部121という。)は、ユーザYのアバターオブジェクト(味方アバターオブジェクトFC)の位置とユーザXのアバターオブジェクト(自己アバターオブジェクト400)の位置をそれぞれ特定する。   Next, an information processing method according to the second embodiment will be described with reference to FIG. The processes in steps S80 to S83 shown in FIG. 18 correspond to the processes in S10 to S13 shown in FIG. In step S84, the control unit 121 (hereinafter simply referred to as the control unit 121) of the HMD system 1B determines the position of the user Y avatar object (ally avatar object FC) and the position of the user X avatar object (self-avatar object 400). Identify each.

次に、ステップS85において、制御部121は、自己アバターオブジェクト400(音源オブジェクトMC)と味方アバターオブジェクトFCとの間の距離Da(相対位置関係の一例)を特定する。距離Daは、自己アバターオブジェクト400と味方アバターオブジェクトFCとの間の最短距離であってもよい。自己アバターオブジェクト400と味方アバターオブジェクトFCとの間の距離Daは、音源オブジェクトMCと味方アバターオブジェクトFCとの間の距離に相当する。次に、制御部121は、ステップS86とS87の処理を実行する。ここで、ステップS86とS87の処理は、図9に示すステップS16とS17の処理にそれぞれ相当する。   Next, in step S85, the control unit 121 specifies a distance Da (an example of a relative positional relationship) between the self-avatar object 400 (sound source object MC) and the teammate avatar object FC. The distance Da may be the shortest distance between the self-avatar object 400 and the teammate avatar object FC. The distance Da between the self-avatar object 400 and the teammate avatar object FC corresponds to the distance between the sound source object MC and the teammate avatar object FC. Next, the control part 121 performs the process of step S86 and S87. Here, the processes of steps S86 and S87 correspond to the processes of steps S16 and S17 shown in FIG. 9, respectively.

その後、制御部121は、味方アバターオブジェクトFCが仮想カメラ300の視野CV外に位置している判定した場合(ステップS87でNO)、自己アバターオブジェクト400と味方アバターオブジェクトFCとの間の距離Daと減衰オブジェクトSAにより規定された減衰量Tに基づいて音声データを加工する。この場合、図17に示すように、音源オブジェクトMCが減衰オブジェクトSAの内側に位置しつつ、味方アバターオブジェクトFC(破線表示)が減衰オブジェクトSAの外側に位置している。このため、音源オブジェクトMCから味方アバターオブジェクトFCに向かう音声は減衰オブジェクトSAを通過するため、当該音声の音量(音圧レベル)は、距離Daと減衰オブジェクトSAにより規定された減衰量Tにより決定される。   Thereafter, when the control unit 121 determines that the teammate avatar object FC is located outside the field of view CV of the virtual camera 300 (NO in step S87), the distance Da between the self-avatar object 400 and the teammate avatar object FC is determined. The audio data is processed based on the attenuation amount T defined by the attenuation object SA. In this case, as shown in FIG. 17, the sound source object MC is located inside the attenuation object SA, and the teammate avatar object FC (shown by a broken line) is located outside the attenuation object SA. For this reason, since the sound traveling from the sound source object MC to the ally avatar object FC passes through the attenuation object SA, the sound volume (sound pressure level) of the sound is determined by the distance Da and the attenuation amount T defined by the attenuation object SA. The

一方、制御部121は、味方アバターオブジェクトFCが仮想カメラ300の視野CV内に位置している判定した場合(ステップS87でYES)、自己アバターオブジェクト400と味方アバターオブジェクトFCとの間の距離Daに基づいて音声データを加工する。この場合、図17に示すように、音源オブジェクトMCと味方アバターオブジェクトFC(実線表示)は、減衰オブジェクトSAの内側に位置している。このため、音源オブジェクトMCから味方アバターオブジェクトFCに向かう音声は減衰オブジェクトSAを通過しないため、当該音声の音量(音圧レベル)は、距離Daにより決定される。   On the other hand, when the control unit 121 determines that the teammate avatar object FC is located within the field of view CV of the virtual camera 300 (YES in step S87), the control unit 121 sets the distance Da between the self-avatar object 400 and the teammate avatar object FC. Based on this, the voice data is processed. In this case, as shown in FIG. 17, the sound source object MC and the teammate avatar object FC (displayed with a solid line) are located inside the attenuation object SA. For this reason, since the sound heading from the sound source object MC to the ally avatar object FC does not pass through the attenuation object SA, the sound volume (sound pressure level) of the sound is determined by the distance Da.

次に、ステップS90において、制御部121は、加工された音声データに対応する音声をHMDシステム1Bのヘッドフォン116に出力させる。   Next, in step S90, the control unit 121 causes the audio corresponding to the processed audio data to be output to the headphones 116 of the HMD system 1B.

本実施形態によれば、音源オブジェクトMCが仮想カメラ300の視野CV内(減衰オブジェクトSAの内側)に配置された場合、仮想カメラ300の視野CV外では、音源オブジェクトMCから出力される音声は、視野CV内と比較して減衰オブジェクトSAにより規定される減衰量Tだけ更に減衰する。このように、音源オブジェクトMCから出力される音声に指向性を持たせることができる。   According to the present embodiment, when the sound source object MC is arranged in the field of view CV of the virtual camera 300 (inside the attenuation object SA), the sound output from the sound source object MC is outside the field of view CV of the virtual camera 300. Attenuation amount T is further attenuated by the attenuation amount T defined by the attenuation object SA as compared to the view CV. In this way, the sound output from the sound source object MC can be given directivity.

さらに、味方アバターオブジェクトFCが、音源オブジェクトMCが位置する視野CV内(第1領域)に位置していると判定された場合、音声データは、距離Daに基づいて加工される。一方、味方アバターオブジェクトFCが視野CV外(第2領域)に位置していると判定された場合、音声データは、距離Daと減衰オブジェクトSAによって規定された減衰量Tに基づいて加工される。   Furthermore, when it is determined that the teammate avatar object FC is located within the visual field CV (first region) where the sound source object MC is located, the audio data is processed based on the distance Da. On the other hand, when it is determined that the teammate avatar object FC is located outside the field of view CV (second region), the audio data is processed based on the attenuation amount T defined by the distance Da and the attenuation object SA.

このように、仮想空間200B上における味方アバターオブジェクトFCの存在位置に応じて、ヘッドフォン116から出力される音声の音量(音圧レベル)が異なる。味方アバターオブジェクトFCが視野CV内に存在する場合におけるヘッドフォン116から出力される音声の音量は、味方アバターオブジェクトFCが視野CV外に存在する場合におけるヘッドフォン116から出力される音声の音量よりも大きくなる。このため、味方アバターオブジェクトFCが視野CV内に存在しつつ、敵アバターオブジェクトECが視野CV外に存在する場合、自己アバターオブジェクト400を操作するユーザXは、敵アバターオブジェクトECを操作するユーザZに気付かれずに味方アバターオブジェクトFCを操作するユーザYに音声により指示を出すことが可能となる。従って、仮想空間200Bのエンターテイメント性を向上させることができる。   As described above, the volume (sound pressure level) of the sound output from the headphones 116 varies depending on the position of the teammate avatar object FC on the virtual space 200B. The volume of the sound output from the headphones 116 when the ally avatar object FC exists in the field of view CV is larger than the volume of the sound output from the headphones 116 when the ally avatar object FC exists outside the field of view CV. . Therefore, when the teammate avatar object FC exists in the field of view CV and the enemy avatar object EC exists outside the field of view CV, the user X who operates the self-avatar object 400 becomes the user Z who operates the enemy avatar object EC. It becomes possible to give an instruction by voice to the user Y who operates the teammate avatar object FC without being noticed. Therefore, the entertainment property of the virtual space 200B can be improved.

(第2実施形態の第1変形例)
次に、図19を参照することで第2実施形態の第1変形例に係る情報処理方法について説明する。第2変形例に係る情報処理方法は、音声データがHMDシステム1Aで加工される点で、第1実施形態に係る情報処理方法とは相違する。図19は、第2実施形態の第1変形例に係る情報処理方法を説明するためのフローチャートである。
(First Modification of Second Embodiment)
Next, an information processing method according to a first modification of the second embodiment will be described with reference to FIG. The information processing method according to the second modification is different from the information processing method according to the first embodiment in that audio data is processed by the HMD system 1A. FIG. 19 is a flowchart for explaining an information processing method according to a first modification of the second embodiment.

図19に示すように、ステップS100において、HMDシステム1Aのマイク118は、ユーザXから発せられた音声を収集して、当該収集された音声を示す音声データを生成する。次に、HMDシステム1Aの制御部121(以下、単に制御部121という。)は、ユーザXの仮想カメラ300の位置と向きに基づいて、ユーザXの仮想カメラ300の視野CVを特定する(ステップS101)。その後、制御部121は、ユーザYのアバターオブジェクト(味方アバターオブジェクトFC)の位置とユーザXのアバターオブジェクト(自己アバターオブジェクト400)の位置を特定する(ステップS102)。   As shown in FIG. 19, in step S <b> 100, the microphone 118 of the HMD system 1 </ b> A collects sound emitted from the user X, and generates sound data indicating the collected sound. Next, the control unit 121 (hereinafter simply referred to as the control unit 121) of the HMD system 1A specifies the field of view CV of the virtual camera 300 of the user X based on the position and orientation of the virtual camera 300 of the user X (step) S101). Thereafter, the control unit 121 identifies the position of the user Y avatar object (ally avatar object FC) and the position of the user X avatar object (self-avatar object 400) (step S102).

ステップS103において、制御部121は、自己アバターオブジェクト400と味方アバターオブジェクトFCとの間の距離Daを特定する。次に、制御部121は、味方アバターオブジェクトFCがユーザXの仮想カメラ300の視野CV内に位置しているかどうかを判定する(ステップS104)。制御部121は、味方アバターオブジェクトFCが仮想カメラ300の視野CV外に位置している判定した場合(ステップS104でNO)、自己アバターオブジェクト400と味方アバターオブジェクトFCとの間の距離Daと減衰オブジェクトSAにより規定された減衰量Tに基づいて音声データを加工する。一方、制御部121は、味方アバターオブジェクトFCが仮想カメラ300の視野CV内に位置している判定した場合(ステップS104でYES)、自己アバターオブジェクト400と味方アバターオブジェクトFCとの間の距離Daに基づいて音声データを加工する(ステップS106)。   In step S103, the control unit 121 specifies a distance Da between the self-avatar object 400 and the teammate avatar object FC. Next, the control unit 121 determines whether or not the teammate avatar object FC is located within the field of view CV of the virtual camera 300 of the user X (step S104). When determining that the teammate avatar object FC is located outside the field of view CV of the virtual camera 300 (NO in step S104), the control unit 121 determines that the distance Da between the self-avatar object 400 and the teammate avatar object FC and the attenuation object The audio data is processed based on the attenuation amount T defined by SA. On the other hand, when the control unit 121 determines that the teammate avatar object FC is located within the field of view CV of the virtual camera 300 (YES in step S104), the control unit 121 sets the distance Da between the self-avatar object 400 and the teammate avatar object FC. Based on this, the voice data is processed (step S106).

その後、制御部121は、加工された音声データを通信ネットワーク3を介してゲームサーバ2に送信する(ステップS107)。ゲームサーバ2は、HMDシステム1Aから加工された音声データを受信した後に、当該加工された音声データをHMDシステム1Bに送信する(ステップS108)。次に、HMDシステム1Bの制御部121は、ゲームサーバ2から加工された音声データを受信した上で、当該加工された音声データに対応する音声をHMDシステム1Bのヘッドフォン116に出力させる(ステップS109)。   Thereafter, the control unit 121 transmits the processed audio data to the game server 2 via the communication network 3 (step S107). After receiving the processed audio data from the HMD system 1A, the game server 2 transmits the processed audio data to the HMD system 1B (step S108). Next, the control unit 121 of the HMD system 1B receives the sound data processed from the game server 2, and then outputs the sound corresponding to the processed sound data to the headphones 116 of the HMD system 1B (step S109). ).

(第2実施形態の第2変形例)
次に、図20を参照することで第2実施形態の第2変形例に係る情報処理方法について説明する。図20は、仮想カメラ300と音源オブジェクトMCが一体的に構成された場合における、減衰オブジェクトSBの内側に位置する味方アバターオブジェクトFCと、減衰オブジェクトSBの外側に位置する敵アバターオブジェクトECを示す図である。図20に示すように、仮想空間200Cにおいて、減衰オブジェクトSBは、仮想カメラ300(音源オブジェクトMC)を囲うように配置されている。味方アバターオブジェクトFC(実線表示)が減衰オブジェクトSBの内側領域R3内に配置されている場合、音声データは、仮想カメラ300と味方アバターオブジェクトFCとの間の距離Dに基づいて加工される。一方、味方アバターオブジェクトFC(破線表示)が減衰オブジェクトSBの外側領域に配置されている場合、音声データは、仮想カメラ300と味方アバターオブジェクトFCとの間の距離Dと減衰オブジェクトSBにより規定される減衰量Tに基づいて加工される。
(Second Modification of Second Embodiment)
Next, an information processing method according to a second modification of the second embodiment will be described with reference to FIG. FIG. 20 is a diagram illustrating a teammate avatar object FC positioned inside the attenuation object SB and an enemy avatar object EC positioned outside the attenuation object SB when the virtual camera 300 and the sound source object MC are integrally configured. It is. As shown in FIG. 20, in the virtual space 200C, the attenuation object SB is arranged so as to surround the virtual camera 300 (the sound source object MC). When the teammate avatar object FC (solid line display) is arranged in the inner region R3 of the attenuation object SB, the audio data is processed based on the distance D between the virtual camera 300 and the teammate avatar object FC. On the other hand, when the teammate avatar object FC (indicated by a broken line) is arranged outside the attenuation object SB, the audio data is defined by the distance D between the virtual camera 300 and the teammate avatar object FC and the attenuation object SB. Processing is performed based on the attenuation amount T.

制御部121によって実行される各種処理をソフトウェアによって実現するために、本実施形態に係る表示制御方法をコンピュータ(プロセッサ)に実行させるための表示制御プログラムが記憶部123又はROMに予め組み込まれていてもよい。または、表示制御プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD−ROM,DVD−ROM、Blu−rayディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体が制御装置120に接続されることで、当該記憶媒体に格納されたプログラムが、記憶部123に組み込まれる。そして、記憶部123に組み込まれた表示制御プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部121は本実施形態に係る表示制御方法を実行する。   In order to implement various processes executed by the control unit 121 by software, a display control program for causing a computer (processor) to execute the display control method according to the present embodiment is incorporated in the storage unit 123 or the ROM in advance. Also good. Alternatively, the display control program can be a magnetic disk (HDD, floppy disk), optical disk (CD-ROM, DVD-ROM, Blu-ray disk, etc.), magneto-optical disk (MO, etc.), flash memory (SD card, USB memory, It may be stored in a computer-readable storage medium such as SSD. In this case, the program stored in the storage medium is incorporated into the storage unit 123 by connecting the storage medium to the control device 120. Then, the display control program incorporated in the storage unit 123 is loaded on the RAM, and the control unit 121 executes the display control method according to the present embodiment by executing the loaded program.

また、表示制御プログラムは、通信ネットワーク3上のコンピュータから通信インターフェース125を介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該プログラムが記憶部123に組み込まれる。   The display control program may be downloaded from a computer on the communication network 3 via the communication interface 125. Similarly in this case, the downloaded program is incorporated in the storage unit 123.

以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。   As mentioned above, although embodiment of this indication was described, the technical scope of this invention should not be limitedly interpreted by description of this embodiment. This embodiment is an example, and it is understood by those skilled in the art that various modifications can be made within the scope of the invention described in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the equivalents thereof.

1,1A,1B,1C:HMDシステム
2:ゲームサーバ
3:通信ネットワーク
21:中心位置
100:ゲームシステム
112:表示部
114:センサ
116:ヘッドフォン
118:マイク
120:制御装置
121:制御部
123:記憶部(ストレージ)
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
140:注視センサ
200:仮想空間
300:仮想カメラ
320:外部コントローラ
400:自己アバターオブジェクト
CV:視野
EC:敵アバターオブジェクト
FC:味方アバターオブジェクト
MC:音源オブジェクト
R1:注視領域
R2:視軸領域
R3:内側領域
S:視線方向
SA,SB:減衰オブジェクト
1, 1A, 1B, 1C: HMD system 2: Game server 3: Communication network 21: Central position 100: Game system 112: Display unit 114: Sensor 116: Headphone 118: Microphone 120: Control device 121: Control unit 123: Storage Department (Storage)
123: storage unit 124: I / O interface 125: communication interface 126: bus 130: position sensor 140: gaze sensor 200: virtual space 300: virtual camera 320: external controller 400: self avatar object CV: visual field EC: enemy avatar object FC: ally avatar object MC: sound source object R1: gaze area R2: visual axis area R3: inner area S: line-of-sight direction SA, SB: attenuation object

Claims (8)

第1ヘッドマウントディスプレイと、音声入力部とを有する第1ユーザ端末と、第2ユーザ端末とを備えたシステムにおける情報処理方法であって、
仮想カメラと、前記音声入力部に入力された音声の音源として規定される音源オブジェクトと、前記第2ユーザ端末に関連付けられたアバターオブジェクトとを含む仮想空間を規定する仮想空間データを生成するステップと、
ここで、前記アバターオブジェクトは、前記仮想空間内を伝搬する音声を収集するように機能し、
前記第1ヘッドマウントディスプレイの動きに応じて、前記仮想カメラの視野を決定するステップと、
前記仮想カメラの視野と前記仮想空間データとに基づいて、視野画像データを生成するステップと、
前記視野画像データに基づいて、前記第1ヘッドマウントディスプレイに視野画像を表示させるステップと、
前記音声入力部に入力された音声を示す音声データを取得するステップと、
前記音源オブジェクトと前記アバターオブジェクトとの間の相対位置関係を特定するステップと、
前記特定された相対位置関係と、前記仮想空間内を伝搬する音声の単位距離当たりの減衰量を規定する減衰係数とに基づいて、前記音声データを加工するステップと、を含み、
前記アバターオブジェクトが前記仮想空間の第1領域に位置していると判定された場合、前記減衰係数が第1減衰係数に設定され、その後、前記音声データは、前記相対位置関係と前記第1減衰定数とに基づいて加工され、
前記アバターオブジェクトが前記第1領域とは異なる前記仮想空間の第2領域に位置していると判定された場合、前記減衰係数が前記第1減衰定数とは異なる第2減衰係数に設定され、その後、前記音声データは、前記相対位置関係と前記第2減衰係数とに基づいて加工され、
前記第1領域と前記第2領域のうちの少なくとも一方は、前記仮想カメラの視野に基づいて決定される、情報処理方法。
An information processing method in a system comprising a first user terminal having a first head mounted display, a voice input unit, and a second user terminal ,
Generating virtual space data defining a virtual space including a virtual camera, a sound source object defined as a sound source of sound input to the sound input unit, and an avatar object associated with the second user terminal ; ,
Here, the avatar object functions to collect sound propagating in the virtual space,
Determining a field of view of the virtual camera in response to movement of the first head mounted display;
Generating visual field image data based on the visual field of the virtual camera and the virtual space data;
Displaying a field image on the first head mounted display based on the field image data;
Obtaining voice data indicating voice input to the voice input unit;
Identifying a relative positional relationship between the sound source object and the avatar object ;
Processing the audio data based on the identified relative positional relationship and an attenuation coefficient defining an attenuation amount per unit distance of the audio propagating in the virtual space,
When it is determined that the avatar object is located in the first region of the virtual space, the attenuation coefficient is set to a first attenuation coefficient, and then the audio data is stored in the relative positional relationship and the first attenuation. Processed based on constants,
If it is determined that the avatar object is located in a second area of the virtual space different from the first area, the attenuation coefficient is set to a second attenuation coefficient different from the first attenuation constant; The audio data is processed based on the relative positional relationship and the second attenuation coefficient,
The information processing method, wherein at least one of the first area and the second area is determined based on a field of view of the virtual camera.
前記第1領域は、前記仮想カメラの視野内であり、
前記第2領域は、前記仮想カメラの視野外とである、
請求項1に記載の情報処理方法。
The first region is within the field of view of the virtual camera;
The second region is outside the field of view of the virtual camera;
The information processing method according to claim 1.
前記第1領域は、前記第1ヘッドマウントディスプレイを装着したユーザの視線方向によって規定される注視領域であり、
前記第2領域は、前記注視領域以外の前記仮想カメラの視野内である、
請求項1に記載の情報処理方法。
The first area is a gaze area defined by the line-of-sight direction of the user wearing the first head mounted display,
The second area is within the field of view of the virtual camera other than the gaze area.
The information processing method according to claim 1.
前記第1領域は、前記仮想カメラの視軸によって規定される視軸領域であり、
前記第2領域は、前記視軸領域以外の前記仮想カメラの視野内である、
請求項1に記載の情報処理方法。
The first region is a visual axis region defined by a visual axis of the virtual camera,
The second region is within the field of view of the virtual camera other than the visual axis region.
The information processing method according to claim 1.
第1ヘッドマウントディスプレイと、音声入力部とを有する第1ユーザ端末と、第2ユーザ端末とを備えたシステムにおける情報処理方法であって、
仮想カメラと、前記音声入力部に入力された音声の音源として規定された音源オブジェクトと、前記第2ユーザ端末に関連付けられたアバターオブジェクトと、減衰オブジェクトとを含む仮想空間を規定する仮想空間データを生成するステップと、ここで、前記アバターオブジェクトは、前記仮想空間内を伝搬する音声を収集するように機能し、前記減衰オブジェクトは、前記仮想空間内を伝搬する音声の減衰量を規定し、
前記第1ヘッドマウントディスプレイの動きに応じて、前記仮想カメラの視野を決定するステップと、
前記仮想カメラの視野と前記仮想空間データとに基づいて、視野画像データを生成するステップと、
前記視野画像データに基づいて、前記第1ヘッドマウントディスプレイに視野画像を表示させるステップと、
前記音声入力部に入力された音声を示す音声データを取得するステップと、
前記音源オブジェクトと前記アバターオブジェクトとの間の相対位置関係を特定するステップと、
前記アバターオブジェクトが前記減衰オブジェクトの内側に位置しているかどうかを判定するステップと、
前記音声データを加工するステップと、
を含み、
前記アバターオブジェクトが前記減衰オブジェクトの内側に位置していると判定された場合、前記音声データは、前記相対位置関係に基づいて加工され、
前記アバターオブジェクトが前記減衰オブジェクトの外側に位置していると判定された場合、前記音声データは、前記相対位置関係と前記減衰オブジェクトによって規定された減衰量に基づいて加工され、
前記音源オブジェクトは、前記減衰オブジェクトの内側に配置される、
情報処理方法。
An information processing method in a system comprising a first user terminal having a first head mounted display, a voice input unit, and a second user terminal ,
Virtual space data defining a virtual space including a virtual camera, a sound source object defined as a sound source of sound input to the sound input unit, an avatar object associated with the second user terminal, and an attenuation object Generating, wherein the avatar object functions to collect sound propagating in the virtual space, and the attenuation object defines an attenuation amount of sound propagating in the virtual space;
Determining a field of view of the virtual camera in response to movement of the first head mounted display;
Generating visual field image data based on the visual field of the virtual camera and the virtual space data;
Displaying a field image on the first head mounted display based on the field image data;
Obtaining voice data indicating voice input to the voice input unit;
Identifying a relative positional relationship between the sound source object and the avatar object ;
Determining whether the avatar object is located inside the attenuation object;
Processing the audio data;
Including
When it is determined that the avatar object is located inside the attenuation object, the audio data is processed based on the relative positional relationship,
When it is determined that the avatar object is located outside the attenuation object, the audio data is processed based on the relative positional relationship and the attenuation amount defined by the attenuation object,
The sound source object is disposed inside the attenuation object;
Information processing method.
前記減衰オブジェクトは、透明であって、前記視野画像内に表示されない、請求項5に記載の情報処理方法。   The information processing method according to claim 5, wherein the attenuation object is transparent and is not displayed in the visual field image. 前記減衰オブジェクトは、前記仮想カメラの視野内と前記仮想カメラの視野外との間の境界に配置される、請求項5又は6に記載の情報処理方法。   The information processing method according to claim 5, wherein the attenuation object is arranged at a boundary between the field of view of the virtual camera and the field of view of the virtual camera. 請求項1から7のうちいずれか一項に記載の情報処理方法をコンピュータに実行させるためのプログラム。   The program for making a computer perform the information processing method as described in any one of Claims 1-7.
JP2016138832A 2016-07-13 2016-07-13 Information processing method and program for causing computer to execute information processing method Active JP6190497B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016138832A JP6190497B1 (en) 2016-07-13 2016-07-13 Information processing method and program for causing computer to execute information processing method
US15/647,396 US20180015362A1 (en) 2016-07-13 2017-07-12 Information processing method and program for executing the information processing method on computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016138832A JP6190497B1 (en) 2016-07-13 2016-07-13 Information processing method and program for causing computer to execute information processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017148811A Division JP2018020115A (en) 2017-08-01 2017-08-01 Information processing method and program for causing computer to execute the information processing method

Publications (2)

Publication Number Publication Date
JP6190497B1 true JP6190497B1 (en) 2017-08-30
JP2018010480A JP2018010480A (en) 2018-01-18

Family

ID=59720377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016138832A Active JP6190497B1 (en) 2016-07-13 2016-07-13 Information processing method and program for causing computer to execute information processing method

Country Status (1)

Country Link
JP (1) JP6190497B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111744192A (en) * 2020-06-28 2020-10-09 网易(杭州)网络有限公司 Sound propagation method and device, electronic equipment and computer readable medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008299135A (en) * 2007-05-31 2008-12-11 Nec Corp Speech synthesis device, speech synthesis method and program for speech synthesis
JP2012141826A (en) * 2010-12-29 2012-07-26 Namco Bandai Games Inc Program, information storage medium, image generation system and server system
JP2013017568A (en) * 2011-07-08 2013-01-31 Square Enix Co Ltd Echo processing device
JP2013538593A (en) * 2010-06-21 2013-10-17 マイクロソフト コーポレーション Natural user input to drive interactive stories

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008299135A (en) * 2007-05-31 2008-12-11 Nec Corp Speech synthesis device, speech synthesis method and program for speech synthesis
JP2013538593A (en) * 2010-06-21 2013-10-17 マイクロソフト コーポレーション Natural user input to drive interactive stories
JP2012141826A (en) * 2010-12-29 2012-07-26 Namco Bandai Games Inc Program, information storage medium, image generation system and server system
JP2013017568A (en) * 2011-07-08 2013-01-31 Square Enix Co Ltd Echo processing device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111744192A (en) * 2020-06-28 2020-10-09 网易(杭州)网络有限公司 Sound propagation method and device, electronic equipment and computer readable medium
CN111744192B (en) * 2020-06-28 2024-02-02 网易(杭州)网络有限公司 Sound propagation method, sound propagation device, electronic equipment and computer readable medium

Also Published As

Publication number Publication date
JP2018010480A (en) 2018-01-18

Similar Documents

Publication Publication Date Title
JP6058855B1 (en) Information processing method and program for causing computer to execute information processing method
JP6266814B1 (en) Information processing method and program for causing computer to execute information processing method
WO2017115635A1 (en) Information processing method and information processing program
JP6462059B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
US20180015362A1 (en) Information processing method and program for executing the information processing method on computer
US10504296B2 (en) Information processing method and system for executing the information processing method
JP6095830B1 (en) Visual field information collection method and program for causing a computer to execute the visual field information collection method
JP6212666B1 (en) Information processing method, program, virtual space distribution system, and apparatus
JP6207691B1 (en) Information processing method and program for causing computer to execute information processing method
JP6298874B1 (en) Information processing method and program for causing computer to execute information processing method
JP6289703B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6190497B1 (en) Information processing method and program for causing computer to execute information processing method
JP6266823B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP2018195172A (en) Information processing method, information processing program, and information processing device
JP2018109940A (en) Information processing method and program for causing computer to execute the same
JP2018120583A (en) Information processing method and program for causing computer to execute the same
JP2019036239A (en) Information processing method, information processing program, information processing system, and information processing device
JP6403843B1 (en) Information processing method, information processing program, and information processing apparatus
JP2018020115A (en) Information processing method and program for causing computer to execute the information processing method
JP7041484B2 (en) Programs, information processing devices, information processing systems, and information processing methods
JP6205047B1 (en) Information processing method and program for causing computer to execute information processing method
JP6941130B2 (en) Information processing method, information processing program and information processing device
WO2022149496A1 (en) Entertainment system and robot
JP2018011193A (en) Information processing method and program for causing computer to execute the information processing method
JP2018163649A (en) Information processing method, information processing program, information processing system, and information processing device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170804

R150 Certificate of patent or registration of utility model

Ref document number: 6190497

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250