JP2018067157A - Communication device and control method thereof - Google Patents

Communication device and control method thereof Download PDF

Info

Publication number
JP2018067157A
JP2018067157A JP2016205466A JP2016205466A JP2018067157A JP 2018067157 A JP2018067157 A JP 2018067157A JP 2016205466 A JP2016205466 A JP 2016205466A JP 2016205466 A JP2016205466 A JP 2016205466A JP 2018067157 A JP2018067157 A JP 2018067157A
Authority
JP
Japan
Prior art keywords
user
virtual space
users
voice
communication device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016205466A
Other languages
Japanese (ja)
Inventor
明人 竹谷
Akihito Taketani
明人 竹谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016205466A priority Critical patent/JP2018067157A/en
Publication of JP2018067157A publication Critical patent/JP2018067157A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

PROBLEM TO BE SOLVED: To facilitate communication connection setting between users in a virtual space.SOLUTION: A communication device used for a user to communicate with one or more other users who the user shares a virtual space with includes: voice acquisition means for acquiring voice uttered by the user; acquisition means for acquiring positions of the user and the one or more other users in the virtual space; determination means for determining other users whose distance from the user in the virtual space is equal to or less than a prescribed threshold value; and control means for performing communication connection setting to set the other users determined by the determination means as transmission destinations of voice acquired by the voice acquisition means.SELECTED DRAWING: Figure 3

Description

本発明は、仮想空間を共有するユーザ間の通信制御技術に関するものである。   The present invention relates to a communication control technique between users sharing a virtual space.

現実空間と仮想空間をリアルタイムに融合させて体験者に提示する技術として、複合現実感(MR:Mixed Reality)技術や拡張現実感(AR:Augmented Reality)技術が知られている。これらの技術では、現実空間の映像に、表示装置の位置姿勢に応じた仮想空間の画像(CG:Computer Graphic)を重畳した合成画像を表示する。また、マイクやスピーカーを搭載したMR・ARシステムも開発されている。例えば、同一の仮想空間を複数ユーザで共有することにより、遠隔地にいるユーザであっても同じ部屋にいるかのようにコミュニケーションすることが可能であり、様々な分野への応用が期待されている。   Mixed reality (MR) technology and augmented reality (AR) technology are known as technologies that fuse real space and virtual space in real time and present them to the user. In these techniques, a composite image is displayed by superimposing a virtual space image (CG: Computer Graphic) corresponding to the position and orientation of the display device on the real space video. An MR / AR system equipped with a microphone and speakers has also been developed. For example, by sharing the same virtual space with multiple users, it is possible for even users at remote locations to communicate as if they are in the same room, and application to various fields is expected .

特許文献1は、実空間における通信相手の相対的な位置および方向を身体感覚として把握可能な音声コミュニケーション・システムを開示している。具体的には、実空間におけるユーザの位置に基づいて算出された仮想空間におけるユーザの位置に基づいて音響効果を制御する手法について述べている。   Patent Document 1 discloses a voice communication system that can grasp the relative position and direction of a communication partner in real space as a body sensation. Specifically, a technique for controlling the acoustic effect based on the position of the user in the virtual space calculated based on the position of the user in the real space is described.

特開2005−341092号公報Japanese Patent Laid-Open No. 2005-341092

しかしながら、上述のように複数ユーザで同一の仮想空間を共有するシステムにおいては、特定の相手とコミュニケーションするための通信接続設定は、ユーザによって手間がかかる又は困難なものとなる。そのため、同一の仮想空間を共有する意図しない相手との通信接続設定がなされた結果、円滑なコミュニケーションが阻害されることになる。このような問題に対しては上述の特許文献1の技術では解決することが出来ない。   However, in a system in which a plurality of users share the same virtual space as described above, communication connection settings for communicating with a specific partner are time-consuming or difficult for the user. Therefore, as a result of setting communication connection with an unintended partner sharing the same virtual space, smooth communication is hindered. Such a problem cannot be solved by the technique disclosed in Patent Document 1 described above.

本発明はこのような問題を鑑みてなされたものであり、仮想空間におけるユーザ間の通信接続設定を容易にする技術を提供することを目的とする。   The present invention has been made in view of such problems, and an object of the present invention is to provide a technique for facilitating communication connection settings between users in a virtual space.

上述の問題点を解決するため、本発明に係る通信装置は以下の構成を備える。すなわち、ユーザが仮想空間を共有する1以上の他ユーザと通信を行うために使用される通信装置は、
前記ユーザの発する音声を取得する音声取得手段と、
前記仮想空間における前記ユーザ及び前記1以上の他ユーザの位置を取得する取得手段と、
前記仮想空間において前記ユーザとの距離が所定閾値以下である他ユーザを決定する決定手段と、
前記決定手段により決定された他ユーザを前記音声取得手段により取得された音声の送信先とする通信接続設定を行う制御手段と、
を有する。
In order to solve the above-described problems, a communication apparatus according to the present invention has the following configuration. That is, a communication device used for a user to communicate with one or more other users who share a virtual space is:
Voice acquisition means for acquiring voice emitted by the user;
Obtaining means for obtaining the positions of the user and the one or more other users in the virtual space;
Determining means for determining other users whose distance from the user is equal to or less than a predetermined threshold in the virtual space;
Control means for performing communication connection setting with the other user determined by the determining means as the transmission destination of the voice acquired by the voice acquiring means;
Have

本発明によれば、仮想空間におけるユーザ間の通信接続設定を容易にする技術を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the technique which makes easy the communication connection setting between the users in virtual space can be provided.

第1実施形態における画像音声処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the image audio processing system in 1st Embodiment. 仮想空間における複数のユーザの位置姿勢を示す概念図である。It is a key map showing the position and posture of a plurality of users in virtual space. 第1実施形態における通信接続設定の動作フローチャートである。It is an operation | movement flowchart of the communication connection setting in 1st Embodiment. 第2実施形態における画像音声処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the image audio | voice processing system in 2nd Embodiment. 仮想空間における複数のユーザの位置姿勢を示す概念図である。It is a key map showing the position and posture of a plurality of users in virtual space. 第2実施形態における通信接続設定の動作フローチャートである。It is an operation | movement flowchart of the communication connection setting in 2nd Embodiment.

以下に、図面を参照して、この発明の好適な実施の形態を詳しく説明する。なお、以下の実施の形態はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. The following embodiments are merely examples, and are not intended to limit the scope of the present invention.

(第1実施形態)
本発明に係る通信装置の第1実施形態として、画像音声処理システムで利用されるユーザ装置(表示装置100及び制御装置101)を例に挙げて以下に説明する。
(First embodiment)
As a first embodiment of a communication device according to the present invention, a user device (display device 100 and control device 101) used in an audio / video processing system will be described below as an example.

<装置構成>
図1は、第1実施形態における画像音声処理システムの構成を示すブロック図である。特に、各ユーザに対して用意されるユーザ装置は、ユーザが仮想空間を共有する1以上の他ユーザと通信を行うために使用される装置であり、表示装置100と制御装置101とから構成される。各ユーザ装置は、ネットワークを介して相互に通信可能に接続されている。また、ネットワーク上には、後述する位置姿勢サーバー111や音声サーバー112が配置される。
<Device configuration>
FIG. 1 is a block diagram showing a configuration of an image / audio processing system according to the first embodiment. In particular, a user device prepared for each user is a device used for a user to communicate with one or more other users who share a virtual space, and includes a display device 100 and a control device 101. The Each user apparatus is connected to be communicable with each other via a network. In addition, a position and orientation server 111 and an audio server 112 described later are arranged on the network.

表示装置100は、位置姿勢検出部102、表示部103、音声入力部104、音声出力部105を含む。表示装置100は、例えば、HMD(Head Mounted Display)として構成される。例えば、表示装置100を装着したユーザの位置姿勢を検出し、その位置姿勢に基づき仮想空間(仮想現実空間)のCG(Computer Graphics)映像を表示する。これにより、表示装置100を装着したユーザは、現実空間における視線方向に応じた仮想空間におけるCGを重畳表示した仮想現実画像を観察することができる。なお、ステレオ画像を生成するため、右目用、左目用の2つの表示部を実装してもよい。表示部103は、例えば、表示素子、光学系、画像処理部から構成され、画像処理部は、DSP(Digital Signal Processor)などにより構成される。   The display device 100 includes a position / orientation detection unit 102, a display unit 103, an audio input unit 104, and an audio output unit 105. The display device 100 is configured as an HMD (Head Mounted Display), for example. For example, the position and orientation of the user wearing the display device 100 is detected, and a CG (Computer Graphics) video in a virtual space (virtual reality space) is displayed based on the position and orientation. Thereby, the user wearing the display device 100 can observe the virtual reality image in which the CG in the virtual space corresponding to the line-of-sight direction in the real space is superimposed and displayed. In order to generate a stereo image, two display units for the right eye and the left eye may be mounted. The display unit 103 includes, for example, a display element, an optical system, and an image processing unit, and the image processing unit includes a DSP (Digital Signal Processor) or the like.

以下の説明においては表示装置100はHMDであることを想定するが、タブレット端末やその他の表示装置であってもよい。つまり、持ち運びが可能でかつユーザの視野に相当する画像が表示できる任意の表示装置が利用可能である。位置姿勢検出部102は、ユーザの位置取得のための機能部であり、ユーザの現実空間での位置を取得する。例えば、加速度センサおよび角速度センサを用いた位置姿勢センサや、地磁気を用いた方位センサならびにGPSを用いた姿勢検出センサが利用可能である。さらには、不図示の撮像センサが撮像した映像から現実空間に配置されたマーカを検出し位置姿勢を算出するよう構成してもよい。この場合は、表示装置100をビデオシースルー型HMDにより構成すると好適である。   In the following description, the display device 100 is assumed to be an HMD, but may be a tablet terminal or other display device. That is, any display device that can be carried and can display an image corresponding to the visual field of the user can be used. The position / orientation detection unit 102 is a functional unit for acquiring the position of the user, and acquires the position of the user in the real space. For example, a position / orientation sensor using an acceleration sensor and an angular velocity sensor, an orientation sensor using geomagnetism, and an attitude detection sensor using GPS can be used. Furthermore, it may be configured to calculate a position and orientation by detecting a marker placed in the real space from an image captured by an imaging sensor (not shown). In this case, it is preferable to configure the display device 100 with a video see-through HMD.

表示部103は、小型の液晶ディスプレイや有機ELディスプレイ、あるいは、MEMSによる網膜スキャンタイプのデバイスが利用される。音声入力部104は、マイクロフォンなどの音声取得のための機能部である。ここでは表示装置100内の構成として示しているが、表示装置100を装着したユーザが発生する音声を取得できるものであればよく、別体として構成してもよい。音声出力部105は、ここではイヤホン型のスピーカーを想定している。これは、同一の現実空間(例えば部屋)内に表示装置100を装着したユーザが複数存在した場合、通常のスピーカーを用いると当該スピーカーからの直接音が近隣の他ユーザに聞こえてしまう可能性があるためである。もちろん、近隣に直接音が聞こえて構わない状況、例えば、部屋内にユーザが1人のみである場合などであれば、他の形態のスピーカーでも構わない。   As the display unit 103, a small liquid crystal display, an organic EL display, or a retinal scan type device using MEMS is used. The voice input unit 104 is a functional unit for voice acquisition such as a microphone. Here, the configuration is shown as the configuration within the display device 100, but any configuration may be used as long as it can acquire the sound generated by the user wearing the display device 100, and the configuration may be configured separately. Here, the sound output unit 105 is assumed to be an earphone-type speaker. This is because, when there are a plurality of users wearing the display device 100 in the same real space (for example, a room), if a normal speaker is used, the direct sound from the speaker may be heard by other nearby users. Because there is. Of course, other types of speakers may be used as long as the user can hear the sound directly in the vicinity, for example, when there is only one user in the room.

制御装置101は、位置姿勢伝送部106、仮想現実物体演算部107、制御部108、音声伝送部109、相対距離演算部110、を含む。ここでは、制御装置101は、パソコンやワークステーション等の高性能な演算処理機能やグラフィック表示機能を有する装置を用いることを想定する。制御装置101と表示装置100を接続することで、表示装置100を装着したユーザは、仮想空間の映像を見ることが可能となる。当該仮想空間の映像は、現実世界と仮想世界とがリアルタイムかつシームレスに融合した複合現実世界の映像であってもよい。なお、制御装置101と表示装置100とを一体構成としてユーザが携帯可能なように構成してもよい。   The control device 101 includes a position / orientation transmission unit 106, a virtual reality object calculation unit 107, a control unit 108, an audio transmission unit 109, and a relative distance calculation unit 110. Here, it is assumed that the control device 101 uses a device having a high-performance arithmetic processing function or graphic display function such as a personal computer or a workstation. By connecting the control device 101 and the display device 100, a user wearing the display device 100 can view a video in the virtual space. The video of the virtual space may be a mixed real world video in which the real world and the virtual world are seamlessly fused in real time. In addition, you may comprise so that a user can carry the control apparatus 101 and the display apparatus 100 as an integral structure.

位置姿勢伝送部106は、位置姿勢検出部102で取得された位置姿勢情報を他ユーザと共有するために、仮想空間内のユーザの位置姿勢を管理する位置姿勢サーバー111に位置姿勢情報を送信する。また、他のユーザの位置姿勢情報を受信する。仮想現実物体演算部107は、位置姿勢検出部102より取得したユーザの位置姿勢を示す情報に基づいて、特定の方向から見た仮想現実物体のCG描画を行う。   The position and orientation transmission unit 106 transmits the position and orientation information to the position and orientation server 111 that manages the position and orientation of the user in the virtual space in order to share the position and orientation information acquired by the position and orientation detection unit 102 with other users. . In addition, the position and orientation information of other users is received. The virtual reality object calculation unit 107 performs CG drawing of the virtual reality object viewed from a specific direction based on the information indicating the position and orientation of the user acquired from the position and orientation detection unit 102.

制御部108は、音声伝送部109の通信相手を設定する制御を行う。制御部108は、伝送モードとして、以下の3つのモードの何れかが設定され動作する。動作の詳細については後述する。   The control unit 108 performs control for setting a communication partner of the audio transmission unit 109. The control unit 108 operates by setting one of the following three modes as the transmission mode. Details of the operation will be described later.

・仮想空間における一部のユーザ(例えば近距離ユーザ)のみと送受信する第1のモード(個別伝送モード)
・仮想空間内の全ユーザと送受信する第2のモード(全ユーザ伝送モード)
・送受信を行わない第3のモード(非伝送モード)
なお、伝送モードとして、他のモード、例えば、仮想空間における近距離ユーザへ優先的に伝送するモードのようなものをさらに設けてもよい。
A first mode (individual transmission mode) for transmitting / receiving only to some users in the virtual space (for example, short-distance users)
Second mode for transmitting / receiving to / from all users in the virtual space (all-user transmission mode)
・ Third mode that does not transmit / receive (non-transmission mode)
As a transmission mode, another mode, for example, a mode that preferentially transmits to a short-distance user in a virtual space may be further provided.

音声伝送部109は、制御部108から指示を受けた場合に、音声入力部104より入力された音声データを音声サーバー112に伝送する。また、音声サーバー112から取得した他ユーザの音声データを音声出力部105に対して出力する。   When receiving an instruction from the control unit 108, the voice transmission unit 109 transmits the voice data input from the voice input unit 104 to the voice server 112. Also, the other user's voice data acquired from the voice server 112 is output to the voice output unit 105.

相対距離演算部110は、仮想空間における自ユーザと他ユーザの相対的な距離を算出する。例えば、同一の仮想現実物体からの相対的な他ユーザの位置と自ユーザの位置を、位置姿勢伝送部106を経由して位置姿勢サーバー111から取得する。そして、算出したユーザ間の距離を、制御部108に通知する。なお、他ユーザが複数存在する場合、それぞれの他ユーザとの距離が算出される。   The relative distance calculation unit 110 calculates a relative distance between the own user and another user in the virtual space. For example, the relative position of the other user and the position of the own user from the same virtual reality object are acquired from the position / orientation server 111 via the position / orientation transmission unit 106. Then, the calculated distance between users is notified to the control unit 108. When there are a plurality of other users, the distance from each other user is calculated.

位置姿勢サーバー111は、同一の仮想空間を共有する各ユーザの位置姿勢情報を管理する装置である。例えば、各ユーザの制御装置101から現実空間における位置姿勢情報を受信し、当該現実空間における位置姿勢に対応する仮想空間における位置姿勢を算出し管理する。例えば、ユーザの存在する現実空間の場所(部屋)を基準とした位置姿勢を、ユーザから指定された所定の仮想空間を基準とした位置姿勢にマッピングする。なお、また、各ユーザの制御装置101からの取得要求に基づき、管理している仮想空間における各ユーザの位置姿勢情報を返信する。   The position / orientation server 111 is a device that manages position / orientation information of each user sharing the same virtual space. For example, the position and orientation information in the real space is received from the control device 101 of each user, and the position and orientation in the virtual space corresponding to the position and orientation in the real space are calculated and managed. For example, a position and orientation based on a location (room) in the real space where the user exists is mapped to a position and orientation based on a predetermined virtual space designated by the user. In addition, based on the acquisition request from the control device 101 of each user, the position and orientation information of each user in the managed virtual space is returned.

音声サーバー112は、同一の仮想空間を共有する各ユーザの音声データを管理する装置である。各ユーザの制御装置101からの送信要求に基づき指定された他ユーザに音声データを送信する。各ユーザの音声データを、それぞれのユーザに割り当てられた格納領域に格納して管理してもよいし、音声データに送信元・送信先の情報を付加し混合して格納し管理してもよい。   The voice server 112 is a device that manages voice data of users who share the same virtual space. The voice data is transmitted to another user designated based on the transmission request from the control device 101 of each user. Each user's voice data may be stored and managed in a storage area assigned to each user, or the source / destination information may be added to the voice data and stored and managed. .

<装置の動作>
以下では、同一の仮想空間を共有する複数のユーザ間での音声データの伝送処理について説明する。図2は、仮想空間における複数のユーザの位置姿勢を示す概念図である。
<Operation of the device>
Below, the transmission process of the audio | speech data between the some users who share the same virtual space is demonstrated. FIG. 2 is a conceptual diagram showing the positions and orientations of a plurality of users in the virtual space.

ユーザ200、201、202は、同一の仮想空間を共有し、現実空間においてそれぞれが表示装置100を装着しているユーザ(のアバター)である。そして、仮想空間において、当該3人のユーザ以外に物体203が存在している。   Users 200, 201, and 202 are users (avatars) who share the same virtual space and are each wearing the display device 100 in the real space. In the virtual space, the object 203 exists in addition to the three users.

ユーザ200、201、202に対応する現実空間でのユーザは、それぞれが同一の現実空間(例えば同じ部屋)に存在していてもよいし、遠隔地に存在していてもよい。以下では、仮想空間におけるユーザ200、201、202に対応する現実空間におけるユーザを、それぞれユーザA、B、Cと表現する。また、ユーザA、B、Cはそれぞれ遠隔地に存在することを想定して説明を行う。   The users in the real space corresponding to the users 200, 201, and 202 may exist in the same real space (for example, the same room), or may exist in a remote place. Hereinafter, the users in the real space corresponding to the users 200, 201, and 202 in the virtual space are expressed as users A, B, and C, respectively. In addition, the explanation will be made assuming that the users A, B, and C exist in remote places.

ここでは、これらの3ユーザ間で映像を通じて仮想物体などを共有し、なおかつ通話を行うことを想定している。具体的には、仮想空間(図2の状況)において、ユーザ200がユーザ201に対して話しかけることを想定する。すなわち、仮想空間においてユーザ200とユーザ201は物体203からの相対的な位置が類似している。また、仮想空間においてユーザ200とユーザ201は近い位置に存在する。   Here, it is assumed that these three users share a virtual object or the like through video and make a call. Specifically, it is assumed that the user 200 talks to the user 201 in the virtual space (situation in FIG. 2). That is, the relative position from the object 203 is similar between the user 200 and the user 201 in the virtual space. In addition, the user 200 and the user 201 exist in close positions in the virtual space.

このようにユーザ200とユーザB201の相対位置がある閾値より近い(距離が短い)場合、ユーザA(ユーザ200)が発声した音声を、ユーザB(ユーザ201)にのみ送信する。つまり、ユーザ200からの相対位置が遠い(距離が長い)ユーザ202に対しては、音声データを送信しない。   Thus, when the relative position of the user 200 and the user B201 is closer than a certain threshold (distance is short), the voice uttered by the user A (user 200) is transmitted only to the user B (user 201). That is, audio data is not transmitted to the user 202 whose relative position from the user 200 is far (long distance).

なお、第1実施形態においては、ユーザ200の周辺にユーザ201以外にも他のユーザが複数いる場合、ユーザ間距離がある閾値以下のユーザ全てに対して音声データが送信される。このように、仮想現実物体からの相対的な位置から導かれる相対距離がある閾値より近いユーザに対してのみ音声データを送信する。   In the first embodiment, when there are a plurality of other users in addition to the user 201 in the vicinity of the user 200, the voice data is transmitted to all users whose user distance is equal to or less than a certain threshold. As described above, the audio data is transmitted only to the user whose relative distance derived from the relative position from the virtual reality object is closer than a certain threshold.

なお、上述の動作は、制御部108の伝送モードとして第1のモードが設定されている場合の動作である。こでは、ユーザ201に対してのみ話しかけるため、制御部108が「第1のモード」で動作するようにユーザA(ユーザ200)が事前に設定することを想定している。しかし、全ユーザに音声情報を送信したい場合は、ユーザA自身で伝送モードを「第2のモード」に変更することで、ユーザ間距離にかかわらず全ユーザ全体に音声が送信される。また、何れのユーザとも音声の送受信を行いたくない場合は、ユーザA自身で伝送モードを「第3のモード」に変更することで、全ての送受信が抑止される。伝送モードの変更は、ユーザが、表示装置100に配置された不図示のボタンやスイッチを操作することで行ってもよいし、その他の操作で変更してもよい。   Note that the above-described operation is an operation when the first mode is set as the transmission mode of the control unit 108. Here, since only the user 201 is spoken, it is assumed that the user A (user 200) sets in advance such that the control unit 108 operates in the “first mode”. However, when it is desired to transmit voice information to all users, the user A himself / herself changes the transmission mode to the “second mode”, so that the voice is transmitted to all users regardless of the distance between users. Further, when it is not desired to perform voice transmission / reception with any user, all transmission / reception is suppressed by changing the transmission mode to “third mode” by the user A himself / herself. The transmission mode may be changed by the user operating a button or switch (not shown) arranged on the display device 100, or may be changed by other operations.

図3は、第1実施形態における通信接続設定の動作フローチャートである。   FIG. 3 is an operation flowchart of communication connection setting in the first embodiment.

S300では、制御装置101は、位置姿勢検出部102で検出された位置姿勢情報を位置姿勢伝送部106に伝送する。また、音声入力部104から入力された音声情報を音声伝送部109に伝送する。   In step S <b> 300, the control apparatus 101 transmits the position / orientation information detected by the position / orientation detection unit 102 to the position / orientation transmission unit 106. The voice information input from the voice input unit 104 is transmitted to the voice transmission unit 109.

S301では、制御装置101は、S300で取得した位置姿勢情報を位置姿勢サーバー111に伝送する。S302では、制御装置101は、他ユーザの位置姿勢情報を位置姿勢サーバー111から取得する。ここでは、全ての他ユーザ(ユーザB及びユーザC)の仮想現実物体203からの相対的な位置姿勢情報を取得する。   In step S <b> 301, the control apparatus 101 transmits the position / orientation information acquired in step S <b> 300 to the position / orientation server 111. In step S <b> 302, the control apparatus 101 acquires position / orientation information of another user from the position / orientation server 111. Here, relative position and orientation information from the virtual reality object 203 of all other users (user B and user C) is acquired.

S303では、制御装置101は、各ユーザの位置姿勢情報に基づいて、自ユーザ(ユーザA)と他ユーザ(ユーザB、ユーザC)各々との距離を演算する。   In S303, the control apparatus 101 calculates the distance between the own user (user A) and each of the other users (user B, user C) based on the position and orientation information of each user.

S304では、制御装置101は、現在制御部108に設定されている伝送モードを取得する。ここでは。上述のように伝送モードとして、第1のモード〜第3のモードの3つがあるものとする。   In step S <b> 304, the control device 101 acquires the transmission mode currently set in the control unit 108. here. As described above, there are three transmission modes: the first mode to the third mode.

S305では、制御装置101は、制御部109において、S304で取得した伝送モードを基に、個別に送受信設定を行うか、全体に対して送受信設定を行うかを判断する。第1のモードが設定されており個別に送受信設定を行う場合は、S306に進む。第2のモードが設定されており全体に対して送受信設定を行う場合はS311に進む。   In S305, the control apparatus 101 determines whether the control unit 109 performs the transmission / reception settings individually or the transmission / reception settings for the entirety based on the transmission mode acquired in S304. When the first mode is set and the transmission / reception setting is individually performed, the process proceeds to S306. If the second mode is set and transmission / reception settings are to be made for the entirety, the process advances to step S311.

S306では、制御装置101は、S303で取得した各々のユーザ間距離を基に、ユーザ200に対してある所定閾値以下の近距離に他のユーザが存在するかどうかを判断する。ここで、近距離に1以上の他のユーザが存在する場合はS307に進み、個別に音声情報を送受信する設定を行う。一方、近距離に他のユーザが存在しない場合は、S311に進む。   In S <b> 306, the control apparatus 101 determines whether another user exists at a short distance equal to or less than a predetermined threshold with respect to the user 200 based on the distance between users acquired in S <b> 303. Here, if there are one or more other users at a short distance, the process proceeds to S307, and settings for individually transmitting and receiving audio information are performed. On the other hand, if there is no other user at a short distance, the process proceeds to S311.

S307では、制御装置101は、送信先として決定された他ユーザに対する通信接続設定を行う。なお、複数の他ユーザに送信する場合は、個別に通信接続設定を行うとよい。通信接続設定の内容としては、音声データの圧縮、タイムスタンプなどを用いた時間制御、通信状況による送信制御など、様々な設定が含まれ得る。S308では、制御装置101は、S307で設定された通信接続設定に基づいて音声データを音声サーバー112に伝送する。   In step S307, the control apparatus 101 performs communication connection settings for other users determined as transmission destinations. In addition, when transmitting to several other users, it is good to perform communication connection setting separately. The contents of the communication connection settings may include various settings such as audio data compression, time control using a time stamp, etc., and transmission control according to communication conditions. In S308, the control apparatus 101 transmits the audio data to the audio server 112 based on the communication connection setting set in S307.

S309では、制御装置101は、S300で取得した位置姿勢に基づいて、仮想現実物体203を特定の位置姿勢から見たCGとして描画し生成する。S310では、制御装置101は、S309で生成したCGをHMDの表示部103へ表示する。ここで、表示部103で表示する仮想現実画像と、音声出力部105で出力する音声データと、をタイムスタンプなどを用いて同期制御を行ってもよい。もちろん、同期制御を行わずに出力してもよい。また、音声データを送信する他ユーザに関する情報を併せて表示するよう構成してもよい。   In step S309, the control apparatus 101 draws and generates the virtual reality object 203 as a CG viewed from a specific position and orientation based on the position and orientation acquired in step S300. In S310, the control apparatus 101 displays the CG generated in S309 on the display unit 103 of the HMD. Here, the virtual reality image displayed on the display unit 103 and the audio data output from the audio output unit 105 may be synchronized using a time stamp or the like. Of course, the output may be performed without performing the synchronization control. Moreover, you may comprise so that the information regarding the other user who transmits audio | voice data may be displayed collectively.

S311では、制御装置101は、音声データを全ユーザに対して送信するか否かを、設定されている伝送モードを基に決定する。第2のモードが設定されており全ユーザへ送信する場合は、S312に進む。一方、第3のモードが設定されており誰にも音声データを送信しない場合は、S309に進む。   In step S311, the control apparatus 101 determines whether or not to transmit audio data to all users based on the set transmission mode. When the second mode is set and transmission is to all users, the process proceeds to S312. On the other hand, if the third mode is set and no audio data is transmitted to anyone, the process proceeds to S309.

S312では、制御装置101は、全ユーザ(ユーザB、ユーザC)に対する通信接続設定を行う。なお、マルチキャスト・ブロードキャスト伝送を用いるよう設定してもよい。具体的な処理についてはS307と同様であるため説明は省略する。S313では、制御装置101は、S312で設定された通信接続設定に基づいて、音声データを音声サーバー312に伝送する。   In step S312, the control apparatus 101 performs communication connection settings for all users (user B and user C). Note that multicast / broadcast transmission may be set to be used. Since the specific processing is the same as that in S307, description thereof is omitted. In S313, the control apparatus 101 transmits the audio data to the audio server 312 based on the communication connection setting set in S312.

以上説明したとおり第1実施形態によれば、ユーザ200は、近距離のユーザに対してのみ音声データを送信する通信接続設定を容易に行うことが可能となる。すなわち、ユーザ200は、制御部108の伝送モードとして第1のモードを設定し、仮想空間においてユーザ201に近づくだけで足りる。   As described above, according to the first embodiment, the user 200 can easily perform communication connection setting for transmitting voice data only to a user at a short distance. That is, the user 200 only needs to set the first mode as the transmission mode of the control unit 108 and approach the user 201 in the virtual space.

なお、上述の説明においては、ユーザの現実空間での位置姿勢を表示装置100に配置された位置姿勢検出部102により取得した。ただし、外部装置(例えば部屋に設置されたカメラ)により、ユーザの現実空間での位置姿勢を取得し、当該ユーザの位置姿勢を位置姿勢サーバー111に登録するよう構成してもよい。また、上述の説明においては音声データを送信する構成について説明したが、テキストメッセージデータを送信する構成としてもよい。   In the above description, the position / orientation of the user in the real space is acquired by the position / orientation detection unit 102 arranged in the display device 100. However, the position and orientation of the user in the real space may be acquired by an external device (for example, a camera installed in a room), and the position and orientation of the user may be registered in the position and orientation server 111. In the above description, the configuration for transmitting voice data has been described. However, the configuration for transmitting text message data may be used.

(第2実施形態)
第2実施形態では、各ユーザの位置だけでなく姿勢(視線方向)も併せて考慮し、通信接続設定を行う形態について説明する。すなわち、第1実施形態では、近距離に複数の他ユーザが存在する状況においては、当該複数の他ユーザ全てに対して音声データを送信することになる。一方で、ユーザの意図によっては、特定のユーザに対してのみ音声データを送受信したい場合も考えられる。そこで、第2実施形態では、自ユーザと同一の注視点を有する他ユーザを位置及び姿勢に基づいて判定し、当該他ユーザのみに音声データを送信する形態について説明する。
(Second Embodiment)
In the second embodiment, a mode in which communication connection setting is performed in consideration of not only the position of each user but also the posture (line-of-sight direction) will be described. That is, in the first embodiment, in a situation where there are a plurality of other users at a short distance, the audio data is transmitted to all the plurality of other users. On the other hand, depending on the user's intention, it may be possible to transmit / receive audio data only to a specific user. Therefore, in the second embodiment, a mode will be described in which another user having the same gazing point as the own user is determined based on the position and orientation, and the audio data is transmitted only to the other user.

<装置構成>
図4は、第2実施形態における画像音声処理システムの構成を示すブロック図である。第1実施形態(図1)に対して、相対姿勢演算部400を追加した構成となっている。第1実施形態と同様の機能部については説明を省略する。
<Device configuration>
FIG. 4 is a block diagram showing the configuration of the audio / video processing system in the second embodiment. It is the structure which added the relative attitude | position calculating part 400 with respect to 1st Embodiment (FIG. 1). A description of functional units similar to those in the first embodiment will be omitted.

相対姿勢演算部400は、同一の仮想現実物体に対する各ユーザの相対的な位置姿勢を演算する。また、制御部108は、自ユーザの注視点との一致度が高い注視点を有する他ユーザを送信先として決定する。   The relative posture calculation unit 400 calculates the relative position and posture of each user with respect to the same virtual reality object. Further, the control unit 108 determines another user having a gazing point having a high degree of coincidence with the gazing point of the own user as a transmission destination.

<装置の動作>
以下では、同一の仮想空間を共有する複数のユーザ間での音声データの伝送処理について説明する。図5は、仮想空間における複数のユーザの位置姿勢を示す概念図である。
<Operation of the device>
Below, the transmission process of the audio | speech data between the some users who share the same virtual space is demonstrated. FIG. 5 is a conceptual diagram showing the positions and orientations of a plurality of users in the virtual space.

ユーザ200、201、202、は第1実施形態と同様、同一仮想空間を共有する表示装置100を装着したユーザである。第2実施形態(図5)では、ユーザ200と同じ方向を向いているユーザ500が更に追加されている。   Users 200, 201, and 202 are users wearing the display device 100 that shares the same virtual space, as in the first embodiment. In the second embodiment (FIG. 5), a user 500 facing the same direction as the user 200 is further added.

すなわち、第2実施形態ではユーザ200が観察している仮想現実物体203を、ユーザ200の近くで同じように観察している他ユーザを通信相手とする例を示している。ここでは、ユーザ500を通信相手として特定することを想定している。   That is, in the second embodiment, an example is shown in which the virtual reality object 203 observed by the user 200 is the other party who observes the virtual reality object 203 in the same manner near the user 200 as a communication partner. Here, it is assumed that the user 500 is specified as a communication partner.

第1実施形態ではユーザ200がユーザ201に近づくだけで通話を開始した。第2実施形態では、ユーザ200がユーザ201およびユーザ500に近づき、かつ、ユーザ200とユーザ500が同一の仮想現実物体203を注視点としている。このように同じ注視点を有する他ユーザに対してのみ音声データの送信を行う。   In the first embodiment, the user 200 starts a call just by approaching the user 201. In the second embodiment, the user 200 approaches the user 201 and the user 500, and the user 200 and the user 500 have the same virtual reality object 203 as the point of sight. In this way, the audio data is transmitted only to other users having the same gazing point.

なお、ユーザ201はユーザ200からの距離は近いが、相対的な姿勢が異なる。そのため、ユーザ200の音声データはユーザ201には伝送されない。ユーザ202は、仮想現実物体203を注視点としているが、ユーザ200から相対的な距離が遠く、相対的な姿勢も異なる。そのため、ユーザ200の音声データはユーザ202伝送されない。   The user 201 is close to the user 200 but has a different relative posture. Therefore, the voice data of the user 200 is not transmitted to the user 201. The user 202 uses the virtual reality object 203 as a gazing point, but is relatively far from the user 200 and has a different relative posture. Therefore, the voice data of the user 200 is not transmitted to the user 202.

図6は、第2実施形態における通信接続設定の動作フローチャートである。なお、図6のS300〜S302、S304〜S313は図3のS300〜S302、S304〜S313とそれぞれ同様の処理であるため説明は省略する。図3のS303の代わりに図6ではS600が存在し、また、S601の処理が追加されている点が異なる。   FIG. 6 is an operation flowchart of communication connection setting in the second embodiment. Note that S300 to S302 and S304 to S313 in FIG. 6 are the same processes as S300 to S302 and S304 to S313 in FIG. 6 is different from S303 of FIG. 3 in that S600 exists and the processing of S601 is added.

S600では、制御装置101は、S302で取得した他ユーザの位置姿勢情報を解析する。具体的には、相対距離演算部110で演算される相対的な距離に加え、相対姿勢演算部400は、相対的な姿勢を演算する。その後、これらの位置姿勢情報とS300で取得した音声データとS304で取得する現在の伝送設定を基に、伝送方法を設定する。   In S600, the control apparatus 101 analyzes the position / orientation information of the other user acquired in S302. Specifically, in addition to the relative distance calculated by the relative distance calculation unit 110, the relative posture calculation unit 400 calculates a relative posture. Thereafter, a transmission method is set based on the position and orientation information, the audio data acquired in S300, and the current transmission setting acquired in S304.

S601では、制御装置101は、S600で演算した位置姿勢情報を用いて、仮想現実物体に対する相対的な位置姿勢がある閾値よりも近いユーザを、送信先の他ユーザとして選択する。すなわち、ここでは、距離(位置の差)が所定閾値以下でありかつ姿勢の差が所定差以下であるユーザを注視点が同じユーザとみなしているのである。   In S <b> 601, the control apparatus 101 uses the position / orientation information calculated in S <b> 600 to select a user who is closer than a threshold with a relative position / orientation with respect to the virtual reality object as another user of the transmission destination. That is, here, a user whose distance (positional difference) is equal to or smaller than a predetermined threshold and whose posture difference is equal to or smaller than the predetermined difference is regarded as a user having the same gazing point.

以上説明したとおり第2実施形態によれば、ユーザ200は、同じ注視点を有するユーザに対してのみ音声データを送信する通信接続設定を容易に行うことが可能となる。すなわち、ユーザ200は、制御部108の伝送モードとして第1のモードを設定し、仮想空間においてユーザ500に近づき同じ方向を向く(姿勢を一致させる)だけで足りる。なお、上述の説明においては位置が近くかつ姿勢が近いユーザを注視点が同じであるとみなすことにより、同一の注視点を有する他ユーザを判定した。しかし、各ユーザの位置姿勢と仮想空間の情報から具体的な注視点を各ユーザに対して導出し一致度を比較するよう構成してもよい。   As described above, according to the second embodiment, the user 200 can easily perform communication connection setting for transmitting audio data only to users having the same point of sight. That is, the user 200 only needs to set the first mode as the transmission mode of the control unit 108, approach the user 500 in the virtual space, and face the same direction (match the posture). In the above description, other users having the same gazing point are determined by regarding users who are close in position and close in posture as having the same gazing point. However, a specific gaze point may be derived for each user from the position and orientation of each user and information in the virtual space, and the degree of coincidence may be compared.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 表示装置; 101 制御装置; 102 位置姿勢検出部; 103 表示部; 104 音声入力部; 105 音声出力部; 106 位置姿勢伝送部; 107 仮想現実物体演算部; 108 制御部; 109 音声伝送部; 110 相対距離演算部; 111 位置姿勢サーバー; 112 音声サーバー   DESCRIPTION OF SYMBOLS 100 Display apparatus; 101 Control apparatus; 102 Position and orientation detection part; 103 Display part; 104 Voice input part; 105 Sound output part; 106 Position and attitude transmission part; 107 Virtual reality object calculation part; 108 Control part; 110 Relative distance calculation unit; 111 Position and orientation server; 112 Voice server

Claims (10)

ユーザが仮想空間を共有する1以上の他ユーザと通信を行うために使用される通信装置であって、
前記ユーザの発する音声を取得する音声取得手段と、
前記仮想空間における前記ユーザ及び前記1以上の他ユーザの位置を取得する取得手段と、
前記仮想空間において前記ユーザとの距離が所定閾値以下である他ユーザを決定する決定手段と、
前記決定手段により決定された他ユーザを前記音声取得手段により取得された音声の送信先とする通信接続設定を行う制御手段と、
を有することを特徴とする通信装置。
A communication device used for a user to communicate with one or more other users sharing a virtual space,
Voice acquisition means for acquiring voice emitted by the user;
Obtaining means for obtaining the positions of the user and the one or more other users in the virtual space;
Determining means for determining other users whose distance from the user is equal to or less than a predetermined threshold in the virtual space;
Control means for performing communication connection setting with the other user determined by the determining means as the transmission destination of the voice acquired by the voice acquiring means;
A communication apparatus comprising:
前記取得手段は、前記仮想空間に存在する各ユーザの該仮想空間における位置を、該位置を管理する第1のサーバーから取得する
ことを特徴とする請求項1に記載の通信装置。
The communication device according to claim 1, wherein the acquisition unit acquires the position of each user in the virtual space in the virtual space from a first server that manages the position.
前記通信装置は、
現実空間における前記ユーザの位置を取得する位置取得手段と、
前記位置取得手段で取得された位置を前記第1のサーバーに送信する送信手段と、
を更に有し、
前記第1のサーバーは、前記ユーザから受信した該ユーザの前記現実空間における位置に基づいて該ユーザの前記仮想空間における位置を導出し、該ユーザの前記仮想空間における位置として管理する
ことを特徴とする請求項2に記載の通信装置。
The communication device
Position acquisition means for acquiring the position of the user in real space;
Transmitting means for transmitting the position acquired by the position acquiring means to the first server;
Further comprising
The first server derives a position of the user in the virtual space based on the position of the user in the real space received from the user, and manages the position as the position of the user in the virtual space. The communication device according to claim 2.
前記第1のサーバーは、更に、前記仮想空間に存在する各ユーザの該仮想空間における姿勢を管理するよう構成されており、
前記取得手段は、更に、前記仮想空間における前記ユーザ及び前記1以上の他ユーザの姿勢を取得し、
前記決定手段は、前記仮想空間において前記ユーザとの距離が所定閾値以下かつ前記ユーザとの姿勢の差が所定差以下である他ユーザを決定し、
前記制御手段は、前記決定手段により前記ユーザとの距離が前記所定閾値以下かつ前記ユーザとの姿勢の差が所定差以下であると判定された他ユーザを前記音声取得手段により取得された音声の送信先とする通信接続設定を行う
ことを特徴とする請求項2に記載の通信装置。
The first server is further configured to manage the posture of each user in the virtual space in the virtual space;
The acquisition means further acquires postures of the user and the one or more other users in the virtual space,
The determining means determines another user whose distance from the user in the virtual space is equal to or smaller than a predetermined threshold and whose posture difference from the user is equal to or smaller than a predetermined difference.
The control means determines the other user whose distance to the user is equal to or smaller than the predetermined threshold and whose difference in attitude with the user is equal to or smaller than the predetermined difference by the determination means. The communication apparatus according to claim 2, wherein communication connection setting as a transmission destination is performed.
前記取得手段によって取得された前記仮想空間における前記ユーザ及び前記1以上の他ユーザの位置及び姿勢に基づいて、前記仮想空間の映像を生成する生成手段と、
前記生成手段により生成された映像を表示する表示手段と、
を更に有することを特徴とする請求項4に記載の通信装置。
Generating means for generating an image of the virtual space based on the position and posture of the user and the one or more other users in the virtual space acquired by the acquiring means;
Display means for displaying the video generated by the generating means;
The communication device according to claim 4, further comprising:
現実空間を撮像する撮像手段を更に有し、
前記生成手段は、前記撮像手段により撮像された映像に前記仮想空間に配置された物体の映像を重畳することにより前記仮想空間の映像を生成する
ことを特徴とする請求項5に記載の通信装置。
It further has an imaging means for imaging the real space,
The communication device according to claim 5, wherein the generation unit generates a video of the virtual space by superimposing a video of an object arranged in the virtual space on a video captured by the imaging unit. .
前記制御手段は、前記音声取得手段により取得された音声のデータと該音声の送信先の情報とを、前記仮想空間内の音声伝送を管理する第2のサーバーに送信する
ことを特徴とする請求項1乃至6の何れか1項に記載の通信装置。
The control means transmits the voice data acquired by the voice acquisition means and information on the destination of the voice to a second server that manages voice transmission in the virtual space. Item 7. The communication device according to any one of Items 1 to 6.
前記制御手段が、前記仮想空間内の一部のユーザに対してデータを送信する第1のモードで動作するか、前記仮想空間内の全ユーザに対してデータを送信する第2のモードで動作するか、を選択する選択手段を更に有し、
前記制御手段は、前記選択手段により前記第2のモードでの動作が選択されている場合、前記決定手段による決定にかかわらず、前記仮想空間内の全ユーザを前記音声取得手段により取得された音声の送信先とする通信接続設定を行う
ことを特徴とする請求項1乃至7の何れか1項に記載の通信装置。
The control means operates in a first mode in which data is transmitted to some users in the virtual space, or operates in a second mode in which data is transmitted to all users in the virtual space. And a selection means for selecting
When the operation in the second mode is selected by the selection unit, the control unit is configured to acquire all the users in the virtual space by the voice acquisition unit regardless of the determination by the determination unit. The communication apparatus according to any one of claims 1 to 7, wherein communication connection setting as a transmission destination is performed.
ユーザが仮想空間を共有する1以上の他ユーザと通信を行うために使用される通信装置の制御方法であって、
前記ユーザの発する音声を取得する音声取得工程と、
前記仮想空間における前記ユーザ及び前記1以上の他ユーザの位置を取得する取得工程と、
前記仮想空間において前記ユーザとの距離が所定閾値以下である他ユーザを決定する決定工程と、
前記決定工程により決定された他ユーザを前記音声取得工程により取得された音声の送信先とする通信接続設定を行う制御工程と、
を有することを特徴とする通信装置の制御方法。
A method of controlling a communication device used for a user to communicate with one or more other users sharing a virtual space,
An audio acquisition step of acquiring audio emitted by the user;
An acquisition step of acquiring the positions of the user and the one or more other users in the virtual space;
A determination step of determining other users whose distance from the user is equal to or less than a predetermined threshold in the virtual space;
A control step of performing communication connection setting with the other user determined in the determination step as a transmission destination of the voice acquired in the voice acquisition step;
A method for controlling a communication apparatus, comprising:
コンピュータを、請求項1に記載の通信装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the communication apparatus of Claim 1.
JP2016205466A 2016-10-19 2016-10-19 Communication device and control method thereof Pending JP2018067157A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016205466A JP2018067157A (en) 2016-10-19 2016-10-19 Communication device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016205466A JP2018067157A (en) 2016-10-19 2016-10-19 Communication device and control method thereof

Publications (1)

Publication Number Publication Date
JP2018067157A true JP2018067157A (en) 2018-04-26

Family

ID=62086093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016205466A Pending JP2018067157A (en) 2016-10-19 2016-10-19 Communication device and control method thereof

Country Status (1)

Country Link
JP (1) JP2018067157A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020003876A (en) * 2018-06-25 2020-01-09 株式会社バーチャルキャスト Data transmission apparatus and program
JP2020004392A (en) * 2019-05-08 2020-01-09 株式会社バーチャルキャスト Data transmission apparatus, terminal, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020003876A (en) * 2018-06-25 2020-01-09 株式会社バーチャルキャスト Data transmission apparatus and program
JP2020004392A (en) * 2019-05-08 2020-01-09 株式会社バーチャルキャスト Data transmission apparatus, terminal, and program
JP7166983B2 (en) 2019-05-08 2022-11-08 株式会社バーチャルキャスト terminal and program

Similar Documents

Publication Publication Date Title
JP6610546B2 (en) Information processing apparatus, information processing method, and program
CA2913650C (en) Virtual object orientation and visualization
US10410562B2 (en) Image generating device and image generating method
US11250636B2 (en) Information processing device, information processing method, and program
JP6615732B2 (en) Information processing apparatus and image generation method
US11361497B2 (en) Information processing device and information processing method
JP6822410B2 (en) Information processing system and information processing method
JP2012070081A (en) Image display device, image display program, and image display system
JP2018163461A (en) Information processing apparatus, information processing method, and program
US20200260142A1 (en) Information processing apparatus, control method for information processing apparatus, and computer program
US10831443B2 (en) Content discovery
JP2018067156A (en) Communication device and control method thereof
JP2018067157A (en) Communication device and control method thereof
KR102428438B1 (en) Method and system for multilateral remote collaboration based on real-time coordinate sharing
JP2020003876A (en) Data transmission apparatus and program
CN116583841A (en) Triggering a collaborative augmented reality environment using ultrasound signals
WO2018216327A1 (en) Information processing device, information processing method, and program
JP2020004392A (en) Data transmission apparatus, terminal, and program
WO2024134736A1 (en) Head-mounted display device and stereophonic sound control method
US20240085207A1 (en) Information processing system
CN116743913B (en) Audio processing method and device
US11706266B1 (en) Systems and methods for assisting users of artificial reality platforms
US20240083249A1 (en) Information processing system
WO2024004398A1 (en) Information processing device, program, and information processing system
WO2021112161A1 (en) Information processing device, control method, and non-transitory computer-readable medium