JP6526879B1 - Data transmission device and program - Google Patents

Data transmission device and program Download PDF

Info

Publication number
JP6526879B1
JP6526879B1 JP2018120104A JP2018120104A JP6526879B1 JP 6526879 B1 JP6526879 B1 JP 6526879B1 JP 2018120104 A JP2018120104 A JP 2018120104A JP 2018120104 A JP2018120104 A JP 2018120104A JP 6526879 B1 JP6526879 B1 JP 6526879B1
Authority
JP
Japan
Prior art keywords
data
avatar
satisfied
predetermined condition
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018120104A
Other languages
Japanese (ja)
Other versions
JP2020003876A (en
Inventor
量生 川上
量生 川上
健太郎 松井
健太郎 松井
進之介 岩城
進之介 岩城
尚 小嶋
尚 小嶋
山口 直樹
直樹 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Virtual Cast Inc
Original Assignee
Virtual Cast Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Virtual Cast Inc filed Critical Virtual Cast Inc
Priority to JP2018120104A priority Critical patent/JP6526879B1/en
Application granted granted Critical
Publication of JP6526879B1 publication Critical patent/JP6526879B1/en
Publication of JP2020003876A publication Critical patent/JP2020003876A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

【課題】複数のユーザ間で仮想的体験を共有する場合に、音声データのトラフィック量を抑制し、またはユーザの仮想的体験の毀損を防止する。【解決手段】データ送信装置100は、データ取得部と、条件判定部と、送信制御部とを含む。データ取得部は、第1のアバターの仮想空間における第1の位置を示す第1の位置データと、第1のアバターの音声データとを取得する。条件判定部は、第1の位置に関する既定の条件が満足するか否かを判定する。送信制御部は、既定の条件が満足すると判定された場合に音声データを宛先端末へ向けて送信することを決定し、既定の条件が満足しないと判定された場合に音声データを宛先端末へ向けて送信しないことを決定する。【選択図】図1When sharing a virtual experience among a plurality of users, the traffic volume of voice data is suppressed or damage to the virtual experience of the users is prevented. A data transmission apparatus includes a data acquisition unit, a condition determination unit, and a transmission control unit. The data acquisition unit acquires first position data indicating a first position of the first avatar in the virtual space, and audio data of the first avatar. The condition determination unit determines whether a predetermined condition regarding the first position is satisfied. The transmission control unit determines to transmit voice data to the destination terminal when it is determined that the predetermined condition is satisfied, and directs the voice data to the destination terminal when it is determined that the predetermined condition is not satisfied. Decide not to send. [Selected figure] Figure 1

Description

本発明は、VR(Virtual Reality)、AR(Augmented Reality)、またはMR(Mixed Reality)技術に関する。   The present invention relates to VR (Virtual Reality), AR (Augmented Reality), or MR (Mixed Reality) technology.

従来、HMD(Head Mounted Display)を装着した複数のユーザ間でネットワークを介して仮想体験、すなわちVR体験を共有することが知られている。具体的には、仮想空間上においてユーザ間(アバター間)の音声チャット(VRチャット)を実現することが知られている(特許文献1の[0081])。   Conventionally, it is known to share a virtual experience, that is, a VR experience, via a network among a plurality of users wearing a head mounted display (HMD). Specifically, it is known to realize voice chat (VR chat) between users (between avatars) in a virtual space ([0081] of Patent Document 1).

特許文献1には、「ユーザAの音声を示す音声データ(ユーザAの音声データ)をサーバ2に送信する」こと([0076])、「サーバ2の制御部23は、ユーザ端末1Aから受信したユーザAの音声データに関連する音量パラメータLを設定する(ステップS15)。ここで、音量パラメータLはユーザ端末1Bのヘッドフォン116(音声出力部)に出力されるユーザAの音声の音量(音圧レベル)を規定するパラメータである」こと([0078])、「アバター4Bが仮想空間における高伝達領域に位置している場合には、音量パラメータLを音量パラメータL1に設定する」および「アバター4Bが仮想空間における高伝達領域に位置していない場合には、音量パラメータLを音量パラメータL2に設定する」こと(要約書)、「ユーザAの音声データと、音量パラメータLをユーザ端末1Bに送信する」こと([0079])、「ユーザ端末1Bの制御部121は、ユーザAの音声データと、音量パラメータLとに基づいて、ユーザAの音声をヘッドフォン116に出力する」こと([0081])、などが開示されている。   In Patent Document 1, "send voice data (voice data of user A) indicating voice of user A to server 2" ([0076]), and "control unit 23 of server 2 receives from user terminal 1A The volume parameter L related to the voice data of the user A is set (step S15), where the volume parameter L is the volume of the voice of the user A output to the headphones 116 (voice output unit) of the user terminal 1B (sound ([0078]), "if the avatar 4B is located in the high transmission area in the virtual space, set the volume parameter L to the volume parameter L1", and "the avatar If the 4B is not located in the high transfer area in the virtual space, set the volume parameter L to the volume parameter L2 "(summary) Transmitting the voice data of the user A and the volume parameter L to the user terminal 1B "([0079])," the control unit 121 of the user terminal 1B transmits the voice data of the user A and the volume parameter L, Outputting the voice of the user A to the headphone 116 ([0081]) and the like are disclosed.

特許第6289703号公報Patent No. 6289703 gazette

仮想空間において複数のユーザ間で例えば音声チャットのような聴覚的な仮想体験の共有を実現するために、各ユーザの端末から他の端末へ向けて音声データを送信することがある。このように端末間で音声データをやり取りすると、仮想体験を共有するユーザ数が増えるほど、音声データのトラフィック量が増大することになる。換言すれば、音声データのトラフィック量が、仮想空間に収容可能なユーザの最大数を制限する一要因となる可能性がある。これは、VR体験のみならず、ARまたはMRといった仮想的な要素を含む体験(以降、仮想的体験と称する)全般において生じ得る。   In order to realize sharing of an auditory virtual experience such as voice chat among a plurality of users in a virtual space, voice data may be transmitted from a terminal of each user to another terminal. When voice data is exchanged between terminals in this manner, the traffic volume of voice data increases as the number of users sharing the virtual experience increases. In other words, the traffic volume of voice data may be one factor that limits the maximum number of users that can be accommodated in the virtual space. This can occur in all experiences including virtual elements such as AR or MR (hereinafter referred to as virtual experiences) as well as VR experiences.

また、仮想的体験を共有するユーザ数が多すぎると、例えばあるユーザのアバターの音声が、同時に発話した他のユーザのアバターの音声に埋もれてしまい、聞き取ることが困難となるおそれもある。これは、例えば仮想空間においてライブなどのイベントを開催する場合により深刻である。すなわち、多くのユーザが注目している、出演者などの主要なアバターのトークや歌声が、観客などの他のアバターの笑い声、歓声、拍手、やじ、などのリアクションに埋もれてしまい、ユーザの仮想的体験を損なうおそれがある。   In addition, if the number of users sharing the virtual experience is too large, for example, the voice of the avatar of a certain user may be buried in the voice of the avatar of another user who uttered at the same time, which may make it difficult to hear. This is more serious, for example, when holding an event such as live in a virtual space. That is, the talks and singing voices of major avatars such as performers, which are being watched by many users, are buried in the reaction of other avatars such as spectators, such as laughter, cheers, applause, hiji, etc., and the user's virtual Personal experience may be impaired.

本発明は、複数のユーザ間で仮想的体験を共有する場合に、音声データのトラフィック量を抑制し、またはユーザの仮想的体験の毀損を防止することを目的とする。   An object of the present invention is to reduce traffic volume of voice data or prevent damage to a user's virtual experience when sharing virtual experiences among a plurality of users.

本発明の一態様に係るデータ送信装置は、取得部と、判定部と、送信制御部とを含む。取得部は、第1のアバターの仮想空間における第1の位置を示す第1の位置データと、第1のアバターの音声データとを取得する。判定部は、第1の位置に関する既定の条件が満足するか否かを判定する。送信制御部は、既定の条件が満足すると判定された場合に音声データを宛先端末へ向けて送信することを決定し、既定の条件が満足しないと判定された場合に音声データを宛先端末へ向けて送信しないことを決定する。   A data transmission apparatus according to an aspect of the present invention includes an acquisition unit, a determination unit, and a transmission control unit. An acquisition part acquires the 1st position data which show the 1st position in virtual space of the 1st avatar, and the voice data of the 1st avatar. The determination unit determines whether a predetermined condition regarding the first position is satisfied. The transmission control unit determines to transmit voice data to the destination terminal when it is determined that the predetermined condition is satisfied, and directs the voice data to the destination terminal when it is determined that the predetermined condition is not satisfied. Decide not to send.

本発明の別の態様に係る端末は、取得部と、判定部と、送信制御部とを含む。取得部は、第1のアバターの仮想空間における第1の位置を示す第1の位置データと、第1のアバターの音声データとを取得する。判定部は、第1の位置に関する既定の条件が満足するか否かを判定する。送信制御部は、既定の条件が満足すると判定された場合にピア・ツー・ピア型のネットワーク経由で音声データを宛先端末へ向けて送信することを決定し、既定の条件が満足しないと判定された場合にクライアント/サーバ型のネットワーク経由で音声データを宛先端末へ向けて送信することを決定する。   A terminal according to another aspect of the present invention includes an acquisition unit, a determination unit, and a transmission control unit. An acquisition part acquires the 1st position data which show the 1st position in virtual space of the 1st avatar, and the voice data of the 1st avatar. The determination unit determines whether a predetermined condition regarding the first position is satisfied. The transmission control unit determines to transmit voice data to the destination terminal via the peer-to-peer network when it is determined that the predetermined condition is satisfied, and it is determined that the predetermined condition is not satisfied. In this case, it is decided to transmit voice data to the destination terminal via the client / server network.

本発明によれば、複数のユーザ間で仮想的体験を共有する場合に、音声データのトラフィック量を抑制し、またはユーザの仮想的体験の毀損を防止することができる。   According to the present invention, when sharing a virtual experience among a plurality of users, it is possible to suppress the traffic volume of voice data or prevent the damage of the virtual experience of the user.

実施形態に係る端末を例示するブロック図。The block diagram which illustrates the terminal concerning an embodiment. 図1の端末を含む仮想的体験共有システムを例示するブロック図。FIG. 2 is a block diagram illustrating a virtual experience sharing system including the terminal of FIG. 1; 既定の条件(1)の説明図。Explanatory drawing of default condition (1). 既定の条件(2)の説明図。Explanatory drawing of default condition (2). 既定の条件(3)の説明図。Explanatory drawing of default condition (3). 既定の条件(4)の説明図。Explanatory drawing of default condition (4). 図1の端末の動作を例示するフローチャート。5 is a flowchart illustrating the operation of the terminal of FIG. 変形例1に係る端末を含む仮想的体験共有システムを例示するブロック図。The block diagram which illustrates the virtual experience sharing system containing the terminal concerning modification 1. 変形例1に係る端末の動作を例示するフローチャート。10 is a flowchart illustrating an operation of a terminal according to a modification 1; 変形例2に係るサーバを例示するブロック図。FIG. 8 is a block diagram illustrating a server according to a second modification;

以下、図面を参照しながら実施形態の説明を述べる。なお、以降、説明済みの要素と同一または類似の要素には同一または類似の符号を付し、重複する説明については基本的に省略する。例えば、複数の同一または類似の要素が存在する場合に、各要素を区別せずに説明するために共通の符号を用いることがあるし、各要素を区別して説明するために当該共通の符号に加えて枝番号を用いることもある。   Hereinafter, the description of the embodiment will be described with reference to the drawings. Hereinafter, elements which are the same as or similar to the already described elements are denoted by the same or similar reference numerals, and redundant descriptions will be basically omitted. For example, when there are a plurality of identical or similar elements, a common code may be used to explain each element without distinction, and the common code may be used to distinguish and describe each element. In addition, branch numbers may be used.

(実施形態)
実施形態に係る端末は、仮想的体験共有システムを構成することができる。かかるシステムは、図2に例示される。このシステムでは、端末100は互いに、例えばインターネットなどのネットワーク経由で接続されており、データを送受信できる。
(Embodiment)
The terminal according to the embodiment can configure a virtual experience sharing system. Such a system is illustrated in FIG. In this system, the terminals 100 are connected to each other via a network such as the Internet, for example, and can transmit and receive data.

なお、図2のシステムでは、端末100同士がサーバを介してデータを送受信するC/S(Client / Server)型のネットワークではなく、端末100同士がデータを直接送受信するP2P(Peer to Peer)型のネットワークが採用されている。しかしながら、P2P型のネットワークに代えて、またはP2P型のネットワークに追加して、C/S型のネットワークを採用したとしても、本実施形態に係る端末100およびサーバを用いて仮想的体験共有システムを構築することは可能である。   In the system of FIG. 2, instead of a C / S (Client / Server) type network in which the terminals 100 transmit and receive data via a server, a P2P (Peer to Peer) type in which the terminals 100 transmit and receive data directly Networks have been adopted. However, even if the C / S type network is employed instead of or in addition to the P2P type network, the virtual experience sharing system is implemented using the terminal 100 and the server according to the present embodiment. It is possible to build.

ここで、P2P型のネットワークは、C/S型のネットワークに比べて種々のメリットがある。具体的には、かかるメリットとして、データ伝送に伴う遅延が低減するのでリアルタイム性の高い仮想的体験の共有に適していること、サーバが存在しないためC/S型のネットワークではサーバに集中していたトラフィックおよび負荷を分散することができること、単一障害点が存在しないこと、などを挙げることができる。   Here, the P2P type network has various merits as compared with the C / S type network. Specifically, the merit is that the delay associated with data transmission is reduced, so it is suitable for sharing a virtual experience with high real-time capability, and since there is no server, it is concentrated on servers in C / S type networks. And the ability to distribute traffic and load, the absence of a single point of failure, and so on.

反面、P2P型のネットワークを採用すると、リンク数はユーザ数nに対してn×(n−1)/2個となり、非線形に増加することになる。故に、P2P型のネットワークでは通常はユーザ数が増えると音声データのトラフィック量は爆発的に増大するため、C/S型のネットワークを採用した場合に比べて音声データのトラフィック量の問題がより深刻となり得る。   On the other hand, when a P2P type network is adopted, the number of links becomes n × (n−1) / 2 with respect to the number of users n, and increases non-linearly. Therefore, in a P2P network, the traffic volume of voice data increases explosively as the number of users usually increases, so the traffic volume problem of voice data is more serious than when a C / S network is adopted. It can be

端末100は、ユーザの頭部に装着可能なHMD10(第1のデバイス)に表示されるVR/AR/MR画像、およびスピーカ(これは、HMD10に内蔵されていてもよいし、HMD10とは別体であってもよい。)によって出力されるVR/AR/MR音声を制御するように構成されたコンピュータであり、当該HMD10とユーザが把持可能なコントローラ20(第2のデバイス)とにそれぞれ接続されている。なお、コントローラ20は、ユーザ毎に、2つ(両手用)用意されてもよいし、1つ(片手用)用意されてもよい。また、コントローラ20は、手以外の部位に装着されてもよい。さらに、図2には示されていないものの、HMD10および/またはコントローラ20の位置を検出するための位置センサシステムに含まれる要素の1つであるベースステーションがさらに端末100に接続されてもよい。   The terminal 100 is a VR / AR / MR image displayed on the HMD 10 (first device) attachable to the head of the user, and a speaker (which may be built in the HMD 10 or separately from the HMD 10 ) Is a computer configured to control the VR / AR / MR sound output by the body), and is connected to the HMD 10 and the controller 20 (second device) which can be held by the user. It is done. The controller 20 may be prepared two (for both hands) or one (for one hand) for each user. In addition, the controller 20 may be attached to a part other than the hand. Furthermore, although not shown in FIG. 2, a base station, which is one of the elements included in the position sensor system for detecting the position of the HMD 10 and / or the controller 20, may be further connected to the terminal 100.

端末100は、HMD10、コントローラ20、および/またはベースステーションと、例えばUSB(Universal Serial Bus)ケーブル、HDMI(登録商標)(High―Definition Multimedia Interface)ケーブル、などの有線通信手段により接続されてもよいし、例えばBluetooth(登録商標)、WirelessHD、WHDI(Wireless Home Digital Interface)、などの無線通信手段により接続されてもよい。   The terminal 100 may be connected to the HMD 10, the controller 20, and / or the base station by a wired communication means such as a Universal Serial Bus (USB) cable, a High-Definition Multimedia Interface (HDMI) (registered trademark) cable, etc. For example, it may be connected by wireless communication means such as Bluetooth (registered trademark), WirelessHD, WHDI (Wireless Home Digital Interface), or the like.

端末100は、後述されるように、マイクロホンによって生成された音声データを他の端末100(宛先端末)へ既定の条件付きで送信する。他の端末100は、この音声データを再生して出力する。これにより、音声データのトラフィック量を抑制しながらも、ユーザ間の音声チャット、またはライブなどの臨場感のあるイベントをVR/AR/MR空間において実現することが可能となる。   The terminal 100 transmits voice data generated by the microphone to another terminal 100 (destination terminal) with predetermined conditions, as described later. The other terminal 100 reproduces and outputs this voice data. As a result, it is possible to realize realistic events such as voice chat between users or live in the VR / AR / MR space while suppressing the traffic volume of voice data.

また、アバターの姿勢を動的に制御するために、端末100は、後述されるようにHMD10の位置およびコントローラ20の位置に基づく値を持つ制御データを取得し、当該制御データを他の端末100(宛先端末)へ向けて送信してもよい。制御データは、アバターの姿勢を決定づける。   Also, in order to dynamically control the attitude of the avatar, the terminal 100 acquires control data having values based on the position of the HMD 10 and the position of the controller 20 as described later, and the control data is transmitted to the other terminal 100. You may transmit toward (destination terminal). Control data determine the attitude of the avatar.

制御データを受信した他の端末100は、受信した制御データに基づいてユーザのアバター画像を生成する。すなわち、ユーザは、HMD10を装着した頭やコントローラ20を把持した手を動かすことで自らの分身であるアバターに自由な姿勢を取らせることができる。   The other terminal 100 receiving the control data generates an avatar image of the user based on the received control data. That is, the user can make the avatar which is his / her second body take a free posture by moving the head wearing the HMD 10 or the hand holding the controller 20.

具体的には、他の端末100は、受信した制御データの示すHMD10の位置に応じてアバター画像の頭部の位置を決定し、当該制御データの示すコントローラ20の位置に応じてアバター画像の手の位置を決定する。アバターの姿勢の制御には、例えばIK(Inverse Kinematics)技術を利用することができる。   Specifically, the other terminal 100 determines the position of the head of the avatar image according to the position of the HMD 10 indicated by the received control data, and the hand of the avatar image according to the position of the controller 20 indicated by the control data. Determine the position of For controlling the posture of the avatar, for example, IK (Inverse Kinematics) technology can be used.

HMD10は、アバター画像を含むVR/AR/MR画像を表示するための表示装置に加え、種々のセンサ、スピーカ、マイクロホン、などを含み得る。種々のセンサは、動きセンサ、装着センサ、または位置センサシステムに含まれる要素の一部(後述されるマーカーまたはカメラ)を含み得る。HMD10は、端末100から画像データおよび音声データを受け取って、これらを出力したり、各種センサのセンサデータを端末100へ向けて送信したりする。   The HMD 10 may include various sensors, speakers, microphones, and the like in addition to a display device for displaying a VR / AR / MR image including an avatar image. The various sensors may include motion sensors, mounting sensors, or portions of elements included in the position sensor system (markers or cameras described below). The HMD 10 receives image data and voice data from the terminal 100 and outputs them, or sends sensor data of various sensors to the terminal 100 for transmission.

表示装置は、透過型ディスプレイであってもよいし、非透過型ディスプレイであってもよい。例えば、HMD10を装着したユーザの視界の少なくとも一部を覆うように表示装置のサイズおよび配置が定められる。表示装置は、左目用表示装置と右目用表示装置とで構成されてもよいし、両者が一体化されていてもよい。   The display device may be a transmissive display or non-transmissive display. For example, the size and arrangement of the display device are determined to cover at least a part of the field of view of the user wearing the HMD 10. The display device may be configured of a display device for the left eye and a display device for the right eye, or both may be integrated.

動きセンサは、例えば、加速度センサ、ジャイロスコープ、磁気センサ、などであり得る。動きセンサによって検出されたセンサデータは、ユーザの頭部の姿勢(例えば傾き)の推定に利用することができる。具体的には、このセンサデータに基づいて、ユーザの頭部の3次元的な回転角であるYaw角、Roll角、およびPitch角が推定され、これに応じてユーザの視界を決定する仮想カメラの視軸および/またはアバターの頭部の姿勢が制御され得る。   The motion sensor may be, for example, an acceleration sensor, a gyroscope, a magnetic sensor, and the like. Sensor data detected by the motion sensor can be used to estimate the posture (e.g., tilt) of the user's head. Specifically, based on this sensor data, a three-dimensional rotational angle of the user's head, a Yaw angle, a Roll angle, and a Pitch angle, are estimated, and a virtual camera that determines the field of view of the user accordingly. The position of the visual axis of and / or the head of the avatar may be controlled.

装着センサは、ユーザがHMD10を装着/取り外したことを示すセンサデータ(イベントデータ)を発生する。装着センサの仕組みは任意であるが、例えば、HMD10に設けられたバネの弾性力の変化、HMD10の装着時にユーザの鼻などの身体の一部に接触するパッド間を流れる電流の変化、などに応じてイベントデータを発生することが可能である。   The mounting sensor generates sensor data (event data) indicating that the user has mounted / removed the HMD 10. Although the mechanism of the mounting sensor is arbitrary, for example, the change of the elastic force of the spring provided on the HMD 10, the change of the current flowing between the pads contacting a part of the body such as the user's nose when the HMD 10 is mounted, etc. It is possible to generate event data accordingly.

スピーカは、端末100から音声データを受け取り、これに基づいて音声を出力する。スピーカは、典型的にはヘッドホン型であるが、これ以外のスピーカシステムとして構成されてもよい。マイクロホンは、音声(主にユーザの発話であるが、周囲の環境音を含み得る)を収集する。マイクロホンは、収集した音声に基づいて音声データを生成し、端末100へ送る。   The speaker receives audio data from the terminal 100 and outputs an audio based thereon. The speaker is typically a headphone type, but may be configured as another speaker system. The microphone collects voice (which is primarily user speech but may include ambient sounds). The microphone generates voice data based on the collected voice and sends it to the terminal 100.

コントローラ20は、ユーザ入力を受け付けるボタンに加え、例えば、HMD10と同様の動きセンサ、位置センサシステムに含まれる要素の一部、などを含み得る。さらに、コントローラ20は、ユーザがコントローラ20を把持/手放したことを示すセンサデータ(イベントデータ)を発生する把持センサを含んでもよい。把持センサの仕組みは任意であるが、例えば、ユーザの把持力によりコントローラ20に加わる圧力の変化、コントローラ20の表面に設けられたセンサ電極と人体との間の静電容量の変化、などに応じてイベントデータを発生することが可能である。コントローラ20は、ユーザ入力データ、各種センサのセンサデータ、などを端末100へ向けて送信する。   The controller 20 may include, for example, a motion sensor similar to the HMD 10, a part of elements included in the position sensor system, and the like, in addition to a button for receiving user input. Furthermore, the controller 20 may include a gripping sensor that generates sensor data (event data) indicating that the user grips / hands off the controller 20. Although the mechanism of the grip sensor is arbitrary, for example, according to the change of the pressure applied to the controller 20 by the user's grip force, the change of the capacitance between the sensor electrode provided on the surface of the controller 20 and the human body, etc. Event data can be generated. The controller 20 transmits user input data, sensor data of various sensors, and the like to the terminal 100.

位置センサシステムは、例えばカメラ(ポジション・トラッキング・カメラ)とマーカー(トラッカーとも呼ばれる)との組み合わせにより実現される。マーカーは、赤外光または可視光のエミッタ(例えばLED(Light Emitting Diode))であってもよいし、カメラの撮影時にエミッタから発せられる赤外光または可視光を反射するための反射材であってもよい。カメラは、マーカーが赤外光を照射または反射する場合には赤外線センサであり得るし、マーカーが可視光を照射または反射する場合には可視光カメラであり得る。   The position sensor system is realized by, for example, a combination of a camera (position tracking camera) and a marker (also called a tracker). The marker may be an emitter of infrared light or visible light (for example, an LED (Light Emitting Diode)), or a reflector for reflecting infrared light or visible light emitted from the emitter at the time of shooting by a camera. May be The camera may be an infrared sensor if the marker illuminates or reflects infrared light, and may be a visible light camera if the marker illuminates or reflects visible light.

典型的には、HMD10/コントローラ20に複数のマーカーが取り付けられ、カメラがHMD10/コントローラ20から離れた位置に設置された装置(ベースステーション)に取り付けられる。カメラの撮影画像に基づいて、HMD10/コントローラ20の位置を推定することができる。具体的には、ベースステーションは、撮影画像に基づいて検知点の位置、傾き、発光強度などを検出することができる。ベースステーションは、かかる検知点のデータに基づいてHMD10/コントローラ20の位置(座標)データを計算してもよいし、かかる計算は端末100に委ねられてもよい。   Typically, a plurality of markers are attached to the HMD 10 / controller 20, and a camera is attached to a device (base station) installed at a position distant from the HMD 10 / controller 20. The position of the HMD 10 / controller 20 can be estimated based on the captured image of the camera. Specifically, the base station can detect the position, inclination, light emission intensity and the like of the detection point based on the photographed image. The base station may calculate position (coordinates) data of the HMD 10 / controller 20 based on the data of such detection points, or such calculation may be delegated to the terminal 100.

なお、変形例として、カメラをHMD10/コントローラ20側に設け、マーカーをベースステーション側に設けることも可能である。また、HMD10およびコントローラ20に取り付けられるマーカーに加えて、ユーザの関節、抹消部などにさらなるマーカーが取り付けられてもよい。これにより、ユーザの姿勢をより正確に推定することが可能となる。   As a modification, it is also possible to provide a camera on the HMD 10 / controller 20 side and a marker on the base station side. Also, in addition to the markers attached to the HMD 10 and the controller 20, additional markers may be attached to the joints, erasures, etc. of the user. This makes it possible to estimate the posture of the user more accurately.

以下、端末100のハードウェア構成について説明する。端末100は、HMD10の制御装置となり得る種々の電子デバイス、例えば、PC(Personal Computer)、モバイル端末(例えば、タブレット、ファブレット、スマートフォン、ラップトップ、フィーチャーフォン、ウェアラブルデバイス、ポータブルゲーム機、など)、据え置き型ゲーム機、などであり得るが、これらに限られない。   The hardware configuration of the terminal 100 will be described below. The terminal 100 may be various electronic devices that can be the control device of the HMD 10, such as a PC (Personal Computer), a mobile terminal (eg, a tablet, a Fablet, a smartphone, a laptop, a feature phone, a wearable device, a portable game machine, etc.) , Stationary game console, etc., but is not limited thereto.

なお、端末100は、HMD10または他のデバイス(コントローラ20、ベースステーション、など)と必ずしも別体でなくてもよい。例えば、端末100がHMD10またはベースステーションに内蔵されていてもよいし、端末100をコントローラ20として扱うこともあり得る。   The terminal 100 may not necessarily be separate from the HMD 10 or another device (such as the controller 20 or the base station). For example, the terminal 100 may be built in the HMD 10 or the base station, or the terminal 100 may be treated as the controller 20.

端末100は、例えば、入出力制御、通信制御(特に、音声データの送信制御)、画像/音声処理、既定の条件判定、などを行うプロセッサを含む。ここで、プロセッサは、典型的にはCPU(Central Processing Unit)および/またはGPU(Graphics Processing Unit)であるが、マイコン、FPGA(Field Programmable Gate Array)、DSP(Digital Signal Processor)、またはその他の汎用または専用のプロセッサなどであってもよい。   The terminal 100 includes, for example, a processor that performs input / output control, communication control (in particular, transmission control of audio data), image / audio processing, predetermined condition determination, and the like. Here, the processor is typically a central processing unit (CPU) and / or a graphics processing unit (GPU), but a microcomputer, a field programmable gate array (FPGA), a digital signal processor (DSP), or any other general purpose Or it may be a dedicated processor or the like.

また、端末100は、かかる処理を実現するためにプロセッサによって実行されるプログラムおよび当該プロセッサによって使用されるデータ、例えば、アバター、背景、などのVR/AR/MR体験を演出するための各種オブジェクトの基となる画像データを一時的に格納するメモリを含んでいる。メモリは、かかるプログラム/データが展開されるワークエリアを有するRAM(Random Access Memory)を含み得る。   The terminal 100 may also execute programs executed by the processor to realize such processing and data used by the processor, for example, various objects for producing a VR / AR / MR experience such as avatars, backgrounds, etc. It contains a memory that temporarily stores the underlying image data. The memory may include a random access memory (RAM) having a work area in which such programs / data are expanded.

なお、端末100は、全てのデータをオンメモリの状態で扱ってもよいし、一部のデータが補助記憶装置に退避されていてもよい。補助記憶装置は、例えば、端末100に内蔵または外付けされたHDD(Hard Disc Drive)、SSD(Solid State Drive)、フラッシュメモリなどであってもよいし、端末100からアクセス可能なデータベースサーバであってもよい。   Terminal 100 may handle all data in the on-memory state, or some data may be saved in the auxiliary storage device. The auxiliary storage device may be, for example, a hard disc drive (HDD), a solid state drive (SSD), a flash memory, etc. built in or externally attached to the terminal 100, or a database server accessible from the terminal 100. May be

端末100は、さらに、ネットワークに接続するための通信I/F(インタフェース)を利用可能である。通信I/Fは、端末100に内蔵されてもよいし、端末100に外付けされてもよい。通信I/Fは、他の端末100、および/または、外部装置、例えば、HMD10、コントローラ20、ベースステーション、などと通信をするためのモジュールであって、送受信のための信号処理回路、アンテナ、LAN(Local Area Network)端子などを含み得る。通信I/Fは、例えば移動通信などの広域通信用のモジュール、無線/有線LAN用のモジュール、Bluetooth用のモジュール、などであり得る。   The terminal 100 can further use a communication I / F (interface) for connecting to the network. The communication I / F may be incorporated in the terminal 100 or may be externally attached to the terminal 100. The communication I / F is a module for communicating with another terminal 100 and / or an external device such as the HMD 10, the controller 20, a base station, etc., and includes a signal processing circuit for transmission and reception, an antenna, It may include a LAN (Local Area Network) terminal or the like. The communication I / F may be, for example, a module for wide area communication such as mobile communication, a module for wireless / wired LAN, a module for Bluetooth, or the like.

端末100は、さらに、外部装置、例えば、HMD10、コントローラ20、ベースステーション、などにケーブル接続するための入出力I/Fを利用可能である。入出力I/Fは、USB端子、DVI(Digital Visual Interface)端子、HDMI端子、またはその他のデータ転送用ケーブルのための端子、などである。   The terminal 100 can further utilize an input / output I / F for cable connection to an external device such as the HMD 10, the controller 20, a base station, and the like. The input / output I / F is, for example, a USB terminal, a DVI (Digital Visual Interface) terminal, an HDMI terminal, or a terminal for another data transfer cable.

端末100は、さらに、各要素、例えば、プロセッサ、メモリ、補助記憶装置、通信I/F、入出力I/Fなどの間でデータを転送するためのバスを含み得る。   Terminal 100 may further include a bus for transferring data between each element, for example, a processor, a memory, an auxiliary storage device, a communication I / F, an input / output I / F, and the like.

図1には、端末100の機能構成が例示される。端末100は、入力部101と、受信部102と、送信部103と、出力部104と、データ取得部111と、距離算出部112と、条件判定部113と、送信制御部114と、画像生成部115と、音声生成部116とを含む。   The functional configuration of the terminal 100 is illustrated in FIG. The terminal 100 includes an input unit 101, a reception unit 102, a transmission unit 103, an output unit 104, a data acquisition unit 111, a distance calculation unit 112, a condition determination unit 113, a transmission control unit 114, and image generation. And a voice generation unit 116.

入力部101は、前述の入出力I/Fにより実現され得る。入力部101は、外部装置、例えば、HMD10、コントローラ20、ベースステーション、マイクロホン(HMD10に内蔵されていてもよいし、別体であってもよい)、などから種々のデータを受け付ける。入力部101は、受け付けたデータをデータ取得部111へ送る。   The input unit 101 can be realized by the aforementioned input / output I / F. The input unit 101 receives various data from an external device such as the HMD 10, the controller 20, a base station, a microphone (which may be built in the HMD 10 or may be separate), and the like. The input unit 101 sends the received data to the data acquisition unit 111.

具体的には、入力部101は、アバター(端末100のユーザに関連付けられるアバターであり、以降は第1のアバターと称する)仮想空間における位置を示す位置データ、マイクロホンによって生成された第1のアバターの音声データ、第1のアバターの姿勢を制御するための制御データ(これは、位置データと統合されてもよいし、別個のデータであってもよい)、などを受け付け得る。   Specifically, the input unit 101 is an avatar (an avatar associated with the user of the terminal 100, hereinafter referred to as a first avatar) position data indicating a position in a virtual space, a first avatar generated by a microphone Voice data, control data for controlling the posture of the first avatar (which may be integrated with the position data, may be separate data), and the like.

ここで、位置データは、例えば、HMD10および/またはコントローラ20の位置を示すデータであってもよいし、これらに基づいて生成されたデータであってもよい。制御データについても同様である。なお、外部装置と端末100との関係次第で、これらのデータの一部または全部が、入力部101ではなく受信部102によって受信されることもあり得る。   Here, the position data may be, for example, data indicating the position of the HMD 10 and / or the controller 20, or may be data generated based on these. The same applies to control data. Note that, depending on the relationship between the external device and the terminal 100, part or all of these data may be received by the receiving unit 102 instead of the input unit 101.

受信部102は、前述の通信I/Fにより実現され得る。受信部102は、ネットワーク経由で、他の端末100から、アバター(他の端末100のユーザに関連付けられるアバターであり、以降は他アバターと称する)の仮想空間における位置を示す位置データ、他アバターの制御データおよび/または音声データを受信し得る。受信部102は、受信したデータをデータ取得部111へ送る。   The receiving unit 102 can be realized by the aforementioned communication I / F. The receiving unit 102 receives position data indicating the position in the virtual space of an avatar (an avatar associated with the user of the other terminal 100, hereinafter referred to as another avatar) from another terminal 100 via the network, or other avatars Control data and / or voice data may be received. The receiving unit 102 sends the received data to the data acquisition unit 111.

送信部103は、前述の通信I/Fにより実現され得る。送信部103は、送信制御部114によって制御され、第1のアバターの音声データ、位置データおよび/または制御データを宛先端末へ向けて送信する。   The transmission unit 103 can be realized by the aforementioned communication I / F. The transmission unit 103 is controlled by the transmission control unit 114 and transmits voice data, position data and / or control data of the first avatar toward the destination terminal.

出力部104は、前述の入出力I/Fにより実現され得る。出力部104は、外部装置、例えば、HMD10、スピーカへ出力データ、具体的には、出力部104は、VR/AR/MR画像データをHMD10へ出力したり、VR/AR/MR音声データをスピーカへ出力したりする。さらに、出力部104は、HMD10および/またはコントローラ20へ、触覚フィードバック用のバイブレータ(図示されない)を振動させるための振動データを出力してもよい。   The output unit 104 can be realized by the aforementioned input / output I / F. The output unit 104 outputs data to an external device, for example, the HMD 10, to the speaker, and more specifically, the output unit 104 outputs VR / AR / MR image data to the HMD 10, and outputs VR / AR / MR audio data to the speaker. Output to Furthermore, the output unit 104 may output vibration data for vibrating a vibrator (not shown) for haptic feedback to the HMD 10 and / or the controller 20.

データ取得部111は、前述のプロセッサにより実現され得る。データ取得部111は、入力部101および受信部102から種々のデータを取得する。データ取得部111は、取得したデータを、距離算出部112、条件判定部113、画像生成部115および/または音声生成部116へ送る。   The data acquisition unit 111 may be realized by the processor described above. The data acquisition unit 111 acquires various data from the input unit 101 and the reception unit 102. The data acquisition unit 111 sends the acquired data to the distance calculation unit 112, the condition determination unit 113, the image generation unit 115, and / or the sound generation unit 116.

具体的には、データ取得部111は、第1のアバターの音声データ、位置データ、および制御データ、などに加えて、他アバターの音声データ、位置データ、および制御データ、などを取得し得る。   Specifically, in addition to the voice data, position data, and control data of the first avatar, the data obtaining unit 111 can obtain voice data, position data, control data, and the like of other avatars.

例えば、データ取得部111は、第1のアバターの位置データを距離算出部112および条件判定部113へ送り、第1のアバターの音声データおよび制御データを条件判定部113へ送り、他アバターの位置データを距離算出部112へ送り、他アバターの制御データを画像生成部115へ送り、他アバターの音声データを音声生成部116へ送り得る。   For example, the data acquisition unit 111 sends the position data of the first avatar to the distance calculation unit 112 and the condition determination unit 113, sends the voice data and control data of the first avatar to the condition determination unit 113, and the positions of other avatars. The data may be sent to the distance calculation unit 112, control data of another avatar may be sent to the image generation unit 115, and voice data of the other avatar may be sent to the voice generation unit 116.

なお、外部装置、例えば、HMD10、コントローラ20および/またはベースステーションがHMD10/コントローラ20の位置を推定して第1のアバターの位置データ/制御データを生成する場合には、データ取得部111は入力部101または受信部102から位置データ/制御データを直接取得することができる。他方、端末100(の図示されない位置/姿勢推定部)が位置センサシステムの出力データ(例えば、検知点の位置、傾き、発光強度などを示すデータ)に基づいてHMD10/コントローラ20の位置を推定して第1のアバターの位置データ/制御データを生成する必要がある場合には、データ取得部111はこの位置/姿勢推定部へ位置センサシステムの出力データを送り、位置データ/制御データの生成を依頼してもよい。   When the external device, for example, the HMD 10, the controller 20 and / or the base station estimates the position of the HMD 10 / controller 20 to generate the position data / control data of the first avatar, the data acquisition unit 111 inputs Position data / control data can be directly obtained from the unit 101 or the receiving unit 102. On the other hand, (the position / posture estimation unit (not shown) of the terminal 100 estimates the position of the HMD 10 / controller 20 based on output data of the position sensor system (for example, data indicating the position, inclination, light emission intensity, etc. of the detection point) If it is necessary to generate position data / control data of the first avatar, the data acquisition unit 111 sends output data of the position sensor system to the position / posture estimation unit to generate position data / control data. You may request it.

距離算出部112は、前述のプロセッサにより実現され得る。距離算出部112は、仮想空間における2地点間の距離を算出する。具体的には、距離算出部112は、仮想空間における基準地点から第1のアバターまたは他アバターの居る地点までの距離を算出し得る。基準地点は、第1のアバターまたは他アバターの居る地点に定められてもよいし、いずれのアバターも居ない地点に定められてもよい。距離算出部112は、距離データを条件判定部113へ送る。なお、後述される既定の条件が、仮想空間における2地点間の距離と無関係のものである場合には、距離算出部112は不要となり得る。   The distance calculation unit 112 may be realized by the processor described above. The distance calculation unit 112 calculates the distance between two points in the virtual space. Specifically, the distance calculation unit 112 can calculate the distance from the reference point in the virtual space to the point where the first avatar or another avatar is present. The reference point may be set at a point where the first avatar or another avatar is present, or may be set at a point where no avatar exists. The distance calculation unit 112 sends the distance data to the condition determination unit 113. In addition, when the predetermined condition mentioned later is a thing irrelevant to the distance between two points in virtual space, the distance calculation part 112 may become unnecessary.

条件判定部113は、前述のプロセッサにより実現され得る。条件判定部113は、データ取得部111から第1のアバターの音声データと、第1のアバターの制御データおよび/または位置データとを受け取り、さらに、距離算出部112から距離データを受け取り得る。条件判定部113は、第1のアバターの仮想空間における位置に関する既定の条件が満足するか否かを、第1のアバターの位置データおよび/または距離データに基づいて判定する。条件判定部113は、判定結果を示すデータとともに、第1のアバターの音声データ、位置データおよび/または制御データを送信制御部114へ送る。既定の条件は、ユーザの仮想的体験の毀損を防止しながら、同時に、共有対象となる音声データを間引くことを目的に定められ得る。   The condition determination unit 113 can be realized by the processor described above. The condition determination unit 113 can receive the voice data of the first avatar and the control data and / or position data of the first avatar from the data acquisition unit 111, and can further receive distance data from the distance calculation unit 112. The condition determination unit 113 determines whether a predetermined condition regarding the position of the first avatar in the virtual space is satisfied based on the position data and / or distance data of the first avatar. The condition determination unit 113 sends, to the transmission control unit 114, voice data, position data and / or control data of the first avatar together with data indicating the determination result. The predetermined conditions may be defined for the purpose of thinning out audio data to be shared, while preventing damage to the user's virtual experience.

具体的には、既定の条件は、(1)第1のアバターの仮想空間における位置(以降、第1の位置と称する)が既定のゾーン内にあること、(2)仮想空間に存在する第1のアバターを含む複数のアバター(仮想空間に存在する全アバターであってもよいし、そうでなくてもよい)の仮想空間における位置を仮想空間における既定の地点から近い順にソートした場合に、第1の位置が既定の順位以上となること、(3)宛先端末としての他の端末100に関連付けられる他アバターの仮想空間における位置と第1の位置との間の距離が閾値未満で在ること、または(4)仮想空間に存在する第1のアバターを除く複数のアバター(仮想空間に存在する第1のアバターを除く全アバターであってもよいし、そうでなくてもよい)の仮想空間における位置と第1の位置との間の距離を昇順にソートした場合に、宛先端末としての他の端末100に関連付けられる他アバターの仮想空間における位置と第1の位置との間の距離が既定の順位以上となること、を含み得る。ただし、既定の条件は、これら(1)〜(4)に限定されない。   Specifically, the predetermined condition is (1) that the position of the first avatar in the virtual space (hereinafter referred to as the first position) is in the predetermined zone, (2) the virtual space exists When the positions in the virtual space of a plurality of avatars (which may or may not be all avatars existing in the virtual space) including one avatar are sorted in order of proximity from a predetermined point in the virtual space, (1) The distance between the position in the virtual space of the other avatar associated with the other terminal 100 as the destination terminal and the first position is less than the threshold Or (4) a plurality of avatars excluding the first avatar existing in the virtual space (may be all avatars excluding the first avatar existing in the virtual space) or may not be virtual In space When the distance between the position and the first position is sorted in ascending order, the distance between the position in the virtual space of the other avatar associated with the other terminal 100 as the destination terminal and the first position is predetermined. It may include becoming more than a rank. However, predetermined conditions are not limited to these (1)-(4).

既定の条件(1)について、図3を用いて説明する。既定のゾーンは、仮想空間における既定の地点からの距離に基づいて定められてよい。ただし、既定のゾーンは、これに限らず例えばゾーン内外の境界の座標を指定するなどして任意に定義されてよい。図3および図4乃至図6は、仮想空間を見下ろした俯瞰図であり、丸数字のマークはアバターの(頭部の)位置を表しており、便宜的にその数字をアバターの符号としても用いることとする。また、図3において、既定のゾーンは、×印で表される既定の地点から半径○○メートル以内、と定められている。図3の例では、アバター1の位置は既定のゾーン内になく、アバター2の位置は既定のゾーン内にある。故に、アバター1に関連付けられるユーザの端末100において、条件判定部113は既定の条件が満足しないと判定する。他方、アバター2に関連付けられるユーザの端末100において、条件判定部113は既定の条件が満足すると判定する。なお、既定の条件(1)において、宛先端末の区別はなく、判定結果は全ての宛先端末との関係で適用される。すなわち、アバター1に関連付けられるユーザの端末100はいずれの他の端末100にも音声データを送信せず、アバター2に関連付けられるユーザの端末100は全ての他の端末100へ音声データを送信する。   The predetermined condition (1) will be described with reference to FIG. The default zone may be defined based on the distance from a predetermined point in virtual space. However, the predetermined zone is not limited to this, and may be arbitrarily defined, for example, by specifying the coordinates of the boundary inside and outside the zone. FIGS. 3 and 4 to 6 are bird's eye views looking down on the virtual space, and the circled number marks indicate the position of the avatar (of the head), and for convenience the number is also used as the avatar's code To be. Further, in FIG. 3, the predetermined zone is set to be within a radius of メ ー ト ル meters from the predetermined point represented by the cross mark. In the example of FIG. 3, the position of avatar 1 is not in the predetermined zone, and the position of avatar 2 is in the predetermined zone. Therefore, in the terminal 100 of the user associated with the avatar 1, the condition determination unit 113 determines that the predetermined condition is not satisfied. On the other hand, in the terminal 100 of the user associated with the avatar 2, the condition determination unit 113 determines that the predetermined condition is satisfied. In the predetermined condition (1), there is no distinction between destination terminals, and the determination result is applied in relation to all destination terminals. That is, the user's terminal 100 associated with avatar 1 does not transmit voice data to any other terminal 100, and the user's terminal 100 associated with avatar 2 sends voice data to all other terminals 100.

図3の例は、仮想空間において開催されるライブなどのイベントのように、各ユーザが特定のアバターの挙動に注目する場面に適している。図3の例によれば、既定のゾーンは仮想的なステージとみなすことができる。仮想ステージに登壇していないアバターの音声データは他の端末100へ送信されないため、仮想ステージに登壇しているアバターの音声が他のアバターの音声に埋もれにくくなる。すなわち、各ユーザは目的のアバターのトークや歌声に集中することができ、同時にシステム全体での音声データのトラフィック量を抑制することができる。また、仮想ステージを視覚的にも表現するために、VR/MR/AR画像データにおいて、既定のゾーンに仮想ステージを表すオブジェクトが配置されてもよい。さらに、既定のゾーン外の場所に仮想観客席を表すオブジェクトが配置されてもよい。なお、既定のゾーンは仮想ステージと一致させる必要はなく、例えば仮想観客席の最前列を含むようにしてもよい。これにより、仮想ステージに加えて仮想観客席に居るアバターの一部によるリアクションの音声データも共有されるので、臨場感を演出することが可能となる。   The example of FIG. 3 is suitable for a scene in which each user focuses on the behavior of a specific avatar, such as a live event held in a virtual space. According to the example of FIG. 3, the predetermined zone can be regarded as a virtual stage. Since voice data of avatars not placed on the virtual stage is not transmitted to the other terminal 100, voices of avatars placed on the virtual stage are less likely to be buried in voices of other avatars. That is, each user can concentrate on the target avatar's talk and singing voice, and at the same time, can suppress the traffic volume of voice data in the entire system. In addition, in VR / MR / AR image data, an object representing a virtual stage may be arranged in a predetermined zone in order to visually represent the virtual stage. Furthermore, an object representing a virtual audience seat may be placed at a place outside the predetermined zone. The predetermined zone does not have to coincide with the virtual stage, and may include, for example, the front row of virtual audience seats. Thereby, in addition to the virtual stage, the voice data of the reaction by a part of the avatar in the virtual spectator seat is also shared, so it is possible to produce a sense of reality.

或いは、見方を変えれば、既定の地点は仮想マイクロホンの設置ポイントとみなすこともできる。仮想マイクロホンから遠くに居るアバターの音声データは他の端末100へ送信されないため、仮想マイクロホンに近くに居るアバターの音声が他のアバターの音声に埋もれにくくなる。すなわち、各ユーザは目的のアバターのトークや歌声に集中することができ、同時にシステム全体での音声データのトラフィック量を抑制することができる。仮想マイクロホンを視覚的にも表現するために、VR/MR/AR画像データにおいて、既定のゾーンの基準位置となる既定の地点に仮想マイクロホンを表すオブジェクトが配置されてもよい。   Alternatively, from a different point of view, the predetermined point can be regarded as a virtual microphone placement point. Since voice data of an avatar located far from the virtual microphone is not transmitted to the other terminal 100, the voice of the avatar located near the virtual microphone is less likely to be buried in the voice of the other avatar. That is, each user can concentrate on the target avatar's talk and singing voice, and at the same time, can suppress the traffic volume of voice data in the entire system. An object representing the virtual microphone may be arranged at a predetermined point which is a reference position of a predetermined zone in the VR / MR / AR image data in order to visually represent also the virtual microphone.

既定の条件(2)について、図4を用いて説明する。図4において、×印は既定の地点を表しており、当該地点とアバター1との距離はd10、当該地点とアバター2との距離はd20、当該地点とアバター3との距離はd30で表される。d20<d10<d30であり、既定の順位が2位であったとする。かかる既定の条件の下では、アバター1およびアバター2に関連付けられるユーザの端末100において、条件判定部113は既定の条件が満足すると判定する。他方、アバター3に関連付けられるユーザの端末100において、条件判定部113は既定の条件が満足しないと判定する。なお、既定の条件(2)においても、宛先端末の区別はなく、判定結果は全ての宛先端末との関係で適用される。すなわち、アバター3に関連付けられるユーザの端末100はいずれの他の端末100にも音声データを送信せず、アバター1およびアバター2に関連付けられるユーザの端末100は全ての他の端末100へ音声データを送信する。 The default condition (2) will be described with reference to FIG. In FIG. 4, the crosses represent predetermined points, the distance between the point and avatar 1 is d 10 , the distance between the point and avatar 2 is d 20 , and the distance between the point and avatar 3 is d 30. Is represented by It is assumed that d 20 <d 10 <d 30 and the default ranking is second. Under the predetermined conditions, in the terminal 100 of the user associated with avatar 1 and avatar 2, the condition determination unit 113 determines that the predetermined conditions are satisfied. On the other hand, in the terminal 100 of the user associated with the avatar 3, the condition determination unit 113 determines that the predetermined condition is not satisfied. Also in the predetermined condition (2), there is no distinction between the destination terminals, and the determination result is applied in relation to all the destination terminals. That is, the terminal 100 of the user associated with avatar 3 does not transmit voice data to any other terminal 100, and the terminal 100 of the user associated with avatar 1 and avatar 2 transmits voice data to all other terminals 100. Send.

図4の例でも、図3の例と同様に既定の地点は仮想マイクロホンの設置ポイントとみなすことができる。ただし、図4の例では、音声データの共有されるアバターの数は限られる。故に、仮想空間に存在するアバターの数の規模の増大に伴って音声データの共有されるアバターの数が増加し、ひいては音声データのトラフィック量が増大する、という事態を防ぐことができる。例えば、仮想空間に存在するアバターの数が5人であろうと500人であろうと、音声データの共有されるアバターの数は2名に制限することができる。なお、既定の条件(2)は既定の条件(1)と組み合わせられてもよい。例えば、仮想空間に存在する第1のアバターを含む複数のアバターは、既定のゾーン内に居る者に限られてもよい。   Also in the example of FIG. 4, as in the example of FIG. 3, the predetermined point can be regarded as a virtual microphone installation point. However, in the example of FIG. 4, the number of shared avatars of audio data is limited. Therefore, it is possible to prevent the situation that the number of avatars shared with audio data increases with the increase of the scale of the number of avatars existing in the virtual space, and thus the traffic volume of audio data increases. For example, whether the number of avatars present in the virtual space is five or 500, the number of avatars shared with audio data can be limited to two. Note that the predetermined condition (2) may be combined with the predetermined condition (1). For example, the plurality of avatars including the first avatar existing in the virtual space may be limited to those who are in the predetermined zone.

なお、既定の条件(2)について判定をするためには、第1のアバターの位置データに加えて複数のアバターの位置データを取得する必要がある。故に、位置データを伝送し合うことによるトラフィック量の増加は避けられない。しかしながら、位置データのサイズは一般的に音声データに比べて小さいし、位置データは常時送信する必要がない(例えば、変化が検知されたときに限って送信されてもよい)。故に、端末100同士が位置データを送信し合うことによるトラフィック量の増分は限定的である。   In addition, it is necessary to acquire position data of a plurality of avatars in addition to the position data of the first avatar in order to determine the predetermined condition (2). Therefore, an increase in the amount of traffic due to mutual transmission of location data can not be avoided. However, the size of the position data is generally smaller than the voice data, and the position data need not always be transmitted (eg, it may be transmitted only when a change is detected). Therefore, the increment of the traffic amount due to the terminals 100 transmitting position data to each other is limited.

既定の条件(3)について、図5を用いて説明する。図5において、アバター1とアバター2の距離はd21、アバター1とアバター3との距離はd31で表される。d21<閾値<d31であったとする。かかる既定の条件の下では、アバター1に関連付けられるユーザの端末100において、条件判定部113は、アバター2に関連付けられるユーザの端末100との関係では既定の条件が満足すると判定し、アバター3に関連付けられるユーザの端末100との関係では既定の条件が満足しないと判定する。このように、既定の条件(3)および(4)では、条件判定部113は、宛先端末毎に、既定の条件が満足するか否かを判定する。換言すれば、端末100は、ある端末100へは音声データを送信するが、別の端末100へは音声データを送信しない可能性がある。 The default condition (3) will be described with reference to FIG. In FIG. 5, the distance between avatar 1 and avatar 2 is represented by d 21 , and the distance between avatar 1 and avatar 3 is represented by d 31 . It is assumed that d 21 <threshold <d 31 . Under the predetermined conditions, in the terminal 100 of the user associated with the avatar 1, the condition determination unit 113 determines that the predetermined condition is satisfied in the relationship with the terminal 100 of the user associated with the avatar 2, and It is determined that the predetermined condition is not satisfied in relation to the terminal 100 of the associated user. As described above, under the predetermined conditions (3) and (4), the condition determination unit 113 determines, for each destination terminal, whether the predetermined condition is satisfied. In other words, the terminal 100 may transmit voice data to one terminal 100 but may not transmit voice data to another terminal 100.

図5の例は、仮想空間においてアバター同士の会話(音声チャット)を楽しむ場面に適している。すなわち、端末100は、第1のアバターから遠くに居る他のアバターの音声データを受信しないため、第1のアバターに近くに居るアバターの音声が遠くに居るアバターの音声に埋もれにくくなる。すなわち、各ユーザは近くに居るアバターの話し声に集中することができ、同時にシステム全体での音声データのトラフィック量を抑制することができる。音声データの共有が可能なアバターを視覚的にも表現するために、VR/MR/AR画像データにおいて、音声データの共有ができる位置に居るか否かにより他のアバターの視覚的表現を異ならせてもよい。例えば、音声データの共有ができる位置に居ないアバターは通常よりも暗く描かれてもよいし、音声データの共有ができる位置に居るアバターには音声チャットが可能であることを示すアイコンが付加されてもよい。   The example of FIG. 5 is suitable for a scene where avatars have a conversation (voice chat) in a virtual space. That is, since the terminal 100 does not receive voice data of other avatars far from the first avatar, the voice of the avatar near the first avatar is less likely to be buried in the voice of the distant avatars. That is, each user can concentrate on the speech of the nearby avatar, and at the same time can suppress the traffic volume of voice data in the entire system. In order to visually represent avatars capable of sharing audio data, in VR / MR / AR image data, different visual representations of other avatars are determined depending on whether or not audio data can be shared. May be For example, avatars that are not in a position where voice data can be shared may be drawn darker than normal, and avatars that are in a position where voice data can be shared have an icon indicating that voice chat is possible. May be

既定の条件(4)について、図6を用いて説明する。図6において、アバター1とアバター2の距離はd21、アバター1とアバター3との距離はd31、アバター1とアバター4との距離はd41で表される。d21<d31<d41であり、既定の順位が2位であったとする。かかる既定の条件の下では、アバター1に関連付けられるユーザの端末100において、条件判定部113は、アバター2およびアバター4に関連付けられるユーザの端末100との関係では既定の条件が満足すると判定し、アバター3に関連付けられるユーザの端末100との関係では既定の条件が満足しないと判定する。 The predetermined condition (4) will be described with reference to FIG. In FIG. 6, the distance between avatar 1 and avatar 2 is d 21 , the distance between avatar 1 and avatar 3 is d 31 , and the distance between avatar 1 and avatar 4 is d 41 . It is assumed that d 21 <d 31 <d 41 and the default ranking is 2nd. Under the predetermined conditions, in the terminal 100 of the user associated with the avatar 1, the condition determination unit 113 determines that the predetermined conditions are satisfied in relation to the terminal 100 of the user associated with the avatar 2 and the avatar 4. It is determined that the predetermined condition is not satisfied in relation to the terminal 100 of the user associated with the avatar 3.

図6の例も、図5の例と同様に仮想空間においてアバター同士の会話(音声チャット)を楽しむ場面に適している。ただし、図6の例では、音声データの共有されるアバターの数は限られる。故に、仮想空間に存在するアバターの数の規模の増大に音声データの共有されるアバターの数が増加し、ひいては音声データのトラフィック量が増大する、という事態を防ぐことができる。例えば、仮想空間に存在するアバターの数が5人であろうと500人であろうと、音声データの共有されるアバターの数は2名に制限することができる。なお、既定の条件(4)は既定の条件(3)と組み合わせられてもよい。例えば、あるアバターと第1のアバターとの間の距離が既定の順位以上であっても、閾値を超える場合には当該アバターに関連付けられるユーザの端末100との関係で既定の条件が満足しないと判定されてよい。   Similarly to the example of FIG. 5, the example of FIG. 6 is also suitable for a scene where avatars talk (voice chat) with each other in a virtual space. However, in the example of FIG. 6, the number of shared avatars of audio data is limited. Therefore, it is possible to prevent an increase in the number of avatars existing in the virtual space, an increase in the number of shared avatars of audio data, and thus an increase in traffic volume of audio data. For example, whether the number of avatars present in the virtual space is five or 500, the number of avatars shared with audio data can be limited to two. The predetermined condition (4) may be combined with the predetermined condition (3). For example, even if the distance between a certain avatar and the first avatar is equal to or greater than a predetermined rank, if the threshold is exceeded, the predetermined condition is not satisfied in relation to the terminal 100 of the user associated with the avatar. It may be determined.

ところで、条件判定部113による判定を免れるためのオブジェクト、例えば仮想ヘッドセット、仮想ピンマイク、などが定義されてもよい。これらのオブジェクトは、VR/MR/AR画像データ上で視覚的に表現され、ユーザは例えばコントローラ20を操作してアバターにこのオブジェクトを装着させることができる。なお、かかるオブジェクトの視覚的表現は、ヘッドセットまたはピンマイクに似せてもよいし、似せなくてもよい。また、かかるオブジェクトはどのアバターも装着可能としてもよいし、課金に応じるなどの何らかの既定の条件を満足したアバターに限って装着できるようにしてもよい。いずれにせよ、アバターがこのオブジェクトを装着している間は、当該アバターの音声データは当該アバターの位置に関わらず共有され得る。   By the way, an object for avoiding the determination by the condition determination unit 113, for example, a virtual headset, a virtual pin microphone, or the like may be defined. These objects are visually represented on VR / MR / AR image data, and the user can operate, for example, the controller 20 to attach the objects to the avatar. Note that the visual representation of such an object may or may not resemble a headset or pin microphone. Also, such an object may be attachable to any avatar, or may be attached only to an avatar satisfying certain predetermined conditions such as responding to charging. In any case, while the avatar wears the object, the voice data of the avatar can be shared regardless of the position of the avatar.

具体的には、条件判定部113は、まず第1のアバターが仮想空間における既定のオブジェクト(これは、上記仮想ヘッドセットまたは仮想ピンマイクに相当する)を装着しているか否かを判定する。ここで、第1のアバターによる既定のオブジェクトの装着/取り外しイベントは、例えばコントローラ20からのユーザ入力データに基づいて検知され得る。条件判定部113は、第1のアバターが既定のオブジェクトを装着していると判定した場合には既定の条件が満足するか否かの判定を省略する。   Specifically, the condition determination unit 113 first determines whether the first avatar is wearing a predetermined object in the virtual space (this corresponds to the virtual headset or the virtual pin microphone). Here, the attachment / removal event of the predetermined object by the first avatar may be detected based on user input data from the controller 20, for example. When the condition determination unit 113 determines that the first avatar is wearing the predetermined object, the condition determination unit 113 omits the determination of whether the predetermined condition is satisfied.

そして、後述される送信制御部114は、条件判定部113によって第1のアバターが既定のオブジェクトを装着していると判定された場合には、全ての宛先端末との関係で既定の条件が満足すると判定された場合と同様に動作する。すなわち、送信制御部114は、第1のアバターの音声データを全ての宛先端末へ向けて送信することを決定する。   Then, when it is determined by the condition determination unit 113 that the first avatar is wearing the predetermined object, the transmission control unit 114 described later satisfies the predetermined condition in relation to all the destination terminals. It operates in the same manner as in the case where it is determined. That is, the transmission control unit 114 determines to transmit the voice data of the first avatar toward all destination terminals.

例えば、仮想空間において開催されるイベントの出演者のアバターがかかるオブジェクトを装着しておけば、当該アバターが仮想空間を広範に動き回ったとしても、各ユーザは当該アバターのトークや歌声を途切れることなく聞くことができる。また、前述の既定の条件(3)または(4)と組み合わせれば、例えば目的のアバターの音声が途切れることなく聞こえ、しかも付近のアバターのユーザと音声のやり取りが可能な、臨場感のある仮想的体験をユーザに提供することができる。   For example, if an avatar of a performer of an event held in a virtual space wears such an object, each user can keep the talk and singing of the avatar uninterrupted even if the avatar moves around the virtual space extensively. I can hear it. In addition, when combined with the above-mentioned predetermined condition (3) or (4), for example, a realistic virtual voice can be heard without interruption of the voice of the target avatar and voice can be exchanged with the user of the nearby avatar. User experience can be provided.

同様に、条件判定部113による判定を免れることのできるアバターが定義されてもよい。すなわち、このアバターの音声データは、当該アバターの位置に関わらず共有されてよい。例えば、仮想空間のホストとなるユーザのアバターの音声データが、当該アバターの位置に関わらず共有されてよい。   Similarly, an avatar that can escape from the determination by the condition determination unit 113 may be defined. That is, the voice data of this avatar may be shared regardless of the position of the avatar. For example, voice data of the avatar of the user hosting the virtual space may be shared regardless of the position of the avatar.

送信制御部114は、前述のプロセッサにより実現され得る。送信制御部114は、条件判定部113から第1のアバターの音声データと、第1のアバターの制御データおよび/または位置データとを、判定結果を示すデータとともに受け取る。送信制御部114は、判定結果に応じて、第1のアバターの少なくとも音声データを宛先端末へ向けて送信するか否かを決定する。送信制御部114は、宛先端末を示すデータ(例えば、アドレスデータ)と、当該宛先端末へ送るデータ(例えば、音声データ、位置データおよび/または制御データ)とを送信部103へ送る。   The transmission control unit 114 may be realized by the processor described above. The transmission control unit 114 receives the voice data of the first avatar and the control data and / or position data of the first avatar from the condition determination unit 113 together with data indicating the determination result. The transmission control unit 114 determines whether to transmit at least voice data of the first avatar toward the destination terminal according to the determination result. The transmission control unit 114 transmits, to the transmission unit 103, data (for example, address data) indicating the destination terminal and data (for example, voice data, position data and / or control data) to be sent to the destination terminal.

具体的には、送信制御部114は、宛先端末との関係で既定の条件が満足すると判定された場合には、第1のアバターの音声データを当該宛先端末へ向けて送信することを決定する。ここで、前述の種々のメリットを目当てに、送信制御部114は、ピア・ツー・ピア型のネットワーク経由で音声データを宛先端末へ向けて送信することを決定してもよい。他方、送信制御部114は、宛先端末との関係で既定の条件が満足しないと判定された場合には、第1のアバターの音声データを当該宛先端末へ向けて送信しないことを決定する。   Specifically, when it is determined that the predetermined condition is satisfied in relation to the destination terminal, the transmission control unit 114 determines to transmit the voice data of the first avatar to the destination terminal. . Here, the transmission control unit 114 may decide to transmit voice data to a destination terminal via a peer-to-peer type network, for the various merits described above. On the other hand, when it is determined that the predetermined condition is not satisfied in relation to the destination terminal, the transmission control unit 114 determines not to transmit the voice data of the first avatar to the destination terminal.

なお、制御データおよび位置データのサイズは、一般的に音声データに比べて小さい。さらに、制御データおよび位置データのどちらも宛先端末へ向けて送信しなかったとすると、当該宛先端末に接続されたHMD10に表示される第1のアバターは静止したままとなり、当該宛先端末のユーザの仮想的体験を損ねかねない。そこで、制御データおよび/または位置データは判定結果に関わらず全ての宛先端末へ向けて送信されてよい。   The sizes of control data and position data are generally smaller than voice data. Further, assuming that neither control data nor position data is transmitted toward the destination terminal, the first avatar displayed on the HMD 10 connected to the destination terminal remains stationary, and the virtual of the user of the destination terminal It is possible to impair the personal experience. Thus, control data and / or position data may be transmitted to all destination terminals regardless of the determination result.

すなわち、送信制御部114は、宛先端末との関係で既定の条件が満足すると判定された場合には、第1のアバターの音声データと、第1のアバターの制御データおよび/または位置データとを当該宛先端末へ向けて送信することを決定する。他方、送信制御部114は、宛先端末との関係で既定の条件が満足しないと判定された場合には、第1のアバターの音声データを当該宛先端末へ向けて送信せず第1のアバターの制御データおよび/または位置データを当該宛先端末へ向けて送信することを決定する。   That is, when it is determined that the predetermined condition is satisfied in relation to the destination terminal, the transmission control unit 114 determines the voice data of the first avatar and the control data and / or position data of the first avatar. It decides to transmit toward the destination terminal. On the other hand, when it is determined that the predetermined condition is not satisfied in relation to the destination terminal, the transmission control unit 114 does not transmit the voice data of the first avatar to the destination terminal and does not transmit the voice data of the first avatar. It decides to transmit control data and / or position data towards the destination terminal.

画像生成部115は、前述のプロセッサにより実現され得る。画像生成部115は、例えば端末100のメモリまたは補助記憶装置に保存されているオブジェクト(アバターを含む)の画像データと、データ取得部111からの他アバターの制御データとに基づいて、VR/AR/MR画像データの生成(更新)を行う。VR/AR/MR画像データの生成には、制御データに対応する他アバターの姿勢の制御が含まれ得る。画像生成部115は、生成した画像データを出力部104経由でHMD10へ送る。   The image generation unit 115 can be realized by the processor described above. The image generation unit 115 performs VR / AR based on, for example, image data of an object (including an avatar) stored in the memory of the terminal 100 or the auxiliary storage device, and control data of another avatar from the data acquisition unit 111. / Generate (update) MR image data. The generation of VR / AR / MR image data may include control of postures of other avatars corresponding to control data. The image generation unit 115 sends the generated image data to the HMD 10 via the output unit 104.

画像生成部115は、前述のように、制御データの示すHMD10/コントローラ20の位置に応じて他アバターの頭部/手の位置を決定し、例えばIK(Inverse Kinematics)技術を利用してアバターの姿勢を制御してもよい。   As described above, the image generation unit 115 determines the positions of the heads / hands of other avatars according to the position of the HMD 10 / controller 20 indicated by the control data, and uses, for example, IK (Inverse Kinetics) technology. The attitude may be controlled.

音声生成部116は、前述のプロセッサにより実現され得る。音声生成部116は、例えばデータ取得部111からの他アバターの音声データに基づいて、VR/AR/MR音声データの生成を行う。例えば、音声生成部116は、複数の他アバターの音声データを合成することで、音声データを生成してもよい。音声生成部116は、生成した音声データを出力部104経由でスピーカへ送る。   The voice generation unit 116 may be realized by the processor described above. The sound generation unit 116 generates VR / AR / MR sound data based on sound data of another avatar from the data acquisition unit 111, for example. For example, the voice generation unit 116 may generate voice data by synthesizing voice data of a plurality of other avatars. The sound generation unit 116 sends the generated sound data to the speaker via the output unit 104.

なお、音声生成部116は、データ取得部111から他アバターの位置データをさらに取得してもよい。そして、音声生成部116は、音像定位技術を利用して、他アバターの位置から音声が生じているとユーザに知覚されるように、当該他アバターの音声データを加工してもよい。これにより、視覚的に知覚されるアバターの位置と聴覚的に知覚されるアバターの位置とをマッチさせて、臨場感を演出することが可能となる。   The sound generation unit 116 may further acquire position data of another avatar from the data acquisition unit 111. Then, using the sound image localization technology, the sound generation unit 116 may process the sound data of the other avatar so that the user perceives that the sound is generated from the position of the other avatar. This makes it possible to match the position of the avatar perceived visually and the position of the avatar perceived auditorily to produce a sense of presence.

以下、図7を用いて、端末100の動作を説明する。図7の動作は、定期的に行われてもよいし、第1のアバターまたは他アバターの位置データに変化があったことが検知されたタイミングで行われてもよい。   Hereinafter, the operation of the terminal 100 will be described using FIG. 7. The operation of FIG. 7 may be performed periodically, or may be performed at the timing when it is detected that the position data of the first avatar or another avatar has changed.

まず、データ取得部111は、第1のアバターの音声データおよび位置データを取得する(ステップS201)。次のステップS202において判定される既定の条件次第で、データ取得部111は、他アバターの位置データをさらに取得し得る。さらに、ステップS202へ進む前に、距離算出部112がステップS201において取得された位置データに基づいて、仮想空間における2地点間の距離を算出してもよい。   First, the data acquisition unit 111 acquires voice data and position data of the first avatar (step S201). Depending on the predetermined conditions determined in the next step S202, the data acquisition unit 111 may further acquire position data of other avatars. Furthermore, before proceeding to step S202, the distance calculation unit 112 may calculate the distance between two points in the virtual space based on the position data acquired in step S201.

次に、条件判定部113は第1のアバターの位置に関する既定の条件が満足するか否かを判定する(ステップS202)。少なくとも1つの宛先端末との関係で既定の条件が満足すると判定された場合には、処理はステップS203へ進む。他方、全ての宛先端末との関係で既定の条件が満足しないと判定された場合には、図7の動作は終了する。なお、ステップS202の判定結果に関わらず、送信制御部114は、第1のアバターの制御データおよび/または位置データを各宛先端末へ向けて送信すると決定してもよい。   Next, the condition determination unit 113 determines whether a predetermined condition regarding the position of the first avatar is satisfied (step S202). If it is determined that the predetermined condition is satisfied in relation to at least one destination terminal, the process proceeds to step S203. On the other hand, if it is determined that the predetermined condition is not satisfied in relation to all the destination terminals, the operation of FIG. 7 ends. Note that the transmission control unit 114 may determine to transmit the control data and / or position data of the first avatar to each destination terminal regardless of the determination result of step S202.

ステップS203において、送信制御部114は、既定の条件が満足すると判定された宛先端末へ向けて、ステップS201において取得された音声データを送信することを決定し、図7の動作は終了する。   In step S203, the transmission control unit 114 determines to transmit the voice data acquired in step S201 toward the destination terminal determined to satisfy the predetermined condition, and the operation of FIG. 7 ends.

以上説明したように、実施形態に係る端末は、当該端末のユーザに関連付けられる第1のアバターの仮想空間における位置が既定の条件を満足するか否かを判定し、当該既定の条件が満足しないと判定された場合に第1のアバターの音声データを宛先端末へ向けて送信しない。故に、この端末によれば、既定の条件が満足しないと判定された場合には、当該端末から宛先端末への音声データのトラフィックが生じない。他方、この端末は、限られたアバターの音声データに限って受信することになるので、例えば、仮想マイクロホンまたは第1のアバターの近くに居るアバターの音声が他のアバターの音声に埋もれにくくなる。従って、この端末によれば、ユーザは目的のアバターのトークや音声、または近くに居るアバターの話し声に集中することができ、同時にシステム全体での音声データのトラフィック量を抑制することができる。   As described above, the terminal according to the embodiment determines whether the position in the virtual space of the first avatar associated with the user of the terminal satisfies the predetermined condition, and the predetermined condition is not satisfied. If it is determined that the voice data of the first avatar is not sent to the destination terminal. Therefore, according to this terminal, when it is determined that the predetermined condition is not satisfied, no traffic of voice data from the terminal to the destination terminal occurs. On the other hand, since this terminal receives only limited voice data of the avatar, for example, voices of avatars near the virtual microphone or the first avatar are less likely to be buried in voices of other avatars. Therefore, according to this terminal, the user can concentrate on the target avatar's talk or voice, or the voice of the nearby avatar, and at the same time, it is possible to suppress the traffic volume of voice data in the entire system.

(変形例1)
前述のように、図2のシステムではP2P型のネットワークが採用されているが、これに追加してC/S型のネットワークを採用したとしても、仮想的体験共有システムを構築することは可能である。この変形例1において、各端末100は、P2P型のネットワークおよびC/S型のネットワークのどちらかを選択して、データを宛先端末へ向けて送信する。
(Modification 1)
As mentioned above, although the P2P type network is adopted in the system of FIG. 2, it is possible to construct a virtual experience sharing system even if a C / S type network is adopted additionally to this. is there. In the first modification, each terminal 100 selects either the P2P type network or the C / S type network, and transmits data to the destination terminal.

この変形例1によれば、図8に例示されるように、図2の仮想的体験共有システムにサーバ300を追加することが可能である。サーバ300は、送信元となる端末100からデータを受信し、これを宛先となる端末100へ送信する。   According to the first variation, as illustrated in FIG. 8, it is possible to add the server 300 to the virtual experience sharing system of FIG. 2. The server 300 receives data from the terminal 100 as a transmission source, and transmits this to the terminal 100 as a destination.

この変形例1において、端末100における送信制御部114は、宛先端末との関係で既定の条件が満足すると判定された場合には、P2P型のネットワーク経由で第1のアバターの音声データを当該宛先端末へ向けて送信することを決定する。他方、送信制御部114は、宛先端末との関係で既定の条件が満足しないと判定された場合には、C/S型のネットワーク経由で第1のアバターの音声データを当該宛先端末へ向けて送信することを決定してもよい。なお、第1のアバターの制御データおよび/または位置データは、第1のアバターの音声データと同じネットワーク経由で送信されてよい。   In this modification 1, when it is determined that the predetermined condition is satisfied in relation to the destination terminal, the transmission control unit 114 in the terminal 100 determines the voice data of the first avatar via the P2P type network as the destination. Decide to send towards the terminal. On the other hand, when it is determined that the predetermined condition is not satisfied in relation to the destination terminal, the transmission control unit 114 directs the voice data of the first avatar to the destination terminal via the C / S type network. You may decide to send. The control data and / or position data of the first avatar may be transmitted via the same network as the voice data of the first avatar.

このように送信制御部114がP2P型のネットワークまたはC/S型のネットワークを選択して第1のアバターの音声データを送信すれば、当該音声データに関してP2P型のネットワークの種々のメリット(例えば遅延低減)を享受することはできないものの、全てのユーザが全てのアバターの音声データを共有することが可能となる。すなわち、ユーザは、より多くのアバターの音声を同時に聞くことができるので、賑やかさ、盛り上がり、一体感などを感じやすくなる。   As described above, if the transmission control unit 114 selects the P2P type network or the C / S type network and transmits the voice data of the first avatar, various merits of the P2P type network with respect to the voice data (for example, delay) Although it is not possible to enjoy the reduction), it becomes possible for all users to share audio data of all avatars. That is, since the user can hear more avatars simultaneously, it is easy to feel bustling, excitement, sense of unity, and the like.

以下、図9を用いて、変形例1に係る端末100の動作を説明する。図9の動作は、定期的に行われてもよいし、第1のアバターまたは他アバターの位置データに変化があったことが検知されたタイミングで行われてもよい。   Hereinafter, the operation of the terminal 100 according to the first modification will be described with reference to FIG. The operation of FIG. 9 may be performed periodically, or may be performed at a timing when it is detected that the position data of the first avatar or another avatar has changed.

まず、データ取得部111は、第1のアバターの音声データおよび位置データを取得する(ステップS401)。次のステップS402において判定される既定の条件次第で、データ取得部111は、他アバターの位置データをさらに取得し得る。さらに、ステップS402へ進む前に、距離算出部112がステップS401において取得された位置データに基づいて、仮想空間における2地点間の距離を算出してもよい。   First, the data acquisition unit 111 acquires voice data and position data of the first avatar (step S401). Depending on the predetermined conditions determined in the next step S402, the data acquisition unit 111 may further acquire position data of other avatars. Furthermore, before proceeding to step S402, the distance calculation unit 112 may calculate the distance between two points in the virtual space based on the position data acquired in step S401.

次に、条件判定部113は第1のアバターの位置に関する既定の条件が満足するか否かを判定する(ステップS402)。既定の条件が満足すると判定された場合には、処理はステップS403へ進む。他方、既定の条件が満足しないと判定された場合には、処理はステップS404へ進む。なお、前述の既定の条件(3)または(4)のように、宛先端末間で判定結果が異なり得る場合には、宛先端末毎にステップS402と、ステップS403またはステップS404とを繰り返せばよい。   Next, the condition determination unit 113 determines whether a predetermined condition regarding the position of the first avatar is satisfied (step S402). If it is determined that the predetermined condition is satisfied, the process proceeds to step S403. On the other hand, when it is determined that the predetermined condition is not satisfied, the process proceeds to step S404. If the determination result may be different between the destination terminals as in the above-described predetermined condition (3) or (4), step S402 and step S403 or step S404 may be repeated for each destination terminal.

ステップS403において、送信制御部114は、既定の条件が満足すると判定された宛先端末へ向けて、P2P型のネットワーク経由で、ステップS401において取得された音声データを送信することを決定し、図9の動作は終了する。   In step S403, the transmission control unit 114 determines to transmit the voice data acquired in step S401 via the P2P type network toward the destination terminal determined to satisfy the predetermined condition, as shown in FIG. The operation of is finished.

ステップS404において、送信制御部114は、既定の条件が満足しないと判定された宛先端末へ向けて、C/S型のネットワーク経由で、ステップS401において取得された音声データを送信することを決定し、図9の動作は終了する。   In step S404, the transmission control unit 114 determines to transmit the voice data acquired in step S401 via the C / S network toward the destination terminal determined that the predetermined condition is not satisfied. The operation of FIG. 9 ends.

(変形例2)
前述のように、図2のシステムではP2P型のネットワークが採用されているが、これに代えてC/S型のネットワークを採用したとしても、仮想的体験共有システムを構築することは可能である。さらに、この変形例2に係るサーバ500は、送信元端末から宛先端末へのデータの中継に留まらず、第1の実施形態において説明した端末100の機能の一部をも担う。
(Modification 2)
As mentioned above, although the P2P type network is adopted in the system of FIG. 2, it is possible to construct a virtual experience sharing system even if a C / S type network is adopted instead. . Furthermore, the server 500 according to the modification 2 is not limited to relaying data from the transmission source terminal to the destination terminal but also plays a part of the functions of the terminal 100 described in the first embodiment.

具体的には、この変形例2において、端末は、前述の既定の条件判定および送信制御を行う必要はない。すなわち、端末は、アバターの音声データ、制御データおよび位置データをサーバ500へ送信する。なお、後述するように、アバターの位置データ/制御データは、端末から受信したデータに基づいてサーバ500において生成されてもよい。   Specifically, in the second modification, the terminal does not have to perform the above-described predetermined condition determination and transmission control. That is, the terminal transmits voice data, control data and position data of the avatar to the server 500. As described later, avatar position data / control data may be generated in server 500 based on data received from a terminal.

以下、サーバ500のハードウェア構成について説明する。サーバ500は、コンピュータであって、例えば、通信制御(特に、音声データの送信制御)、既定の条件判定、などを行うプロセッサを含む。   The hardware configuration of the server 500 will be described below. The server 500 is a computer, and includes, for example, a processor that performs communication control (in particular, transmission control of audio data), predetermined condition determination, and the like.

また、サーバ500は、かかる処理を実現するためにプロセッサによって実行されるプログラムおよび当該プロセッサによって使用されるデータを一時的に格納するメモリを含んでいる。   Also, the server 500 includes a program that is executed by a processor to implement such processing and a memory that temporarily stores data used by the processor.

なお、サーバ500は、全てのデータをオンメモリの状態で扱ってもよいし、一部のデータが補助記憶装置に退避されていてもよい。補助記憶装置は、例えば、サーバ500に内蔵または外付けされたHDD、SSD、フラッシュメモリなどであってもよいし、サーバ500からアクセス可能なデータベースサーバであってもよい。   The server 500 may handle all the data in the on-memory state, or some data may be saved in the auxiliary storage device. The auxiliary storage device may be, for example, an HDD, an SSD, a flash memory or the like built in or externally attached to the server 500, or may be a database server accessible from the server 500.

サーバ500は、さらに、ネットワークに接続するための通信I/Fを利用可能である。通信I/Fは、サーバ500に内蔵されてもよいし、サーバ500に外付けされてもよい。通信I/Fは、端末などと通信をするためのモジュールであって、送受信のための信号処理回路、アンテナ、LAN端子などを含み得る。   The server 500 can further use a communication I / F for connecting to the network. The communication I / F may be incorporated in the server 500 or may be externally attached to the server 500. The communication I / F is a module for communicating with a terminal or the like, and may include a signal processing circuit for transmission and reception, an antenna, a LAN terminal, and the like.

サーバ500は、さらに、各要素、例えば、プロセッサ、メモリ、補助記憶装置、通信I/F、などの間でデータを転送するためのバスを含み得る。   Server 500 may further include a bus for transferring data between each element, such as a processor, memory, auxiliary storage, communication I / F, and the like.

図10には、サーバ500の機能構成が例示される。サーバ500は、受信部501と、送信部502と、データ取得部511と、距離算出部512と、条件判定部513と、送信制御部514とを含む。ただし、距離算出部512、条件判定部513および送信制御部514は、図1における同名の要素と同一または類似であってよく、それぞれ前述のプロセッサにより実現され得る。   A functional configuration of the server 500 is illustrated in FIG. The server 500 includes a reception unit 501, a transmission unit 502, a data acquisition unit 511, a distance calculation unit 512, a condition determination unit 513, and a transmission control unit 514. However, the distance calculation unit 512, the condition determination unit 513, and the transmission control unit 514 may be the same as or similar to the elements of the same name in FIG. 1, and may be realized by the above-described processor.

受信部501は、前述の通信I/Fにより実現され得る。受信部501は、ネットワーク経由で、送信元端末から、当該送信元端末のユーザに関連付けられるアバター(これは、第1の実施形態において説明した第1のアバターに相当する)の音声データ、位置データおよび制御データを受信し得る。受信部501は、受信したデータをデータ取得部511へ送る。   The receiving unit 501 can be realized by the above-described communication I / F. The reception unit 501 receives voice data and position data of an avatar (this corresponds to the first avatar described in the first embodiment) associated with the user of the transmission source terminal from the transmission source terminal via the network. And may receive control data. The receiving unit 501 sends the received data to the data acquisition unit 511.

送信部502は、前述の通信I/Fにより実現され得る。送信部502は、送信制御部514によって制御され、アバターの音声データ、位置データおよび/または制御データを宛先端末へ向けて送信する。   The transmission unit 502 can be realized by the aforementioned communication I / F. The transmission unit 502 is controlled by the transmission control unit 514, and transmits voice data, position data and / or control data of the avatar toward the destination terminal.

データ取得部511は、前述のプロセッサにより実現され得る。データ取得部511は、受信部501から種々のデータを取得する。データ取得部511は、取得したデータを、距離算出部512および条件判定部513へ送る。   The data acquisition unit 511 may be realized by the processor described above. The data acquisition unit 511 acquires various data from the reception unit 501. The data acquisition unit 511 sends the acquired data to the distance calculation unit 512 and the condition determination unit 513.

具体的には、データ取得部511は、アバターの音声データ、位置データおよび制御データを取得し、位置データを距離算出部512および条件判定部513へ送り、音声データおよび制御データを条件判定部513へ送り得る。   Specifically, the data acquisition unit 511 acquires voice data, position data, and control data of the avatar, sends the position data to the distance calculation unit 512 and the condition determination unit 513, and the voice data and control data are determined by the condition determination unit 513. Can be sent to.

なお、端末が位置データ/制御データを送信する場合には、データ取得部511は受信部501から位置データ/制御データを直接取得することができる。他方、サーバ500(の図示されない位置/姿勢推定部)が位置センサシステムの出力データに基づいてHMD10/コントローラ20の位置を推定して位置データ/制御データを生成する必要がある場合には、データ取得部511はこの位置/姿勢推定部へ位置センサシステムの出力データを送り、位置データ/制御データの生成を依頼してもよい。   When the terminal transmits position data / control data, the data acquisition unit 511 can directly acquire position data / control data from the reception unit 501. On the other hand, if it is necessary for the server 500 (of the position / posture estimation unit (not shown) to estimate the position of the HMD 10 / controller 20 based on the output data of the position sensor system to generate position data / control data, data The acquisition unit 511 may send the output data of the position sensor system to the position / posture estimation unit to request generation of position data / control data.

以上説明したように、変形例2に係るサーバは、第1の実施形態に係る端末と同様に、音声データの送信元端末のユーザに関連付けられる第1のアバターの仮想空間における位置が既定の条件を満足するか否かを判定し、当該既定の条件が満足しないと判定された場合に第1のアバターの音声データを宛先端末へ向けて送信しない。故に、このサーバによれば、第1の実施形態に係る端末と同様に、ユーザは目的のアバターのトークや音声、または近くに居るアバターの話し声に集中することができ、同時にシステム全体での音声データのトラフィック量を抑制することができる。なお、本変形例に係るサーバと第1の実施形態および変形例1に係る端末とを、「データ送信装置」と総称することも可能である。   As described above, in the server according to the second modification, as in the terminal according to the first embodiment, the condition in the virtual space of the first avatar associated with the user of the terminal transmitting the voice data is a predetermined condition. The voice data of the first avatar is not sent to the destination terminal when it is determined that the predetermined condition is not satisfied. Therefore, according to this server, as in the terminal according to the first embodiment, the user can concentrate on the talk and voice of the target avatar or the speaking voice of the nearby avatar, and at the same time, the voice of the entire system The amount of data traffic can be reduced. Note that the server according to the present modification and the terminals according to the first embodiment and the first modification can also be generically referred to as a “data transmission device”.

上述の実施形態は、本発明の概念の理解を助けるための具体例を示しているに過ぎず、本発明の範囲を限定することを意図されていない。実施形態は、本発明の要旨を逸脱しない範囲で、様々な構成要素の付加、削除または転換をすることができる。   The embodiments described above are merely illustrative examples to assist in understanding the inventive concept, and are not intended to limit the scope of the present invention. Embodiments can add, delete, or convert various components without departing from the scope of the present invention.

上述の実施形態では、いくつかの機能部を説明したが、これらは各機能部の実装の一例に過ぎない。例えば、1つの装置に実装されると説明された複数の機能部が複数の別々の装置に亘って実装されることもあり得るし、逆に複数の別々の装置に亘って実装されると説明された機能部が1つの装置に実装されることもあり得る。   Although the above embodiments have described several functional units, these are merely examples of implementation of each functional unit. For example, a plurality of functional units described to be implemented in one device may be implemented over a plurality of separate devices, and conversely, described as being implemented over a plurality of separate devices. It is also possible that the implemented function units are implemented in one device.

上記各実施形態において説明された種々の機能部は、回路を用いることで実現されてもよい。回路は、特定の機能を実現する専用回路であってもよいし、プロセッサのような汎用回路であってもよい。   The various functional units described in the above embodiments may be realized by using a circuit. The circuit may be a dedicated circuit that implements a specific function or may be a general-purpose circuit such as a processor.

上記各実施形態の処理の少なくとも一部は、例えば汎用のコンピュータに搭載されたプロセッサを基本ハードウェアとして用いることでも実現可能である。上記処理を実現するプログラムは、コンピュータで読み取り可能な記録媒体に格納して提供されてもよい。プログラムは、インストール可能な形式のファイルまたは実行可能な形式のファイルとして記録媒体に記憶される。記録媒体としては、磁気ディスク、光ディスク(CD−ROM、CD−R、DVD等)、光磁気ディスク(MO等)、半導体メモリなどである。記録媒体は、プログラムを記憶でき、かつ、コンピュータが読み取り可能であれば、何れであってもよい。また、上記処理を実現するプログラムを、インターネットなどのネットワークに接続されたコンピュータ(サーバ)上に格納し、ネットワーク経由でコンピュータ(クライアント)にダウンロードさせてもよい。   At least a part of the processing of each of the above-described embodiments can also be realized by using, for example, a processor mounted on a general-purpose computer as basic hardware. The program for realizing the above process may be provided by being stored in a computer readable recording medium. The program is stored in the recording medium as an installable file or an executable file. The recording medium may be a magnetic disk, an optical disk (CD-ROM, CD-R, DVD or the like), a magneto-optical disk (MO or the like), a semiconductor memory or the like. The recording medium may store the program and may be any computer readable one. Further, the program for realizing the above processing may be stored on a computer (server) connected to a network such as the Internet, and may be downloaded to the computer (client) via the network.

10・・・HMD
20・・・コントローラ
100・・・端末
101・・・入力部
102,501・・・受信部
103,502・・・送信部
104・・・出力部
111,511・・・データ取得部
112,512・・・距離算出部
113,513・・・条件判定部
114,514・・・送信制御部
115・・・画像生成部
116・・・音声生成部
300,500・・・サーバ
10 ... HMD
20: Controller 100: Terminal 101: Input unit 102, 501: Reception unit 103, 502: Transmission unit 104: Output unit 111, 511: Data acquisition unit 112, 512 ... Distance calculation unit 113, 513 ... Condition determination unit 114, 514 ... Transmission control unit 115 ... Image generation unit 116 ... Audio generation unit 300, 500 ... Server

Claims (10)

第1のアバターの仮想空間における第1の位置を示す第1の位置データと、前記第1のアバターの音声データとを取得する取得部と、
前記第1の位置に関する既定の条件が満足するか否かを判定する判定部と、
前記既定の条件が満足すると判定された場合に前記音声データを宛先端末へ向けて送信することを決定し、前記既定の条件が満足しないと判定された場合に前記音声データを前記宛先端末へ向けて送信しないことを決定する送信制御部と
を具備し、
前記既定の条件は、前記第1の位置が前記仮想空間における既定のゾーン内にあることであ
前記判定部は、前記第1のアバターが前記仮想空間における既定のオブジェクトを装着しているか否かを判定し、前記第1のアバターが前記既定のオブジェクトを装着していると判定した場合には前記既定の条件が満足するか否かの判定を省略し、
前記送信制御部は、前記第1のアバターが前記既定のオブジェクトを装着していると判定された場合に、前記音声データを前記宛先端末へ向けて送信することを決定する、
データ送信装置。
An acquisition unit for acquiring first position data indicating a first position of the first avatar in the virtual space, and audio data of the first avatar;
A determination unit that determines whether a predetermined condition regarding the first position is satisfied;
When it is determined that the predetermined condition is satisfied, it is determined to transmit the voice data toward the destination terminal, and when it is determined that the predetermined condition is not satisfied, the voice data is directed to the destination terminal And a transmission control unit that determines not to transmit
Wherein the predetermined condition state, and are said first position is within the predetermined zone in the virtual space,
The determination unit determines whether the first avatar wears a predetermined object in the virtual space, and determines that the first avatar wears the predetermined object. Omit determination of whether or not the predetermined condition is satisfied,
The transmission control unit determines to transmit the audio data to the destination terminal when it is determined that the first avatar is wearing the predetermined object.
Data transmission device.
前記送信制御部は、前記既定の条件が満足すると判定された場合にピア・ツー・ピア型のネットワーク経由で前記音声データを前記宛先端末へ向けて送信することを決定する、請求項1に記載のデータ送信装置。   The transmission control unit according to claim 1, wherein the transmission control unit determines to transmit the voice data to the destination terminal via a peer-to-peer type network when it is determined that the predetermined condition is satisfied. Data transmission device. 前記既定のゾーンは、前記仮想空間における既定の地点からの距離に基づいて定められる、請求項1に記載のデータ送信装置。   The data transmission device according to claim 1, wherein the predetermined zone is determined based on a distance from a predetermined point in the virtual space. 前記取得部は、前記第1のアバターの姿勢を決定づける制御データをさらに取得し、
前記送信制御部は、前記既定の条件が満足すると判定された場合に前記音声データと、前記制御データおよび前記第1の位置データの少なくとも一方とを宛先端末へ向けて送信することを決定し、前記既定の条件が満足しないと判定された場合に前記音声データを前記宛先端末へ向けて送信せず前記制御データおよび前記第1の位置データの少なくとも一方を前記宛先端末へ向けて送信することを決定する、
請求項1乃至請求項3のいずれか1項に記載のデータ送信装置。
The acquisition unit further acquires control data that determines the posture of the first avatar,
The transmission control unit determines to transmit the voice data and at least one of the control data and the first position data to a destination terminal when it is determined that the predetermined condition is satisfied, And transmitting at least one of the control data and the first position data to the destination terminal without transmitting the voice data to the destination terminal when it is determined that the predetermined condition is not satisfied. decide,
The data transmission apparatus according to any one of claims 1 to 3 .
コンピュータを、
第1のアバターの仮想空間における第1の位置を示す第1の位置データと、前記第1のアバターの音声データとを取得する手段、
前記第1の位置に関する既定の条件が満足するか否かを判定する手段、
前記既定の条件が満足すると判定された場合に前記音声データを宛先端末へ向けて送信することを決定し、前記既定の条件が満足しないと判定された場合に前記音声データを前記宛先端末へ向けて送信しないことを決定する手段
として機能させるプログラムであって、
前記既定の条件は、前記第1の位置が前記仮想空間における既定のゾーン内にあることであ
前記判定する手段は、前記第1のアバターが前記仮想空間における既定のオブジェクトを装着しているか否かを判定し、前記第1のアバターが前記既定のオブジェクトを装着していると判定した場合には前記既定の条件が満足するか否かの判定を省略し、
前記決定する手段は、前記第1のアバターが前記既定のオブジェクトを装着していると判定された場合に、前記音声データを前記宛先端末へ向けて送信することを決定する、
プログラム。
Computer,
A first position data indicating a first position of the first avatar in the virtual space, and means for acquiring voice data of the first avatar;
Means for determining whether predetermined conditions for the first position are satisfied;
When it is determined that the predetermined condition is satisfied, it is determined to transmit the voice data toward the destination terminal, and when it is determined that the predetermined condition is not satisfied, the voice data is directed to the destination terminal A program that functions as a means to decide not to send
Wherein the predetermined condition state, and are said first position is within the predetermined zone in the virtual space,
The determining unit determines whether the first avatar wears a predetermined object in the virtual space, and determines that the first avatar wears the predetermined object. Omits the determination of whether the predetermined condition is satisfied,
The determining means determines to transmit the audio data to the destination terminal when it is determined that the first avatar is wearing the predetermined object.
program.
第1のアバターの仮想空間における第1の位置を示す第1の位置データと、前記第1のアバターの音声データとを取得する取得部と、
前記第1の位置に関する既定の条件が満足するか否かを判定する判定部と、
前記既定の条件が満足すると判定された場合に前記音声データを宛先端末へ向けて送信することを決定し、前記既定の条件が満足しないと判定された場合に前記音声データを前記宛先端末へ向けて送信しないことを決定する送信制御部と
を具備し、
前記取得部は、前記仮想空間に存在する前記第1のアバターを含む複数のアバターの前記仮想空間における位置を示す位置データを取得し、
前記既定の条件は、前記複数のアバターの前記仮想空間における位置を前記仮想空間における既定の地点から近い順にソートした場合に前記第1の位置が既定の順位以上となることである、
データ送信装置。
An acquisition unit for acquiring first position data indicating a first position of the first avatar in the virtual space, and audio data of the first avatar;
A determination unit that determines whether a predetermined condition regarding the first position is satisfied;
When it is determined that the predetermined condition is satisfied, it is determined to transmit the voice data toward the destination terminal, and when it is determined that the predetermined condition is not satisfied, the voice data is directed to the destination terminal And a transmission control unit that determines not to transmit
The acquisition unit acquires position data indicating a position in the virtual space of a plurality of avatars including the first avatar existing in the virtual space,
The predetermined condition is that, when the positions of the plurality of avatars in the virtual space are sorted in order from a predetermined point in the virtual space, the first position is equal to or higher than a predetermined rank.
Data transmission device.
前記送信制御部は、前記既定の条件が満足すると判定された場合にピア・ツー・ピア型のネットワーク経由で前記音声データを前記宛先端末へ向けて送信することを決定する、請求項6に記載のデータ送信装置。 The transmission control unit determines to transmit toward the voice data over the peer-to-peer type network when said predetermined condition is determined to be satisfied to the destination terminal, according to claim 6 Data transmission device. 前記判定部は、前記第1のアバターが前記仮想空間における既定のオブジェクトを装着しているか否かを判定し、前記第1のアバターが前記既定のオブジェクトを装着していると判定した場合には前記既定の条件が満足するか否かの判定を省略し、
前記送信制御部は、前記第1のアバターが前記既定のオブジェクトを装着していると判定された場合に、前記音声データを前記宛先端末へ向けて送信することを決定する、
請求項6または請求項7に記載のデータ送信装置。
The determination unit determines whether the first avatar wears a predetermined object in the virtual space, and determines that the first avatar wears the predetermined object. Omit determination of whether or not the predetermined condition is satisfied,
The transmission control unit determines to transmit the audio data to the destination terminal when it is determined that the first avatar is wearing the predetermined object.
The data transmission apparatus according to claim 6 or 7 .
前記取得部は、前記第1のアバターの姿勢を決定づける制御データをさらに取得し、
前記送信制御部は、前記既定の条件が満足すると判定された場合に前記音声データと、前記制御データおよび前記第1の位置データの少なくとも一方とを宛先端末へ向けて送信することを決定し、前記既定の条件が満足しないと判定された場合に前記音声データを前記宛先端末へ向けて送信せず前記制御データおよび前記第1の位置データの少なくとも一方を前記宛先端末へ向けて送信することを決定する、
請求項6乃至請求項8のいずれか1項に記載のデータ送信装置。
The acquisition unit further acquires control data that determines the posture of the first avatar,
The transmission control unit determines to transmit the voice data and at least one of the control data and the first position data to a destination terminal when it is determined that the predetermined condition is satisfied, And transmitting at least one of the control data and the first position data to the destination terminal without transmitting the voice data to the destination terminal when it is determined that the predetermined condition is not satisfied. decide,
The data transmission apparatus according to any one of claims 6 to 8 .
コンピュータを、
第1のアバターの仮想空間における第1の位置を示す第1の位置データと、前記第1のアバターの音声データとを取得する手段、
前記第1の位置に関する既定の条件が満足するか否かを判定する手段、
前記既定の条件が満足すると判定された場合に前記音声データを宛先端末へ向けて送信することを決定し、前記既定の条件が満足しないと判定された場合に前記音声データを前記宛先端末へ向けて送信しないことを決定する手段
として機能させるプログラムであって、
前記取得する手段は、前記仮想空間に存在する前記第1のアバターを含む複数のアバターの前記仮想空間における位置を示す位置データを取得し、
前記既定の条件は、前記複数のアバターの前記仮想空間における位置を前記仮想空間における既定の地点から近い順にソートした場合に前記第1の位置が既定の順位以上となることである、
プログラム。
Computer,
A first position data indicating a first position of the first avatar in the virtual space, and means for acquiring voice data of the first avatar;
Means for determining whether predetermined conditions for the first position are satisfied;
When it is determined that the predetermined condition is satisfied, it is determined to transmit the voice data toward the destination terminal, and when it is determined that the predetermined condition is not satisfied, the voice data is directed to the destination terminal A program that functions as a means to decide not to send
The acquiring means acquires position data indicating positions in the virtual space of a plurality of avatars including the first avatar existing in the virtual space,
The predetermined condition is that, when the positions of the plurality of avatars in the virtual space are sorted in order from a predetermined point in the virtual space, the first position is equal to or higher than a predetermined rank.
program.
JP2018120104A 2018-06-25 2018-06-25 Data transmission device and program Active JP6526879B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018120104A JP6526879B1 (en) 2018-06-25 2018-06-25 Data transmission device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018120104A JP6526879B1 (en) 2018-06-25 2018-06-25 Data transmission device and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019088384A Division JP7166983B2 (en) 2019-05-08 2019-05-08 terminal and program

Publications (2)

Publication Number Publication Date
JP6526879B1 true JP6526879B1 (en) 2019-06-05
JP2020003876A JP2020003876A (en) 2020-01-09

Family

ID=66730667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018120104A Active JP6526879B1 (en) 2018-06-25 2018-06-25 Data transmission device and program

Country Status (1)

Country Link
JP (1) JP6526879B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021077257A (en) * 2019-11-13 2021-05-20 グリー株式会社 Information processing apparatus, information processing method, and information processing program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12034785B2 (en) 2020-08-28 2024-07-09 Tmrw Foundation Ip S.Àr.L. System and method enabling interactions in virtual environments with virtual presence
US20220070240A1 (en) * 2020-08-28 2022-03-03 Tmrw Foundation Ip S. À R.L. Ad hoc virtual communication between approaching user graphical representations

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3139615B2 (en) * 1996-08-08 2001-03-05 日本電信電話株式会社 Three-dimensional virtual space sound communication method and apparatus
JP2003108506A (en) * 2001-09-27 2003-04-11 Toshiba Corp Communication system and display method
JP4280901B2 (en) * 2002-02-05 2009-06-17 株式会社セガ Voice chat system
GB0703974D0 (en) * 2007-03-01 2007-04-11 Sony Comp Entertainment Europe Entertainment device
JP6217682B2 (en) * 2015-03-27 2017-10-25 ブラザー工業株式会社 Information processing apparatus and program
CN108886599B (en) * 2015-12-11 2021-04-27 索尼公司 Information processing apparatus, information processing method, and program
JP2018067157A (en) * 2016-10-19 2018-04-26 キヤノン株式会社 Communication device and control method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021077257A (en) * 2019-11-13 2021-05-20 グリー株式会社 Information processing apparatus, information processing method, and information processing program
JP7229146B2 (en) 2019-11-13 2023-02-27 グリー株式会社 Information processing device, information processing method and information processing program

Also Published As

Publication number Publication date
JP2020003876A (en) 2020-01-09

Similar Documents

Publication Publication Date Title
US10863159B2 (en) Field-of-view prediction method based on contextual information for 360-degree VR video
US9906885B2 (en) Methods and systems for inserting virtual sounds into an environment
EP3343349B1 (en) An apparatus and associated methods in the field of virtual reality
WO2014010157A1 (en) Image generation device and image generation method
JP6055657B2 (en) GAME SYSTEM, GAME PROCESSING CONTROL METHOD, GAME DEVICE, AND GAME PROGRAM
JP6526879B1 (en) Data transmission device and program
US20170048592A1 (en) Immersive cognitive reality system with real time surrounding media
KR20200091359A (en) Mapping virtual sound sources to physical speakers in extended reality applications
US11806621B2 (en) Gaming with earpiece 3D audio
JP7326922B2 (en) Systems, methods, and programs for guiding speaker and microphone arrays using encoded light rays
WO2019240276A1 (en) Data replacement apparatus, terminal, and data replacement program
JP7166983B2 (en) terminal and program
JP2019208185A (en) Information processing unit and sound generation method
CN113260954B (en) User group based on artificial reality
US11641459B2 (en) Viewing system, distribution apparatus, viewing apparatus, and recording medium
US20240031759A1 (en) Information processing device, information processing method, and information processing system
JP2018067157A (en) Communication device and control method thereof
JP7111645B2 (en) control program
WO2023281820A1 (en) Information processing device, information processing method, and storage medium
US11381413B2 (en) Audio-orientated immersive experience of an event
US20240089688A1 (en) Processing of audio data
JP6506486B2 (en) Apparatus for providing virtual reality image and program for providing virtual reality image
CN118535119A (en) System and method for creating custom audio mixes for an artificial reality environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180719

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180719

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181024

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20181101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190508

R150 Certificate of patent or registration of utility model

Ref document number: 6526879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250