WO2022264536A1 - 情報処理装置、情報処理方法、及び情報処理システム - Google Patents

情報処理装置、情報処理方法、及び情報処理システム Download PDF

Info

Publication number
WO2022264536A1
WO2022264536A1 PCT/JP2022/008256 JP2022008256W WO2022264536A1 WO 2022264536 A1 WO2022264536 A1 WO 2022264536A1 JP 2022008256 W JP2022008256 W JP 2022008256W WO 2022264536 A1 WO2022264536 A1 WO 2022264536A1
Authority
WO
WIPO (PCT)
Prior art keywords
terminal device
data
information processing
delay
information
Prior art date
Application number
PCT/JP2022/008256
Other languages
English (en)
French (fr)
Inventor
寿之 示沢
夏樹 板谷
歩 小林
充 勝股
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to JP2023529521A priority Critical patent/JPWO2022264536A1/ja
Priority to EP22824536.1A priority patent/EP4358522A1/en
Priority to CN202280041141.0A priority patent/CN117461317A/zh
Publication of WO2022264536A1 publication Critical patent/WO2022264536A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2402Monitoring of the downstream path of the transmission network, e.g. bandwidth available
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2408Monitoring of the upstream path of the transmission network, e.g. client requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Definitions

  • the control unit 13 includes an acquisition unit 131, a data control unit 132, and a grouping unit 133.
  • Each block (acquisition unit 131 to grouping unit 133) constituting the control unit 13 is a functional block indicating the function of the control unit 13.
  • FIG. These functional blocks may be software blocks or hardware blocks.
  • each of the functional blocks described above may be one software module realized by software (including microprograms), or may be one circuit block on a semiconductor chip (die). Of course, each functional block may be one processor or one integrated circuit.
  • the control unit 13 may be configured in functional units different from the functional blocks described above. The configuration method of the functional blocks is arbitrary.
  • FIG. 11 is a diagram showing an example of a remote live venue.
  • a remote live venue is a virtual space imitating a real live venue.
  • the terminal device 30 for example, a VR device
  • the user can experience as if he or she were at the actual live venue.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

第1のユーザ(端末装置301)にライブデータを配信する情報処理装置であって、ライブデータに対するインタラクションデータを送信する第1のユーザと情報処理装置との間の遅延、又は、ライブデータに対する第1のユーザからのインタラクションデータを受信する第2のユーザ(端末装置302)と第1のユーザとの間の遅延の情報に基づいて、第1のユーザからのインタラクションデータに関する制御を行う。

Description

情報処理装置、情報処理方法、及び情報処理システム
 本開示は、情報処理装置、情報処理方法、及び情報処理システムに関する。
 近年、インタラクション型の配信サービスが利用されるようになっている。例えば、近年では、配信されたライブデータに対するユーザのインタラクションを可能にするインタラクション型のリモートライブが利用されるようになっている。
特開2019-75604号公報
 通信には遅延が伴う。そのため、インタラクション型の配信サービスでは、インタラクション(例えば、歓声)のタイミングが大きくずれる等、ユーザが不自然さを感じる可能性がある。
 そこで、本開示では、高品質なインタラクション型の配信サービスの提供を可能にする情報処理装置、情報処理方法、及び情報処理システムを提案する。
 上記の課題を解決するために、本開示に係る一形態の情報処理装置は、第1の端末装置にライブデータを配信する情報処理装置であって、前記情報処理装置と前記第1の端末装置との間の遅延、又は、前記ライブデータに対する前記第1の端末装置からのインタラクションデータを受信する第2の端末装置と前記第1の端末装置との間の遅延、の情報を取得する取得部と、前記取得した遅延の情報に基づいて、前記第1の端末装置からの前記インタラクションデータに関する制御を行うデータ制御部と、を備える。
インタラクション型の配信システムの構成例を示す図である。 ライブデータの配信タイミングと視聴タイミングを示す図である 本開示の実施形態に係る情報処理システムの構成例を示す図である。 本開示の実施形態に係る配信サーバの構成例を示す図である。 本開示の実施形態に係る撮像装置の構成例を示す図である。 本開示の実施形態に係る端末装置の構成例を示す図である。 リモートライブの配信処理を示すフローチャートである。 通信遅延の測定フローの一例を示す図である。 通信遅延の測定フローの他の例を示す図である。 5QIの一部を示す図である。 リモートライブ会場の一例を示す図である。 グループと通信遅延との対応関係を示す図である。
 以下、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
 また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成を、同一の符号の後に異なる数字を付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成を、必要に応じて端末装置30、30、及び30のように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、端末装置30、30、及び30を特に区別する必要が無い場合には、単に端末装置30と称する。
<<1.本実施形態の概要>>
 近年、インタラクション型の配信サービスが利用されるようになっている。例えば、近年では、配信されたライブデータに対するユーザのインタラクション(例えば、歓声)を可能にするインタラクション型のリモートライブが利用されるようになっている。ここで、ライブデータは、例えば、リアルタイムの演奏や放送のデータである。
 しかし、通信には遅延が伴う。そのため、インタラクション型の配信サービスでは、通信の状態によっては、ユーザが配信に対して不自然さを感じることがある。例えば、インタラクション型のリモートライブでは、ユーザ毎の通信環境等の違いに基づく通信遅延を起因として、インタラクションに大きなズレが生じることがある。以下、図1及び図2を使ってこの問題を説明する。
 図1は、インタラクション型の配信システムの構成例を示す図である。図1の例では、アーティストの端末装置(撮像装置やスピーカー、モニターを含む。)と、ファン1の端末装置と、ファン2の端末装置と、が、アーティストの演奏映像を配信する配信サーバに接続されている。ファン1の端末装置と配信サーバは、通信リンクAで接続されており、ファン2の端末装置と配信サーバは、通信リンクAで接続されている。また、ファン1の端末装置とファン2の端末装置は、通信リンクBで接続されている。ここで、通信リンクA、A、Bは、インターネット等のネットワークを経由するリンクであり、通信遅延を伴う。なお、アーティストの端末装置と配信サーバとの間の通信遅延は無視できるほど小さいものとする。また、アーティストの端末装置と配信サーバとの間の通信遅延は、通信リンクの通信遅延に含まれてもよい。
 配信サーバは、通信リンクA、又は通信リンクAを使用して、ファン1、ファン2それぞれの端末装置にライブデータ(例えば、アーティストの演奏映像)を配信する。図2は、ライブデータの配信タイミングと視聴タイミングを示す図である。図2の例では、ファン1、ファン2の端末装置それぞれからは、インタラクションデータ(図2の例では、歓声のデータ)が配信サーバに送信されている。歓声のデータを受信した配信サーバは、受信したデータを、アーティストの端末装置に送信する。さらに、配信サーバは、ファン1の端末装置にファン2の歓声のデータを配信するとともに、ファン2の端末装置にファン1の歓声のデータを配信する。
 上述したように、インターネット等のネットワークを経由したデータの送信には通信遅延が伴う。ネットワークを経由してインタラクションデータを送信する場合、通信遅延により、インタラクションの到達が、本来あるべきタイミングから大きくずれることがある。この場合、ライブが盛り上がっているタイミングとは大きくずれたタイミングでインタラクション(例えば、歓声や拍手)が発生したり、インタラクションがバラバラのタイミングで発生したりする。図2の例では、アーティストに届くファン1及びファン2の歓声が、アーティストの演奏からずれたタイミングとなっている。また、図2の例では、ファン1に届くファン2の歓声が、アーティストの演奏から大きくずれたタイミングとなっている。また、図2の例では、ファン2に届くファン1の歓声が、アーティストの演奏から大きくずれたタイミングとなっている。
 図2に示したような状態になると、本来あるべきタイミング(例えば、演奏が盛り上がったタイミング)とはズレたタイミングで大きな歓声が発生することになるので、ユーザはライブに不自然さを感じることとなる。結果として、ユーザは、リモートライブを効果的に体感できない。
 そこで、本実施形態では、以下の手段により上記問題解決する。
 例えば、配信サーバは、アーティスト、ユーザ、及び他のユーザとの間の通信遅延に応じて、アーティストのライブデータと各ユーザからのインタラクションデータを適切に制御するようにする。これにより、アーティスト及びユーザは、リモートライブであってもあたかも生ライブに参加しているような没入感を得られる。
 また、配信サーバは、各ユーザとアーティストとの間の通信遅延に応じて、各ユーザからのインタラクションデータにおける音量を制御する。例えば、配信サーバは、配信サーバから近い(遅延が少ない)ユーザの音量は大きく、遠い(遅延が多い)ユーザの音量は小さく聞こえるようにする。これにより、アーティストが、例えば、ドーム、スタジアム、アリーナのような大規模施設で生ライブをしているような、没入感を得られる。
 また、端末装置は、各ユーザ間の通信遅延に応じて、ユーザ同士で盛り上がりの共有制御を行う。例えば、遅延の小さいユーザの端末装置の間で、配信サーバを経由せず、直接、インタラクションデータを交換するようにする。これにより、盛り上がりの共有をタイムリーに行うことができる。
 以上、本実施形態の概要を述べたが、以下、本実施形態に係る情報処理システム1を詳細に説明する。
<<2.情報処理システムの構成>>
 まず、情報処理システム1の全体の構成を説明する。
 図3は、本開示の実施形態に係る情報処理システム1の構成例を示す図である。情報処理システム1は、ローカル空間に位置するユーザにリモート空間にいるような体感を提供するためシステムである。情報処理システム1は、配信サーバ10と、撮像装置20と、端末装置30と、を備える。なお、図中の装置は、論理的な意味での装置と考えてもよい。つまり、同図の装置の一部が仮想マシン(VM:Virtual Machine)、コンテナ(Container)、ドッカー(Docker)などで実現され、それらが物理的に同一のハードウェア上で実装されてもよい。
 配信サーバ10、撮像装置20、及び端末装置30は、それぞれ通信機能を備え、ネットワークNを介して接続されている。配信サーバ10、撮像装置20、及び端末装置30は、通信装置と言い換えることが可能である。なお、図3の例では、ネットワークNが1つしか示されていないが、ネットワークNは複数存在していてもよい。
 ここで、ネットワークNは、LAN(Local Area Network)、WAN(Wide Area Network)、セルラーネットワーク、固定電話網、地域IP(Internet Protocol)網、インターネット等の通信ネットワークである。ネットワークNには、有線ネットワークが含まれていてもよいし、無線ネットワークが含まれていてもよい。また、ネットワークNには、コアネットワークが含まれていてもよい。コアネットワークは、例えば、EPC(Evolved Packet Core)や5GC(5G Core network)である。また、ネットワークNには、コアネットワーク以外のデータネットワークが含まれていてもよい。データネットワークは、通信事業者のサービスネットワーク、例えば、IMS(IP Multimedia Subsystem)ネットワークであってもよい。また、データネットワークは、企業内ネットワーク等、プライベートなネットワークであってもよい。
 配信サーバ10、撮像装置20、及び端末装置30等の通信装置は、LTE(Long Term Evolution)、NR(New Radio)、Wi-Fi、Bluetooth(登録商標)、等の無線アクセス技術(RAT:Radio Access Technology)を使ってネットワークN又は他の通信装置と接続するよう構成されていてもよい。このとき、通信装置は、異なる無線アクセス技術を使用可能に構成されていてもよい。例えば、通信装置は、NRとWi-Fiを使用可能に構成されていてもよい。また、通信装置は、異なるセルラー通信技術(例えば、LTEとNR)を使用可能に構成されていてもよい。LTE及びNRは、セルラー通信技術の一種であり、基地局がカバーするエリアをセル状に複数配置することで、通信装置の移動通信を可能にする。
 なお、配信サーバ10、撮像装置20、及び端末装置30等の通信装置は、LTE、NR、Wi-Fi、Bluetooth以外の無線アクセス技術を使ってネットワークN又は他の通信装置に接続可能であってもよい。例えば、通信装置は、LPWA(Low Power Wide Area)通信を使ってネットワークN又は他の通信装置に接続可能であってもよい。また、通信装置は、独自規格の無線通信を使ってネットワークN又は他の通信装置に接続可能であってもよい。勿論、通信装置は、他の既知の規格の無線通信を使ってネットワークN又は他の通信装置に接続可能であってもよい。
 以下、情報処理システム1を構成する各装置の構成を具体的に説明する。なお、以下に示す各装置の構成はあくまで一例である。各装置の構成は、以下に示す構成とは異なっていてもよい。
<2-1.サーバの構成>
 最初に、配信サーバ10の構成を説明する。
 配信サーバ10は、1又は複数の端末装置30にライブデータ(例えば、アーティストの演奏映像)を配信する情報処理装置(コンピュータ)である。配信サーバ10がデータを配信する端末装置30には、アーティストが使用する端末装置が含まれていてもよい。このとき、配信サーバ10は、ファンが使用する端末装置30からのインタラクションデータをアーティストが使用する端末装置30に送信してもよい。
 配信サーバ10には、あらゆる形態のコンピュータを採用可能である。例えば、配信サーバ10は、PCサーバであってもよいし、ミッドレンジサーバであってもよいし、メインフレームサーバであってもよい。また、配信サーバ10は、ユーザや端末の近く(e.g., 端末を含むローカルNWに配置された基地局に又は当該基地局に接続されたコアネットワーク装置に接続されたエッジサーバ)でのデータ処理(エッジ処理)を行う情報処理装置であってもよい。例えば、基地局または路側機に併設又は内蔵された情報処理装置(コンピュータ)であってもよい。勿論、配信サーバ10は、クラウドコンピューティングを行う情報処理装置であってもよい。
 図4は、本開示の実施形態に係る配信サーバ10の構成例を示す図である。配信サーバ10は、通信部11と、記憶部12と、制御部13と、を備える。なお、図4に示した構成は機能的な構成であり、ハードウェア構成はこれとは異なっていてもよい。また、配信サーバ10の機能は、複数の物理的に分離された構成に分散して実装されてもよい。例えば、配信サーバ10は、複数のサーバ装置により構成されていてもよい。
 通信部11は、他の装置と通信するための通信インタフェースである。例えば、通信部11は、NIC(Network Interface Card)等のLAN(Local Area Network)インタフェースである。通信部11は、有線インタフェースであってもよいし、無線インタフェースであってもよい。通信部11は、制御部13の制御に従って撮像装置20、端末装置30等と通信する。
 記憶部12は、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)、フラッシュメモリ、ハードディスク等のデータ読み書き可能な記憶装置である。記憶部12は、配信サーバ10の記憶手段として機能する。
 図4に戻り、制御部13は、配信サーバ10の各部を制御するコントローラ(controller)である。制御部13は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサにより実現される。例えば、制御部13は、配信サーバ10内部の記憶装置に記憶されている各種プログラムを、プロセッサがRAM(Random Access Memory)等を作業領域として実行することにより実現される。なお、制御部13は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。CPU、MPU、GPU、ASIC、及びFPGAは何れもコントローラとみなすことができる。
 制御部13は、取得部131と、データ制御部132と、グルーピング部133と、を備える。制御部13を構成する各ブロック(取得部131~グルーピング部133)はそれぞれ制御部13の機能を示す機能ブロックである。これら機能ブロックはソフトウェアブロックであってもよいし、ハードウェアブロックであってもよい。例えば、上述の機能ブロックが、それぞれ、ソフトウェア(マイクロプログラムを含む。)で実現される1つのソフトウェアモジュールであってもよいし、半導体チップ(ダイ)上の1つの回路ブロックであってもよい。勿論、各機能ブロックがそれぞれ1つのプロセッサ又は1つの集積回路であってもよい。制御部13は上述の機能ブロックとは異なる機能単位で構成されていてもよい。機能ブロックの構成方法は任意である。
 なお、制御部13は上述の機能ブロックとは異なる機能単位で構成されていてもよい。また、制御部13を構成する各ブロック(取得部131~グルーピング部133)の一部又は全部の動作を、他の装置が行ってもよい。例えば、制御部13を構成する各ブロックの一部又は全部の動作を、撮像装置20の制御部23、又は端末装置30の制御部33が行ってもよい。制御部13を構成する各ブロックの動作は後述する。
<2-2.撮像装置の構成>
 次に、撮像装置20の構成を説明する。
 撮像装置20は、撮像機能を備えた情報処理装置(コンピュータ)である。撮像装置20は、例えば、アーティストの演奏会場に設置され、撮像したアーティストの演奏映像を配信サーバ10に送信する。なお、撮像装置20は、アーティストが所持する端末装置30とみなしてもよい。
 図5は、本開示の実施形態に係る撮像装置20の構成例を示す図である。撮像装置20は、通信部21と、記憶部22と、制御部23と、センサ部24と、撮像部25と、を備える。なお、図5に示した構成は機能的な構成であり、ハードウェア構成はこれとは異なっていてもよい。また、撮像装置20の機能は、複数の物理的に分離された構成に分散して実装されてもよい。
 通信部21は、他の装置と通信するための通信インタフェースである。例えば、通信部21は、NIC等のLANインタフェースである。通信部21は、有線インタフェースであってもよいし、無線インタフェースであってもよい。
 通信部21が無線インタフェースを備える場合、通信部21は、LTE、NR、Wi-Fi、Bluetooth(登録商標)、等の無線アクセス技術を使ってネットワークNと接続するよう構成されていてもよい。このとき、通信装置は、異なる無線アクセス技術を使用可能に構成されていてもよい。例えば、通信装置は、NRとWi-Fiを使用可能に構成されていてもよい。また、通信装置は、異なるセルラー通信技術(例えば、LTEとNR)を使用可能に構成されていてもよい。その他、撮像装置20は、LTE、NR、Wi-Fi、Bluetooth以外の無線アクセス技術を使ってネットワークNに接続可能であってもよい。
 記憶部22は、DRAM、SRAM、フラッシュメモリ、ハードディスク等のデータ読み書き可能な記憶装置である。記憶部22は、撮像装置20の記憶手段として機能する。記憶部22には、撮像部25によって撮影された撮影データ(例えば、画像データやメタデータ)が格納される。なお、撮影データはファイル形式であってもよい。
 制御部23は、撮像装置20の各部を制御するコントローラである。制御部23は、例えば、CPU、MPU、GPU等のプロセッサにより実現される。例えば、制御部23は、撮像装置20内部の記憶装置に記憶されている各種プログラムを、プロセッサがRAM等を作業領域として実行することにより実現される。なお、制御部23は、ASICやFPGA等の集積回路により実現されてもよい。CPU、MPU、GPU、ASIC、及びFPGAは何れもコントローラとみなすことができる。
 センサ部24は、撮影会場に関する情報を検出するセンサである。例えば、センサ部24は、撮影会場の形状、及び撮影会場にある人や物体の位置、形状等を検出する3Dセンサである。このとき、センサ部24は、ToF(Time of Flight)カメラ方式3Dセンサであってもよいし、ステレオカメラ方式の3Dセンサであってもよい。
 撮像部25は、光像を電気信号に変換する変換部である。撮像部25は、例えば、イメージセンサと、イメージセンサから出力されたアナログの画素信号の処理を行う信号処理回路等を備え、レンズから入ってきた光をデジタルデータ(画像データ)に変換する。なお、撮像部25が撮像する画像は、映像(動画)に限られず、静止画であってもよい。なお、撮像部25は、カメラと言い換えることができる。
<2-3.端末装置の構成>
 次に、端末装置30の構成を説明する。
 端末装置30は、配信サーバ10と通信可能に構成された情報処理装置である。例えば、端末装置30は、AR(Augmented Reality)デバイス、VR(Virtual Reality)デバイス、MR(Mixed Reality)デバイス等のxRデバイスである。このとき、xRデバイスは、ARグラス、MRグラス等のメガネ型デバイスであってもよいし、VRヘッドマウントディスプレイ等のヘッドマウント型デバイスであってもよい。端末装置30をxRデバイスとする場合、端末装置30は、ユーザ装着部分(例えば、メガネ部分)のみで構成されるスタンドアローン型のデバイスであってもよい。また、端末装置30は、ユーザ装着部分(例えば、メガネ部分)と、当該部分と連動する端末部分(例えば、スマートデバイス)と、で構成される端末連動型デバイスであってもよい。
 なお、端末装置30は、携帯電話、スマートデバイス(スマートフォン、又はタブレット)、PDA(Personal Digital Assistant)、ノートPC等のモバイル端末であってもよい。また、端末装置30は、スマートウォッチ等のウェアラブルデバイスであってもよい。その他、端末装置30は、持ち運び可能なIoT(Internet of Things)デバイスであってもよい。
 図6は、本開示の実施形態に係る端末装置30の構成例を示す図である。端末装置30は、通信部31と、記憶部32と、制御部33と、入力部34と、出力部35と、センサ部36と、撮像部37と、を備える。なお、図6に示した構成は機能的な構成であり、ハードウェア構成はこれとは異なっていてもよい。また、端末装置30の機能は、複数の物理的に分離された構成に分散して実装されてもよい。
 通信部31は、他の装置と通信するための通信インタフェースである。例えば、通信部31は、NIC等のLANインタフェースである。なお、通信部31は、有線インタフェースであってもよいし、無線インタフェースであってもよい。通信部31が無線インタフェースを備える場合、通信部31は、LTE(Long Term Evolution)、NR(New Radio)、Wi-Fi、Bluetooth(登録商標)、等の無線アクセス技術(RAT:Radio Access Technology)を使ってネットワークN又は他の通信装置と接続するよう構成されていてもよい。通信部31は、制御部33の制御に従って配信サーバ10、撮像装置20等と通信する。
 記憶部32は、DRAM、SRAM、フラッシュメモリ、ハードディスク等のデータ読み書き可能な記憶装置である。記憶部32は、端末装置30の記憶手段として機能する。
 制御部33は、端末装置30の各部を制御するコントローラである。制御部33は、例えば、CPU、MPU、GPU等のプロセッサにより実現される。例えば、制御部33は、端末装置30内部の記憶装置に記憶されている各種プログラムを、プロセッサがRAM等を作業領域として実行することにより実現される。なお、制御部33は、ASICやFPGA等の集積回路により実現されてもよい。CPU、MPU、GPU、ASIC、及びFPGAは何れもコントローラとみなすことができる。
 入力部34は、外部から各種入力を受け付ける入力装置である。例えば、入力部34は、キーボードやマウスや操作キー等、ユーザが各種操作を行うための操作装置である。なお、端末装置30にタッチパネルが採用される場合には、タッチパネルも入力部34に含まれる。この場合、ユーザは、指やスタイラスで画面をタッチすることにより各種操作を行う。
 出力部35は、音、光、振動、画像等、外部に各種出力を行う装置である。出力部35は、各種情報を表示する表示装置を備える。表示装置は、例えば、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイである。なお、端末装置30にタッチパネルが採用される場合には、表示装置は入力部34と一体の装置であってもよい。また、端末装置30がxRデバイス(例えば、AR/MRグラス)の場合、グラス上に画像を投影する透過型デバイスであってもよいし、ユーザの網膜に直接画像を投影する網膜投影型デバイスであってもよい。出力部35は、制御部33の制御に従って、ユーザに各種出力を行う。
 センサ部36は、端末装置30の位置又は姿勢に関する情報を取得するセンサである。例えば、センサ部36は、加速度センサである。なお、センサ部36は、加速度センサに限られない。センサ部36は、IMU(Inertial Measurement Unit)であってもよいし、地磁気センサであってもよいし、3Dセンサであってもよい。また、センサ部36は、GNSS(Global Navigation Satellite System)センサであってもよい。GNSSセンサは、GPS(Global Positioning System)センサであってもよいし、GLONASSセンサであってもよいし、Galileoセンサであってもよいし、QZSS(Quasi-Zenith Satellite System)センサであってもよい。また、センサ部36は、これら複数のセンサを組み合わせたものであってもよい。センサ部は、ユーザの動作(例えば、拍手等)を検出可能に構成されていてもよい。
 撮像部37は、光像を電気信号に変換する変換部である。撮像部37は、例えば、イメージセンサと、イメージセンサから出力されたアナログの画素信号の処理を行う信号処理回路等を備え、レンズから入ってきた光をデジタルデータ(画像データ)に変換する。なお、撮像部37が撮像する画像は、映像(動画)に限られず、静止画であってもよい。なお、撮像部37は、カメラと言い換えることができる。
<<3.情報処理システムの動作>>
 以上、情報処理システム1の構成について述べたが、次に、情報処理システム1の動作を説明する。
<3-1.配信サーバの動作の概要>
 まず、配信サーバ10の動作の概要を説明する。図7は、リモートライブの配信処理を示すフローチャートである。配信処理は、アーティストの演奏に遠隔地から参加可能にする処理である。以下、図7を参照しながら、配信サーバ10の動作の概要を説明する。以下の処理は、配信サーバ10の制御部13で実行される。
 まず、配信サーバ10の取得部131は、通信遅延の情報を取得する(ステップS101)。例えば、取得部131は、配信サーバ10と端末装置30との間の遅延、又は、端末装置30と他の端末装置30との間の遅延、の情報を取得する。このとき、取得部131は、端末装置30が測定した遅延の情報を端末装置30から取得してもよいし、自ら測定してもよい。
 次に、配信サーバ10のデータ制御部132は、ステップS101で取得した通信遅延の情報に基づいて、リモートライブ会場内のユーザの座席位置を決定する(ステップS102)。リモートライブ会場は、現実のライブ会場を模した仮想空間である。ユーザは、端末装置30(例えば、VRデバイス)越しにリモートライブ会場を見ることで、あたかも自分が現実のライブ会場にいるかのような体験を得ることができる。リモートライブ会場には、現実のライブ会場と同様に、座席が用意されている。データ制御部132は、ステップS101で取得した遅延の情報に基づいて、端末装置30を使用するユーザの座席を決定する。
 次に、配信サーバ10の取得部131は、撮像装置20からアーティストの演奏の映像データを受け取る。そして、配信サーバ10のデータ制御部132は、端末装置30に映像データをライブデータとして配信する(ステップS103)。
 次に、配信サーバ10は、ライブデータに対する端末装置30のインタラクションデータ(例えば、端末装置30のユーザの歓声や拍手のデータ)を受信する(ステップS104)。インタラクションデータは、例えば、端末装置30を装着するユーザの歓声や動作(例えば、拍手)のデータである。
 次に、配信サーバ10のデータ制御部132は、インタラクションデータに対する制御を実行する(ステップS105)。例えば、インタラクションデータがユーザの歓声データであるとする。このとき、データ制御部132は、ステップS101で取得した通信遅延の情報に基づいて、アーティストの端末装置30に配信するインタラクションデータの音量を調整してもよい。より具体的には、データ制御部132は、遅延が小さいほど音量を大きく、遅延が大きいほど音量を小さくしてもよい。
 次に、配信サーバ10は、アーティストの演奏が終了したか判別する(ステップS106)。演奏が終了していない場合(ステップS106:No)、配信サーバ10は、ステップS103に処理を戻す。演奏が終了した場合(ステップS106:Yes)、配信サーバ10は、配信処理を終了する。
 なお、配信サーバ10の動作例は、図7で示したフローチャートには限られない。例えば、ステップS102は配信サーバ10の動作における必須の構成要素でなくてもよい。例えば、配信サーバ10は、ステップS102の動作を行うことなく、ステップS101で取得した通信遅延の情報をステップS105でのインタラクションデータに対する制御に用いてもよい。
 以上、配信サーバ10の動作の概要を説明したが、以下、配信サーバ10の動作を詳細に説明する。
<3-2.通信遅延の情報の取得>
 まず、ステップS101の通信遅延の情報の取得について詳細に説明する。
<3-2-1.通信遅延について>
 本実施形態における、通信遅延の測定する通信リンクは、図1に示すように、通信リンクAと通信リンクBとに分けられる。通信リンクAは、アーティストのライブデータを配信する配信サーバ10とライブを視聴するユーザの端末装置30との間の通信リンクであり、通信リンクBは、ライブを視聴するユーザ間の通信リンクである。なお、通信リンクAは、アーティストの端末装置30或いは撮像装置20と、ユーザの端末装置30と、の間のリンクとみなしてもよい。アーティストは、ライブの主催者と置き換え可能である。
 通信遅延は、通信リンク毎(すなわち、ファンの端末装置30毎および/または配信サーバ10毎)に異なるため、それぞれ個別に測定される。その測定は、配信サーバ10側で行う場合と、端末装置30側で行う場合と、がある。例えば、配信サーバ10側で測定する場合、配信サーバ10は、端末装置30毎の通信リンクAの通信遅延の測定結果を取得できる。一方、端末装置30側で測定する場合、配信サーバ10は、通信リンクAの通信遅延の測定結果に加えて、通信リンクBの通信遅延の測定結果も取得することができる。なお、通信リンクAにおける通信遅延を第1の遅延、通信リンクBにおける通信遅延を第2の遅延とも称する。
 また、通信遅延は、通信レイヤー(例えば、物理レイヤー、MAC(Media Access Control)レイヤー、アプリケーションレイヤーなど)によっても異なる。本実施形態では、いずれの通信レイヤーにおける通信遅延も想定しうる。
 また、通信遅延を測定するための通信ノード(すなわち、配信サーバ10や端末装置30など)は、上述のように個別の通信ノードであってもよい。また、複数の通信ノードをグループ化した通信ノードグループを1つの通信ノードとしてもよい。すなわち、通信遅延の測定は、複数の配信サーバ10をグループ化した配信サーバ10グループを1つの通信ノードとして行ってもよいし、複数の端末装置30をグループ化した端末装置30グループを1つの通信ノードとして行ってもよい。なお、端末装置30のグルーピングについては後述する。
 また、本実施形態において、通信遅延として、端末装置30や配信サーバ10の入り口におけるネットワーク上の遅延、端末装置30や配信サーバ10の処理遅延なども含めた遅延など、様々な遅延が想定しうる。
 また、通信遅延は、瞬時の通信遅延(例えば、データの送信毎、制御毎に測定される通信遅延)であってもよい。また、通信遅延は、所定の時間間隔で平均化された通信遅延であってもよい。また、通信遅延は、所定の忘却係数を用いた移動平均で得られた通信遅延であってもよい。その他、通信遅延の算出には、遅延分散など様々な遅延に関するパラメータを用いてもよい。
 また、通信遅延の測定には、各端末装置30のエッジネットワーク(マンションタイプ、無線)やメトロネットワーク(地域網)の混雑状況を加味してもよい。
<3-2-2.通信遅延の測定方法>
 通信遅延の測定は、様々な方法を用いることができる。通信遅延は通信レイヤーによっても異なるため、測定する通信レイヤーによって測定方法は異なってもよい。
 (1)例1
 ある通信ノードのある通信レイヤーは、他の通信ノードが通信遅延を測定するための所定の信号(パケット、情報)を生成し、他の通信ノードに送信する。他の通信ノードは送信された所定の信号を受信する。他の通信ノードが、所定の信号の送信タイミング(時刻)を判別できれば、所定の信号の受信タイミングとの時間差で通信遅延が把握できる。例えば、所定の信号の送信タイミングの判別方法として、その所定の信号に送信時刻を示すタイムスタンプを付加することが考えられる。
 図8は、通信遅延の測定フローの一例を示す図である。通信ノードA(例えば、配信サーバ10又は端末装置30)は、通信遅延測定信号に対して、送信時刻に関するタイムスタンプを付加し、通信ノードBに送信する。通信ノードB(例えば、配信サーバ10又は端末装置30)は、受信した信号に付加されたタイムスタンプと、その信号の受信タイミングとに基づいて、通信遅延を測定する。さらに、通信ノードBは、測定した通信遅延を通信ノードAに通知することができる。この通信遅延は、通信ノードAから通信ノードBまでの通信リンクにおける遅延であるが、通信ノードBから通信ノードAまでの通信リンクにおける遅延も同等であると想定することができる。
 (2)例2
 ある通信ノードが所定の信号を他の通信ノードに送信する。他の通信ノードBは所定の信号に応じた応答信号を、ある通信ノードに送信する。ある通信ノードは、所定の信号の送信タイミングと、応答信号の受信タイミングとに基づいて、通信遅延を測定する。例えば、ある通信ノードは、IPレイヤーのPingコマンドによるPing値を使って通信遅延を測定する。
 図9は、通信遅延の測定フローの他の例を示す図である。通信ノードA(例えば、配信サーバ10又は端末装置30)は、通信ノードBに通信遅延測定信号を送信する。この通信遅延測定信号は、通信遅延を測定するための応答信号を送信するための制御情報を含むことができる。通信ノードB(例えば、配信サーバ10又は端末装置30)は、通信遅延測定信号に基づいて、応答信号を通信ノードAに送信する。通信ノードAは、通信遅延測定信号の送信タイミングと、応答信号の受信タイミングとに基づいて、通信遅延を測定する。この通信遅延は、通信ノードAと通信ノードBとの間の往復の遅延であるが、いずれか一方の通信遅延はその半分として想定することができる。
 (3)例3
 通信遅延は、実際に測定されたものでなくてもよい。通信遅延は、推定(想定)された値であってもよい。通信遅延は、通信リンクで用いられる通信方法、設定される通信パラメータ、通信モード、通信フォーマットなどの情報に基づいて、推定されうる。具体的には、ある通信リンクにおいて、通信遅延の要求条件に応じて規定された複数の通信モードから設定されることにより、通信遅延が想定されうる。本実施形態において、通信遅延の測定は、通信遅延の推定と読み替えてもよい。
 例えば、ユーザが接続するネットワークが5G NRであるとする。通信ノード(例えば、配信サーバ10又は端末装置30)が通信パラメータの情報に基づいて通信遅延を推定する場合、この通信パラメータには、5QI(5G QoS Identifier) valueを用いることができる。図10は、5QIの一部を示す図である。推定される通信遅延は、図10に示す表のPacket delay budgetに基づいて決めることができる。例えば、あるユーザに対して、5QI value=71を設定した場合、通信ノードはその時の通信遅延は150msと推定する。
<3-3.通信遅延に基づくリモートライブに関する制御>
 次に、通信遅延に基づくリモートライブに関する制御について詳細に説明する。
 上述したように、配信サーバ10は、通信リンクそれぞれの通信遅延の情報を取得し、その取得した通信遅延の情報に基づいて、リモートライブにおける様々な制御を行う。リモートライブに関する制御としては、リモートライブ会場内のユーザの座席位置の決定(図7のステップS102)と、インタラクションデータに対する制御(図7のステップS106)と、が想定されうる。
<3-3-1.リモートライブ会場内の座席の決定>
 まず、リモートライブ会場内のユーザ(ファン)の座席位置の決定について説明する。
 この実施形態では、アーティストが仮想的なコンサート会場でリモートライブを行う場合を想定する。以下の説明では、仮想的なコンサート会場のことをリモートライブ会場ということがある。
 図11は、リモートライブ会場の一例を示す図である。リモートライブ会場は、現実のライブ会場を模した仮想空間である。ユーザは、端末装置30(例えば、VRデバイス)越しにリモートライブ会場を見ることで、あたかも自分が現実のライブ会場にいるかのような体験を得ることができる。
 リモートライブ会場には、現実のライブ会場と同様に、座席が用意されている。図11に示すように、アーティストはコンサート会場の檀上に位置する。配信サーバ10は、端末装置30の通信遅延の情報に基づいて、端末装置30(観客となるユーザ)のリモートライブ会場内での仮想的な位置(座席位置)を決定する。このとき、通信リンクAの通信遅延はアーティストとの距離に対応し、通信リンクBの通信遅延はユーザ間の距離にそれぞれ対応する。換言すると、配信サーバ10は、それぞれのユーザの仮想空間内でのアーティストからの距離を通信リンクAの通信遅延に基づいて決定する。また、配信サーバ10は、それぞれのユーザの仮想空間内での他のユーザとの距離を通信リンクBの通信遅延に基づいて決定する。
 図11の例では、5つのユーザがリモートライブに参加している。各ユーザは、端末装置30を介して仮想空間(リモートライブ会場)にアクセスしている。配信サーバ10は、通信遅延に応じて座席位置を決定する。各ユーザの仮想的な座席位置は以下のとおりである。なお、以下の例において、配信サーバ10は、通信リンクにおける遅延が低遅延か、中遅延か、長遅延かを、予め定められた閾値に基づき判別してもよい。
 (アーティストとの距離)
 配信サーバ10は、通信遅延が大きくなるほど、仮想空間内でのユーザとアーティストとの距離を長くする。例えば、配信サーバ10は、ユーザの座席位置を以下の通り決定する。
 (1)配信サーバ10と端末装置30との間の通信リンクAにおける通信遅延は、低遅延であるため、配信サーバ10は、端末装置30のユーザの座席位置をリモートライブ会場の前方のアーティストに近い位置とする。
 (2)配信サーバ10と端末装置30、30、30との間の通信リンクAにおける通信遅延は、中遅延であるため、配信サーバ10は、端末装置30、30、30それぞれのユーザの座席位置をリモートライブ会場の中ほどの位置とする。
 (3)配信サーバ10と端末装置30との間の通信リンクAにおける通信遅延は、長遅延であるため、配信サーバ10は、端末装置30のユーザの座席位置をリモートライブ会場の後方のアーティストから遠い位置とする。
 (ユーザ間の距離)
 配信サーバ10は、通信遅延が大きくなるほど、仮想空間内でのユーザ間の距離を長くする。例えば、配信サーバ10は、ユーザの座席位置を以下の通り決定する。
 (1)端末装置30のユーザと端末装置30のユーザとの間の通信リンクBの通信遅延は、低遅延であるため、配信サーバ10は、端末装置30のユーザと端末装置30のユーザを相対的に近い座席に配置する。
 (2)端末装置30のユーザと端末装置30のユーザとの間の通信リンクBの通信遅延は、長遅延であるため、配信サーバ10は、端末装置30のユーザと端末装置30のユーザを相対的に遠い座席に配置する。
 配信サーバ10は、決定した位置に基づいてインタラクションデータに関する制御を行う。例えば、配信サーバ10は、他のユーザの端末装置30又はアーティストの端末装置30に送信するユーザの歓声のデータを、ユーザの座席位置に応じたタイミングで送信するようにする。
 ここで、音の伝搬速度は通信速度に比べて遅いため、実際の大きなコンサート会場では観客の座席に応じて音声自体が遅延することになる。具体的には、100mの距離で約300ms、10mの距離でも約30msの音声遅延が生じる。上記のような座席配置を通信遅延に基づいて行うことにより、各ユーザからアーティストおよび/または他のユーザへのインタラクションデータが、その仮想的な距離による音声遅延と同様の通信遅延で受信されることになる。そのため、リモートライブで、通信遅延がユーザ毎に異なる場合でも実際のライブと同様の臨場感が得られる。
 なお、上記の説明では、通信遅延に応じて仮想的な座席位置を決定する方法を説明したが、配信サーバ10は、通信遅延に基づき決まるユーザが選択可能な座席範囲から、ユーザが選択した仮想的な座席位置を、ユーザから取得するようにしてもよい。そして、配信サーバ10は、取得した座席位置の情報に基づいてインタラクションデータに関する制御を行ってもよい。
 ここで、ユーザが選択可能な座席範囲は、例えば、以下のように決定される。例えば、図11の例において、配信サーバ10は、例えば以下の(1)~(3)に示すように、通信リンクAの通信遅延が小さいほど、選択可能な座席の範囲が増えるようにする。なお、配信サーバ10は、通常のコンサートと同様に、その選択可能な座席範囲の中で、アーティストとの距離に応じてライブの料金が変わるようにしてもよい。
 (1)配信サーバ10と端末装置30との間の通信リンクAにおける通信遅延は、低遅延であるため、配信サーバ10は、端末装置30のユーザの座席範囲を、アーティストに近い範囲だけでなく、それよりも後方(すなわち、アーティストから遠い)範囲まで広げる。
 (2)配信サーバ10と端末装置30、30、30との間の通信リンクAにおける通信遅延は、中遅延であるため、配信サーバ10は、端末装置30、30、30それぞれのユーザの座席範囲をリモートライブ会場の中ほどの範囲だけでなく、それよりも後方(すなわち、アーティストから遠い)範囲まで広げる。
 (3)配信サーバ10と端末装置30との間の通信リンクAにおける通信遅延は、長遅延であるため、配信サーバ10は、端末装置30のユーザの座席範囲を、アーティストから遠い範囲のみとする。
 なお、以上の説明では、リモートライブ会場を想定した場合を説明したが、これに限定されるものではない。本発明の方法が、仮想的な空間において、単にアーティストとファンとの相対的な位置関係(例えば、距離)、および/または、ファン同士の相対的な位置関係を決定するために用いられることができる。
<3-3-2.インタラクションデータに対する制御>
 次に、インタラクションデータに対する制御について説明する。
 配信サーバ10は、通信遅延の情報に基づいて、端末装置30からのインタラクションデータに関する制御を行う。ここで、インタラクションデータは、端末装置30のユーザの音声又は動作(例えば、拍手)に関する情報である。本実施形態において、インタラクションデータに関する制御には、音量の調整、遅延量の調整、および/またはフィルタリングが含まれる。なお、本実施形態において、配信サーバ10がインタラクションデータに関する制御を行うときに距離の情報を用いる場合、その距離は通信遅延に基づいて算出される仮想的な距離であってもよい。
 なお、以下の説明では、ユーザからのインタラクションデータがアーティストに送信される場合について説明するが、以下に示す制御例は、ユーザ間でインタラクションデータを共有する場合も同様に適用することができる。なお、以下の制御例では、配信サーバ10が処理を行うものとするが、以下に示す処理を行う装置は配信サーバ10に限られず、端末装置30であってもよい。また、以下に示す処理は、送信側または受信側のいずれで行われてもよい。
 端末装置30で処理を行う場合、配信サーバ10はその処理を行うために必要な情報を端末装置30に送信することができる。例えば、その情報は、第1の遅延を示す情報、第2の遅延を示す情報、配信データおよび/またはインタラクションデータの生成または送信のタイミング(時刻)を示す情報などを含むことができる。端末装置30は、それらの情報に基づいて、配信データおよび/またはインタラクションデータに対して制御を行う。
 (1)音量の調整
 例えば、インタラクションデータが端末装置30のユーザからの歓声のデータであるとする。ユーザからの歓声のデータがアーティストに送信される場合、配信サーバ10は、その歓声の音量の調整を、そのユーザの通信リンクAの通信遅延に基づいて行う。その音量の調整において、以下の式(1)及び式(2)に示す音の距離減衰の方程式が用いることができる。
  減衰量=20×log10(r2/r1)   ・・・(1)
  減衰量=10×log10(r2/r1)   ・・・(2)
 ここで、式(1)は点音源における減衰量を示す式で、式(2)は線音源における減衰量を示す式である。点音源は、打音などのように点とみなされる音源であり、線音源は、一列に並んだ機械、道路の交通騒音などのように、長い線状をなした音源である。ここで、r1は、騒音レベル(dB)を測定した地点の音の発生源(例えば、ユーザの仮想空間内での位置)からの距離であり、r2は、音を聞く場所(すなわち、この例ではアーティスト)までの距離である。ここで、距離の単位は、例えば、メートルである。
 なお、点音源、線音源に分類できない場合、減衰量は、式(1)および式(2)の双方を用いて算出されうる。例えば、配信サーバ10は、式(1)および式(2)で算出される値の中間値を減衰量としてもよい。
 なお、この音量の調整において、所定の通信遅延を超える場合、配信サーバ10は、その音量をゼロにすることができる。この場合、大きな通信遅延のインタラクションデータはカットすることができるので、アーティスト側に違和感なく、臨場感を実現できる。
 (2)遅延量の調整
 例えば、インタラクションデータが端末装置30のユーザからの歓声のデータであるとする。ユーザからの歓声のデータがアーティストに送信される場合、配信サーバ10は、その歓声の遅延量の調整を、そのユーザの通信リンクAの通信遅延に基づいて行う。より具体的には、配信サーバ10は、実際の通信遅延にさらに遅延を付加する。例えば、複数のユーザ(端末装置30)をグループ化する場合、そのグループ内のユーザ間で同じ遅延になるようにそれぞれのユーザのインタラクションの送信に対して遅延を付加する。
 (3)フィルタリング
 例えば、インタラクションデータが端末装置30のユーザからの歓声のデータであるとする。ユーザからの歓声のデータがアーティストに送信される場合、配信サーバ10は、そのユーザの通信リンクAの通信遅延に基づいて、フィルタリングを行う。このフィルタリングには、音源分離フィルタ、人工知能を活用したフィルタ等、様々なフィルタを使用可能である。例えば、配信サーバ10は、通信遅延が所定の閾値より小さく、音量が所定の音量より大きいインタラクションデータに対して、話し声のみをカットし、歓声のみを抽出するフィルタリング処理を行う。これにより、プライバシーに配慮したインタラクションデータをアーティストに届けることができる。
 なお、インタラクションデータに対する制御は上記には限られない。例えば、インタラクションデータに対する制御は、空間オーディオ(立体音響)に適応されてもよい。空間オーディオとは、全天球に広がる仮想的な音場空間に各音源をオブジェクトとして任意の位置に配置することで、ユーザがスピーカーやヘッドホンを通して立体的な音響を楽しめる体験をいう。例えば、ユーザからのインタラクションデータを、当該ユーザの遅延時間に応じて、音場空間上の異なる位置に配置してもよい。例えば、ユーザからのインタラクションデータがアーティストに送信される場合であって、アーティストむけに出力されるスピーカーが空間オーディオに対応している場合、通信遅延が低遅延のユーザからのインタラクションデータ(音源)を、音場空間上におけるユーザから近い位置にオブジェクトとして配置してもよい。同様に、通信遅延が長遅延のユーザからのインタラクションデータ(音源)を、音場空間上におけるユーザから遠い位置にオブジェクトとして配置してもよい。例えば、ユーザからのインタラクションデータが他のユーザに送信される場合であっても、同じように処理されてもよい。
<3-4.グルーピング>
 配信サーバ10は、複数の端末装置30をグループ分けしてもよい。そして、配信サーバ10は、インタラクションデータに関する制御をグループ毎に行ってもよい。なお、配信サーバ10は、様々な方法を用いて複数の端末装置30をグループ分けできる。以下、複数の端末装置30のグルーピングの方法を説明する。なお、配信サーバ10は、以下で説明するグルーピング方法を単体で用いることもできるし、複数のグルーピング方法を組み合わせることもできる。以下で説明する処理は、例えば、配信サーバ10のグルーピング部133で実行される。
<3-4-1.通信遅延に基づいて行われるグルーピング>
 配信サーバ10は、複数の端末装置30それぞれの通信遅延の情報に基づいて複数の端末装置30をグループ分けしてもよい。例えば、配信サーバ10は、複数の端末装置30それぞれの通信リンクAの通信遅延および/または通信リンクBの通信遅延の情報に基づいて、複数の端末装置30をグルーピングする。図12は、グループと通信遅延との対応関係を示す図である。ここで、tは通信遅延であり、T0~T3は、グループ分けのための基準値(閾値)である。配信サーバ10は、図12に示すように、その通信遅延に対する所定の範囲毎のグループのリストを予め保持し、各ユーザの通信遅延とそのリストに基づいて複数の端末装置30をグルーピングする。
 ライブデータには、映像データが含まれていてもよい。そして、配信サーバ10は、映像のフレーム数(フレームレート)を単位とする基準値に複数の端末装置30それぞれの通信遅延の情報をあてはめることにより、複数の端末装置30をグループ分けしてもよい。例えば、図12に示すT0~T3はそれぞれ映像のフレーム数を単位とする基準値であってもよい。例えば、配信サーバ10は、33ms毎、16ms毎など映像のフレーム数を単位とする基準値を使って複数の端末装置30をグルーピングする。これにより、上り、下りの遅延がフレーム数換算で同じになる複数の端末装置30を同一のグループとできる。
 端末装置30間の通信リンクである通信リンクBの通信遅延は、全ての端末装置30で測定しなくてもよい。例えば、配信サーバ10は、とある仮想的な位置にグルーピングされた端末装置30同士でランダムに複数台とP2P接続を行い相互の遅延を測定する。このとき、配信サーバ10は、測定された相互の遅延が短いもの数台とP2P接続を張り、相互に盛り上がりデータをやり取りするグループとしてもよい。
<3-4-2.固定的に行われるグルーピング>
 配信サーバ10は、所定の条件やパラメータに応じて、グルーピングを固定的行ってもよい。
 (1)接続ネットワークオペレータの情報に基づくグルーピング
 配信サーバ10は、複数の端末装置30それぞれの接続ネットワークオペレータの情報に基づいて、複数の端末装置30をグループ分けしてもよい。接続ネットワークオペレータの情報は、例えば、ユーザおよび/またはアーティストが接続する回線事業者やインターネットプロバイダー業者の情報である。接続ネットワークオペレータの情報は、ユーザおよび/またはアーティストが加入する(又は使用しているSIMカードの)ネットワークオペレータの情報であってもよい。
 なお、無線回線におけるネットワークオペレータには、MNO(Mobile Network Operator)、MVNO(Mobile Virtual Network Operator)、MVNE(Mobile Virtual Network Enabler)が含まれていてもよい。
 さらに、配信サーバ10は、ユーザの端末装置30が接続するネットワークオペレータが、アーティスト側が指定する所定のネットワークオペレータかどうかに応じて、制御を切り替えるようにしてもよい。例えば、配信サーバ10は、端末装置30が接続するネットワークオペレータが、アーティスト側が指定する所定のネットワークオペレータである場合、通信遅延が可能な限り小さくなるようにデータの送信を制御する。
 (2)通信システムの情報に基づくグルーピング
 配信サーバ10は、ユーザおよび/またはアーティストの端末装置30が通信に用いる通信システム(通信方式、通信方法)の情報に基づいて、複数の端末装置30をグループ分けしてもよい。ここで、通信システムの情報には、有線回線の場合、光ファイバー、ADSL、ケーブルテレビ回線、同軸ケーブル回線などを判別するための情報が含まれていてもよい。また、無線回線の場合、4G LTE、5G NR、無線LAN、衛星通信、D2D(Device-to-device)通信などを判別するための情報が含まれていてもよい。
 (3)指定に基づくグルーピング
 配信サーバ10は、所定の端末装置30のユーザの指定に基づいて、複数の端末装置30をグループ分けしてもよい。例えば、配信サーバ10は、所定のユーザおよび/またはアーティストが事前に指定した複数のユーザを同一のグループとする。
 例えば、所定のユーザが友人や知人を事前に同じグループとして指定したとする。このとき、配信サーバ10は、この指定の情報に基づいて、複数の端末装置30をグループ分けする。例えば、ユーザ同士でインタラクションデータを共有する場合、配信サーバ10は、インタラクションデータの送信をこのグループ内の端末装置30に制限する。また、配信サーバ10は、例えば、話し声を含めたインタラクションデータ(音声データ)はこのグループ内でのみで共有されるが、話し声以外の歓声などのインタラクションデータ(音声データ)は他のグループとも共有されるようインタラクションデータの送信を制御してもよい。
 また、配信サーバ10は、アーティスト(主催者)が料金(投げ銭)を多く払ったユーザを事前に同じグループとして指定できるよう構成されていてもよい。このとき、配信サーバ10は、この指定の情報に基づいて、複数の端末装置30をグループ分けする。なおこのグループは上記の制御において優遇されてもよい。
 (4)現実の位置情報に基づくグルーピング
 配信サーバ10は、複数の端末装置30それぞれの現実の位置情報に基づいて、複数の端末装置30をグループ分けしてもよい。配信サーバ10は、ユーザおよび/またはアーティストがリモートで参加する実際の位置情報に基づいて、複数の端末装置30のグルーピングを行う。このとき、グルーピングを行う位置の単位は、国・地方・都道府県・市区町村など行政区域であってもよいし、セルラーネットワークにおけるセル(基地局がカバーする通信エリア)であってもよい。
 (5)アクセスログに基づくグルーピング
 配信サーバ10は、端末装置30(ユーザ)のアクセスログに基づいてグルーピングを行ってもよい。例えば、配信サーバ10は、ユーザのアクセスログに含まれるIPアドレスに対して、whoisを利用し、countryとnetnameを取得する。配信サーバ10は、これらの情報に基づいて得られる国情報および/またはISP(インターネットサービスプロバイダー)の種別によりグルーピングを行う。
 これにより、ISP(Internet Service Provider)が収容しているゲートウェイのコア側の混雑状況がグループ毎に類似となる。また、FTTH(Fiber To The Home)系ISPかMobile系ISPかの分類も可能となる。また、各ISPのNAT(Network Address Translation)やセキュリティポリシーの特性がグループ毎に統一になるため、アプリケーションレイヤーでのP2P(Peer to Peer)接続の可否がグループ毎に同一となる。つまり、グループ毎に同一のプロトコルに決めやすくなる。
<<4.変形例>>
 本実施形態の配信サーバ10、撮像装置20、又は端末装置30を制御する制御装置は、専用のコンピュータシステムにより実現してもよいし、汎用のコンピュータシステムによって実現してもよい。
 例えば、上述の動作を実行するための通信プログラムを、光ディスク、半導体メモリ、磁気テープ、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体に格納して配布する。そして、例えば、該プログラムをコンピュータにインストールし、上述の処理を実行することによって制御装置を構成する。このとき、制御装置は、配信サーバ10、撮像装置20、又は端末装置30の外部の装置(例えば、パーソナルコンピュータ)であってもよい。また、制御装置は、配信サーバ10、撮像装置20、又は端末装置30の内部の装置(例えば、制御部13、制御部23、又は制御部33)であってもよい。
 また、上記通信プログラムをインターネット等のネットワーク上のサーバ装置が備えるディスク装置に格納しておき、コンピュータにダウンロード等できるようにしてもよい。また、上述の機能を、OS(Operating System)とアプリケーションソフトとの協働により実現してもよい。この場合には、OS以外の部分を媒体に格納して配布してもよいし、OS以外の部分をサーバ装置に格納しておき、コンピュータにダウンロード等できるようにしてもよい。
 また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。
 また、上述の実施形態は、処理内容を矛盾させない領域で適宜組み合わせることが可能である。また、上述の実施形態のフローチャートに示された各ステップは、適宜順序を変更することが可能である。
 また、例えば、本実施形態は、装置またはシステムを構成するあらゆる構成、例えば、システムLSI(Large Scale Integration)等としてのプロセッサ、複数のプロセッサ等を用いるモジュール、複数のモジュール等を用いるユニット、ユニットにさらにその他の機能を付加したセット等(すなわち、装置の一部の構成)として実施することもできる。
 なお、本実施形態において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 また、例えば、本実施形態は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述したいくつかの実施形態におけるインタラクションデータは、音声データに限られない。例えば、インタラクションデータは、映像データ、触覚データ、嗅覚データ、味覚データであってもよい。
<<5.むすび>>
 以上説明したように、配信サーバ10は、配信サーバ10と端末装置30との間の通信遅延の情報に基づいて、ライブデータに対する端末装置30からのインタラクションデータに関する制御を行う。例えば、配信サーバ10は、通信遅延の情報に基づいて端末装置30に映す仮想空間内での端末装置30の位置を決定し、決定した位置に基づいてインタラクションデータに関する制御を行う。これにより、アーティスト及びユーザは、リモートライブであっても生ライブのような没入感を得られる。
 以上、本開示の各実施形態について説明したが、本開示の技術的範囲は、上述の各実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。例えば、上述した各実施形態の一部又は全てと他の実施形態の一部又は全てとが組み合わされて実施されてもよい。
 また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 第1の端末装置にライブデータを配信する情報処理装置であって、
 前記ライブデータに対するインタラクションデータを送信する前記第1の端末装置と前記情報処理装置との間の遅延、又は、前記ライブデータに対する前記第1の端末装置からのインタラクションデータを受信する第2の端末装置と前記第1の端末装置との間の遅延、の情報を取得する取得部と、
 前記取得した遅延の情報に基づいて、前記第1の端末装置からの前記インタラクションデータに関する制御を行うデータ制御部と、
 を備える情報処理装置。
(2)
 前記データ制御部は、前記取得した遅延の情報に基づいて前記第1の端末装置に映す仮想空間内での該第1の端末装置の位置を決定し、決定した位置に基づいて前記インタラクションデータに関する制御を行う、
 前記(1)に記載の情報処理装置。
(3)
 前記第1の端末装置に映す仮想空間内の範囲であって前記遅延に基づき決まる前記範囲から、前記第1の端末装置のユーザが選択した該第1の端末装置の位置の情報を取得する取得部、を備え、
 前記データ制御部は、取得した前記位置の情報に基づいて前記インタラクションデータに関する制御を行う、
 前記(1)に記載の情報処理装置。
(4)
 前記インタラクションデータは、前記第1の端末装置のユーザの音声又は動作に関する情報である、
 前記(1)~(3)のいずれかに記載の情報処理装置。
(5)
 前記インタラクションデータは、前記第1の端末装置のユーザの音声であり、
 前記データ制御部は、前記取得した遅延の情報に基づいて、前記第1の端末装置のユーザの音声の大きさに関する制御を行う、
 前記(1)~(4)のいずれかに記載の情報処理装置。
(6)
 前記第1の端末装置は複数存在しており、
 前記取得部は、複数の遅延の情報を取得し、
 前記データ制御部は、前記取得した複数の遅延の情報に基づいて、前記第1の端末装置から前記第2の端末装置への前記インタラクションデータの送信遅延の大きさの制御を行う、
 前記(1)~(4)のいずれかに記載の情報処理装置。
(7)
 前記データ制御部は、前記取得した複数の遅延の情報に基づき決まる遅延量を、前記インタラクションデータの送信に対し付加する、
 前記(6)に記載の情報処理装置。
(8)
 前記データ制御部は、前記取得した遅延に基づいて、前記インタラクションデータに対してフィルタリング処理を行う、
 前記(1)~(4)のいずれかに記載の情報処理装置。
(9)
 前記インタラクションデータは、前記第1の端末装置のユーザの音声であり、
 前記データ制御部は、前記取得した遅延に基づいて、前記インタラクションデータに対して音声に関するフィルタリング処理を行う、
 前記(8)に記載の情報処理装置。
(10)
 前記データ制御部は、前記取得した遅延が所定の閾値より小さく、前記音声の音量が所定の音量より大きい場合には、話し声をカットするフィルタリング処理を行う、
 前記(9)に記載の情報処理装置。
(11)
 複数の前記第1の端末装置をグループ分けするグルーピング部、を備え、
 前記データ制御部は、前記インタラクションデータに関する制御を前記グループ毎に行う、
 前記(1)~(10)のいずれかに記載の情報処理装置。
(12)
 前記グルーピング部は、複数の前記第1の端末装置それぞれの前記遅延の情報に基づいて複数の前記第1の端末装置をグループ分けする、
 前記(11)に記載の情報処理装置。
(13)
 前記ライブデータには、少なくとも映像データが含まれ、
 前記グルーピング部は、複数の前記第1の端末装置のグループ分けのための1又は複数の基準値に、前記遅延の情報を当てはめることにより、複数の前記第1の端末装置をグループ分けし、
 前記1又は複数の基準値は、映像のフレーム数を単位とする値である、
 前記(12)に記載の情報処理装置。
(14)
 複数の前記第1の端末装置それぞれの接続ネットワークオペレータの情報に基づいて、複数の前記第1の端末装置をグループ分けする、
 前記(11)に記載の情報処理装置。
(15)
 所定の前記第1の端末装置又は前記第2の端末装置のユーザの指定に基づいて、複数の前記第1の端末装置をグループ分けする、
 前記(11)に記載の情報処理装置。
(16)
 複数の前記第1の端末装置それぞれの現実の位置情報に基づいて、複数の前記第1の端末装置をグループ分けする、
 前記(11)に記載の情報処理装置。
(17)
 第1の端末装置にライブデータを配信する情報処理装置が実行する情報処理方法であって、
 前記ライブデータに対するインタラクションデータを送信する前記第1の端末装置と前記情報処理装置との間の遅延、又は、前記ライブデータに対する前記第1の端末装置からのインタラクションデータを受信する第2の端末装置と前記第1の端末装置との間の遅延、の情報を取得し、
 前記取得した遅延の情報に基づいて、前記第1の端末装置からの前記インタラクションデータに関する制御を行う、
 情報処理方法。
(18)
 ライブデータを配信する配信サーバと、前記ライブデータを受信し前記ライブデータに対するインタラクションデータを送信する1又は複数の第1の端末装置と、前記ライブデータに対する前記第1の端末装置からのインタラクションデータを受信する第2の端末装置、を備える情報処理システムであって、
 前記配信サーバと前記第1の端末装置との間の遅延、又は、前記第2の端末装置と前記第1の端末装置との間の遅延、の情報を取得する取得部と、
 前記取得した遅延の情報に基づいて、前記第1の端末装置からの前記インタラクションデータに関する制御を行うデータ制御部と、
 を備える情報処理システム。
(19)
 前記ライブデータは、アーティストの演奏の映像データであり、
 前記第1の端末装置は、前記アーティストの演奏を視聴するユーザの端末装置であり、
 前記第2の端末装置は、前記アーティストの演奏を視聴するユーザの端末装置である前記第1の端末装置からの前記インタラクションデータを前記アーティストへ出力するための端末装置である、
 前記(18)に記載の情報処理システム。
(20)
 前記ライブデータは、アーティストの演奏の映像データであり、
 前記第1の端末装置は、前記アーティストの演奏を視聴するユーザの端末装置であり、
 前記第2の端末装置は、前記アーティストの演奏を視聴するユーザの端末装置であって、前記第1の端末装置のユーザとは異なるユーザの端末装置ある、
 前記(18)に記載の情報処理システム。
 1 情報処理システム
 10 配信サーバ
 20 撮像装置
 30 端末装置
 11、21、31 通信部
 12、22、32 記憶部
 13、23、33 制御部
 24、36 センサ部
 25、37 撮像部
 34 入力部
 35 出力部
 131 取得部
 132 データ制御部
 133 グルーピング部

Claims (20)

  1.  第1の端末装置にライブデータを配信する情報処理装置であって、
     前記ライブデータに対するインタラクションデータを送信する前記第1の端末装置と前記情報処理装置との間の遅延、又は、前記ライブデータに対する前記第1の端末装置からのインタラクションデータを受信する第2の端末装置と前記第1の端末装置との間の遅延、の情報を取得する取得部と、
     前記取得した遅延の情報に基づいて、前記第1の端末装置からの前記インタラクションデータに関する制御を行うデータ制御部と、
     を備える情報処理装置。
  2.  前記データ制御部は、前記取得した遅延の情報に基づいて前記第1の端末装置に映す仮想空間内での該第1の端末装置の位置を決定し、決定した位置に基づいて前記インタラクションデータに関する制御を行う、
     請求項1に記載の情報処理装置。
  3.  前記第1の端末装置に映す仮想空間内の範囲であって前記遅延に基づき決まる前記範囲から、前記第1の端末装置のユーザが選択した該第1の端末装置の位置の情報を取得する取得部、を備え、
     前記データ制御部は、取得した前記位置の情報に基づいて前記インタラクションデータに関する制御を行う、
     請求項1に記載の情報処理装置。
  4.  前記インタラクションデータは、前記第1の端末装置のユーザの音声又は動作に関する情報である、
     請求項1に記載の情報処理装置。
  5.  前記インタラクションデータは、前記第1の端末装置のユーザの音声であり、
     前記データ制御部は、前記取得した遅延の情報に基づいて、前記第1の端末装置のユーザの音声の大きさに関する制御を行う、
     請求項1に記載の情報処理装置。
  6.  前記第1の端末装置は複数存在しており、
     前記取得部は、複数の遅延の情報を取得し、
     前記データ制御部は、前記取得した複数の遅延の情報に基づいて、前記第1の端末装置から前記第2の端末装置への前記インタラクションデータの送信遅延の大きさの制御を行う、
     請求項1に記載の情報処理装置。
  7.  前記データ制御部は、前記取得した複数の遅延の情報に基づき決まる遅延量を、前記インタラクションデータの送信に対し付加する、
     請求項6に記載の情報処理装置。
  8.  前記データ制御部は、前記取得した遅延に基づいて、前記インタラクションデータに対してフィルタリング処理を行う、
     請求項1に記載の情報処理装置。
  9.  前記インタラクションデータは、前記第1の端末装置のユーザの音声であり、
     前記データ制御部は、前記取得した遅延に基づいて、前記インタラクションデータに対して音声に関するフィルタリング処理を行う、
     請求項8に記載の情報処理装置。
  10.  前記データ制御部は、前記取得した遅延が所定の閾値より小さく、前記音声の音量が所定の音量より大きい場合には、話し声をカットするフィルタリング処理を行う、
     請求項9に記載の情報処理装置。
  11.  複数の前記第1の端末装置をグループ分けするグルーピング部、を備え、
     前記データ制御部は、前記インタラクションデータに関する制御を前記グループ毎に行う、
     請求項1に記載の情報処理装置。
  12.  前記グルーピング部は、複数の前記第1の端末装置それぞれの前記遅延の情報に基づいて複数の前記第1の端末装置をグループ分けする、
     請求項11に記載の情報処理装置。
  13.  前記ライブデータには、少なくとも映像データが含まれ、
     前記グルーピング部は、複数の前記第1の端末装置のグループ分けのための1又は複数の基準値に、前記遅延の情報を当てはめることにより、複数の前記第1の端末装置をグループ分けし、
     前記1又は複数の基準値は、映像のフレーム数を単位とする値である、
     請求項12に記載の情報処理装置。
  14.  複数の前記第1の端末装置それぞれの接続ネットワークオペレータの情報に基づいて、複数の前記第1の端末装置をグループ分けする、
     請求項11に記載の情報処理装置。
  15.  所定の前記第1の端末装置又は前記第2の端末装置のユーザの指定に基づいて、複数の前記第1の端末装置をグループ分けする、
     請求項11に記載の情報処理装置。
  16.  複数の前記第1の端末装置それぞれの現実の位置情報に基づいて、複数の前記第1の端末装置をグループ分けする、
     請求項11に記載の情報処理装置。
  17.  第1の端末装置にライブデータを配信する情報処理装置が実行する情報処理方法であって、
     前記ライブデータに対するインタラクションデータを送信する前記第1の端末装置と前記情報処理装置との間の遅延、又は、前記ライブデータに対する前記第1の端末装置からのインタラクションデータを受信する第2の端末装置と前記第1の端末装置との間の遅延、の情報を取得し、
     前記取得した遅延の情報に基づいて、前記第1の端末装置からの前記インタラクションデータに関する制御を行う、
     情報処理方法。
  18.  ライブデータを配信する配信サーバと、前記ライブデータを受信し前記ライブデータに対するインタラクションデータを送信する1又は複数の第1の端末装置と、前記ライブデータに対する前記第1の端末装置からのインタラクションデータを受信する第2の端末装置、を備える情報処理システムであって、
     前記配信サーバと前記第1の端末装置との間の遅延、又は、前記第2の端末装置と前記第1の端末装置との間の遅延、の情報を取得する取得部と、
     前記取得した遅延の情報に基づいて、前記第1の端末装置からの前記インタラクションデータに関する制御を行うデータ制御部と、
     を備える情報処理システム。
  19.  前記ライブデータは、アーティストの演奏の映像データであり、
     前記第1の端末装置は、前記アーティストの演奏を視聴するユーザの端末装置であり、
     前記第2の端末装置は、前記アーティストの演奏を視聴するユーザの端末装置である前記第1の端末装置からの前記インタラクションデータを前記アーティストへ出力するための端末装置である、
     請求項18に記載の情報処理システム。
  20.  前記ライブデータは、アーティストの演奏の映像データであり、
     前記第1の端末装置は、前記アーティストの演奏を視聴するユーザの端末装置であり、
     前記第2の端末装置は、前記アーティストの演奏を視聴するユーザの端末装置であって、前記第1の端末装置のユーザとは異なるユーザの端末装置ある、
     請求項18に記載の情報処理システム。
PCT/JP2022/008256 2021-06-15 2022-02-28 情報処理装置、情報処理方法、及び情報処理システム WO2022264536A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2023529521A JPWO2022264536A1 (ja) 2021-06-15 2022-02-28
EP22824536.1A EP4358522A1 (en) 2021-06-15 2022-02-28 Information processing device, information processing method, and information processing system
CN202280041141.0A CN117461317A (zh) 2021-06-15 2022-02-28 信息处理设备、信息处理方法和信息处理系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021099543 2021-06-15
JP2021-099543 2021-06-15

Publications (1)

Publication Number Publication Date
WO2022264536A1 true WO2022264536A1 (ja) 2022-12-22

Family

ID=84526135

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/008256 WO2022264536A1 (ja) 2021-06-15 2022-02-28 情報処理装置、情報処理方法、及び情報処理システム

Country Status (4)

Country Link
EP (1) EP4358522A1 (ja)
JP (1) JPWO2022264536A1 (ja)
CN (1) CN117461317A (ja)
WO (1) WO2022264536A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116437282A (zh) * 2023-03-23 2023-07-14 合众新能源汽车股份有限公司 虚拟演唱会的声感处理方法及存储介质、电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003235027A (ja) * 2002-02-12 2003-08-22 Matsushita Electric Ind Co Ltd 配信映像の同時再生方法、映像配信システムおよび端末装置
WO2019067112A1 (en) * 2017-09-29 2019-04-04 Sony Interactive Entertainment America Llc SPECTATOR VIEW IN AN INTERACTIVE GAMING WORLD PRESENTED IN A LIVE EVENT LOCATED IN A PLACE OF THE REAL WORLD
JP2019075604A (ja) 2017-10-12 2019-05-16 株式会社ミクシィ 情報処理装置、動画配信方法、及び動画配信プログラム
WO2019168637A1 (en) * 2018-02-28 2019-09-06 Sony Interactive Entertainment LLC Scaled vr engagement and views in an e-sports event

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003235027A (ja) * 2002-02-12 2003-08-22 Matsushita Electric Ind Co Ltd 配信映像の同時再生方法、映像配信システムおよび端末装置
WO2019067112A1 (en) * 2017-09-29 2019-04-04 Sony Interactive Entertainment America Llc SPECTATOR VIEW IN AN INTERACTIVE GAMING WORLD PRESENTED IN A LIVE EVENT LOCATED IN A PLACE OF THE REAL WORLD
JP2019075604A (ja) 2017-10-12 2019-05-16 株式会社ミクシィ 情報処理装置、動画配信方法、及び動画配信プログラム
WO2019168637A1 (en) * 2018-02-28 2019-09-06 Sony Interactive Entertainment LLC Scaled vr engagement and views in an e-sports event

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116437282A (zh) * 2023-03-23 2023-07-14 合众新能源汽车股份有限公司 虚拟演唱会的声感处理方法及存储介质、电子设备

Also Published As

Publication number Publication date
EP4358522A1 (en) 2024-04-24
JPWO2022264536A1 (ja) 2022-12-22
CN117461317A (zh) 2024-01-26

Similar Documents

Publication Publication Date Title
US11477509B2 (en) Immersive cognitive reality system with real time surrounding media
US20210314527A1 (en) System and method for real-time audiovisual interaction with a target location
US20150223005A1 (en) 3-dimensional audio projection
US20150172843A1 (en) Multi-terminal cooperative play method for multimedia file, and related apparatus and system
JP7163908B2 (ja) 情報処理装置、情報処理方法、および記録媒体
CN109426333A (zh) 一种基于虚拟空间场景的信息交互方法及装置
US9706329B2 (en) Multiuser, geofixed acoustic simulations
US20210112361A1 (en) Methods and Systems for Simulating Acoustics of an Extended Reality World
US9992762B2 (en) Reverse path communication system
CN117695619A (zh) 多会话远程游戏渲染
US11490201B2 (en) Distributed microphones signal server and mobile terminal
WO2022264536A1 (ja) 情報処理装置、情報処理方法、及び情報処理システム
CN110100460A (zh) 基于头部位置和时间的具有非头部跟踪立体声的高保真度立体声响复制音频
WO2018012628A1 (ja) 画像表示装置及び画像表示システム
US9794314B2 (en) Asynchronous audio and video in an environment
CN115486098A (zh) 用于服务使能架构层(seal)的位置报告
CN110944140A (zh) 远程展示方法、远程展示系统、电子装置、存储介质
CN111381787A (zh) 一种投屏方法以及设备
WO2021131992A1 (ja) 端末装置、アプリケーションサーバ、受信方法及び送信方法
US20240031759A1 (en) Information processing device, information processing method, and information processing system
CN115581913A (zh) 多设备协同方法及客户端
JP2023155920A (ja) 情報処理装置、情報処理端末、情報処理方法、およびプログラム
US10728296B1 (en) System, method and apparatus for distributed content dissemination
Cohen et al. From whereware to whence-and whitherware: Augmented audio reality for position-aware services
US20100268839A1 (en) Method and apparatus for providing an audiovisual stream

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22824536

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023529521

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202280041141.0

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2022824536

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022824536

Country of ref document: EP

Effective date: 20240115