WO2022264536A1 - 情報処理装置、情報処理方法、及び情報処理システム - Google Patents
情報処理装置、情報処理方法、及び情報処理システム Download PDFInfo
- Publication number
- WO2022264536A1 WO2022264536A1 PCT/JP2022/008256 JP2022008256W WO2022264536A1 WO 2022264536 A1 WO2022264536 A1 WO 2022264536A1 JP 2022008256 W JP2022008256 W JP 2022008256W WO 2022264536 A1 WO2022264536 A1 WO 2022264536A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- terminal device
- data
- information processing
- delay
- information
- Prior art date
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 83
- 238000003672 processing method Methods 0.000 title claims description 7
- 230000003993 interaction Effects 0.000 claims abstract description 102
- 230000001934 delay Effects 0.000 claims description 26
- 238000000034 method Methods 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 24
- 230000005540 biological transmission Effects 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 12
- 238000001914 filtration Methods 0.000 claims description 11
- 230000009471 action Effects 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 275
- 238000003384 imaging method Methods 0.000 description 41
- 238000010586 diagram Methods 0.000 description 19
- 238000005259 measurement Methods 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 239000011521 glass Substances 0.000 description 6
- 230000002452 interceptive effect Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000010267 cellular communication Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 101150012579 ADSL gene Proteins 0.000 description 1
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 1
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000001339 gustatory effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/02—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/24—Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
- H04N21/2402—Monitoring of the downstream path of the transmission network, e.g. bandwidth available
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/24—Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
- H04N21/2408—Monitoring of the upstream path of the transmission network, e.g. client requests
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/242—Synchronization processes, e.g. processing of PCR [Program Clock References]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
Definitions
- the control unit 13 includes an acquisition unit 131, a data control unit 132, and a grouping unit 133.
- Each block (acquisition unit 131 to grouping unit 133) constituting the control unit 13 is a functional block indicating the function of the control unit 13.
- FIG. These functional blocks may be software blocks or hardware blocks.
- each of the functional blocks described above may be one software module realized by software (including microprograms), or may be one circuit block on a semiconductor chip (die). Of course, each functional block may be one processor or one integrated circuit.
- the control unit 13 may be configured in functional units different from the functional blocks described above. The configuration method of the functional blocks is arbitrary.
- FIG. 11 is a diagram showing an example of a remote live venue.
- a remote live venue is a virtual space imitating a real live venue.
- the terminal device 30 for example, a VR device
- the user can experience as if he or she were at the actual live venue.
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
近年、インタラクション型の配信サービスが利用されるようになっている。例えば、近年では、配信されたライブデータに対するユーザのインタラクション(例えば、歓声)を可能にするインタラクション型のリモートライブが利用されるようになっている。ここで、ライブデータは、例えば、リアルタイムの演奏や放送のデータである。
まず、情報処理システム1の全体の構成を説明する。
最初に、配信サーバ10の構成を説明する。
次に、撮像装置20の構成を説明する。
次に、端末装置30の構成を説明する。
以上、情報処理システム1の構成について述べたが、次に、情報処理システム1の動作を説明する。
まず、配信サーバ10の動作の概要を説明する。図7は、リモートライブの配信処理を示すフローチャートである。配信処理は、アーティストの演奏に遠隔地から参加可能にする処理である。以下、図7を参照しながら、配信サーバ10の動作の概要を説明する。以下の処理は、配信サーバ10の制御部13で実行される。
まず、ステップS101の通信遅延の情報の取得について詳細に説明する。
本実施形態における、通信遅延の測定する通信リンクは、図1に示すように、通信リンクAと通信リンクBとに分けられる。通信リンクAは、アーティストのライブデータを配信する配信サーバ10とライブを視聴するユーザの端末装置30との間の通信リンクであり、通信リンクBは、ライブを視聴するユーザ間の通信リンクである。なお、通信リンクAは、アーティストの端末装置30或いは撮像装置20と、ユーザの端末装置30と、の間のリンクとみなしてもよい。アーティストは、ライブの主催者と置き換え可能である。
通信遅延の測定は、様々な方法を用いることができる。通信遅延は通信レイヤーによっても異なるため、測定する通信レイヤーによって測定方法は異なってもよい。
ある通信ノードのある通信レイヤーは、他の通信ノードが通信遅延を測定するための所定の信号(パケット、情報)を生成し、他の通信ノードに送信する。他の通信ノードは送信された所定の信号を受信する。他の通信ノードが、所定の信号の送信タイミング(時刻)を判別できれば、所定の信号の受信タイミングとの時間差で通信遅延が把握できる。例えば、所定の信号の送信タイミングの判別方法として、その所定の信号に送信時刻を示すタイムスタンプを付加することが考えられる。
ある通信ノードが所定の信号を他の通信ノードに送信する。他の通信ノードBは所定の信号に応じた応答信号を、ある通信ノードに送信する。ある通信ノードは、所定の信号の送信タイミングと、応答信号の受信タイミングとに基づいて、通信遅延を測定する。例えば、ある通信ノードは、IPレイヤーのPingコマンドによるPing値を使って通信遅延を測定する。
通信遅延は、実際に測定されたものでなくてもよい。通信遅延は、推定(想定)された値であってもよい。通信遅延は、通信リンクで用いられる通信方法、設定される通信パラメータ、通信モード、通信フォーマットなどの情報に基づいて、推定されうる。具体的には、ある通信リンクにおいて、通信遅延の要求条件に応じて規定された複数の通信モードから設定されることにより、通信遅延が想定されうる。本実施形態において、通信遅延の測定は、通信遅延の推定と読み替えてもよい。
次に、通信遅延に基づくリモートライブに関する制御について詳細に説明する。
まず、リモートライブ会場内のユーザ(ファン)の座席位置の決定について説明する。
配信サーバ10は、通信遅延が大きくなるほど、仮想空間内でのユーザとアーティストとの距離を長くする。例えば、配信サーバ10は、ユーザの座席位置を以下の通り決定する。
(2)配信サーバ10と端末装置302、303、304との間の通信リンクAにおける通信遅延は、中遅延であるため、配信サーバ10は、端末装置302、303、304それぞれのユーザの座席位置をリモートライブ会場の中ほどの位置とする。
(3)配信サーバ10と端末装置305との間の通信リンクAにおける通信遅延は、長遅延であるため、配信サーバ10は、端末装置305のユーザの座席位置をリモートライブ会場の後方のアーティストから遠い位置とする。
配信サーバ10は、通信遅延が大きくなるほど、仮想空間内でのユーザ間の距離を長くする。例えば、配信サーバ10は、ユーザの座席位置を以下の通り決定する。
(2)端末装置303のユーザと端末装置304のユーザとの間の通信リンクBの通信遅延は、長遅延であるため、配信サーバ10は、端末装置303のユーザと端末装置304のユーザを相対的に遠い座席に配置する。
(2)配信サーバ10と端末装置302、303、304との間の通信リンクAにおける通信遅延は、中遅延であるため、配信サーバ10は、端末装置302、303、304それぞれのユーザの座席範囲をリモートライブ会場の中ほどの範囲だけでなく、それよりも後方(すなわち、アーティストから遠い)範囲まで広げる。
(3)配信サーバ10と端末装置305との間の通信リンクAにおける通信遅延は、長遅延であるため、配信サーバ10は、端末装置301のユーザの座席範囲を、アーティストから遠い範囲のみとする。
次に、インタラクションデータに対する制御について説明する。
例えば、インタラクションデータが端末装置30のユーザからの歓声のデータであるとする。ユーザからの歓声のデータがアーティストに送信される場合、配信サーバ10は、その歓声の音量の調整を、そのユーザの通信リンクAの通信遅延に基づいて行う。その音量の調整において、以下の式(1)及び式(2)に示す音の距離減衰の方程式が用いることができる。
減衰量=10×log10(r2/r1) ・・・(2)
例えば、インタラクションデータが端末装置30のユーザからの歓声のデータであるとする。ユーザからの歓声のデータがアーティストに送信される場合、配信サーバ10は、その歓声の遅延量の調整を、そのユーザの通信リンクAの通信遅延に基づいて行う。より具体的には、配信サーバ10は、実際の通信遅延にさらに遅延を付加する。例えば、複数のユーザ(端末装置30)をグループ化する場合、そのグループ内のユーザ間で同じ遅延になるようにそれぞれのユーザのインタラクションの送信に対して遅延を付加する。
例えば、インタラクションデータが端末装置30のユーザからの歓声のデータであるとする。ユーザからの歓声のデータがアーティストに送信される場合、配信サーバ10は、そのユーザの通信リンクAの通信遅延に基づいて、フィルタリングを行う。このフィルタリングには、音源分離フィルタ、人工知能を活用したフィルタ等、様々なフィルタを使用可能である。例えば、配信サーバ10は、通信遅延が所定の閾値より小さく、音量が所定の音量より大きいインタラクションデータに対して、話し声のみをカットし、歓声のみを抽出するフィルタリング処理を行う。これにより、プライバシーに配慮したインタラクションデータをアーティストに届けることができる。
配信サーバ10は、複数の端末装置30をグループ分けしてもよい。そして、配信サーバ10は、インタラクションデータに関する制御をグループ毎に行ってもよい。なお、配信サーバ10は、様々な方法を用いて複数の端末装置30をグループ分けできる。以下、複数の端末装置30のグルーピングの方法を説明する。なお、配信サーバ10は、以下で説明するグルーピング方法を単体で用いることもできるし、複数のグルーピング方法を組み合わせることもできる。以下で説明する処理は、例えば、配信サーバ10のグルーピング部133で実行される。
配信サーバ10は、複数の端末装置30それぞれの通信遅延の情報に基づいて複数の端末装置30をグループ分けしてもよい。例えば、配信サーバ10は、複数の端末装置30それぞれの通信リンクAの通信遅延および/または通信リンクBの通信遅延の情報に基づいて、複数の端末装置30をグルーピングする。図12は、グループと通信遅延との対応関係を示す図である。ここで、tは通信遅延であり、T0~T3は、グループ分けのための基準値(閾値)である。配信サーバ10は、図12に示すように、その通信遅延に対する所定の範囲毎のグループのリストを予め保持し、各ユーザの通信遅延とそのリストに基づいて複数の端末装置30をグルーピングする。
配信サーバ10は、所定の条件やパラメータに応じて、グルーピングを固定的行ってもよい。
配信サーバ10は、複数の端末装置30それぞれの接続ネットワークオペレータの情報に基づいて、複数の端末装置30をグループ分けしてもよい。接続ネットワークオペレータの情報は、例えば、ユーザおよび/またはアーティストが接続する回線事業者やインターネットプロバイダー業者の情報である。接続ネットワークオペレータの情報は、ユーザおよび/またはアーティストが加入する(又は使用しているSIMカードの)ネットワークオペレータの情報であってもよい。
配信サーバ10は、ユーザおよび/またはアーティストの端末装置30が通信に用いる通信システム(通信方式、通信方法)の情報に基づいて、複数の端末装置30をグループ分けしてもよい。ここで、通信システムの情報には、有線回線の場合、光ファイバー、ADSL、ケーブルテレビ回線、同軸ケーブル回線などを判別するための情報が含まれていてもよい。また、無線回線の場合、4G LTE、5G NR、無線LAN、衛星通信、D2D(Device-to-device)通信などを判別するための情報が含まれていてもよい。
配信サーバ10は、所定の端末装置30のユーザの指定に基づいて、複数の端末装置30をグループ分けしてもよい。例えば、配信サーバ10は、所定のユーザおよび/またはアーティストが事前に指定した複数のユーザを同一のグループとする。
配信サーバ10は、複数の端末装置30それぞれの現実の位置情報に基づいて、複数の端末装置30をグループ分けしてもよい。配信サーバ10は、ユーザおよび/またはアーティストがリモートで参加する実際の位置情報に基づいて、複数の端末装置30のグルーピングを行う。このとき、グルーピングを行う位置の単位は、国・地方・都道府県・市区町村など行政区域であってもよいし、セルラーネットワークにおけるセル(基地局がカバーする通信エリア)であってもよい。
配信サーバ10は、端末装置30(ユーザ)のアクセスログに基づいてグルーピングを行ってもよい。例えば、配信サーバ10は、ユーザのアクセスログに含まれるIPアドレスに対して、whoisを利用し、countryとnetnameを取得する。配信サーバ10は、これらの情報に基づいて得られる国情報および/またはISP(インターネットサービスプロバイダー)の種別によりグルーピングを行う。
本実施形態の配信サーバ10、撮像装置20、又は端末装置30を制御する制御装置は、専用のコンピュータシステムにより実現してもよいし、汎用のコンピュータシステムによって実現してもよい。
以上説明したように、配信サーバ10は、配信サーバ10と端末装置30との間の通信遅延の情報に基づいて、ライブデータに対する端末装置30からのインタラクションデータに関する制御を行う。例えば、配信サーバ10は、通信遅延の情報に基づいて端末装置30に映す仮想空間内での端末装置30の位置を決定し、決定した位置に基づいてインタラクションデータに関する制御を行う。これにより、アーティスト及びユーザは、リモートライブであっても生ライブのような没入感を得られる。
(1)
第1の端末装置にライブデータを配信する情報処理装置であって、
前記ライブデータに対するインタラクションデータを送信する前記第1の端末装置と前記情報処理装置との間の遅延、又は、前記ライブデータに対する前記第1の端末装置からのインタラクションデータを受信する第2の端末装置と前記第1の端末装置との間の遅延、の情報を取得する取得部と、
前記取得した遅延の情報に基づいて、前記第1の端末装置からの前記インタラクションデータに関する制御を行うデータ制御部と、
を備える情報処理装置。
(2)
前記データ制御部は、前記取得した遅延の情報に基づいて前記第1の端末装置に映す仮想空間内での該第1の端末装置の位置を決定し、決定した位置に基づいて前記インタラクションデータに関する制御を行う、
前記(1)に記載の情報処理装置。
(3)
前記第1の端末装置に映す仮想空間内の範囲であって前記遅延に基づき決まる前記範囲から、前記第1の端末装置のユーザが選択した該第1の端末装置の位置の情報を取得する取得部、を備え、
前記データ制御部は、取得した前記位置の情報に基づいて前記インタラクションデータに関する制御を行う、
前記(1)に記載の情報処理装置。
(4)
前記インタラクションデータは、前記第1の端末装置のユーザの音声又は動作に関する情報である、
前記(1)~(3)のいずれかに記載の情報処理装置。
(5)
前記インタラクションデータは、前記第1の端末装置のユーザの音声であり、
前記データ制御部は、前記取得した遅延の情報に基づいて、前記第1の端末装置のユーザの音声の大きさに関する制御を行う、
前記(1)~(4)のいずれかに記載の情報処理装置。
(6)
前記第1の端末装置は複数存在しており、
前記取得部は、複数の遅延の情報を取得し、
前記データ制御部は、前記取得した複数の遅延の情報に基づいて、前記第1の端末装置から前記第2の端末装置への前記インタラクションデータの送信遅延の大きさの制御を行う、
前記(1)~(4)のいずれかに記載の情報処理装置。
(7)
前記データ制御部は、前記取得した複数の遅延の情報に基づき決まる遅延量を、前記インタラクションデータの送信に対し付加する、
前記(6)に記載の情報処理装置。
(8)
前記データ制御部は、前記取得した遅延に基づいて、前記インタラクションデータに対してフィルタリング処理を行う、
前記(1)~(4)のいずれかに記載の情報処理装置。
(9)
前記インタラクションデータは、前記第1の端末装置のユーザの音声であり、
前記データ制御部は、前記取得した遅延に基づいて、前記インタラクションデータに対して音声に関するフィルタリング処理を行う、
前記(8)に記載の情報処理装置。
(10)
前記データ制御部は、前記取得した遅延が所定の閾値より小さく、前記音声の音量が所定の音量より大きい場合には、話し声をカットするフィルタリング処理を行う、
前記(9)に記載の情報処理装置。
(11)
複数の前記第1の端末装置をグループ分けするグルーピング部、を備え、
前記データ制御部は、前記インタラクションデータに関する制御を前記グループ毎に行う、
前記(1)~(10)のいずれかに記載の情報処理装置。
(12)
前記グルーピング部は、複数の前記第1の端末装置それぞれの前記遅延の情報に基づいて複数の前記第1の端末装置をグループ分けする、
前記(11)に記載の情報処理装置。
(13)
前記ライブデータには、少なくとも映像データが含まれ、
前記グルーピング部は、複数の前記第1の端末装置のグループ分けのための1又は複数の基準値に、前記遅延の情報を当てはめることにより、複数の前記第1の端末装置をグループ分けし、
前記1又は複数の基準値は、映像のフレーム数を単位とする値である、
前記(12)に記載の情報処理装置。
(14)
複数の前記第1の端末装置それぞれの接続ネットワークオペレータの情報に基づいて、複数の前記第1の端末装置をグループ分けする、
前記(11)に記載の情報処理装置。
(15)
所定の前記第1の端末装置又は前記第2の端末装置のユーザの指定に基づいて、複数の前記第1の端末装置をグループ分けする、
前記(11)に記載の情報処理装置。
(16)
複数の前記第1の端末装置それぞれの現実の位置情報に基づいて、複数の前記第1の端末装置をグループ分けする、
前記(11)に記載の情報処理装置。
(17)
第1の端末装置にライブデータを配信する情報処理装置が実行する情報処理方法であって、
前記ライブデータに対するインタラクションデータを送信する前記第1の端末装置と前記情報処理装置との間の遅延、又は、前記ライブデータに対する前記第1の端末装置からのインタラクションデータを受信する第2の端末装置と前記第1の端末装置との間の遅延、の情報を取得し、
前記取得した遅延の情報に基づいて、前記第1の端末装置からの前記インタラクションデータに関する制御を行う、
情報処理方法。
(18)
ライブデータを配信する配信サーバと、前記ライブデータを受信し前記ライブデータに対するインタラクションデータを送信する1又は複数の第1の端末装置と、前記ライブデータに対する前記第1の端末装置からのインタラクションデータを受信する第2の端末装置、を備える情報処理システムであって、
前記配信サーバと前記第1の端末装置との間の遅延、又は、前記第2の端末装置と前記第1の端末装置との間の遅延、の情報を取得する取得部と、
前記取得した遅延の情報に基づいて、前記第1の端末装置からの前記インタラクションデータに関する制御を行うデータ制御部と、
を備える情報処理システム。
(19)
前記ライブデータは、アーティストの演奏の映像データであり、
前記第1の端末装置は、前記アーティストの演奏を視聴するユーザの端末装置であり、
前記第2の端末装置は、前記アーティストの演奏を視聴するユーザの端末装置である前記第1の端末装置からの前記インタラクションデータを前記アーティストへ出力するための端末装置である、
前記(18)に記載の情報処理システム。
(20)
前記ライブデータは、アーティストの演奏の映像データであり、
前記第1の端末装置は、前記アーティストの演奏を視聴するユーザの端末装置であり、
前記第2の端末装置は、前記アーティストの演奏を視聴するユーザの端末装置であって、前記第1の端末装置のユーザとは異なるユーザの端末装置ある、
前記(18)に記載の情報処理システム。
10 配信サーバ
20 撮像装置
30 端末装置
11、21、31 通信部
12、22、32 記憶部
13、23、33 制御部
24、36 センサ部
25、37 撮像部
34 入力部
35 出力部
131 取得部
132 データ制御部
133 グルーピング部
Claims (20)
- 第1の端末装置にライブデータを配信する情報処理装置であって、
前記ライブデータに対するインタラクションデータを送信する前記第1の端末装置と前記情報処理装置との間の遅延、又は、前記ライブデータに対する前記第1の端末装置からのインタラクションデータを受信する第2の端末装置と前記第1の端末装置との間の遅延、の情報を取得する取得部と、
前記取得した遅延の情報に基づいて、前記第1の端末装置からの前記インタラクションデータに関する制御を行うデータ制御部と、
を備える情報処理装置。 - 前記データ制御部は、前記取得した遅延の情報に基づいて前記第1の端末装置に映す仮想空間内での該第1の端末装置の位置を決定し、決定した位置に基づいて前記インタラクションデータに関する制御を行う、
請求項1に記載の情報処理装置。 - 前記第1の端末装置に映す仮想空間内の範囲であって前記遅延に基づき決まる前記範囲から、前記第1の端末装置のユーザが選択した該第1の端末装置の位置の情報を取得する取得部、を備え、
前記データ制御部は、取得した前記位置の情報に基づいて前記インタラクションデータに関する制御を行う、
請求項1に記載の情報処理装置。 - 前記インタラクションデータは、前記第1の端末装置のユーザの音声又は動作に関する情報である、
請求項1に記載の情報処理装置。 - 前記インタラクションデータは、前記第1の端末装置のユーザの音声であり、
前記データ制御部は、前記取得した遅延の情報に基づいて、前記第1の端末装置のユーザの音声の大きさに関する制御を行う、
請求項1に記載の情報処理装置。 - 前記第1の端末装置は複数存在しており、
前記取得部は、複数の遅延の情報を取得し、
前記データ制御部は、前記取得した複数の遅延の情報に基づいて、前記第1の端末装置から前記第2の端末装置への前記インタラクションデータの送信遅延の大きさの制御を行う、
請求項1に記載の情報処理装置。 - 前記データ制御部は、前記取得した複数の遅延の情報に基づき決まる遅延量を、前記インタラクションデータの送信に対し付加する、
請求項6に記載の情報処理装置。 - 前記データ制御部は、前記取得した遅延に基づいて、前記インタラクションデータに対してフィルタリング処理を行う、
請求項1に記載の情報処理装置。 - 前記インタラクションデータは、前記第1の端末装置のユーザの音声であり、
前記データ制御部は、前記取得した遅延に基づいて、前記インタラクションデータに対して音声に関するフィルタリング処理を行う、
請求項8に記載の情報処理装置。 - 前記データ制御部は、前記取得した遅延が所定の閾値より小さく、前記音声の音量が所定の音量より大きい場合には、話し声をカットするフィルタリング処理を行う、
請求項9に記載の情報処理装置。 - 複数の前記第1の端末装置をグループ分けするグルーピング部、を備え、
前記データ制御部は、前記インタラクションデータに関する制御を前記グループ毎に行う、
請求項1に記載の情報処理装置。 - 前記グルーピング部は、複数の前記第1の端末装置それぞれの前記遅延の情報に基づいて複数の前記第1の端末装置をグループ分けする、
請求項11に記載の情報処理装置。 - 前記ライブデータには、少なくとも映像データが含まれ、
前記グルーピング部は、複数の前記第1の端末装置のグループ分けのための1又は複数の基準値に、前記遅延の情報を当てはめることにより、複数の前記第1の端末装置をグループ分けし、
前記1又は複数の基準値は、映像のフレーム数を単位とする値である、
請求項12に記載の情報処理装置。 - 複数の前記第1の端末装置それぞれの接続ネットワークオペレータの情報に基づいて、複数の前記第1の端末装置をグループ分けする、
請求項11に記載の情報処理装置。 - 所定の前記第1の端末装置又は前記第2の端末装置のユーザの指定に基づいて、複数の前記第1の端末装置をグループ分けする、
請求項11に記載の情報処理装置。 - 複数の前記第1の端末装置それぞれの現実の位置情報に基づいて、複数の前記第1の端末装置をグループ分けする、
請求項11に記載の情報処理装置。 - 第1の端末装置にライブデータを配信する情報処理装置が実行する情報処理方法であって、
前記ライブデータに対するインタラクションデータを送信する前記第1の端末装置と前記情報処理装置との間の遅延、又は、前記ライブデータに対する前記第1の端末装置からのインタラクションデータを受信する第2の端末装置と前記第1の端末装置との間の遅延、の情報を取得し、
前記取得した遅延の情報に基づいて、前記第1の端末装置からの前記インタラクションデータに関する制御を行う、
情報処理方法。 - ライブデータを配信する配信サーバと、前記ライブデータを受信し前記ライブデータに対するインタラクションデータを送信する1又は複数の第1の端末装置と、前記ライブデータに対する前記第1の端末装置からのインタラクションデータを受信する第2の端末装置、を備える情報処理システムであって、
前記配信サーバと前記第1の端末装置との間の遅延、又は、前記第2の端末装置と前記第1の端末装置との間の遅延、の情報を取得する取得部と、
前記取得した遅延の情報に基づいて、前記第1の端末装置からの前記インタラクションデータに関する制御を行うデータ制御部と、
を備える情報処理システム。 - 前記ライブデータは、アーティストの演奏の映像データであり、
前記第1の端末装置は、前記アーティストの演奏を視聴するユーザの端末装置であり、
前記第2の端末装置は、前記アーティストの演奏を視聴するユーザの端末装置である前記第1の端末装置からの前記インタラクションデータを前記アーティストへ出力するための端末装置である、
請求項18に記載の情報処理システム。 - 前記ライブデータは、アーティストの演奏の映像データであり、
前記第1の端末装置は、前記アーティストの演奏を視聴するユーザの端末装置であり、
前記第2の端末装置は、前記アーティストの演奏を視聴するユーザの端末装置であって、前記第1の端末装置のユーザとは異なるユーザの端末装置ある、
請求項18に記載の情報処理システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023529521A JPWO2022264536A1 (ja) | 2021-06-15 | 2022-02-28 | |
EP22824536.1A EP4358522A1 (en) | 2021-06-15 | 2022-02-28 | Information processing device, information processing method, and information processing system |
CN202280041141.0A CN117461317A (zh) | 2021-06-15 | 2022-02-28 | 信息处理设备、信息处理方法和信息处理系统 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021099543 | 2021-06-15 | ||
JP2021-099543 | 2021-06-15 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022264536A1 true WO2022264536A1 (ja) | 2022-12-22 |
Family
ID=84526135
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2022/008256 WO2022264536A1 (ja) | 2021-06-15 | 2022-02-28 | 情報処理装置、情報処理方法、及び情報処理システム |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP4358522A1 (ja) |
JP (1) | JPWO2022264536A1 (ja) |
CN (1) | CN117461317A (ja) |
WO (1) | WO2022264536A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116437282A (zh) * | 2023-03-23 | 2023-07-14 | 合众新能源汽车股份有限公司 | 虚拟演唱会的声感处理方法及存储介质、电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003235027A (ja) * | 2002-02-12 | 2003-08-22 | Matsushita Electric Ind Co Ltd | 配信映像の同時再生方法、映像配信システムおよび端末装置 |
WO2019067112A1 (en) * | 2017-09-29 | 2019-04-04 | Sony Interactive Entertainment America Llc | SPECTATOR VIEW IN AN INTERACTIVE GAMING WORLD PRESENTED IN A LIVE EVENT LOCATED IN A PLACE OF THE REAL WORLD |
JP2019075604A (ja) | 2017-10-12 | 2019-05-16 | 株式会社ミクシィ | 情報処理装置、動画配信方法、及び動画配信プログラム |
WO2019168637A1 (en) * | 2018-02-28 | 2019-09-06 | Sony Interactive Entertainment LLC | Scaled vr engagement and views in an e-sports event |
-
2022
- 2022-02-28 EP EP22824536.1A patent/EP4358522A1/en active Pending
- 2022-02-28 JP JP2023529521A patent/JPWO2022264536A1/ja active Pending
- 2022-02-28 WO PCT/JP2022/008256 patent/WO2022264536A1/ja active Application Filing
- 2022-02-28 CN CN202280041141.0A patent/CN117461317A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003235027A (ja) * | 2002-02-12 | 2003-08-22 | Matsushita Electric Ind Co Ltd | 配信映像の同時再生方法、映像配信システムおよび端末装置 |
WO2019067112A1 (en) * | 2017-09-29 | 2019-04-04 | Sony Interactive Entertainment America Llc | SPECTATOR VIEW IN AN INTERACTIVE GAMING WORLD PRESENTED IN A LIVE EVENT LOCATED IN A PLACE OF THE REAL WORLD |
JP2019075604A (ja) | 2017-10-12 | 2019-05-16 | 株式会社ミクシィ | 情報処理装置、動画配信方法、及び動画配信プログラム |
WO2019168637A1 (en) * | 2018-02-28 | 2019-09-06 | Sony Interactive Entertainment LLC | Scaled vr engagement and views in an e-sports event |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116437282A (zh) * | 2023-03-23 | 2023-07-14 | 合众新能源汽车股份有限公司 | 虚拟演唱会的声感处理方法及存储介质、电子设备 |
Also Published As
Publication number | Publication date |
---|---|
EP4358522A1 (en) | 2024-04-24 |
JPWO2022264536A1 (ja) | 2022-12-22 |
CN117461317A (zh) | 2024-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11477509B2 (en) | Immersive cognitive reality system with real time surrounding media | |
US20210314527A1 (en) | System and method for real-time audiovisual interaction with a target location | |
US20150223005A1 (en) | 3-dimensional audio projection | |
US20150172843A1 (en) | Multi-terminal cooperative play method for multimedia file, and related apparatus and system | |
JP7163908B2 (ja) | 情報処理装置、情報処理方法、および記録媒体 | |
CN109426333A (zh) | 一种基于虚拟空间场景的信息交互方法及装置 | |
US9706329B2 (en) | Multiuser, geofixed acoustic simulations | |
US20210112361A1 (en) | Methods and Systems for Simulating Acoustics of an Extended Reality World | |
US9992762B2 (en) | Reverse path communication system | |
CN117695619A (zh) | 多会话远程游戏渲染 | |
US11490201B2 (en) | Distributed microphones signal server and mobile terminal | |
WO2022264536A1 (ja) | 情報処理装置、情報処理方法、及び情報処理システム | |
CN110100460A (zh) | 基于头部位置和时间的具有非头部跟踪立体声的高保真度立体声响复制音频 | |
WO2018012628A1 (ja) | 画像表示装置及び画像表示システム | |
US9794314B2 (en) | Asynchronous audio and video in an environment | |
CN115486098A (zh) | 用于服务使能架构层(seal)的位置报告 | |
CN110944140A (zh) | 远程展示方法、远程展示系统、电子装置、存储介质 | |
CN111381787A (zh) | 一种投屏方法以及设备 | |
WO2021131992A1 (ja) | 端末装置、アプリケーションサーバ、受信方法及び送信方法 | |
US20240031759A1 (en) | Information processing device, information processing method, and information processing system | |
CN115581913A (zh) | 多设备协同方法及客户端 | |
JP2023155920A (ja) | 情報処理装置、情報処理端末、情報処理方法、およびプログラム | |
US10728296B1 (en) | System, method and apparatus for distributed content dissemination | |
Cohen et al. | From whereware to whence-and whitherware: Augmented audio reality for position-aware services | |
US20100268839A1 (en) | Method and apparatus for providing an audiovisual stream |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22824536 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2023529521 Country of ref document: JP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 202280041141.0 Country of ref document: CN |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2022824536 Country of ref document: EP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2022824536 Country of ref document: EP Effective date: 20240115 |