JP2021513305A - ライブイベントの共有可能な視点をライブストリーミングすることによる、ローカル体験のシミュレーション - Google Patents

ライブイベントの共有可能な視点をライブストリーミングすることによる、ローカル体験のシミュレーション Download PDF

Info

Publication number
JP2021513305A
JP2021513305A JP2020564050A JP2020564050A JP2021513305A JP 2021513305 A JP2021513305 A JP 2021513305A JP 2020564050 A JP2020564050 A JP 2020564050A JP 2020564050 A JP2020564050 A JP 2020564050A JP 2021513305 A JP2021513305 A JP 2021513305A
Authority
JP
Japan
Prior art keywords
live
client device
live event
client
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020564050A
Other languages
English (en)
Other versions
JP7346459B2 (ja
JPWO2019157082A5 (ja
Inventor
ファビアン ブスタマンテ,
ファビアン ブスタマンテ,
ステファン ビーラー,
ステファン ビーラー,
Original Assignee
フェニックス リアル タイム ソリューションズ, インコーポレイテッド
フェニックス リアル タイム ソリューションズ, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フェニックス リアル タイム ソリューションズ, インコーポレイテッド, フェニックス リアル タイム ソリューションズ, インコーポレイテッド filed Critical フェニックス リアル タイム ソリューションズ, インコーポレイテッド
Publication of JP2021513305A publication Critical patent/JP2021513305A/ja
Publication of JPWO2019157082A5 publication Critical patent/JPWO2019157082A5/ja
Priority to JP2023144058A priority Critical patent/JP2023166519A/ja
Application granted granted Critical
Publication of JP7346459B2 publication Critical patent/JP7346459B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/401Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
    • H04L65/4015Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference where at least one of the additional parallel sessions is real time or time sensitive, e.g. white board sharing, collaboration or spawning of a subconference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/611Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for multicast or broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/239Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests
    • H04N21/2393Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests involving handling client requests
    • H04N21/2396Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests involving handling client requests characterized by admission policies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

開示された本実施態様は、少なくとも1つの方法を含む。この方法は、第1のクライアントデバイスを含むクライアントデバイスにネットワークを介してライブストリームを配信するプラットフォームに、第1のクライアントデバイスを通信可能に結合することを含む。このライブストリームは、第2のクライアントデバイスを含むライブイベントに位置するソースデバイスによってキャプチャされた視点からのライブイベントのライブブロードキャストを提供する。この方法は、第1のクライアントデバイスから第1の視点の選択の指示を受信することと、第1のライブストリームを第1のクライアントデバイスに通信することとをさらに含む。第1のライブストリームは、第1のソースデバイスによってキャプチャされ、そして第1のクライアントデバイスによってレンダリングされると、第1の視点を第1のクライアントデバイス上に表示させる。
【選択図】図6

Description

開示された本教示は、ライブイベントに参加する体験を共有することを可能にし、そして参加者間の対話を可能にするプラットフォームに関する。特に、開示された本教示は、ライブイベントから遠隔に位置するユーザとイベントに位置する参列者との間で、ライブイベントの共有体験を可能にし、拡張現実コンテンツにより共有体験を強化することができる。
スポーツゲーム、セミナー、コンサート、または友人および家族とのデモンストレーションのようなライブイベントに参加することは、多くの人々にとって重要な社会的活動である。既存の技術は、ライブイベントから遠隔に位置する個人および互いに遠隔に位置する個人が、ライブイベントの限られた共有体験を体験することを可能にする。例えば、ライブイベントから遠隔に位置する個人は、テレビでそれを見ることが出来る。遠隔に位置する個人は、ユーザのテレビで、レンダリングされたイベントのライブブロードキャストを体験する。別の例では、ライブイベントに位置する観客は、AV信号をレンダリングすることが出来る個人のデバイスにストリーミングされるAV信号として、ライブイベントの画像と音声をキャプチャする携帯電話を使用することにより、遠隔に位置する個人と彼女の体験を共有することが出来る。したがって、遠隔に位置する個人は、ライブイベントの観客の体験を共有することが出来る。換言すると、この個人は、観客の体験の観客である。つまり、体験の「共有」は一方向のみである。
さらに、携帯電話によって取得されかつ通信されるライブコンテンツを共有することは、遠隔に位置する個人が、この個人があたかもライブイベントに存在するかのような没入型体験をすることを可能にすることは出来ない。代わりに、この個人は、観客の体験を共有することしか出来ない。何故ならば、この個人は、観客が提供している体験を制御することが出来ないためである。同様に、遠隔に位置する複数の個人は、1人以上の観客の体験を共有することしか出来ないが、この観客は、遠隔に位置する複数の個人の体験を共有することは出来ず、そしてこの同じライブイベントの体験は、遠隔に位置する複数のユーザおよび/または複数の観客間で共有させることは出来ない。したがって、既存の技術では、遠隔に位置する複数の個人およびローカルの複数の観客が、あたかも一緒にライブイベントに参加しているかのような没入型の方法で、ライブイベントを共有することは出来ない。
開示された本実施態様は、少なくとも1つの方法を含む。この方法は、第1のクライアントデバイスを、第1のクライアントデバイスを含むクライアントデバイスにネットワークを介してライブストリームを配信するプラットフォームに、通信可能に結合することを含む。このライブストリームは、第2のクライアントデバイスを含むライブイベントに位置するソースデバイスによってキャプチャされた視点からのライブイベントのライブブロードキャストを提供する。この方法は、第1のクライアントデバイスから第1の視点の選択の指示を受信することと、第1のライブストリームを第1のクライアントデバイスに通信することとをさらに含む。第1のライブストリームは、第1のソースデバイスによってキャプチャされ、そして第1のクライアントデバイスによってレンダリングされると、第1の視点を第1のクライアントデバイス上に表示させる。
開示された本実施態様は、また、プロセッサおよびメモリを含むサーバコンピュータを含む少なくとも1つのシステムを含む。メモリには、プロセッサによって実行されると、ネットワーク経由でクライアントデバイスをサーバコンピュータに相互接続させる命令が、含まれる。クライアントデバイスの少なくとも幾つかは、ライブイベントに位置し、そしてクライアントデバイスの少なくとも幾つかは、ライブイベントから遠隔に位置する。さらに、ライブイベントに位置する各クライアントデバイスは、デバイスによってレンダリングされると、ライブイベントの視点を表示させるライブストリームのソースである。サーバコンピュータシステムは、サブスクリプションリストを動的に更新させて、ライブイベントの視点をライブストリーミングしているクライアントデバイスの何れかを含ませ、そしてライブイベントの視点のライブストリーミングを停止したクライアントデバイスを削除させ、そして任意のクライアントデバイスによる、サブスクリプションリストの任意のクライアントデバイスへの選択的なアクセスを可能にし、そしてサブスクリプションリストから削除されたクライアントデバイスへのアクセスを無効にするサブスクリプションサービスをホストさせることが出来る。
開示された本実施態様は、また、少なくとも1つのデバイスを含む。このデバイスの例は、ディスプレイデバイスと、方位センサと、プロセッサと、メモリとを、含むヘッドマウントディスプレイ(HMD)デバイスである。このメモリは、プロセッサによって実行されると、HMDデバイスにライブストリームをレンダリングさせて、ライブイベントの視点を表示デバイスに表示させる命令を含む。ライブストリームは、ライブイベントに位置するソースデバイスで発生し、そしてこのソースデバイスは、ライブイベントの固定位置にある静止デバイスとハンドヘルドモバイルデバイスとを含むことができる。HMDデバイスは、さらに、方位センサの出力に基づいてHMDデバイスの方位の変化を決定させ、そしてHMDデバイスの方位の変化を動的に追跡して、静止デバイスのライブストリームの視点の表示からシームレスに遷移させて、ハンドヘルドモバイルデバイスの別のライブストリームの別の視点を表示させる。
この概要は、詳細な説明において以下で詳細に説明される概念の選択を簡略化された形態で紹介するために提供される。この概要は、開示された主題の主要な特徴または本質的な特徴を特定することを意図しておらず、開示された主題の範囲を制限するために使用されることも意図していない。開示される主題の他の態様は、添付の図および詳細な説明から明らかになるであろう。
本開示の幾つかの実施態様に従う、クライアントデバイスによってユーザインターフェース上に表示されるライブイベントの視点を示す。 本開示の幾つかの実施態様に従う、ライブイベントの視点で表示されたライブビデオチャットウィンドウを示す。 本開示の幾つかの実施態様に従う、クライアントデバイスによるライブイベントの別の視点の採用を示す図である。 本開示の幾つかの実施態様に従う、視点に組み込まれた拡張現実(AR)コンテンツを示す。 本開示の幾つかの実施態様に従う、視点に組み込まれたARコンテンツの別の例を示す図である。 本開示の幾つかの実施態様に従う、クライアントデバイスで同時に表示され、そしてARコンテンツを含むライブイベントの異なる視点を示す図である。 本開示の幾つかの実施態様に従う、ライブイベントの複数の視点を共有するためのプラットフォームを実装するシステムのブロック図である。 本開示の幾つかの実施態様に従う、ライブイベントのライブストリームのユーザとソースとの間の関係を示す図である。 本開示の幾つかの実施態様に従う、ライブイベントのライブストリームを同期させるためのクライアントとサーバとの間のクロック同期プロセスを示す。 本開示の幾つかの実施態様に従う、シーンにグループ化されたパケットから構成されるライブストリームを示す図である。 本開示の幾つかの実施態様に従う、ライブストリームのコンテンツをサブスクライブするためのプロセスを示すフローチャートである。 開示された本技術の態様を実装するための動作可能なコンピューティングデバイスのブロック図である。
下記の実施態様は、当業者が実施態様を実施することを可能にするために必要な情報を表し、実施態様を実施する最良の形態を示す。添付の図に照らして、以下の説明を読むと、当業者は、本開示の概念を理解し、そして本明細書では特に取り上げられていないこれらの概念の用途を認識するであろう。これらの概念および用途は、本開示および添付の特許請求の範囲に含まれることを理解されたい。
(幾つかの用語の定義)
本明細書で使用される用語の目的は、実施態様を説明するためのみであり、本開示の範囲を限定することは意図されていない。文脈が許す場合、単数形または複数形を使用する単語は、それぞれ複数形または単数形も含むことができる。
本明細書で使用される場合、特に明記しない限り、「処理」、「計算」、「計算」、「決定」、「表示」、「生成」などの用語は、コンピュータのメモリまたはレジスタ内の物理(電子)量として表されるデータを、コンピュータのメモリ、レジスタ、または他のそのような格納媒体、伝送または表示デバイス内の物理量として同様に表される他のデータに、操作および変換する電子コンピューティングデバイスのアクションおよびプロセスを指す。
本明細書で使用される場合、用語「接続された」、「結合された」、またはその変形は、2つ以上の要素間の直接または間接の任意の接続または結合を指す。要素間の結合または接続は、物理的、論理的またはそれらの組み合わせとすることができる。
本明細書で使用される場合、「ライブ」という用語またはその変形は、リアルタイムまたはほぼリアルタイムで発生することを指すことができる。例えば、ライブイベントは、現在進行中のイベントを指すことができる。ライブブロードキャストまたはライブ送信は、人間が知覚できる遅延なしに、ブロードキャストされる様々なタイプのメディアを指すことができる。ライブストリームは、リアルタイムまたはほぼリアルタイムで同時にキャプチャおよびブロードキャストされる、視聴者が視聴できるメディアのオンラインストリーミングの形態を指すことができる。つまり、ライブストリームとは、リアルタイムまたはほぼリアルタイムのストリーミングを指す。このため、ライブストリーミングは、人間が対話性を認識出来る範囲内で、コンテンツの低レイテンシ配信を提供することが出来る。
本明細書で使用される場合、「視点」は、ライブイベントの所与の場所にある見晴らしの良いポインとからの、そして特定のソースデバイスによって提供されるライブイベントのビューを指すことができる。例えば、視点は、フィールドの北東の角に位置するカメラの視点とすることが出来る。
本明細書で使用される場合、「拡張現実」(AR:augmented reality)は、幾つかの実施態様の文脈では、現実世界のシーン上の視点に重ねられる(例えば、仮想的にまたは仮想制御により生成される)仮想オブジェクトを指すことができる。
(概要)
友人や家族とのスポーツゲーム、トーク、コンサート、デモンストレーションなどのライブイベントに参加することは、多くの人々にとって重要な社会活動である。ネットワーク接続の拡大により、人々のグループは、物理的に互いに遠隔にいるにもかかわらず(例えば、異なる国および大陸にいる場合ですら)、ライブイベントに参加することがますます可能になっている。しかし、今日、ライブイベントの体験を共有することは、ほとんどの場合、全ての視聴者にライブでブロードキャストされる、プロデューサの単一の事前に定義された視点に制限されている。透視は変更させることはできるが、この変更は、プロデューサによって指示され、そして全ての視聴者によって採用される。したがって、他の観客との直接および間接の対話および副次的な会話のような、共有された体験を、思い出に残るものとする多くのものが、失われている。
開示された本実施態様および関連するアルゴリズムは、ライブイベントに参加して共有体験を可能にすることにより、これらの欠点を解決する。開示された本実施態様は、参加者が、実世界のライブイベントのシミュレートされた体験を共有することを可能にするプラットフォームおよびそれに関連付けられているシステム、デバイス、および方法を含む。共有体験は、ライブイベントでのローカル対話のシミュレーションを含むことが出来る。これにより、ライブイベントに参加している、またはそこから遠隔に位置する参加者の間の対話が可能になる。例えば、遠隔に位置する参加者は、ローカル参列者の視点を取り入れることが出来る。幾つかの実施態様では、シミュレートされた環境には、シミュレートされた体験を強化するためにライブ拡張現実(AR)が組み込まれる。AR機能は、視聴者の嗜好に基づいて決めることができる。
この開示は、当業者が本明細書に記載された実施態様を理解することを確実にするのに十分な詳細を含む。開示された本実施態様は、特定の詳細なしに、または同等の構成で実施することができる。他の例では、本発明の実施態様を不必要に曖昧にすることを回避するために、周知の構造およびデバイスは、ブロック図として表されている。したがって、本説明は、場所の周りに配置された、またはスポーツイベントのプレーヤまたは演劇の俳優のようなライブイベントの参加者に取り付けられた、カメラを含む、コンピューティングデバイス、センサ、およびネットワークの詳細、またはイベントに関連付けられたARコンテンツを生成するための詳細に、焦点を当てていない。これらの態様は、当業者には理解されるであろう。したがって、これらの態様は、簡潔にするためにここでは省略されている。代わりに、この開示は、対話をシミュレートするためのプロトコルと、コンテンツの様々な視点とソースに関連付けられた複数のストリームの適時に同期された配信とに、焦点を当てている。
開示される本実施態様は、ライブイベントから遠隔に位置する個人とライブイベントのローカル参列者(まとめて「参加者」と呼ぶ)との間で共有することが出来るライブイベントのシミュレーション体験を提供するためのプラットフォームを実装するシステムを含む。このプラットフォームにより、参加者は、あたかもライブイベントにいるかのように、仮想的に対話をすることが出来る。幾つかの実施態様では、プラットフォームは、ライブイベントの会場の固定位置に戦略的に分散されているカメラとマイクを含むソースデバイス、およびライブイベントに参加している参加者および/またはライブイベントの一部として演じている個人により操作されているモバイルデバイスから、幾つかのライブストリームを取得する。
図1は、ライブイベントの体験を他の参加者と共有するローカル対話をシミュレートするために、プラットフォームによって管理されるユーザインターフェース(UI)上のクライアントデバイス(「第1のクライアントデバイス」)によって表示されるライブイベントの視点100を示す。図示の実施態様では、このライブイベント102は、スタジアムでのスポーツゲームである。UIは、ライブストリームをレンダリングして、ライブイベントに位置するソースデバイスの視点100を表示する。視点100は、ライブイベントでのソースデバイス106の位置およびその互いの相対位置を指示するグラフィックアイコンを含む。
ソースデバイス106は、それぞれのライブストリームにより同じライブイベントの異なる視点をブロードキャストする。ソースデバイス106の例には、ライブイベントに位置する参加者によって操作されるモバイルデバイス106−1〜106−5、並びに静止デバイス106−6及び106−7が含まれる。静止デバイス106−6及び106−7は、ライブイベントの固定位置に配置されているカメラ(およびマイク)の場所および方向を指示するカメラアイコンにより表されている。図示の例では、カメラは、スタジアムの天井とスタジアムの座席の近くに位置している。モバイルデバイス106−1〜106−5の例は、参列者が操作するハンドヘルドモバイルデバイス(例えば、スマートフォン、タブレットコンピュータ)のようなクライアントデバイス、またはライブイベントでプレイしている個人に取り付けられたデバイス(例えば、プレーヤのヘルメット/衣服に取り付けられたデバイス)を含む。
視点100をレンダリングする、ユーザアイコンによって指示される第1のクライアントデバイスは、ユーザ108によって操作される。第1のクライアントデバイスは、ローカルに、またはライブイベントから遠隔に位置することが出来る。したがって、第1のクライアントデバイスが、ライブイベント102から遠隔に位置する場合、第1のクライアントデバイスは、ライブイベントのローカル体験をシミュレートする。もし、第1のクライアントデバイスが、ライブイベント102の第1の場所に位置し、そして視点100が、ライブイベントの第2の場所からのものである場合、視点100は、第2の場所にいることをシミュレートする。
プラットフォームは、ソースデバイス106のライブストリームを、クライアントデバイスが利用可能なライブイベント102の選択可能な視点として、ホストすることが出来る。視点100をシミュレートするために、第1のクライアントデバイスは、ソースデバイス106からネットワークを介して収集されたライブストリームを配信するプラットフォームに、通信可能に結合される。ライブストリームは、ソースデバイス106によってキャプチャされた視点からのライブイベント102のライブブロードキャストを提供する。動作中、プラットフォームは、第1のクライアントデバイスから視点100の選択の指示を受信し、そしてそれに応じて、視点100のライブストリームを第1のクライアントデバイスに通信する。したがって、ライブストリームは、ソースデバイスによってキャプチャされ、そして第1のクライアントデバイスによってレンダリングされると、視点100を第1のクライアントデバイス上に表示させる。
プラットフォームは、(ライブイベント102に位置するまたはそこから遠隔に位置する)第1のクライアントデバイスと、第2のクライアントデバイスであるソースデバイスとの間の仮想対話をホストすることが出来る。ソースデバイスであるクライアントデバイスは、ライブストリームをパブリッシュし、そしてユーザが、テキスト、オーディオ、絵文字などを介して視聴者とライブで対話する、または他のストリームを介して間接的に対話することを可能にする。例えば、ライブイベントの視点をブロードキャストするパブリッシャおよび必ずしもイベントの場所にいない他の参加者は、パブリッシャのアクションまたはブロードキャストのアクションに(例えば、パブリッシャの投票に応じて)コメントすることが出来る。
例えば、図2は、本開示の幾つかの実施態様に従う、ライブイベント102の視点200に表示されるライブビデオチャットウィンドウ202を示す。具体的には、視点200は、ライブイベント102に関しては、視点100と同じであるが、これには、ライブビデオチャットウィンドウ202が組み込まれている。このライブビデオチャットウィンドウ202は、ライブイベント102の別の参加者による、シミュレートされたユーザ108との対話の例である。具体的には、ユーザ108は、視点200を生成するために、ソースデバイス106-1の視点(すなわち、視点100)上に表示されるライブビデオチャットウィンドウ202を介して、ソースデバイス106-1のユーザと対話する。
別の例では、第3のクライアントデバイスは、ネットワークによりプラットフォームに通信可能に結合することが出来る。第1のクライアントデバイスおよび第3のクライアントデバイスは、ライブイベントから遠隔におよび互いに遠隔に位置させることができる。このように、プラットフォームは、第1のクライアントデバイスと第3のクライアントデバイスが、ライブイベント102から遠隔に位置するにもかかわらず、ローカル対話をシミュレートする仮想対話をホストすることが出来る。幾つかの実施態様では、第1のクライアントデバイスと別のクライアントデバイスは、ライブイベント102のそれぞれの視点を共有することが出来る。したがって、第1のクライアントデバイスが、ライブイベント102の場所に位置しかつソースデバイスである場合、第1のクライアントデバイスにより別のクライアントデバイスに提供される視点は、視点100からのものとは異なる。
別の例では、互いに遠隔に、および/またはライブイベントから遠隔に位置するユーザのグループは、ライブイベントを同時に視聴し、そしてライブイベントに関与している間に互いの視点を動的に採用(または放棄)することが出来る。例えば、図3は、本開示の幾つかの実施態様に従う、第1のクライアントデバイスによるライブイベント102の視点300の採用を示す。視点300は、ソースデバイス106−2から採用される。したがって、ユーザ108の第1のクライアントデバイスは、ソースデバイス106−2を操作している参加者の透視からの視点300を採用するために、ソースデバイス106−2からのライブストリームをレンダリングしている。
したがって、仮想対話は、ライブイベント102のローカル対話を厳密にシミュレートする。対話(例えば、フィードバック、コメント)の即時性およびライブストリーム間の同期は、摩擦のない対話および参加者による高レベルの関与を保証する。定量的に言えば、100ミリ秒未満の一方向の音声遅延に対する人間の知覚の限界は、完全に同期されたビデオと区別がつかないと見なされ、他方、約150ミリ秒の音声遅延は、言葉による意思伝達において受け入れ可能な最低レベルと見なされている。本明細書に開示される実施態様は、これらの考慮事項を実装して、ユーザのグループ間で、マルチソースまたはシングルソースのデジタルデータの同期された利用を可能にする。
(拡張現実の視点)
このプラットフォームにより、参加者は、「AR視点」を生成するために拡張現実(AR)コンテンツが組み込まれているライブイベントの視点を体験することができる。サードパーティを含む如何なる人も、このARコンテンツを提供して、共有体験を強化させることができる。例えば、このプラットフォームは、第1のクライアントデバイスから、ARコンテンツの選択の指示を受信することができる。この指示に応じて、このプラットフォームは、第1のクライアントデバイスによってレンダリングされると、第1のクライアントデバイスが、ARコンテンツをライブストリームの視点に重ねることにより、ARコンテンツによりライブストリームを拡張することが出来る。したがって、ライブストリームの修正されていない視点は、ARコンテンツにより強化させることが出来る。このプラットフォームは、第1のクライアントデバイスによってレンダリングされると、AR視点を表示するARコンテンツにより、ライブストリームを自動的に拡張することも出来る。
ARコンテンツは、ライブのARコンテンツまたはライブイベントに関連付けられている、事前に記録されたARコンテンツとすることができる。このARコンテンツの例には、ライブ解説、プレーヤの統計、他の参加者からキュレーションされたコンテンツ、広告、ライブイベントまたは会場に関する情報、場所ベースの情報、またはそれらの組み合わせが含まれる。例えば、参加者は、サードパーティによって作成されそしてライブストリームに埋め込まれたARコンテンツとして、プラットフォームによって配信されるARコンテンツを、サブスクライブすることが出来る。このように、参加者が体験するライブイベントは、ARコンテンツにより充実したものとなる。
図4は、本開示の幾つかの実施態様に従う、ライブイベントのシミュレートされた体験を向上させるように表示されているARコンテンツの例が組み込まれている、レンダリングされたライブストリームの視点400を示す。具体的には、視点400は、ライブイベント102に関しては視点100と同じであるが、これにはARコンテンツ402が組み込まれている。図示の例では、ユーザ108には、視点400で購入用ピザを提供する仮想販売者としてレンダリングされるARコンテンツ402が、提示されている。この仮想販売者は、ライブイベント102には存在していないので、視点100を提供する修正されていない元のライブストリームには含まれていない。それにもかかわらず、この販売者は、あたかも、この仮想販売者との対話が、ライブイベント102で実際に起こりつつあるかのように、視点400に現れる。同じ視点100を採用している別の参加者は、ARコンテンツのソース、参加者の嗜好などに応じて、同じまたは異なるARコンテンツを見ることができる。
別の例では、ARコンテンツは、関心のあるアスリート、関心のあるチーム、トーナメント、またはフィールドの状態に関する情報を提供するために、自動的にまたは選択的にレンダリングさせることができる。例えば、表示されている視点は、フィールドが濡れているか、またはフィールド全体に吹いている風は穏やかであるかについての情報により、拡張させることができるであろう。図5は、本開示の幾つかの実施態様に従う、視点に組み込まれたARコンテンツの別の例を示す。図示されるように、AR視点500は、視点100を強化するために表示されるARコンテンツ502を含む。ARコンテンツは、ソースデバイス106−5に関連付けられているアスリートに関する情報を含み、そしてAR視点500をレンダリングするためにライブイベント102の視点100に重ねて表示される。
幾つかの実施態様では、プラットフォームは、クライアントデバイスが、同じARコンテンツを含む複数の視点を同時に視聴することを可能にすることが出来る。例えば、図6は、第1のクライアントデバイスのUI上に同時に表示された同じライブイベント102の異なる視点600−1および600−2を示す。視点600−1および600−2のそれぞれは、異なる視点からの同じARコンテンツ602を含む。したがって、このプラットフォームは、例えば、サードパーティによって提供される同じまたは異なるARコンテンツを含む複数の視点を、組み合わせることが出来る。
(システム環境)
図7は、本開示の幾つかの実施態様に従う、ライブイベントの複数の視点を共有するためのプラットフォームを実装するシステムのブロック図である。システム700は、インターネットのような1つまたは複数のネットワーク708を介して相互接続されている、1つまたは複数のサーバコンピュータ702、専用ソースデバイス704(例えば、カメラ)、およびクライアントデバイス706を含む。図示されるように、ソースデバイス704は、サーバ702に向かって一方向でライブストリームを通信する。これに対し、クライアントデバイス706は、サーバ702を介して互いに双方向で通信することが出来る。すなわち、クライアントデバイス706の少なくとも幾つかは、ライブストリームをパブリッシュし、そしてライブストリームを利用することが出来る。
動作中、クライアントデバイス706の少なくとも幾つかは、ライブイベントに位置し、そして幾つかはライブイベントから遠隔に位置する。ライブイベントに位置する各クライアントデバイス706は、クライアントデバイスによってレンダリングされると、ライブイベントの視点を表示させる、ライブストリームのソースである。サーバ702は、ライブイベントの視点を、現在、ライブストリーミングしつつあるソースデバイス704および任意のクライアントデバイス706を含ませ、そしてライブイベントの視点のライブストリーミングを停止したデバイスを削除させるように、サブスクリプションリストを動的に更新させることが出来る。サーバ702は、任意のクライアントデバイスによる、サブスクリプションリスト上の任意のクライアントデバイスへの選択的アクセスを可能にし、そしてサブスクリプションリストから削除された任意のクライアントデバイスへのアクセスを無効にするサブスクリプションサービスをホストすることが出来る。
ライブイベントから遠隔に位置するクライアントデバイスは、ライブイベントの仮想プレゼンスを提供し、他方、ライブイベントに位置するクライアントデバイスは、ライブイベントの物理的および仮想的プレゼンスの両方を有する。仮想的にしか存在しない場合、参加者は、共有体験に参加するために使用可能な1つ以上のデバイスを持つことができるであろう。例えば、仮想参加者は、外出中にはライブイベントをスマートフォンで体験し、他方、自宅ではライブイベントをタブレットコンピュータを使用して体験することが出来る。参加者は、1つのデバイスから別のデバイスにシームレスに移行して、ライブイベントの継続的な体験を維持することが出来る。
参加者は異なるデバイスを使用するので、プラットフォームは、サブスクライブされた参加者のライブストリームをシームレスに更新し、そして参加者のビューを置換または拡張することにより、レンダリングされた環境を調整することが出来る。幾つかの実施態様では、プラットフォームは、例えば、以前にライブイベントのライブストリームのソースであったクライアントデバイスのリストのような他のサブスクリプションリストを動的に更新することが出来る。幾つかの実施態様では、プラットフォームは、クエリに応答して、例えば、ライブイベントの視点を、現在、ライブストリーミングしつつあるクライアントデバイスを検索するための検索操作を可能にすることが出来る。
ネットワーク708は、プライベート部分、パブリック部分、有線部分、またはワイヤレス部分の任意の組み合わせを含むことができる。ネットワーク708を介して通信される任意の制御情報またはデータは、ネットワーク708の様々な部分でまたは異なる部分に沿って、暗号化または非暗号化させることができる。システム700の各コンポーネントは、データを処理し、機能を実行し、ネットワーク708を介して通信する等のために、ハードウェアおよび/またはソフトウェアの組み合わせを含むことができる。例えば、システム700の任意のコンポーネントは、プロセッサ、メモリまたはストレージ、ネットワークトランシーバ、ディスプレイ、オペレーティングシステムおよび(例えば、UIを提供するための)アプリケーションソフトウェア等を含むことができる。当業者には周知のシステム700の他のハードウェアまたはソフトウェア構成要素は、簡潔にするために本明細書では図示または説明されていない。
ソースデバイス704は、ライブイベントのライブストリームを発生させる任意の電子デバイスを表す。すなわち、ソースデバイス704は、ライブイベントの異なる視点からのライブストリームのソースである。ソースデバイス704およびソースデバイスとして動作させることができる少なくとも幾つかのクライアントデバイス706は、クライアントデバイス706の間で共有可能なライブストリームを同期させるサーバ702にストリーミングされるメディアとして、ライブイベントの画像および/または音声をキャプチャする。このため、プラットフォームの複数の参加者が、参加するライブイベント(スポーツゲーム等)を考えてみよう。これらの参加者は、ローカル参列者または仮想参加者であるにもかかわらず、同じ方法で相互に対話することが出来る。
サーバ702に通信されるライブストリームのソースは、それぞれ、アクティブまたは非アクティブにすることが出来る視点を提供する。例えば、非アクティブな視点は、ライブストリーミングには現在利用できない通信チャネルに対応することができる。これに対し、アクティブな視点は、全て、クライアントデバイス706が即時に利用することができる1つ以上のライブストリームを有する。例えば、第1のライブストリームを提供する第1のクライアントデバイスは、対応する第2のライブストリームにアクセスすることにより、第2のクライアントデバイスの透視を採用することが出来る。特定の視点を採用する参加者からのリクエストは、その視点に関連付けられている何れかのソースによって満足させることが出来る。
クライアントデバイス706が利用可能な視点は、例えば、クライアントデバイス706のカメラおよびマイクロフォンによってキャプチャされるメディアを含む。視点を共有することにより、クライアントデバイス706の少なくとも幾つかは、他のクライアントデバイスと共有することが出来るライブイベントの視点からの、アクティブでユニークな透視に関与する。他のクライアントデバイスから供給された視点、および会場の場所に配置されたカメラまたはマイクに加えて、ライブストリームのコンテンツの別のソースには、スポーツイベントのプレーヤのようなライブイベントの行為者が使用するデバイスが含まれる(例えば、図1〜3を参照)。例えば、ライブイベントの会場では、プラットフォームによるライブストリーミング用のメディアをキャプチャするために、ソースデバイスは、様々な場所および方向に配置させることが出来る。プラットフォームは、各クライアントデバイスまたは会場の固定位置にある利用可能なカメラから、ネットワーク708を介して様々なライブストリームを収集することが出来る。
クライアントデバイス706は、システム700と対話する参加者によって使用されるハンドヘルドモバイルデバイスとして示されている。図7には3つのクライアントデバイス706−1〜706−3しか示されていないが、開示される本実施態様は、これに限定されず、任意の数のハンドヘルドモバイルデバイスを含むことができる。クライアントデバイスの例には、フィーチャーフォンスマートフォン(APPLE IPHONE,SAMUSUNG GALAXY,NOKIA LUMINA等)、タブレットコンピュータ(APPLE IPAD,SAMUSUNG NOTE,AMAZON FIRE,MICROSOFT SURFACE等)、およびネットワーク708を介してサーバ702にアクセスすることが出来る他のデバイスが含まれる。
上述したように、プラットフォームは、サーバ702によってホストさせることが出来る。サーバ702は、ソースデバイス704または他のクライアントデバイスからキャプチャされたライブイベントのライブストリームを取得するために、クライアントデバイス706間の対話を容易にする、任意の数のサーバコンピュータを含むことができる。幾つかの実施態様では、サーバ702は、クライアントデバイス706がアクセス可能なサービスとして、プラットフォームを管理する。例えば、サーバ702によって管理されるモバイルアプリは、クライアントデバイス706上に表示されるUIを提供することができる。このUIは、ライブイベントのライブストリームにアクセスするために使用することが出来る。
したがって、プラットフォームは、クライアントデバイス706の参加者間の仮想対話を可能にすることにより、参加者間のライブイベントの共有化を容易にする。例えば、クライアントデバイス706は、ライブイベントのある特定の視点からのコンテンツを共有することにより、プラットフォームを介して互いに通信することが出来る。クライアントデバイスは、別の参加者の視点を採用することも出来る。したがって、クライアントデバイス706は、参加者が物理的に一緒の場所にいないにもかかわらず、同じライブイベントの仮想共有体験を可能にする情報および透視を共有することが出来る。さらに、共有体験を、サードパーティのARコンテンツにより拡張して、上述したような充実した体験のための拡張現実環境を作成することも出来る。
プラットフォームは、視聴者グループを定義することが出来る。これは、所与の時点で、ゲームを見ているまたはプレイに参加しているグループのような、所与のライブイベントの拡張された同じ共有体験をサブスクライブしたユーザのセットである。視聴者グループの構成は、ユーザが共有スペースに参加またはそれから離脱するときに、動的に変化することが出来る。幾つかの実施態様では、プラットフォームは、特定のライブストリーミングコンテンツまたはサードパーティコンテンツへのアクセスを制限することが出来る。例えば、プラットフォームは、プライベートライブストリームへのアクセスが制限された視聴者グループを定義し、そしてアクセスが制限されていないパブリックライブストリームを定義することが出来る。幾つかの実施態様では、プラットフォームは、各ライブストリームのアクセスレベルを設定することが出来る。プライベートレベルは、幾つかのクライアントデバイスのみに、制限付きアクセスを許可することができる。パブリックレベルは、任意のクライアントデバイスに無制限のアクセスを許可することができる。視点へのアクセスは、そのパブリシャが、例えば、パブリックインターフェイスを提供する幾つかのサードパーティのソーシャルネットワークの親しい友人のような、個人のリストに制限させることができる。
クライアントデバイス706は、アクティブでありかつプラットフォームのサービスとして利用可能な視点のライブストリームを、サブスクライブすることが出来る。幾つかの実施態様では、サブスクリプションサービスは、特定のライブイベントを現在ライブストリーミングしつつあるクライアントデバイスのリスト、または定期的にイベントをライブストリーミングする参加者のリストを、含むことができる。このため、ライブイベントの観客は、ライブイベントの他の観客を簡単に検索し、そして彼らの視点をサブスクライブすることが出来る。幾つかの実施態様では、参加者または彼らのデバイスは、ライブイベントに参加し、かつ彼らの視点をサブスライブすることを可能にする他のクライアントデバイスを、サブスクライブすることができる。例えば、プラットフォームは、コンサートに頻繁に参加する観客のリストを提供することができる。参加予定者は、これらの観客が提供する任意のライブストリームのサブスクリプションをリクエストすることが出来る。このため、観客がイベントのライブストリーミングを提供すると、サブスクライブした参加者を変更して、このライブイベントに参加させることが出来る。
したがって、ライブイベントに仮想的に存在するが、イベントから遠隔に位置する参加者は、モバイルとすることが出来る別のクライアントデバイスの何れかに対応するソースデバイスまたはライブイベントの固定位置にあるソースデバイスの少なくとも1つの視点に、関連付けられている。したがって、この参加者は必ずその視点を採用する。ライブイベントの任意のローカル参加者は、ライブイベントの固定位置にいる別の観客またはソースデバイスによって提供される少なくとも1つの視点の透視を採用することも出来る。さらに、ライブイベントに物理的にまたは仮想的に存在する参加者は、ライブイベントに物理的にまたは仮想的に存在する他の参加者とリアルタイムまたはほぼリアルタイムで対話し、そして他の視点を採用するまたはそれに変更することにより、彼ら自身の体験を強化することが出来る。
(対話、視点の変更、および同期)
上述したように、開示された本実施態様は、あたかも参加者がライブイベントに一緒にいて、自然に対話しているかのように、ライブストリーミングされているイベントの参加者間の仮想対話を可能にする。このために、参加者の仮想対話(例、画像および音声)は、同期させなければならない。したがって、少なくとも幾つかのライブストリームは、ライブイベントのライブブロードキャストの特定の時点に対して同期させる必要がある。幾つかの実施態様では、プラットフォームは、同期されたライブストリームのグループを、同期されたライブストリームのみを含み、そして同期されていないライブストリームを排除する(例えば、クライアントデバイスによるアクセスを、同期されたライブストリームのグループのみに制限する)ものと定義することが出来る。
例えば、2人の参加者が、単一の視点をサブスクライブしているシナリオを考えよう。 2人の参加者は、ライブイベントで発生している現在のアクティビティについて議論することを求めることができる。2人の参加者は、同じライブアクティビティのライブストリームを、異なる時間に受信するかもしれない。例えば、ライブストリームが共通のソースから各クライアントデバイスに到達するのにかかる時間は、ソースデバイスとクライアントデバイス間の距離に応じて、またはレイテンシの原因となる要因によって、異なる。例えば、スポーツイベントの観客が操作するカメラを含むソースデバイスは、サブスクライブしている視聴者にライブ送信を提供することができる。第1の参加者をローカルの観客とし、第2の参加者をライブイベントから遠隔の場所にいるものとすることができる。速度が光速によって制限される通信手段が同じであると想定すると、第2の参加者への到着時間は、第1の参加者への到着時間よりも長くなる。もし、それぞれのライブストリームの通信に、レイテンシが異なる、異なる通信手段が、使用されると、到着時間の相違は、さらに悪化する。したがって、異なる場所にいる複数の参加者が、ライブアクティビティについて話そうとするときに、参加者が異なる時刻にライブストリームを受信すると(つまり、ライブストリームが同期されていないため)、共有体験は損なわれる。
同様に、参加者がシームレスに別の視点に変更する/別の視点を採用するには、現在の視点のライブストリームと新しい視点のライブストリームを同期させる必要がある。例えば、現在、会場の片側の第1の視点からライブアクティビティを観察しつつあり、そして会場の反対側の別の視点の角度または透視を取り入れようとしている参加者を考えよう。もし、これらの視点が、ソースおよび/または参加者から異なる距離にある場合、参加者は、現在の視点から新しい視点への変更があるときに、ライブイベントの不連続性を体験する可能性がある。例えば、視点が、ソース若しくは参加者、又はその両方に近いか否かに応じて、およびライブストリームが通信されるメディアに応じて、参加者は、簡単なアクティビティを見逃したり、又は簡単なアクティビティを2回見たりすることがある。参加者が、両方の視点を、同じライブイベントの同時の透視または角度として体験するためには、ライブイベントにより近い視点に関連付けられたライブストリームは、ライブストリームがより遠くの視点に到達するのに必要な期間、バッファさせそして遅延させることが出来るであろう。遅延は、2つの視点の距離の差に設定する必要がある。
図8は、本開示の幾つかの実施態様に従う、ライブイベントのライブストリームの参加者とソースとの間の関係を示す。参加者のグループは、ライブイベントの視点のライブストリームのサブスクライバである。参加者は、複数の視点を同時にサブスクライブすることが出来、そしてプラットフォームは、それら全てのビューを組み合わせるように適応させることが出来る。カメラおよび他のソースデバイスのグループは、同じライブイベントの様々な視点からのライブストリームを、提供することが出来る。しかしながら、参加者のあるサブセットしか、これらのソースの任意の視点に対し参加者間の自然な対話を可能にするために同期させることが出来るソースのサブセットとは、オーバーラップしない。このサブセットには、視聴者グループと、単一の同期グループとして処理させることが出来る、使用可能な視点とが、含まれる。同期されたグループ内の全てのソース及び対応するライブストリームは、以下で説明されるように、自然な対話を可能にする調和された体験を確実なものとするために、それらのクロックが同期されている。ソースが、新しい視点を作成するまたはそれを既存の視点に追加するためには、ソースは、クロック同期アルゴリズムを実行して、グループクロックとそれ自体のローカルクロックとの間のオフセットを導出しなければならない。
(グループクロックの同期)
図9は、本開示の幾つかの実施態様に従う、異なるソースからのライブストリームをレンダリングするためのクライアントデバイス(C)とタイムサーバ(S)との間のクロック同期を示す。具体的には、ライブイベントをライブストリーミングするプロセスは、参加者間での対話時および視点の変更時に調和した体験が確実となるように、複数の視点のクロック同期フェーズを含むことができる。クロック同期フェーズ中に、クライアントは、「タイムサーバ」に接続し、そしてそのサーバ時刻をリクエストする。リクエストを受信した後、サーバは、サーバ時刻(T)に付加される応答を準備する。この時間は、UTCタイムソースのような外部ソースに基づいて設定させることができる。時間応答を含む応答を受け取った後、クライアントは、ローカル時刻をT+RTTe/2に設定する。RTTeは、エポック(e)中の通信の往復時間(RTT)を指す。RTTは、以前のエポック中のクライアントとサーバ間の一連の交換の内の最小RTTとして推定され、これにより、ネットワーク条件の変化を考慮して、エポックの長さが設定される。例えば、クリスチャン(Christian)の時間同期アルゴリズムに少なくとも部分的に基づくこの方法は、RTTが、リクエストの通信と応答の通信との間で均等に分割されることを前提としている。
新しいエポックごとに、視点のソースは、所与の同期されたグループ内の他の全てのソースに、以前のRTTeをブロードキャストする。同期を維持するためには、所与の同期グループ内の全ての視点のソースは、全て、相対的に類似しているRTTeを維持しなければならない。もし、ソースの新しいRTTeが、最大値を超えて増加した場合、ソースは、同期されたグループを離れなければならないが、グループのサブスクライバとして残る可能性がある。この最大値は、同じライブイベントのライブストリーム間の相違を人間が知覚することが出来るであろう最小時間に対応することができる。本実施態様が、アプリケーションによっては、外部ソースとの同期を必要としない場合には、代わりに、最小限の変更で他のアルゴリズムを使用することができるであろう。
(視点の統合または変更)
図10は、本開示の幾つかの実施態様に従う、シーンにグループ化されるパケットから構成されるライブストリームを示す。図示されるように、ライブストリーム1000は、ライブイベントのシーン1004にグループ化されたパケット1002を含む。クライアントデバイスは、別のソースデバイスの別のライブストリームをレンダリングすることにより、別の視点を採用することが出来る。他のライブストリームのレンダリングは、ライブストリーム1000の次のシーンの開始まで遅延される。したがって、クライアントデバイスは、1つ以上のシーンに対して定義された時点でのみ、別のライブストリームをレンダリングすることが出来る。
具体的には、各シーンの開始は、ビューが変化する(例、視点を変更する、ARコンテンツを追加する)ことが出来るライブストリームの離散的な時点である。パケット数によるシーンの長さは、例えば、参加者ごとに動的に構成させることが出来る。幾つかの実施態様では、シーンの長さは、ライブストリームをサブスクライブするのに要する時間と一致する。参加者が視点を選択する、または視点を変更すると、クライアント側コンポーネントは、現在の視点を終了することなく、目的の視点のライブストリームをサブスクライブするプロセスを開始する。もし、サブスクリプションプロセスが成功した場合、クライアントのビューは、変更が開始された後の次のシーンの開始時の新しい視点に変わる。これにより、視点へのシームレスな体験が確実となる。
幾つかの実施態様では、各シーンは、利用タイムスタンプ(ConsumptionTS)に関連付けられた一連のフレーム(Frame)によって定義されるデータチャンク(DataChunk)として実装される。各フレームは、フレームID(FramelD)、データタイムスタンプ(DataTS)、およびデータ(Data)を含む。ライブストリームのソースは、サブスクライブした参加者に、データチャンクと共に、データチャンクを参加者の視聴者にいつレンダリングするかを指示するサーバ側コンポーネントの利用タイムスタンプを含むメタデータを送信することが出来る。これは、以下の式に示される:
Figure 2021513305
クライアントデバイスがデータチャンクを受信すると、それは、サーバの利用タイムスタンプをクライアントデバイスの利用タイムスタンプに変換することが出来る。もし、クライアントの利用タイムスタンプが、クライアントのクロックの現在の時刻と比較して未来の時刻である場合、クライアントは、ローカルタイムが、利用タイムスタンプに等しいまたはそれ以上の時刻に達するまで、関連するデータチャンクのレンダリング(利用)を待つであろう。データチャンクが、利用タイムスタンプとは異なる時点で、またはそれより過去の時点でクライアントデバイスに到着した場合、クライアントデバイスは、ライブストリームを調整して同期を維持する、またはデータチャンクを破棄することができる。
開示された本実施態様は、ARコンテンツまたはライブストリームなどのコンテンツをサブスクライブするためのプロセスを含む。例えば、図11は、本開示の幾つかの実施態様に従う、ライブストリームのコンテンツをサブスクライブするためのプロセスを示すフローチャートである。ステップ1102において、コンテンツが、参加者によって選択される。例えば、プラットフォームは、参加者がARコンテンツを選択するためのオプションを、クライアントデバイスに表示させることができる。
オプションのステップ1104において、ライブストリームは、参加者の嗜好またはコンテキスト情報に基づいて適合化される。例えば、ユーザは、プラットフォーム(またはサードパーティ)が、状況に応じて(例えば、アスリートが視点内にいるとき)ライブARコンテンツを自動的に選択しそして組み込むために使用することが出来るライブ解説の嗜好を設定することができる。したがって、ライブイベントで使用可能になると、ライブ解説は、クライアントデバイスによってレンダリングされるライブストリームに自動的に組み込ませることが出来る。別の例では、プラットフォームは、参加者の人口統計の情報またはプロファイル情報に基づいて、参加者の嗜好を決定することができる。例えば、プラットフォームは、ライブ解説に関する選好を含む参加者のプロファイルを格納することができる。別の例では、プラットフォームは、参加者間の対話またはプラットフォームとの対話に基づいて嗜好を自動的に検出し、そしてライブストリームにコンテンツを組み込むための適切な推奨を行う機械学習アルゴリズムを含む。幾つかの実施態様では、クライアントデバイスは、ライブストリームを自動的にサブスクライブさせ、そして第1のライブストリームからサブスクライブを自動的に解除させることができる。このため、参加者のプロファイルは、サブスクリプションの変更およびコンテンツの表示を反映させるために、更新させることが出来る。
オプションのステップ1104では、クライアントデバイス上でレンダリングされるコンテンツは、ライブイベントのコンテキスト情報および/または時間情報に基づいて選択させることが出来る。例えば、プラットフォームのクライアント側コンポーネントは、マルチキャストチャネルを介してライブイベントに関連付けられたコンテンツを受信することが出来る。マルチキャストチャネルは、ライブイベント、参加者の興味、参加者の場所、参加者の視聴デバイス、時刻等に関するコンテキスト情報に基づいてプロビジョニングさせることが出来る。1つの例では、サードパーティプロバイダが、プラットフォームに対してARコンテンツをプロビジョニングする。これは、特定の年齢層の参加者にコンテンツを配信し、そしてフットボールのライブのハーフタイム中に大人の視聴者に食べ物および飲み物の広告などを提供する。このため、ARコンテンツは、嗜好や人口統計が異なる参加者に対し異なるように適合化させることが出来る。
ステップ1106では、プラットフォームは、選択されたコンテンツを、ある時点(例えば、シーン)でライブストリームに加えて、クライアントデバイス上でレンダリングさせることが出来る。コンテンツが、ライブイベントの視点が異なるライブストリームのソースのグループに関連付けられると、コンテンツが、ライブストリームの希望の時間間隔に含まれることを確実にするには、クロック同期が必要である。幾つかの実施態様では、「ウォールクロック」タイプの同期は、幾つかのアプリケーションに対しては、十分であるとすることができる。
例えば、1つまたは複数のライブストリームに組み込まれるARコンテンツ(ARContent)のARストリーム(ARStream)は、コンテンツ(例、画像、テキスト)並びにコンテキストの指示及びコンテンツを表示するための時刻を含むパケットから構成される。例えば、ARコンテンツを表示するための時刻の指示は、開始時刻(ARTStart)および終了時刻(ARTEnd)によって定義される特定の時点またはウィンドウを含むことができる。幾つかの実施態様では、時間ウィンドウは、シーンの数により定義され、そしてARコンテンツをクライアントデバイスの視聴者で表示するために設定される期間を指示する。ARコンテンツ(ARContent)を表示させるコンテキストの指示(ARContext)は、プラットフォームのクライアント側コンポーネントが、視聴者にマッピングすることが出来る3次元(3D)座標(ARCoord)のような1つ以上のディレクティブ、または 「フローティング(floating)」、「ビルボードにバインド(bound to a billboard)」等のような特定の命令を含むことができる。これは、以下の式に表される:
Figure 2021513305
このように、ライブストリームのシーンは、視点を変更するため、またはコンテンツによりビューを更新するための離散的な時点として使用することが出来る。例えば、ライブイベントのシーンは、オンデマンドで即座に変更するのに代えて、変更と同時に、高品質の体験を実現させることが出来る変更を加えることを可能にする、対話の自然なポインとを提供することが出来る。参加者は、コンテンツをリクエストする、または参加者の視聴者のために、他の当事者がコンテンツをプッシュすることができる。配信されるコンテンツは、別の視点を持つライブストリームと、プラットフォームのクライアント側コンポーネントによってライブストリームに追加され、そしてライブストリームへのサブスクリプションが、コンテンツに関連付けられた後、次のシーンの開始時に視聴者にレンダリングされるARコンテンツとを、含むことができる。
開示された本実施態様は、また、少なくとも1つのデバイスを含む。このデバイスの例は、ディスプレイ、方向センサ、プロセッサ、メモリ等を含む、ヘッドマウントディスプレイ(HMD)デバイスである。このHMDデバイスは、ライブストリームをレンダリングして、デバイスにライブイベントの視点を表示させることが出来る。ライブストリームは、ライブイベントに位置するソースデバイスから発信される。HMDデバイスは、方向センサの出力に基づいて、HMDデバイスの方向の変化を決定し、そしてHMDデバイスの方向の変化を動的に追跡して、1つのソースデバイスのライブストリームの視点の表示からシームレスに遷移して、別のソースデバイスの別のライブストリームの別の視点を表示させることが出来る。
この例では、供給されたコンテンツは、HMDデバイスを介して、または仮想現実環境において、仮想参加者に配信させることが出来る。例えば、プラットフォームは、参加者の体の位置と注視点に基づいて(例、参加者の周りの他のデバイスを活用して)、参加者の透視を適合化させることが出来る。例えば、参加者が振り向くと、HMDのディスプレイは、ライブストリームのソースを、一致する視点にシームレスに変更させることが出来る。幾つかの実施態様では、プラットフォームのクライアント側コンポーネントは、初期化時に没入型環境を提供することができるように、必要な全ての視点をサブスクライブするであろう。幾つかの実施態様では、参加者は、手動で視点を変更することも出来る。
図12は、開示された技術の少なくとも幾つかの態様を実装することが可能なコンピューティングデバイス1200のブロック図である。コンピューティングデバイスの例は、プラットフォームサーバ、クライアントデバイス、ソースデバイス、またはこれらの任意の組み合わせまたはコンポーネントを含む。コンピューティングデバイス1200は、汎用コンピュータとする、またはシステムの機能を実行するように特別に設計することもできる。例えば、コンピューティングデバイス1200は、SOC、SBCシステム、デスクトップまたはラップトップコンピュータ、キオスク、メインフレーム、コンピュータシステムのメッシュ、ハンドヘルドモバイルデバイス、またはこれらの組み合わせとすることができる。
コンピューティングデバイス1200は、スタンドアロンデバイス、または複数のネットワーク、場所、マシン、またはこれらの組み合わせからなる分散システムの幾つかとすることができる。幾つかの実施態様では、コンピューティングデバイス1200は、クライアントサーバネットワーク環境におけるサーバコンピュータまたはクライアントデバイスとして、またはピアツーピアシステムにおけるピアマシンとして動作する。幾つかの実施態様では、コンピューティングデバイス1200は、リアルタイムで、ほぼリアルタイムで、オフラインで、バッチ処理で、またはこれらの組み合わせによって、1つまたは複数のプロセスを実行することができる。
図示されるように、コンピューティングデバイス1200は、ハードウェアコンポーネント間でデータを転送するように動作することが可能なバス1202を含む。これらのコンポーネントは、制御1204(すなわち、処理システム)、ネットワークインターフェース1206、入力/出力(I/O)システム1208、およびクロックシステム1210を含む。コンピューティングデバイス1200は、図示されていない、または簡潔にするために詳細に議論されることのない他のコンポーネントも含むことができる。当業者は、図12には示されていないが、ここに含まれる任意のハードウェアおよびソフトウェアを理解するであろう。制御1204は、1つ以上のプロセッサ1212(例、CPU、ASIC、FPGA)および(ソフトウェア1216を含むことができる)メモリ1214を含む。メモリ1214は、ローカルの、遠隔の、または分散型とすることができ、そして例えば、揮発性および/または不揮発性メモリを含むことができる。
ソフトウェアプログラム(例えば、ソフトウェア1216)は、「コンピュータ可読格納媒体に実装される」と言及されるときには、メモリ(例、メモリ1214)に格納されたコンピュータ可読命令を含む。プロセッサ(例、プロセッサ1212)は、ソフトウェアプログラムに関連付けられた少なくとも1つの値が、プロセッサによって読み取り可能なレジスタに格納されると、「ソフトウェアプログラムを実行するように構成される」。幾つかの実施態様では、開示された本実施態様を実装するために実行されるルーチンは、オペレーティングシステム(OS)ソフトウェア(例、Microsoft Windows(登録商標)、Linux(登録商標))または特定のソフトウェアアプリケーション、コンポーネント、プログラム、オブジェクト、モジュール、または「コンピュータプログラム」と呼ばれる命令のシーケンスの幾つかとして実装させることができる。
したがって、コンピュータプログラムは、通常、コンピュータ(例、コンピューティングデバイス1200)の様々なメモリデバイスに様々な時点で設定され、少なくとも1つのプロセッサ(例、プロセッサ1212)によって読み取られそして実行され、コンピュータに、開示された本実施態様の様々な態様を含む機能を実行するための操作を実行させる、1つまたは複数の命令を備える。幾つかの実施態様では、前述のコンピュータプログラム製品を含むキャリアが提供される。このキャリアは、電子信号、光信号、無線信号、または非一時的なコンピュータ可読格納媒体(例えば、メモリ1214)の内の1つである。
ネットワークインターフェース1206は、ネットワーク1218を介して、コンピューティングデバイス1200を別のデバイスに結合するためのモデムまたは他のインターフェース(図示せず)を含むことができる。I/0システム1208は、ディスプレイシステム1220(例、モニタまたはタッチセンサ式ディスプレイ)および1つ以上の入力デバイス1222(例、キーボードおよび/またはポインティングデバイス)のような、周辺デバイスを含む様々なI/0デバイスを制御するように動作することができる。他のI/0デバイス1224は、例えば、ディスクドライブ、プリンタ、スキャナ等を含むことができる。最後に、クロックシステム1210は、開示された本実施態様に従う使用のために、タイマーを制御する。
二進数1から二進数0への(またはその逆の)状態の変化のようなメモリデバイス(例、メモリ1214)の動作は、知覚可能な物理的変換を備えることができる。この変換は、物品の異なる状態へのまたは物への物理的変換を備えることができる。例えば、状態の変化は、電荷の蓄積およびストレージまたは蓄積された電荷の放出を含むことができる。同様に、状態の変化は、磁気配向における物理的変化または変換、または結晶構造から非晶質へ、またはその逆のような、分子構造における物理的変化または変換を備えることができる。
開示された本実施態様の態様は、メモリに格納されたデータビットに対する操作のアルゴリズムおよび記号表現により説明することが出来る。これらのアルゴリズムの説明と記号表現には、通常、望ましい結果につながる一連の操作が含まれている。操作には、物理量の物理的な操作が必要である。通常、これらの量は、必須ではないが、格納、転送、結合、比較、および他の操作が可能な電気信号または磁気信号の形態を取る。慣習的に、そして便宜上、これらの信号は、ビット、値、要素、記号、文字、用語、数字等と呼ばれる。これらおよび同様の用語は、物理量に関連付けられていて、そしてこれらの量に適用される便利なラベルにすぎない。
実施態様は、完全に機能するコンピュータの文脈で説明されて来たが、当業者は、様々な実施態様が、様々な形態のプログラム製品として配布可能であり、そして本開示が、実際に配布に影響を与えるように使用される特定のタイプのマシンまたはコンピュータ読み取り可能なメディアに関係なく、等しく適用されることを、理解するであろう。
本開示は、幾つかの実施態様に関して説明されて来たが、当業者は、本開示が本明細書に記載の実施態様に限定されず、本発明の精神および範囲内で修正および変更を加えて実行することができることを、認識するであろう。当業者は、また、本開示の実施態様に対する改善を認識するであろう。このような改善は、全て、ここに開示されている概念の範囲内であると見なされる。したがって、この説明は、限定するものではなく例示と見なされるべきである。
本発明の特定の実施態様が、例示の目的で本明細書で説明されて来たが、上記から、本発明の範囲から逸脱することなく様々な修正を行うことができることは、理解されるであろう。したがって、本発明は、添付の特許請求の範囲による場合を除き、限定されない。
(関連出願の相互参照)
本出願は、2018年2月6日に出願された、「ライブイベントに参加する、リアルタイムの、拡張されかつ共有された体験を提供するための手法」という発明の名称を有する米国仮特許出願シリアルNo. 62 / 627,126の利益を主張し、これは、本引用により、その全てが本出願に組み込まれている。

Claims (25)

  1. 複数のライブストリームを、ネットワーク経由で、第1のクライアントデバイスを含む複数のクライアントデバイスに配信するプラットフォームに、前記第1のクライアントデバイスを通信可能に結合するステップであって、前記複数のライブストリームが、前記複数のクライアントデバイスの第2のクライアントデバイスを含む、ライブイベントに位置する複数のソースデバイスによりキャプチャされた複数の視点から、前記ライブイベントのライブブロードキャストを提供する、ステップと、
    前記複数の視点の内の第1の視点の選択の指示を、前記第1のクライアントデバイスから受信するステップと、
    前記複数のライブストリームの第1のライブストリームを、前記第1のクライアントデバイスに通信するステップであって、前記第1のライブストリームが、前記複数のソースデバイスの内の第1のソースデバイスによってキャプチャされつつあり、そして前記第1のクライアントデバイスによってレンダリングされると、前記第1の視点を前記第1のクライアントデバイス上に表示させる、ステップと、
    を備える方法。
  2. 前記第1のクライアントデバイスが、前記ライブイベントから遠隔に位置して、前記クライアントデバイスが、前記ライブイベントのローカル体験をシミュレートする、請求項1に記載の方法。
  3. 前記第1のクライアントデバイスが、前記ライブイベントの第1の場所に位置し、そして前記第1の視点が、前記ライブイベントの第2の場所からのものであり、第1のクライアントデバイスが前記第2の場所の仮想体験をレンダリングする、請求項1に記載の方法。
  4. 前記第1のクライアントデバイスが、ハンドヘルドモバイルデバイスであり、そして前記第1のソースデバイスが、ハンドヘルドモバイルデバイスである、請求項1に記載の方法。
  5. 前記第1のソースデバイスが、カメラおよびマイクロフォンを有する静止デバイスであり、そして前記ライブイベントの固定位置に配置されている、請求項1に記載の方法。
  6. 前記第1のソースデバイスが、前記第2のクライアントデバイスであり、そして前記第2のクライアントデバイスが、前記ライブイベントを実行するモバイルデバイスである、請求項1に記載の方法。
  7. 前記第1のクライアントデバイスが、前記ライブイベントに位置していて、そして前記第1のソースデバイスが、前記第2のクライアントデバイスである、請求項1に記載の方法であって、
    前記第1のクライアントデバイスと前記第2のクライアントデバイスとの間の仮想対話をホストするステップであって、前記仮想対話が、前記ライブイベントでのローカル対話をシミュレートする、ステップを、
    更に、備える、請求項1に記載の方法。
  8. 前記第1のクライアントデバイスが、前記ライブイベントから遠隔に位置し、そして前記第1のソースデバイスが、前記第2のクライアントデバイスである、請求項1に記載の方法であって、
    前記第1のクライアントデバイスと前記第2のクライアントデバイスとの間の仮想対話をホストするステップであって、前記仮想対話が、前記ライブイベントでのローカル対話をシミュレートするステップを、
    更に、備える、請求項1に記載の方法。
  9. 前記ネットワークを介して第3のクライアントデバイスを前記プラットフォームに通信可能に接続するステップであって、前記第1のクライアントデバイスと第3のクライアントデバイスが、それぞれ、前記ライブイベントから遠隔に位置しかつ互いに遠隔に位置している、ステップと、
    前記第1のクライアントデバイスと前記第3のクライアントデバイスとの間の仮想対話をホストするステップであって、前記仮想対話が、前記ライブイベントでのローカル対話をシミュレートする、ステップとを、
    更に、備える、請求項1に記載の方法。
  10. 前記第1のクライアントデバイスが、前記複数のソースデバイスのソースデバイスであり、そして前記第1のソースデバイスが、前記第2のクライアントデバイスである、請求項1に記載の方法であって、
    前記第1のクライアントデバイスの第2の視点を、前記ネットワークを介して前記第2のクライアントデバイスに通信し、前記第1のクライアントデバイスと前記第2のクライアントデバイスが、前記ライブイベントのそれらのローカル視点を共有する、ステップを、
    更に、備える、方法。
  11. 前記第1のクライアントデバイスが、ライブイベントに配置されている第2のソースデバイスであり、そして前記第1のソースデバイスが、前記複数のソースデバイスの静止デバイスである、請求項1に記載の方法であって、
    前記第1のクライアントデバイスから供給される第2のライブストリームをレンダリングすることにより、前記第2のクライアントデバイスが第1のクライアントデバイスの第2の視点を選択的に表示することを可能にするステップを、
    更に、備える、請求項1に記載の方法。
  12. 前記第1のソースデバイスが、前記ライブイベントの固定位置にある静止デバイスである請求項1に記載の方法であって、
    前記静止デバイスの第2の視点の前記第1のクライアントデバイスによる別の選択の指示を受信するステップと、
    前記静止デバイスの第2ライブストリームをレンダリングすることにより、前記第1のクライアントデバイスに、前記第1の視点の表示を終了させ、そして前記第2の視点を表示させるステップとを、
    更に、備える、方法。
  13. 前記第1のソースデバイスが、前記第2のクライアントデバイスである請求項1に記載の方法であって、
    前記ネットワークを介して第3のクライアントデバイスを前記プラットフォームに通信可能に結合するステップであって、前記第3のクライアントデバイスが第2のソースデバイスである、ステップと、
    前記第1のクライアントデバイスに、前記第3のクライアントデバイスの第2のライブストリームをサブスクライブさせそして前記第1のライブストリームのサブスクライブ解除させるステップと、
    前記第2のライブストリームのサブスクリプションおよび前記第1のライブストリームからのサブスクライブが解除されていることを反映するために、前記第1のクライアントデバイスに関連付けられたプロファイルを更新するステップとを、
    更に、備える、方法。
  14. 前記第1のクライアントデバイスが、前記ライブイベントに配置されている請求項1に記載の方法であって、
    第1のクライアントデバイスによってレンダリングされる場合に、コンテンツによって拡張されたライブイベントの前記第1の視点を含むAR視点を表示する拡張現実(AR)コンテンツにより、前記第1ライブストリームを拡張するステップ
    更に、を備える、方法。
  15. 前記複数のクライアントデバイスが利用可能な前記ライブイベントの複数の選択可能な視点として、前記複数のライブストリームをホストするステップを、更に、備える、請求項1に記載の方法。
  16. 前記第1のクライアントデバイスを前記プラットフォームに接続する前に、
    前記複数のライブストリームの内の少なくとも幾つかを、前記ライブイベントの前記ライブブロードキャストの時点に同期させるステップと、
    同期されたライブストリームのグループを定義して、同期された任意のライブストリームを含め、そして特定の時点に同期されていない任意のライブストリームを除外するステップと、
    前記複数のクライアントデバイスの何れかによる、ライブストリームの前記同期グループへのアクセスを制限するステップとを、
    更に、備える、請求項1に記載の方法。
  17. 各ライブストリームが、前記ライブイベントの複数のシーンにグループ化された複数のパケットを含み、
    第2のソースデバイスの第2のライブストリームをレンダリングすることにより前記第1のクライアントデバイスに、第2の視点を採用させるステップであって、前記第2のライブストリームのレンダリングが、前記第1のライブストリームの次のシーンの始まりまで遅延される、ステップを、
    更に、備える、請求項1に記載の方法。
  18. 各ライブストリームが、複数のシーンにグループ化された複数のパケットを含み、
    前記第1のクライアントデバイスが、複数のシーンの内の1つまたは複数のシーンに対して定義された時点でのみ第2のライブストリームをレンダリングすることを可能にするステップを、
    更に、備える、請求項1に記載の方法。
  19. 前記第1のクライアントデバイスおよび前記第1のソースデバイスが、それぞれ、ライブイベントに位置する、請求項1に記載の方法であって、
    前記第1のクライアントデバイスから拡張現実(AR)コンテンツの選択の指示を受信するステップと、
    前記ARコンテンツの前記選択の前記指示に応答して、前記第1のライブストリームを前記ARコンテンツにより拡張して、前記第1のクライアントデバイスによってレンダリングされると、前記第1のクライアントデバイスに、前記ARコンテンツを前記第1の視点に重ねてAR視点を表示させるステップとを、
    更に、備える、方法。
  20. 前記第2のクライアントデバイスによって指示されるアクセス制限を実装して、前記第2のクライアントデバイスの第2の視点へのアクセスを、前記複数のクライアントデバイスの内の幾つかのみに制限するステップを、
    更に、備える、請求項1に記載の方法。
  21. プライバシレベルを各ライブストリームに関連付けるステップであって、前記プライバシレベルが、各クライアントデバイスによる無制限のアクセスを許可するパブリックレベルと、前記複数のクライアントデバイスの幾つかのみへのアクセスを制限するプライベートレベルとを含む、ステップを、
    更に、備える、請求項1に記載の方法。
  22. プロセッサ;そして
    前記プロセッサによって実行されるとき、サーバコンピュータシステムに以下を実行させる命令を含むメモリ:
    前記複数のクライアントデバイスをネットワーク経由で相互接続する命令であって、前記複数のクライアントデバイスの少なくとも幾つかは、ライブイベントに位置し、そして前記複数のクライアントデバイスの少なくとも幾つかが、前記ライブイベントから遠隔に位置し、そして前記ライブイベントに位置する各クライアントデバイスが、デバイスによってレンダリングされると、前記ライブイベントの視点を表示させる、ライブストリームのソースである、命令;
    現在前記ライブイベントの視点をライブストリーミングしつつある前記複数のクライアントデバイスの何れかを含め、そして前記ライブイベントの視点のライブストリーミングを停止した前記複数のクライアントデバイスの何れかを削除して、サブスクリプションリストを動的に更新する命令;そして
    前記複数のクライアントデバイスの何れかによる前記サブスクリプションリスト上の任意のクライアントデバイスへの選択的なアクセスを可能にし、そして前記サブスクリプションリストから削除された任意のクライアントデバイスへのアクセスを無効にするサブスクリプションサービスをホストする命令、
    を備える、サーバコンピュータシステム。
  23. 前記サブスクリプションリストが、第1のサブスクリプションリストである、請求項22に記載のシステムであって、更に、
    以前に、任意のライブイベントのライブストリームのソースであった前記複数のクライアントデバイスの何れかを含むように、別のサブスクリプションリストを動的に更新させる、システム。
  24. 前記ライブイベントの視点を、現在、ライブストリーミングしつつあるクライアントデバイスに対するクエリに応答して、検索機能を実行させる、
    請求項22に記載のシステム。
  25. 表示デバイス;
    方位センサ;
    プロセッサ;そして
    プロセッサによって実行されると、HMDデバイスに以下を実行させる命令を含むメモリ:
    複数のライブストリームのライブストリームをレンダリングして、ライブイベントの複数の視点の内の視点を前記表示デバイスに表示する命令であって、前記複数のライブストリームが、前記ライブイベントに位置する前記複数のソースデバイスで発生し、前記複数のソースデバイスが、前記ライブイベントの固定位置にある静止デバイスとハンドヘルドモバイルデバイスとを含む、命令;
    前記方位センサの出力に基づいて、前記HMDデバイスの方位の変化を決定する命令;そして
    前記HMDデバイスの前記方向の前記変化を動的に追跡して、前記静止デバイスの前記ライブストリームの前記視点の前記表示からシームレスに移行して、前記ハンドヘルドモバイルデバイスの別のライブストリームの別の視点を表示する命令、
    を備える、ヘッドマウントディスプレイ(HMD)デバイス。
JP2020564050A 2018-02-06 2019-02-06 ライブイベントの共有可能な視点をライブストリーミングすることによる、ローカル体験のシミュレーション Active JP7346459B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023144058A JP2023166519A (ja) 2018-02-06 2023-09-06 ライブイベントの共有可能な視点をライブストリーミングすることによる、ローカル体験のシミュレーション

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862627126P 2018-02-06 2018-02-06
US62/627,126 2018-02-06
PCT/US2019/016891 WO2019157082A1 (en) 2018-02-06 2019-02-06 Simulating a local experience by live streaming sharable viewpoints of a live event

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023144058A Division JP2023166519A (ja) 2018-02-06 2023-09-06 ライブイベントの共有可能な視点をライブストリーミングすることによる、ローカル体験のシミュレーション

Publications (3)

Publication Number Publication Date
JP2021513305A true JP2021513305A (ja) 2021-05-20
JPWO2019157082A5 JPWO2019157082A5 (ja) 2023-05-10
JP7346459B2 JP7346459B2 (ja) 2023-09-19

Family

ID=67477037

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020564050A Active JP7346459B2 (ja) 2018-02-06 2019-02-06 ライブイベントの共有可能な視点をライブストリーミングすることによる、ローカル体験のシミュレーション
JP2023144058A Pending JP2023166519A (ja) 2018-02-06 2023-09-06 ライブイベントの共有可能な視点をライブストリーミングすることによる、ローカル体験のシミュレーション

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023144058A Pending JP2023166519A (ja) 2018-02-06 2023-09-06 ライブイベントの共有可能な視点をライブストリーミングすることによる、ローカル体験のシミュレーション

Country Status (7)

Country Link
US (5) US11051049B2 (ja)
EP (2) EP3750301B1 (ja)
JP (2) JP7346459B2 (ja)
AU (2) AU2019217629B2 (ja)
CA (1) CA3089963A1 (ja)
ES (1) ES2955538T3 (ja)
WO (1) WO2019157082A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023043568A (ja) * 2021-09-16 2023-03-29 ナーブ株式会社 オンラインイベントシステム、装置、及びプログラム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112016007236T5 (de) * 2016-09-16 2019-07-04 Motorola Solutions, Inc. System und Verfahren für die Zusammenarbeit einer feststehenden Kamera und einer unbemannten mobilenVorrichtung zur Verbesserung der Identifikationssicherheit eines Objektes
WO2018213481A1 (en) 2017-05-16 2018-11-22 Sportscastr.Live Llc Systems, apparatus, and methods for scalable low-latency viewing of integrated broadcast commentary and event video streams of live events, and synchronization of event information with viewed streams via multiple internet channels
JP7401453B2 (ja) * 2018-04-05 2023-12-19 ヴィド スケール インコーポレイテッド 全方位ビデオに対する視点メタデータ
US10901975B2 (en) * 2018-05-11 2021-01-26 Microsoft Technology Licensing, Llc Systems, methods, and computer-readable media for improved concurrency of users of a shared virtual environment
US11323780B2 (en) 2019-04-04 2022-05-03 Evertz Microsystems Ltd. Systems and methods for determining delay of a plurality of media streams
CA3077469A1 (en) * 2019-04-04 2020-10-04 Evertz Microsystems Ltd. Systems and methods for operating a media transmission network
US10958959B1 (en) * 2019-09-13 2021-03-23 At&T Intellectual Property I, L.P. Automatic generation of augmented reality media
US11527043B2 (en) * 2020-02-10 2022-12-13 Charter Communications Operating, Llc Providing selectable virtual reality (VR) viewpoints within a VR experience
WO2021185302A1 (zh) * 2020-03-20 2021-09-23 华为技术有限公司 基于云手机的直播和配置方法以及相关装置和系统
US20220053248A1 (en) * 2020-08-13 2022-02-17 Motorsport Network Collaborative event-based multimedia system and method
CN112295224A (zh) * 2020-11-25 2021-02-02 广州博冠信息科技有限公司 三维特效生成方法及装置、计算机存储介质、电子设备
US11980813B2 (en) 2021-05-04 2024-05-14 Ztag, Inc. System and method of using a virtual focal point in real physical game
US11665215B1 (en) * 2022-05-05 2023-05-30 At&T Intellectual Property I, L.P. Content delivery system
IL296044B1 (en) * 2022-08-29 2024-04-01 Abu Freh Ismael A system and method for streaming video in real time through virtual reality glasses using a network of cameras
US11983822B2 (en) * 2022-09-02 2024-05-14 Valeo Comfort And Driving Assistance Shared viewing of video with prevention of cyclical following among users

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008520163A (ja) * 2004-11-12 2008-06-12 ライブ ネイション ワールドワイド,インコーポレイテッド ライブのコンサート/イベントのビデオシステムおよび方法
US20120004956A1 (en) * 2005-07-14 2012-01-05 Huston Charles D System and Method for Creating and Sharing an Event Using a Social Network
US20140241415A1 (en) * 2013-02-27 2014-08-28 Apple Inc. Adaptive streaming techniques
JP2016032229A (ja) * 2014-07-29 2016-03-07 Kddi株式会社 任意の領域を撮影している撮影側端末を特定する映像管理システム及び方法
JP2016213808A (ja) * 2015-04-29 2016-12-15 パナソニックIpマネジメント株式会社 カメラ選択方法及び映像配信システム
WO2016202886A1 (en) * 2015-06-15 2016-12-22 Piksel, Inc Synchronisation of streamed content
JP2017527230A (ja) * 2014-05-29 2017-09-14 ネクストブイアール・インコーポレイテッド コンテンツを配信および/または再生するための方法及び装置
WO2017161281A1 (en) * 2016-03-17 2017-09-21 Sony Interactive Enteratainment Inc. Spectating virtual reality (vr) environments associated with vr user interactivity
US20170359624A1 (en) * 2016-06-08 2017-12-14 Sphere Optics Company, Llc Multi-view point/location omni-directional recording and viewing

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006017622A2 (en) * 2004-08-04 2006-02-16 Dizpersion Technologies, Inc. Method and system for the creating, managing, and delivery of enhanced feed formatted content
EP2150057A3 (en) * 2008-07-29 2013-12-11 Gerald Curry Camera-based tracking and position determination for sporting events
WO2010016059A1 (en) * 2008-08-04 2010-02-11 Lior Friedman System for automatic production of lectures and presentations for live or on-demand publishing and sharing
US8108541B2 (en) * 2009-11-19 2012-01-31 Alcatel Lucent Method and apparatus for providing collaborative interactive video streaming
US9269219B2 (en) 2010-11-15 2016-02-23 Bally Gaming, Inc. System and method for augmented reality with complex augmented reality video image tags
US10649613B2 (en) * 2012-06-07 2020-05-12 Wormhole Labs, Inc. Remote experience interfaces, systems and methods
US8693848B1 (en) * 2012-11-29 2014-04-08 Kangaroo Media Inc. Mobile device with smart buffering
US9106934B2 (en) * 2013-01-29 2015-08-11 Espial Group Inc. Distribution of adaptive bit rate live streaming video via hyper-text transfer protocol
US9516082B2 (en) * 2013-08-01 2016-12-06 Spotify Ab System and method for advancing to a predefined portion of a decompressed media stream
JP5735672B1 (ja) * 2014-01-31 2015-06-17 株式会社 ディー・エヌ・エー コンテンツの配信システム、配信プログラム及び配信方法
US9462028B1 (en) * 2015-03-30 2016-10-04 Zap Systems Llc System and method for simultaneous real time video streaming from multiple mobile devices or other sources through a server to recipient mobile devices or other video displays, enabled by sender or recipient requests, to create a wall or matrix of real time live videos, and to enable responses from those recipients
US10798249B2 (en) * 2016-01-06 2020-10-06 Live View Technologies Managing live video stream connections and data usage
US10009659B2 (en) * 2016-03-31 2018-06-26 Disney Enterprises, Inc. System and method for hybrid push-based streaming
US10148722B2 (en) * 2016-07-04 2018-12-04 Znipe Esports AB Methods and nodes for synchronized streaming of a first and a second data stream
US20180152736A1 (en) * 2016-11-30 2018-05-31 Harold Glen Alexander Live video recording, streaming, viewing, and storing mobile application, and systems and methods of use thereof

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008520163A (ja) * 2004-11-12 2008-06-12 ライブ ネイション ワールドワイド,インコーポレイテッド ライブのコンサート/イベントのビデオシステムおよび方法
US20120004956A1 (en) * 2005-07-14 2012-01-05 Huston Charles D System and Method for Creating and Sharing an Event Using a Social Network
US20140241415A1 (en) * 2013-02-27 2014-08-28 Apple Inc. Adaptive streaming techniques
JP2017527230A (ja) * 2014-05-29 2017-09-14 ネクストブイアール・インコーポレイテッド コンテンツを配信および/または再生するための方法及び装置
JP2016032229A (ja) * 2014-07-29 2016-03-07 Kddi株式会社 任意の領域を撮影している撮影側端末を特定する映像管理システム及び方法
JP2016213808A (ja) * 2015-04-29 2016-12-15 パナソニックIpマネジメント株式会社 カメラ選択方法及び映像配信システム
WO2016202886A1 (en) * 2015-06-15 2016-12-22 Piksel, Inc Synchronisation of streamed content
WO2017161281A1 (en) * 2016-03-17 2017-09-21 Sony Interactive Enteratainment Inc. Spectating virtual reality (vr) environments associated with vr user interactivity
US20170359624A1 (en) * 2016-06-08 2017-12-14 Sphere Optics Company, Llc Multi-view point/location omni-directional recording and viewing

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KASHIF BILAL; AIMAN ERBAD; MOHAMED HEFEEDA: "Crowdsourced Multi-View Live Video Streaming using Cloud Computing", IEEE ACCESS, vol. 5, JPN7023000468, 7 July 2017 (2017-07-07), US, pages 12635 - 12647, XP055455915, ISSN: 0004983404, DOI: 10.1109/ACCESS.2017.2720189 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023043568A (ja) * 2021-09-16 2023-03-29 ナーブ株式会社 オンラインイベントシステム、装置、及びプログラム
JP7425491B2 (ja) 2021-09-16 2024-01-31 ナーブ株式会社 オンラインイベントシステム、装置、及びプログラム

Also Published As

Publication number Publication date
ES2955538T3 (es) 2023-12-04
US11490132B2 (en) 2022-11-01
US11051049B2 (en) 2021-06-29
AU2023263484A1 (en) 2023-11-30
JP7346459B2 (ja) 2023-09-19
EP3750301A4 (en) 2021-09-08
EP4254903A3 (en) 2023-10-11
US11470361B2 (en) 2022-10-11
US20230156246A1 (en) 2023-05-18
CA3089963A1 (en) 2019-08-15
US20230070531A1 (en) 2023-03-09
EP4254903A2 (en) 2023-10-04
EP3750301A1 (en) 2020-12-16
AU2019217629A1 (en) 2020-08-27
US20210352337A1 (en) 2021-11-11
US11792444B2 (en) 2023-10-17
US20210289236A1 (en) 2021-09-16
US20190246146A1 (en) 2019-08-08
JP2023166519A (ja) 2023-11-21
WO2019157082A1 (en) 2019-08-15
AU2019217629B2 (en) 2023-09-07
EP3750301B1 (en) 2023-06-07
US11949922B2 (en) 2024-04-02

Similar Documents

Publication Publication Date Title
JP7346459B2 (ja) ライブイベントの共有可能な視点をライブストリーミングすることによる、ローカル体験のシミュレーション
US11570012B2 (en) Systems and methods for virtual interactions
JP6693678B2 (ja) 対話型の遠隔映画視聴、スケジューリングおよびソーシャル接続のためのシステム
US9832516B2 (en) Systems and methods for multiple device interaction with selectably presentable media streams
RU2527199C2 (ru) Совместный выбор мультимедиа с интегрированными видеообразами
CN105430455B (zh) 信息呈现方法及系统
JP2015525496A (ja) 複数のメディアフィードを調整する機構を備えたリアルタイム複合放送システム及び方法
WO2021158361A1 (en) Latency compensation for synchronously sharing video content within web conferencing sessions
TW201108034A (en) Information processing system and information processing apparatus
US10289193B2 (en) Use of virtual-reality systems to provide an immersive on-demand content experience
JP2024006973A (ja) データ処理方法、システム及びコンピュータプログラム
CN111918705A (zh) 将会话内容同步到外部内容
CN107852523B (zh) 用于在终端之间同步媒体渲染的方法、终端和设备
JP2020127211A (ja) 3次元コンテンツ配信システム、3次元コンテンツ配信方法、コンピュータプログラム
FR2961919A1 (fr) Procede de traitement d'une scene audiovisuelle 360 degres, procede de distribution de ladite scene, dispositifs et programmes d'ordinateur associes
Lee et al. Tangible baseball supporting system based on social media

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230427

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20230427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230906

R150 Certificate of patent or registration of utility model

Ref document number: 7346459

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150