JP7258864B2 - エレクトロニックスポーツのバーチャルリアリティ観戦のための会場マッピング - Google Patents

エレクトロニックスポーツのバーチャルリアリティ観戦のための会場マッピング Download PDF

Info

Publication number
JP7258864B2
JP7258864B2 JP2020518439A JP2020518439A JP7258864B2 JP 7258864 B2 JP7258864 B2 JP 7258864B2 JP 2020518439 A JP2020518439 A JP 2020518439A JP 2020518439 A JP2020518439 A JP 2020518439A JP 7258864 B2 JP7258864 B2 JP 7258864B2
Authority
JP
Japan
Prior art keywords
video
virtual reality
seat
venue
spectator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020518439A
Other languages
English (en)
Other versions
JP2020535879A (ja
Inventor
カーン、モハメッド
サルカール、バスワー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Publication of JP2020535879A publication Critical patent/JP2020535879A/ja
Application granted granted Critical
Publication of JP7258864B2 publication Critical patent/JP7258864B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/86Watching games played by other players
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Generation (AREA)

Description

本開示は、エレクトロニックスポーツのバーチャルリアリティ観戦のための会場マッピングに関する。
エレクトロニックスポーツ(eスポーツ)は一般に、スポーツの主要な態様がエレクトロニックシステムによって容易にされたスポーツの形態を表し、プレイヤー及びチームの入力ならびにeスポーツシステムの出力が、人間コンピュータインタフェースで仲介される。(たとえば、参照により本明細書に組み込まれる、Juho Hamari,Max Sjoblom,(2017)“What is eSports and why do people watch it?”, Internet Research,Vol.27 Issue:2,pp.211-232を参照のこと)。実質的に、eスポーツは、観戦される競争的かつプロフェッショナルなビデオゲームイベントを含む。eスポーツは、例として限定することなしに、オンライン放送またはオンラインストリーミングを介した、かつ、テレビ放送を介した、(たとえば、トーナメント会場における)生で観戦されるライブとすることができる。多くのeスポーツイベントは、組織化されたトーナメントの形態をとり、特に、アマチュアプレイヤー及びプロフェッショナルプレイヤーの両方を含んでもよいプレイヤーのチームの間での、マルチプレイヤーによるビデオゲーム対戦を特徴とする。eスポーツに関連する一般的なビデオゲームのジャンルは、リアルタイムストラテジー(RTS)、ファイティング、ファーストパーソンシューター(FPS)、及びマルチプレイヤーオンラインバトルアリーナ(MOBA)を含む。
ビデオゲームは、パーソナルコンピュータ、ゲームコンソール、携帯機器などのコンピューティングデバイスによって実行される。ゲームプラットフォームの1つの例はSony Playstation4(登録商標)(PS4)であり、これはゲームコンソールの形態で販売されている。よく知られているように、ゲームコンソールは、ディスプレイ(通常、テレビ受像機)に接続し、ユーザがハンドヘルドコントローラを介してインタラクションができるように設計されている。ゲームコンソールは、CPU、重いグラフィック演算を処理するためのグラフィックスシンセサイザ、ジオメトリ変換を実行するためのベクトル演算ユニット、ならびに、その他のグルーハードウェア、ファームウェア、及びソフトウェアを含む、専用の処理ハードウェアで設計されている。ゲームコンソールは、ゲームコンソールを介してローカルでプレイするためのゲームのディスクを収容するための光学ディスク読取装置を備えるようにさらに設計されてもよい。また、ユーザがインターネットを介して他のユーザとインタラクティブに対戦したり、他のユーザと一緒にインタラクティブにプレイしたりすることができるオンラインゲームも可能である。ゲームを複雑にしてプレイヤーの興味を引き付けるために、ゲーム及びハードウェアの製造業者らは、新しい手法を取り入れて、さらなるインタラクティビティを可能にしようとしてきた。
コンピュータゲーム業界においては、ユーザとゲームシステムとの間のインタラクションを高めるゲームを開発する傾向が広がっている。より質の高いインタラクティブな体験を実現する1つの方法として、ゲームシステムによってその動作がトラッキングされる無線ゲームコントローラによってプレイヤーの動作をトラッキングし、この動作をゲームの入力として使用するようにする方法がある。一般的に言うと、ジェスチャ入力とは、コンピューティングシステム、ビデオゲームコンソール、スマート家電などの電子デバイスを、プレイヤーによって行われて、電子デバイスによってキャプチャされる何らかのジェスチャに反応させることを指す。
より没入できるインタラクティブな体験を実現する別の方法は、ヘッドマウントディスプレイ(HMD)を使用することである。ヘッドマウントディスプレイはユーザが着用し、仮想空間のビューなどのさまざまなグラフィックスを提示するように構成することができる。ヘッドマウントディスプレイ上で提示されるグラフィックスは、ユーザの視界の大部分またはすべてをカバーすることができる。よって、ヘッドマウントディスプレイは、ユーザの動作に応答するように、仮想環境の3次元リアルタイムビューをレンダリングするので、HMDは、視覚的に没入できるバーチャルリアリティ体験をユーザに提供することができる。HMDを着用しているユーザは、全方向への動作の自由がもたらされ、したがって、HMDを介して仮想環境の全方向へのビューを得ることができる。
本開示の実施態様は、この状況においてなされたものである。
本開示の実施態様は、エレクトロニックスポーツのバーチャルリアリティ観戦のための会場マッピングに関するデバイス、方法、及びシステムを含む。
いくつかの実施態様では、以下の操作、クライアントデバイスからネットワークを介して、バーチャルリアリティ観戦者によるヘッドマウントディスプレイを通してライブイベントを観戦する要求を受信することと、バーチャルリアリティ観戦者をライブイベントが開催される会場のシートに割り当てることと、会場内に位置付けられた複数のカメラから複数のビデオフィードを受信することと、シートに関連付けて保存されたビデオ処理パラメータにアクセスすることと、ビデオ処理パラメータを使用してビデオフィードを選択し、選択したビデオフィードをつぎ合わせて、会場内のシートの3次元位置によって実質的に定義される視点からの会場のビューを提供するコンポジットビデオを生成することと、ヘッドマウントディスプレイにレンダリングするために、ネットワークを介してコンポジットビデオをクライアントデバイスに送信することとを含む方法が提供される。
いくつかの実施態様では、ビデオ処理パラメータは、つぎ合わせのためにどのビデオフィードを選択するか識別し、ビデオ処理パラメータは、ビデオ処理パラメータが関連付けられたシートの3次元位置と、ビデオフィードを提供するカメラの3次元位置とに基づいて定義される。
いくつかの実施態様では、バーチャルリアリティ観戦者をシートに割り当てることは、会場内のシートの占有ステータスを識別することを含み、与えられたシートの占有ステータスは、与えられたシートが会場内で実際の観戦者によって占有されているかどうかを示し、バーチャルリアリティ観戦者が割り当てられるシートは、実際の観戦者によって占有されていないシートである。
いくつかの実施態様では、与えられたシートの占有ステータスは、与えられたシートが別のバーチャルリアリティ観戦者によって占有されているかどうかをさらに示し、バーチャルリアリティ観戦者が割り当てられるシートは、別のバーチャルリアリティ観戦者によって占有されていないシートである。
いくつかの実施態様では、バーチャルリアリティ観戦者をシートに割り当てることは、バーチャルリアリティ観戦者のソーシャルグラフにアクセスすることと、ソーシャルグラフのメンバーである別のバーチャルリアリティ観戦者に割り当てられたシートへの近さに基づいてシートを選択することとを含む。
いくつかの実施態様では、方法は、シートに関連付けて保存されたオーディオ処理パラメータにアクセスすることと、オーディオ処理パラメータを使用して、会場内のシートの3次元位置によって実質的に定義される視点から聞こえることをシミュレートするオーディオデータを生成することと、オーディオデータをネットワークを介してクライアントデバイスに送信することとをさらに含む。
いくつかの実施態様では、オーディオ処理パラメータは、会場内の1つまたは複数のマイクロフォンによってキャプチャされたオーディオを識別して、それからオーディオデータを生成し、オーディオ処理パラメータは、オーディオ処理パラメータが関連付けられたシートの3次元位置と、マイクロフォンの3次元位置とに基づいて定義される。
いくつかの実施態様では、少なくとも1つのコンピュータで実行されるとき、前記少なくとも1つのコンピュータに、以下の操作、クライアントデバイスからネットワークを介して、バーチャルリアリティ観戦者によるヘッドマウントディスプレイを通してライブイベントを観戦する要求を受信することと、バーチャルリアリティ観戦者をライブイベントが開催される会場のシートに割り当てることと、会場内に位置付けられた複数のカメラから複数のビデオフィードを受信することと、シートに関連付けて保存されたビデオ処理パラメータにアクセスすることと、ビデオ処理パラメータを使用してビデオフィードを選択し、選択したビデオフィードをつぎ合わせて、会場内のシートの3次元位置によって実質的に定義される視点からの会場のビューを提供するコンポジットビデオを生成することと、ヘッドマウントディスプレイにレンダリングするために、ネットワークを介してコンポジットビデオをクライアントデバイスに送信することとを含む方法を実行させる、非一時的コンピュータ可読媒体上に具現化されたプログラム命令を有する非一時的コンピュータ可読媒体が提供される。
いくつかの実施態様では、少なくとも1つのコンピューティングデバイスを含み、前記少なくとも1つのコンピューティングデバイスが、少なくとも1つのプロセッサと、少なくとも1つのメモリとを有し、前記少なくとも1つのコンピューティングデバイスが、クライアントデバイスからネットワークを介して、バーチャルリアリティ観戦者によるヘッドマウントディスプレイを通してライブイベントを観戦する要求を受信することと、バーチャルリアリティ観戦者をライブイベントが開催される会場のシートに割り当てることと、会場内に位置付けられた複数のカメラから複数のビデオフィードを受信することと、シートに関連付けて保存されたビデオ処理パラメータにアクセスすることと、ビデオ処理パラメータを使用してビデオフィードを選択し、選択したビデオフィードをつぎ合わせて、会場内のシートの3次元位置によって実質的に定義される視点からの会場のビューを提供するコンポジットビデオを生成することと、ヘッドマウントディスプレイにレンダリングするために、ネットワークを介してコンポジットビデオをクライアントデバイスに送信することとを実行するように構成された、システムが提供される。
本開示の他の態様及び利点は、本開示の原理を例示する手段として図示する添付の図面を併用して、以下の課題を解決するための手段から明らかとなる。
本開示は、添付の図面を併用して以下の記述を参照することによって、より良好に理解される場合がある。
本開示の実施態様による、エレクトロニックスポーツ(eスポーツ)会場の眺めを図示する。
本開示の実施態様による、会場の概念俯瞰図である。
本開示の実施態様による、eスポーツのライブイベントが開催されている会場のシートの一部を概念的に図示する。
本開示の実施態様による、バーチャルリアリティ観戦のためのシート固有パラメータを決定するためにeスポーツ会場の3次元空間をマッピングするためのプロセスを概念的に図示する。
本開示の実施態様による、バーチャルリアリティ観戦者の視界を概念的に図示する。
本開示の実施態様による、eスポーツイベントのバーチャルリアリティ観戦を提供するためのシステムを概念的に図示する。
本開示の実施態様による、会場のシートが実際の観戦者によって占有されているかどうかを判定するための技術を図示する。
本開示の実施態様による、バーチャルリアリティ観戦者が実際の会場内の状況において自分自身を見るための方法を図示する。
本開示の実施態様による、実際の観戦者を検知して、バーチャルリアリティ観戦者のインタラクティビティを可能にするためのさらなる機能を有する会場内のシートを図示する。
本開示の実施態様による、ヘッドマウントディスプレイ(HMD)を介した仮想環境とのインタラクションのためのシステムを図示する。
本開示の実施態様による、ヘッドマウントディスプレイ(HMD)を図示する。 本開示の実施態様による、ヘッドマウントディスプレイ(HMD)を図示する。
1つの実施態様による、クライアントシステムとインタフェースするHMDユーザと、第2のスクリーンと呼ばれる第2のスクリーンディスプレイにコンテンツを提供するクライアントシステムとの1つの例を図示する。
本開示の実施態様による、実行するビデオゲームと連動するHMDの機能を概念的に図示する。
本開示の実施態様による、ヘッドマウントディスプレイの構成要素を図示する。
本開示のさまざまな実施態様による、ゲームシステム1200のブロック図である。
本開示の以下の実施態様は、エレクトロニックスポーツのバーチャルリアリティ観戦のための会場マッピングに関するデバイス、方法、及びシステムを提供する。しかしながら、本開示は、本明細書に記載の特定の詳細の一部またはすべてがなくても実施されてもよいことは当業者には明らかである。他の例では、本開示を不要に曖昧にしないように、よく知られているプロセスオペレーションは詳細に記載されていない。
さまざまな実施態様では、方法、システム、画像キャプチャオブジェクト、センサ、及び関連するインタフェースオブジェクト(たとえば、コントローラ、手袋、周辺機器など)は、ディスプレイスクリーン上に略リアルタイムにレンダリングされるように構成されたデータを処理するように構成される。大まかに言うと、実施態様は、ヘッドマウントディスプレイ(HMD)であるディスプレイに関して記載される。しかしながら、他の実施態様では、ディスプレイは、第2のスクリーン、携帯装置のディスプレイ、コンピュータのディスプレイ、ディスプレイパネル、(たとえば、コンテンツを見ているまたはインタラクティブな体験を共有している)1人または複数人のリモート接続されたユーザのディスプレイなどであってもよい。
図1Aは、本開示の実施態様による、エレクトロニックスポーツ(eスポーツ)会場の眺めを図示する。eスポーツは一般に、さまざまな観戦者またはユーザによって観戦される、競争的なまたはプロフェッショナルなゲーム、特に、マルチプレイヤービデオゲームを指す。近年、eスポーツの人気が高まるにつれて、同様に、実際の会場でのeスポーツイベントのライブ観戦に対する関心も高まっており、その多くの会場では数千人が座ることが可能である。適切な会場は、観戦者がライブ観戦するためのeスポーツイベントを開催可能である、例として限定することなしに、アリーナ、スタジアム、劇場、コンベンションセンター、体育館、コミュニティセンターなどを含む、任意の場所とすることができる。
しかしながら、控えめな実際の会場でのトーナメントなどのeスポーツイベントの開催及び制作は、直接の観戦を望むすべての人々が直接観戦できるというわけではないことを意味する。したがって、リモート観戦者がeスポーツイベントが行われている会場に直接居るようにeスポーツイベントを体験することができるようなライブ体験を、リモート観戦者に提供することが望ましい。
引き続き図1Aを参照すると、eスポーツイベントを開催している会場100の眺めが示されている。典型的なeスポーツイベントは、プレイヤーのチームがマルチプレイヤービデオゲームにおいて互いに競い合うトーナメントである。示された実施態様では、第1のチームはプレイヤー102a、102b、102c、及び102dからなり、第2のチームはプレイヤー104a、104b、104c、及び104dからなる。第1のチーム及び第2のチームは、アナウンサー/司会者110とともにステージ106上に位置する。第1のチーム及び第2のチームは、会場100で、マルチプレイヤービデオゲームの競争的なゲームプレイにおいて互いに交戦しており、観戦者113は、そのイベントを見るために居る。
大きなディスプレイ108a、108b、及び108cは、ゲームプレイのビューを観戦者113に提供する。ディスプレイ108a、108b、及び108cは、ゲームプレイコンテンツを観戦者に提示することが可能である、例として限定することなしに、LEDディスプレイ、液晶ディスプレイ、DLPなどを含む、当該技術分野で知られている任意の種類のディスプレイであってもよいことが理解される。いくつかの実施態様では、ディスプレイ108a、108b、及び108cは、ゲームプレイビデオ/画像が1つまたは複数のプロジェクタ(図示せず)によって映写されるディスプレイスクリーンである。ディスプレイ108a、108b、及び108cは、例として限定することなしに、ゲームプレイコンテンツ、ビデオゲームのプレイヤービュー、ゲームマップ、ビデオゲーム観戦者のビュー、解説者のビュー、プレイヤー/チーム成績及びスコア、広告などを含む、あらゆる種類のコンテンツを提示するように構成することができることは認識されるべきである。
さらに、解説者112a及び112bは、ゲームプレイが発生したときのリアルタイムでのゲームプレイの説明、ゲームプレイの分析の提供、特定の動作のハイライトなどの、ゲームプレイについての解説を提供する。
図1Bは、本開示の実施態様による、会場100の概念俯瞰図である。先に説明したように、プレイヤーの第1のチーム及び第2のチームは、ステージ上に位置し、マルチプレイヤービデオゲームのゲームプレイにおいて交戦している。複数のシート114は、概念的に示されており、それらのシートは、観戦者が直接eスポーツイベントに参加して観戦するときに利用可能である。前述のように、観戦者113にゲームプレイ及び他のコンテンツのビューを提供する大きなディスプレイ108a、108b、及び108cが存在している。さらに、ディスプレイ108a、108b、及び108c上でレンダリングされる任意のコンテンツに関連付けられたまたはそれらに関するオーディオを含む、観戦者が聞くためのオーディオを提供するために、会場の至る所に分散されてもよい複数のスピーカ118が存在している。
さらにまた、本開示の実施態様による、処理、配布、ストリーミング、ならびに/または観戦者による直接ライブ及び/もしくはリモートでの観戦のためにeスポーツイベントのビデオをキャプチャするように構成された、会場100の至る所に分散された任意の数のカメラ116が存在している。カメラ116のいくつかは、位置及び/または方向を固定してもよく、一方、カメラ116のいくつかは、位置及び/または方向を変えることができ、新しい位置への移動及び/または新しい方向への変更が可能であってもよいことが理解される。カメラ116はさまざまな視界を有してもよいことが理解される。さらに、カメラのいくつかは、360度の視界をキャプチャすることが可能な360度カメラであってもよい(たとえば、360度の水平視界を180度の垂直視界と組み合わせて、完全な球面視界を提供することができる)。このような360度のカメラは通常、単数のデバイスパッケージに複数の画像キャプチャデバイスを含む。いくつかの実施態様では、複数のカメラは、実質的にまたはほぼ同じ位置に構成されており、それらのフィードをつぎ合わせると、その位置の視点からの360度の視界が可能になる。
本開示の実施態様により、eスポーツイベントの「ライブ」ビュー体験を、バーチャルリアリティ観戦者120に提供することができる。すなわち、バーチャルリアリティ観戦者120には、eスポーツイベントに直接参加して、会場100の特定のシート122(または、指定された位置)を占有する体験をシミュレートする、ヘッドマウントディスプレイ(HMD)(または、バーチャルリアリティヘッドセット)を通してのビューが提供される。大まかに言うと、バーチャルリアリティ観戦者のシート122の3次元(3D)位置を決定することができ、さまざまなカメラ116のうちの特定のカメラからのビデオフィードは、シート122(または、バーチャルリアリティ観戦者が割り振られた指定された位置)の視点からの会場100のバーチャルリアリティビューを提供するようにつぎ合わせることができる。
さらにまた、詳細には示されていないが、各カメラは、会場100からのオーディオをキャプチャするための少なくとも1つのマイクロフォンを含んでもよい。また、会場100の至る所に分散されたさらなるマイクロフォンがあってもよい。これらのマイクロフォンのうちの少なくともいくつかからのオーディオも、シート122を占有する観戦者の視点から聞こえるものをシミュレートするオーディオを提供するように、バーチャルリアリティ観戦者のシート122の3次元位置に基づいて処理することができる。
図1Cは、本開示の実施態様による、eスポーツのライブイベントが開催されている会場100のシートの一部124を概念的に図示する。示されるように、バーチャルリアリティ観戦者120には、会場100内のシート122の占有をシミュレートする、HMD150を通してのビューが提示される。いくつかの実施態様では、バーチャルリアリティ観戦者120に提供されるeスポーツイベントのビューは、ネットワーク144を介したストリーミングサービス142から提供される。すなわち、ストリーミングサービス142は、HMD150上でレンダリングするためにビデオをストリーミングするように構成された1つまたは複数のサーバコンピュータを含み、レンダリングされたビデオは、eスポーツイベントのビューをバーチャルリアリティ観戦者120に提供する。図示された実施態様に特に示されていないが、ストリーミングサービス142は最初に、バーチャルリアリティ観戦者120のローカルにあるコンピューティングデバイスに、ネットワーク144を介して、データの形態でビデオを送信してもよく、コンピューティングデバイスが、HMD150にレンダリングするためにデータを処理してもよいことは認識されるべきである。
ストリーミングサービス142は、HMD150上でレンダリングするためにストリーミングされる1つまたは複数のビューをバーチャルリアリティ観戦者120が選択または申込みすることができるインタフェースを、バーチャルリアリティ観戦者120に提供してもよい。前述のように、これらのビューは、バーチャルリアリティ観戦者120に没入できる観戦体験を提供するイベント/会場の360度ビューとすることができ、そのビューは会場内の特定のシートまたは位置の視点からのものである。
提供されるビューがバーチャルリアリティ観戦者120の動作にリアルタイムに反応することは認識されるべきであり、そのため、たとえば、バーチャルリアリティ観戦者120が左を向いた場合、バーチャルリアリティ観戦者120は(HMD150を通して)シート122の左のビューを見て、バーチャルリアリティ観戦者120が右を向いた場合、バーチャルリアリティ観戦者120は(HMD150を通して)シート122の右のビューを見るなどする。いくつかの実施態様では、バーチャルリアリティ観戦者120に、360度の水平視界を含む全方向へのeスポーツ会場100の可能なビューが提供される。いくつかの実施態様では、バーチャルリアリティ観戦者120に、いくつかの実施態様における約270度の水平視界、または、いくつかの実施態様における約180度の水平視界などの全方向のサブセットへのeスポーツ会場100の可能なビューが提供される。いくつかの実施態様では、提供される視界から真上または真下の領域を除外してもよい。いくつかの実施態様では、eスポーツ会場の視界から除外される領域には、たとえば、広告、スプラッシュ画面、ロゴコンテンツ、ゲーム関連画像またはビデオなどの他のコンテンツが提供されてもよい。
いくつかの実施態様では、バーチャルリアリティ観戦者120は、インタフェースを通してシートを選択することができ、バーチャルリアリティ観戦者は、自身が選択した視点からeスポーツイベントを見てもよい。いくつかの実施態様では、選択可能なシートは、eスポーツイベントで直接存在する観戦者によって物理的に占有されていないシートである。他の実施態様では、占有されていないシート及び占有されているシートはどちらも、バーチャルリアリティ観戦のために選択可能である。
いくつかの実施態様では、ストリーミングサービス142は、バーチャルリアリティ観戦者を特定のシートに自動的に割り当ててもよい。いくつかの実施態様では、これは、(たとえば、利用可能なシートの既定の順位またはランキングによる)利用可能な最高のシートであってもよい。
いくつかの実施態様では、バーチャルリアリティ観戦者は、観戦者のさまざまな特性に基づいて、他の観戦者の近くのシートに割り当てられてもよい。いくつかの実施態様では、バーチャルリアリティ観戦者は、ソーシャルネットワーク/グラフにおけるそのメンバーシップに少なくとも部分的に基づいて、シートに割り当てられる。たとえば、引き続き図1Cを参照すると、別のバーチャルリアリティ観戦者132は、(たとえば、ソーシャルグラフにおけるメンバーシップによって定義される)ソーシャルネットワーク130上のバーチャルリアリティ観戦者120の友人であってもよい。ストリーミングサービス142は、この情報を使用して、バーチャルリアリティ観戦者120が割り当てられたシート122の隣にあるシート134などの、バーチャルリアリティ観戦者120に近いシートにバーチャルリアリティ観戦者132を割り当ててもよい。示された実施態様では、これによって、仮想的に「座り」、バーチャルリアリティ観戦者120が右を向いたとき、バーチャルリアリティ観戦者120は、自身の隣に座るバーチャルリアリティ観戦者132のアバターを見ることができる。
いくつかの実施態様では、シート選択及び/または割当のためのインタフェースにより、ソーシャルネットワーク130上の友人のうちの1人または複数人もeスポーツイベントに仮想的に参加していることを所定のユーザに知らせてもよく、友人のうちの1人または複数人の近くのシートに自動的に割り当てられる選択肢を提供してもよい。このようにして、バーチャルリアリティ観戦者と同じイベントに参加している友人は、イベントを一緒に楽しむことができる。
さまざまな実施態様では、バーチャルリアリティ観戦者は、ユーザプロファイル、年齢、ジオロケーション、主要言語、所定のビデオゲームの経験、関心事、性別などの、さまざまな要因のうちの任意のものに基づいて、互いに近くのシートに割り当てることができる。
いくつかの実施態様では、これらの概念は、このような実際の観戦者についての情報を知ると、(バーチャルリアリティ観戦者とは対照的に、物理的に存在する)直接の「実際の」観戦者を含むように拡張することができる。たとえば、シート136に座っている実際の観戦者138がバーチャルリアリティ観戦者120の友人であると判定されてもよく、その結果、バーチャルリアリティ観戦者120は、実際の観戦者138のシート136の隣にあるシート122に割り当てられてもよい(または、割り当てられるように申し出てものよい)。
HMDを通してコンテンツを見ながら、入力を提供するために、バーチャルリアリティ観戦者は、1つまたは複数のコントローラデバイスを使用してもよいことが理解される。示された実施態様では、バーチャルリアリティ観戦者120、132、及び140はそれぞれ、コントローラデバイス152、156、及び160を操作して、入力を提供し、たとえば、バーチャルリアリティ観戦のためのビデオのストリーミングの開始及び停止、観戦のためのeスポーツ会場100内のシートの選択などを行う。
いくつかの実施態様では、観戦者は、仮想または現実にかかわらず、eスポーツ会場100内で互いに近くにいるかどうか互いに聞いてもよいことが理解される。たとえば、バーチャルリアリティ観戦者120及び132は、バーチャルリアリティ観戦者のそれぞれのローカル環境から(たとえば、HMD150及び154のマイクロフォン、コントローラ152及び156、または、観戦者120及び132のローカル環境の他の場所を介して)キャプチャされたオーディオが他のオーディオストリームに提供されるので、互いに聞くことができる。いくつかの実施態様では、バーチャルリアリティ観戦者120は、ローカルのマイクロフォンによってキャプチャされた実際の観戦者138からの音を聞いてもよい。
いくつかの実施態様では、バーチャルリアリティ観戦者は、実際の観戦者によって物理的に占有されたシートを占有してもよい。たとえば、示された実施態様では、バーチャルリアリティ観戦者は、実際の観戦者138によって物理的に占有されたシート136を占有してもよい。バーチャルリアリティ観戦者140には、シート136の位置にいることをシミュレートするビューが提供されてもよい。バーチャルリアリティ観戦者140が右を向くと、観戦者120のアバターを見てもよく、同様に、観戦者120が自身の左を向くと、実際の観戦者138の代わりに観戦者140のアバターを見てもよい。
図2は、本開示の実施態様による、バーチャルリアリティ観戦のためのシート固有パラメータを決定するためにeスポーツ会場の3次元空間をマッピングするためのプロセスを概念的に図示する。会場100の3次元(3D)空間200が、図示された実施態様の左に示されている。本開示の実施態様により、参照番号210で示されるように、会場空間200の3次元空間マップは、バーチャルリアリティ観戦のためのシート固有パラメータの決定を容易にするために生成することができる。
会場100の空間200の3次元空間マップを生成するためにさまざまな技術が利用されてもよい。いくつかの実施態様では、1つまたは複数のセンサデバイス202からのデータが、3次元空間マップを生成するために処理される。さまざまな実施態様では、センサデバイス202は、画像キャプチャデバイス(たとえば、カメラ)、深さ検知カメラ、超音波センサ、IRカメラなどのうちのいずれかを含むことができる。会場空間200の3次元空間マップにより、会場100内のそれぞれのシート114の3D座標を決定することができる。いくつかの実施態様では、会場の各シートは、独自の割り当てられた識別子を有する。参照番号212で示されるように、各シートについて、対応する3次元座標を、シートの識別子にマッピングすることができる。いくつかの実施態様では、3次元空間マップの生成を容易にするために、例として限定することなしに、Wi-Fiベースの位置決め、磁気的な位置決め、視覚的マーカ及び/または視覚的特徴の視覚認識などを含む、さまざまなローカライゼーション/位置決め技術が利用されてもよい。このようなローカライゼーション/位置決め技術を利用するセンサは、空間におけるシート位置の3次元位置を決定するために、シート位置に置かれてもよい。
いくつかの実施態様では、3D空間マップは、会場100の3D空間200におけるカメラ116の3次元位置及び方向も含む。この情報を使用して、次に、参照番号214で、各シートのためのビデオ処理パラメータが生成される。与えられたシートのために、ビデオ処理パラメータは、3次元空間におけるビュー方向に基づいて、与えられたシートの視点から(むしろ、与えられたシートに対応する3次元座標の視点から)の会場空間のビューを生成するために、どのカメラのビデオフィードをつぎ合わせるか、及び、それらをどのようにつぎ合わせるかを定義する。方向を変えることができる(たとえば、オペレータによって制御される)カメラについては、与えられたシートに関連する場合、ビデオ処理パラメータは、カメラの方向に応じて、可能なビデオフィードソースとしてそのようなカメラを識別してもよく、ビデオフィードの空間投影、整列、混合、アンカポイントなどに関するパラメータなど、そのようなカメラからのビデオを(バーチャルリアリティ観戦者のビュー方向に基づいて)どのようにつぎ合わせるかをさらに定義してもよい。ビデオつぎ合わせプロセスは、さまざまな実施態様では、3次元または2次元ビデオを生成するように構成されてもよいことが理解される。3次元ビデオの生成には、各目のための個別のビデオの生成を伴うことができる。
参照番号216で示されるように、本開示の実施態様により、オーディオ処理パラメータが会場100内の各シートに対して生成される。いくつかの実施態様では、3次元空間は、3次元空間マップを使用して音響的にモデル化され、3次元空間の音響特性を決定する。いくつかの実施態様では、マイクロフォンは、音響特性を決定するために、会場内のさまざまな位置に置かれる。たとえば、音は、会場のスピーカ118によって再生されてもよく、マイクロフォンから録音されたオーディオは、マイクロフォンの知られている位置を考慮して分析することができ、音響特性を決定して、3次元空間の音響モデリングを可能にする。これは、各シートに対するオーディオ処理パラメータを生成するために使用されてもよい。与えられたシートのためのオーディオ処理パラメータは、与えられたシートに割り当てられたバーチャルリアリティ観戦者にオーディオを提供するために、さまざまなソースからのオーディオ、たとえば、ゲームプレイオーディオ、解説者オーディオ、会場100内のライブのマイクロフォンからのオーディオなどをどのように処理するかを定義することができる。
参照番号218で示されるように、与えられたシートに対するビデオ処理パラメータ及びオーディオ処理パラメータは、そのシートの識別子(ID)と関連付けて保存される。いくつかの実施態様では、与えられたシートに対するビデオ処理パラメータ及びオーディオ処理パラメータは、会場内の与えられたシートのシートプロファイルの少なくとも一部を形成する。
前述の会場空間のマッピングは、会場内のシートに関して記載されたが、本概念は、会場内の任意の指定された位置に適用可能であることは認識されるべきである。いくつかの実施態様では、たとえば、指定された位置の視点からの360度のビューを提供するために、(会場内の特定のシートと一致してもよくまたは一致しなくてもよい)会場内の1つまたは複数の指定された位置が識別され、ビデオ処理パラメータ及びオーディオ処理パラメータが指定された位置のために上記により決定される。いくつかの実施態様では、バーチャルリアリティ観戦者は、ライブイベントを観戦するために、そのような使用可能な位置から選択してもよい。すなわち、バーチャルリアリティ観戦者は、自身のHMDを通して観戦するためにライブイベントをストリーミングするビューまたはビューの組を選択してもよい。
図3は、本開示の実施態様による、バーチャルリアリティ観戦者の視界を概念的に図示する。示されるように、バーチャルリアリティ観戦者120は、図示された実施態様において概念的に表される360度の視界300を有する。360度の視界300は、例として限定することなしに、いくつかの実施態様では水平視界、または、いくつかの実施態様では垂直視界、または、さまざまな実施態様では視界の任意の他の平面の表現とすることができる。
上で示されたように、バーチャルリアリティ観戦者120に提供されるeスポーツ会場100のビューは、eスポーツ会場100内の複数のカメラからのビデオフィードからつぎ合わせることができる。示された実施態様では、カメラ304aは視界306aを有するビデオフィードを提供し、カメラ304bは視界306bを有するビデオフィードを提供し、カメラ304cは視界306cを有するビデオフィードを提供し、カメラ304dは視界306dを有するビデオフィードを提供する。バーチャルリアリティ観戦者120が見ている方向に応じて、異なるカメラからのビデオフィードのうちのさまざまなものが、つぎ合わせるために選択されて、バーチャルリアリティ観戦者120に適切なビューを提供する、HMD(150)にレンダリングするためのビデオを形成する。示された実施態様では、バーチャルリアリティ観戦者120は、視界302を有するようにある方向を見るように示されている。これに基づき、バーチャルリアリティ観戦者120が見るためにレンダリングされるビデオは、カメラ304a、304b、及び304dのビデオフィードからつぎ合わされてもよい。カメラ304cからのビデオフィードは、現在のビューを提供するために使用されないが、それは、バーチャルリアリティ観戦者の視界302に含まれる領域の部分をまったくカバーしていないためである。
さまざまなカメラは、3次元会場空間内で異なる位置を有し、したがって、異なる視点を有することが理解される。よって、特定のバーチャルリアリティ観戦者にビューを提供するための、これらのカメラからのビデオフィードの使用または不使用(及び、使用される場合のつぎ合わせの方法)は、それらの方向性及び/または視点位置にさらに依存してもよい。たとえば、いくつかの実施態様では、バーチャルリアリティ観戦者によって現在見られている領域をカバーするが、バーチャルリアリティ観戦者の視線方向と略反対方向のビデオフィードは、バーチャルリアリティ観戦者にビデオを提供するために使用されない。
示されたように、いくつかのカメラは方向を固定してもよく、一方、他のカメラは方向を変えることができる。したがって、いくつかの実施態様では、カメラの現在の方向情報が、取得されて、所定のカメラのビデオフィードを使用するべきかどうか、及び/または、選択された場合に所定のカメラのビデオフィードをどのように使用するかを決定するために使用される。
いくつかの実施態様では、所定のカメラの方向は、バーチャルリアリティ観戦者の視界に基づいて調整される。たとえば、カメラの方向は、その視界がバーチャルリアリティ観戦者によって見られている領域の少なくとも一部をカバーするように調整されてもよい。いくつかの実施態様では、所定のカメラの方向は、複数のバーチャルリアリティ観戦者の視界に基づいて、その視界を最適化するように調整される。いくつかの実施態様では、バーチャルリアリティ観戦者の視界の密度マッピングが決定され、それは、空間のさまざまな領域が観戦されている相対量を識別及び/または定量化する。この情報に基づき、カメラの方向は、たとえば、より高い程度で観戦されている空間の領域を優先するように決定及び調整することができる。
さまざまなカメラからの利用可能なビデオフィードが、所定のバーチャルリアリティ観戦者が見ているすべての領域の範囲(必要な方向及び/または視点を含む)を提供しなくてもよいことが理解される。利用可能なビデオフィードに基づいて提供できるカバー領域は、ライブビューで利用可能である会場空間の領域を定義する。引き続き図3を参照すると、利用可能なカメラの視界306a、306b、306c、及び306dは、利用可能なカメラからのビデオフィードによってもたらされる会場空間の範囲によって決定される、会場空間のリアルタイムライブビューを提供できる360度の視界300の領域であるライブビュー領域308を一緒に定義する。
いくつかの実施態様では、ライブビューがもたらされない残りの領域は、図示された実施態様で予め記録してあるビュー領域310を定義する、予め記録してあるビューで提示することができる。すなわち、領域310のビデオまたは画像は、より早い時間(たとえば、カメラの1つまたは複数が領域310の少なくとも一部をカバーするように向けられたとき)から記録されてもよく、予め記録してあるビデオ/画像は、つぎ合わせて、領域310のビューを提供するためにレンダリングすることができる。いくつかの実施態様において、バーチャルリアリティ観戦者120の視界がライブビュー領域308及び予め記録してあるビュー領域310の両方の部分を含むとき、バーチャルリアリティ観戦者120に提示されるビューは、ライブビデオ及び予め記録してあるビデオ/画像から生成されるコンポジットであることが理解される。
他の実施態様では、ライブビューのために利用できないバーチャルリアリティ観戦者の視界300の領域は、たとえば、広告/スポンサーコンテンツ、ゲーム関連コンテンツなどの他のコンテンツが提示されてもよい。
引き続き図3を参照すると、参照番号320で示されるように、さまざまなカメラからのビデオフィードは、バーチャルリアリティ観戦者の現在の視界302に基づいて、バーチャルリアリティ観戦者120に適切なビューを提供するビデオを形成するためにつぎ合わされてもよい。さらにまた、参照番号322で示されるように、つぎ合わされたビデオは、送信されるデータ量を削減する圧縮プロセスなどのさらなる処理を受けてもよい。いくつかの実施態様では、圧縮プロセスはフォービエイテッドレンダリングを含んでもよく、それによって、たとえば、HMD150によって検出された視線方向情報から判定されるような、バーチャルリアリティ観戦者120が見ていると判定された画像フレームの領域は、たとえば、増加させた解像度、更新頻度、ビットレート、カラー、ダイナミックレンジ、シャープネス、コントラスト、または、画質に影響を与える任意の他のパラメータの使用を通して、他の領域よりも高い画質でレンダリングされる。圧縮プロセスの出力は、バーチャルリアリティ観戦者120のためにビデオを定義する画像フレーム324である。図示された実施態様に示されるように、ビデオ画像フレームの領域326は、領域328よりも高い画質でレンダリングされる。
次いで、参照番号330で示されるように、圧縮画像フレームは、バーチャルリアリティ観戦者のHMD150を通した表示のために送信/ストリーミングされる。
図4は、本開示の実施態様による、eスポーツイベントのバーチャルリアリティ観戦を提供するためのシステムを概念的に図示する。説明の容易さのために特に詳細には記載しないが、本明細書に記載されるさまざまなシステム、構成要素、及びモジュールは、プログラム命令を実行するための1つまたは複数のプロセッサを有する1つまたは複数のコンピュータまたはサーバ、ならびに、データ及び前記プログラム命令を保存するための1つまたは複数のメモリ装置によって定義されてもよいことが理解される。このようなシステム、構成要素、及びモジュールはいずれも、任意の他のこのようなシステム、構成要素、及びモジュールと通信してもよく、かつ/または、必要に応じて、本開示の実施態様の機能を促進するために、1つまたは複数のネットワークを介して、データを送信/受信してもよいことは認識されるべきである。さまざまな実施態様では、システム、構成要素、及びモジュールのさまざまな部分は、互いにローカルにあってもよく、または、1つまたは複数のネットワークを介して分散されてもよい。
示された実施態様では、バーチャルリアリティ観戦者120は、HMD150を通してシステムとインタフェースし、さらなるインタラクティビティ及び入力のために1つまたは複数のコントローラデバイス152を使用する。いくつかの実施態様では、HMDを介してバーチャルリアリティ観戦者120に表示されるビデオイメージは、本明細書で説明されるようなさまざまなシステム及びデバイスに(インターネットを含んでもよい)ネットワーク402を介して通信するコンピューティングデバイス400から受信される。
eスポーツイベントを観戦するためのアクセスを開始するために、バーチャルリアリティ観戦者120は、eスポーツイベントを観戦する要求を処理するイベントマネージャ404にアクセスしてもよい。イベントマネージャ404は、バーチャルリアリティ観戦者120をeスポーツイベントの会場内の特定のシートに割り当てるように構成されたシート割当ロジック405を含むことができる。シート割当ロジック405は、ユーザデータベース407に保存された観戦者のユーザプロファイルデータ408に基づくことを含み、さまざまな情報を利用して、バーチャルリアリティ観戦者120をどのシートに割り当てるか決定することができる。例として、このようなユーザプロファイルデータ408は、年齢、ジオロケーション、性別、国籍、主要言語、職業などのユーザについての人口統計情報、及び、関心事、好み、プレイしたゲーム/所有するゲーム/購入したゲーム、ゲーム経験レベル、インターネットの閲覧履歴などの他の種類の情報を含むことができる。
いくつかの実施態様では、シート割当ロジック405は、ソーシャルネットワーク410から得られた情報を使用して、たとえば、ソーシャルネットワーク上の友人である観戦者を互いに近くのまたは隣のシートに割り当てることができる。このような情報を取得するために、ソーシャルネットワーク410は、(ソーシャルグラフメンバーシップ情報を含む)ユーザについてのソーシャル情報を、ソーシャルデータ414としてソーシャルデータベース412に保存してもよい。いくつかの実施態様では、シート割当ロジック405は、(たとえば、所定のユーザ/観戦者のソーシャルグラフにアクセスする)ソーシャルデータにソーシャルネットワーク410のAPIを介してアクセスしてもよい。
いくつかの実施態様では、シート割当ロジック405は、どのシートが利用可能か、たとえば、実際の及び/または仮想の観戦者によって占有されていないか判定するように構成され、このような情報に少なくとも部分的に基づいて、バーチャルリアリティ観戦者を割り当てる。いくつかの実施態様では、シート割当ロジック405は、バーチャルリアリティ観戦者を、会場内のシートの既定のランキングから判定される利用可能な最高のシートに自動的に割り当てるように構成される。
シート割当ロジック405は、所定のバーチャルリアリティ観戦者をどのシートに割り当てるか判定する任意の他の要因(複数可)とともに、本明細書に記載された任意の要因を使用することができることが理解される。いくつかの実施態様では、利用可能なシートは、さまざまな要因に基づいてスコア化され、シート割当は、そのスコアに基づいて決定される(たとえば、バーチャルリアリティ観戦者は最も高いスコアのシートに割り当てられる)。いくつかの実施態様では、シート割当ロジック405は、観戦者120による受諾のためにお勧めのシートを提示し、観戦者120は、それを受諾すると、お勧めのシートに割り当てられる。
他の実施態様では、バーチャルリアリティ観戦者120は、バーチャルリアリティ観戦者が利用可能なシートから与えられるシートを選択することができるように構成されたシート選択ロジック406によって提供されるインタフェースにアクセスしてもよい。
会場データベース416は、1つまたは複数の会場についてのデータを会場データ418として保存する。会場データ418は、3次元空間マップ、カメラ、スピーカ、マイクロフォンの位置などの、会場を説明する任意のデータを含むことができる。会場データ418は、シートプロファイルを独自のシート識別子に関連付けるテーブル420をさらに含んでもよい。いくつかの実施態様では、各シートは、その独自のシートプロファイルを有する。いくつかの実施態様では、(たとえば、互いに隣接する)シートの群は、同じシートプロファイルを共有してもよい。例示的なシートプロファイル422は、シートの3次元位置424、ビデオ処理パラメータ426、及びオーディオ処理パラメータ428などの情報を含む。
ビデオプロセッサ432は、バーチャルリアリティ観戦者のビュー方向に従ってバーチャルリアリティ観戦者120にビューを提供するコンポジットビデオを生成するために、ビデオ処理パラメータ426及び/または観戦者の割り当てられたシートの3次元位置424を使用して、カメラ116からのビデオフィード430をつぎ合わせてもよいステッチプロセッサ434を含む。いくつかの実施態様では、空間モデリングモジュール438は、ビデオフィード430のつぎ合わせを容易にするために、(たとえば、カメラの位置及び観戦者のシートの位置を含む)会場の3次元環境の空間モデルを生成し、それにアクセスする。ビデオフィードのつぎ合わせは、観戦者に視点の正確なビデオを提供するために、ビデオフィードの空中投影を伴ってもよい。いくつかの実施態様では、結果として得られるコンポジットビデオは3次元ビデオであるが、その一方で、他の実施態様では、コンポジットビデオは2次元ビデオである。
圧縮プロセッサ436は、未加工のコンポジットビデオを圧縮するように構成され、当該技術分野において知られているビデオ圧縮技術、ならびに、フォービエイテッドレンダリングを使用して、ストリーミングのために必要なデータ量を削減する。次いで、圧縮ビデオデータは、ストリーミングサーバ448によって、ネットワーク402を介して、コンピューティングデバイス400までストリーミングされ、コンピューティングデバイス400は、バーチャルリアリティ観戦者120が見るためにHMD150に対してビデオを処理及び/またはレンダリングする。
いくつかの実施態様では、ビデオフィードは、カメラから、ビデオ処理も実行するカメラ/会場に対してローカルである1つまたは複数のコンピューティングデバイスまで送信される。いくつかの実施態様では、カメラは、このようなコンピューティングデバイスに直接接続される。いくつかの実施態様では、ビデオフィードは、(たとえば、ローカルエリアネットワーク(LAN)、Wi-Fiネットワークなどを含む)ローカルネットワークを介して、このようなコンピューティングデバイスに送信される。いくつかの実施態様では、コンピューティングデバイスはリモートに配置され、ビデオフィードは、インターネット、LAN、ワイドエリアネットワーク(WAN)などの1つまたは複数のネットワークを介して送信されてもよい。
オーディオプロセッサ444は、圧縮されたビデオデータとともにストリーミングされるオーディオソース440からのオーディオデータ442を処理するように構成される。処理は、オーディオ処理パラメータ428及び/または観戦者のシートの3次元位置424を使用してもよい。いくつかの実施態様では、オーディオモデリングモジュール446は、オーディオデータ442を処理するために会場の3次元空間に基づくオーディオモデルを利用する。このようなオーディオモデルは、オーディオが現実的な方法でバーチャルリアリティ観戦者にレンダリングされるように、会場内の割り当てられたシートの音響効果をシミュレートしてもよい。例として限定することなしに、他のバーチャルリアリティ観戦者からの音は、バーチャルリアリティ観戦者120のシート位置に対する方向性だけでなく、会場内のシート位置に適した音響効果(たとえば、遅延、残響など)もシミュレートするために処理されてもよい。前述のように、オーディオソースは、ゲームプレイオーディオ、解説者(複数可)、家の音楽、会場内のマイクロフォンからのオーディオなどを含むことができる。
図5は、本開示の実施態様による、会場のシートが実際の観戦者によって占有されているかどうかを判定するための技術を図示する。示された実施態様では、会場100内のさまざまなシート500、502、及び504が示されている。シート502は、実際の観戦者506によって占有されている。カメラ512は、シートの画像をキャプチャするように構成することができる。キャプチャ画像は、与えられたシートが占有されているというインジケータを求めて画像を検索する画像認識プロセス514に従って分析することができる。例として限定することなしに、画像認識プロセスは、与えられたシートを占有する人の存在を識別する顔認識または他の形態の人物認識、与えられたシートの近くで発生する動きを検出する動き検出、空のシート構成の画像認識などを含んでもよい。
いくつかの実施態様では、シートは、画像認識プロセス514によって認識することができるタグを含んでもよい(または、シートに取り付けてもよい)。示された実施態様では、タグ508はシート500に取り付けられ、タグ510はシート504に取り付けられている。シート502は、実際の観戦者506によって占有されており、したがって、シート502に取り付けられたタグはもはや見ることができず、認識されない。このようにして、空のシートは、カメラ512からのキャプチャ画像のタグを識別することによって識別することができる。タグは、さまざまな実施態様において、例として限定することなしに、再帰反射器または再帰反射材、認識可能な画像/パターン/グラフィック、ライト(たとえば、LED)、特定の色(複数可)などを含む、任意の認識可能な形態をとってもよい。
タグは、例として限定することなしに、いくつかの実施態様では、背もたれもしくはシートクッションに沿って、より詳細には、背もたれもしくはシートクッションの上部に沿って、または、シートクッションを折り畳む場合、シートが占有されておらずシートクッションが折り畳まれているときに見ることができるようにシートクッションの前部に沿って、または、肘掛けに沿って、などを含む、シートの任意の部分に取り付けられてもよい。さらにまた、与えられるシートは、シートに取り付けられた任意の数のタグを有してもよいことが理解される。
参照番号516で示されるように、上記による空のシートまたは占有されたシートの検出に基づいて、与えられるシートの占有ステータスを、シートが占有されているまたは空であるかどうかを反映するために更新することができる。前述のように、いくつかの実施態様では、空のシートは、会場100のバーチャルリアリティ観戦で利用可能となる。
図6は、本開示の実施態様による、バーチャルリアリティ観戦者が実際の会場内の状況において自分自身を見るための方法を図示する。示された実施態様では、eスポーツイベントは会場100で開催され、そこには、多くのシートがある。たとえば、シート136は、実際の観戦者138によって占有されている。バーチャルリアリティ観戦者120は、シート122を「占有する」ことができ、その結果、まるでバーチャルリアリティ観戦者120がシート122に実際に存在するように、会場100のHMD150を通してビューを体験する。
カメラ600は、オペレータ602によって操作されて、シート122及び136の方へ向けられてもよく、それによって、シート136の実際の観戦者138のビデオをキャプチャする。このビデオまたはその一部は、ディスプレイ108cに映写されてもよく、ディスプレイ108cは、同時に多くの観戦者が見ることができる会場100内の大きなディスプレイの1つであってもよい。示されるように、ディスプレイ108c上にレンダリングされる映写されたビデオは、実際の観戦者138の画像606を示す。
しかしながら、いくつかの実施態様では、バーチャルリアリティ観戦者120がディスプレイ108cの方を見ると、バーチャルリアリティ観戦者120も、ディスプレイ108c上に示された映写されたビデオ内に自分自身を見る。すなわち、ディスプレイ108c上に映写されたビデオが、バーチャルリアリティ観戦者が「占有する」(または、割り当てられた)シート122の位置を含むとき、ディスプレイ108cを含む、バーチャルリアリティ観戦者120にHMDを通して提供されるビューにおいては、ディスプレイ108cのレンダリングされた画像は、シート122を占有するように適切な位置にバーチャルリアリティ観戦者120(または、バーチャルリアリティ観戦者120に関連付けられたアバター604)の画像を含むように変更される。このようにして、バーチャルリアリティ観戦者120は、会場100内のシート122の自分自身を見ることができ、これによって、バーチャルリアリティ観戦者120の体験のリアリズム及びインタラクティビティがさらに増加する。図示された実施態様に示されるように、バーチャルリアリティ観戦者120によって見られるディスプレイ108c上のレンダリングされたビデオは、バーチャルリアリティ観戦者120(または、バーチャルリアリティ観戦者120の関連付けられたアバター604)の画像608を含む。
いくつかの実施態様では、会場100内のディスプレイ108c上に実際にレンダリングされるビデオは、バーチャルリアリティ観戦者の画像を含むように変更されないことが理解される。しかしながら、他の実施態様では、会場100内のディスプレイ108c上で実際にレンダリングされるビデオは、バーチャルリアリティ観戦者の画像を含むように変更される。
引き続き図6を参照すると、上記のバーチャルリアリティ観戦者を含むためのビデオ変更を実行するための方法が示されている。動作610では、ビデオは会場内のカメラでキャプチャされ、そのビデオはバーチャルリアリティ観戦者が割り当てられた位置/シートを含み、その位置/シートは、バーチャルリアリティ観戦者がHMDを通して会場のビューが提供される位置を定義している。
動作612では、カメラでキャプチャされたシート及び/または位置が判定される。これは、どのシートがビデオ内でキャプチャされているかを判定するために、会場内のカメラの3次元位置及び/または方向を判定することを伴ってもよい。たとえば、カメラの知られている位置及び方向を使用して、ビデオ内でキャプチャされた会場内の3次元空間を判定することができ、シートの会場内の3次元位置へのマッピングを使用して、ビデオ内でキャプチャされた特定のシートを識別することができる。例として限定することなしに、カメラの位置/方向は、Wi-Fiベースの位置決め、磁気的な位置決め、視覚的マーカ及び/または視覚的特徴の認識などを含む、当該技術分野において知られている任意の種類のローカライゼーション/位置決め技術を使用して判定することができる。
動作614では、所定の識別されたシートに関して、バーチャルリアリティ観戦者がシートに割り当てられているかどうかが判定され、割り当てられている場合、バーチャルリアリティ観戦者が識別される。動作616では、バーチャルリアリティ観戦者に提供されるビューが、キャプチャされたビデオが会場でレンダリングされるディスプレイを含むとき、ディスプレイのビューは、バーチャルリアリティ観戦者によって占有されたシートにバーチャルリアリティ観戦者またはバーチャルリアリティ観戦者の代わりのアバターを示すように修正される。たとえば、バーチャルリアリティ観戦者のビュー方向は、ビューがいつディスプレイを含むか判定するためにトラッキングすることができる。この場合、ビューは、バーチャルリアリティ観戦者を含むように、上記のように修正することができる。いくつかの実施態様では、バーチャルリアリティ観戦者(または、バーチャルリアリティ観戦者のアバター)の画像は、バーチャルリアリティ観戦者に提示されるディスプレイのビューのオーバーレイとして形成される。いくつかの実施態様では、ディスプレイを含むカメラのビデオフィードは、バーチャルリアリティ観戦者(または、アバター)の画像を含むように修正され、修正されたビデオフィードは、事前に論じられたようにつぎ合わされて、バーチャルリアリティ観戦者のためのビューを形成する。
図7は、本開示の実施態様による、実際の観戦者を検知して、バーチャルリアリティ観戦者のインタラクティビティを可能にするためのさらなる機能を有する会場内のシートを図示する。示された実施態様では、シート700及びシート702が示されており、シート702はシート700の前にある。それぞれ、シート700及び702のために構成されたセンサユニット704及び706も示されている。いくつかの実施態様では、センサユニットは、シートから取り外し可能な独立した付属装置である。いくつかの実施態様では、センサユニット及び/または本明細書に記載の任意の構成要素は、シートの一部として組み込むことができる。
説明を容易にするために、本明細書においてセンサユニット706が説明され、センサユニット704も同様であることが理解される。センサユニット706は、シート702が実際の観戦者によって占有されているかどうかを検出するように構成された1つまたは複数の占有センサ708を含む。示されるように、占有センサ708は、座部及び/または背もたれに沿って位置付けることができる。いくつかの実施態様では、占有センサ708は、人がシート702に座っているかどうかを検知するために、圧力が加えられたときに検出する1つまたは複数の圧力センサを含む。さらに、このような圧力センサは、どれだけの圧力(力)が加えられているかを判定/定量化することができ、人と別の対象物との重量の識別ができてもよい。いくつかの実施態様では、占有センサ708は、別の対象物が近く(たとえば、既定の距離内)にあるときに検出できる、場合によっては、近接センサからの対象物の距離を検出できる、1つまたは複数の近接センサを含む。
いくつかの実施態様では、センサユニット706は、シート702の視点からのビデオ/画像をキャプチャするように構成されたカメラ710をさらに含み、そのカメラ710は、シート702に割り当てられたバーチャルリアリティ観戦者に会場のビューを提供するために使用することができる。いくつかの実施態様では、カメラ710は、360度の視界をキャプチャすることが可能な球面パノラマカメラである。さまざまな実施態様では、カメラ710は、1つまたは複数の画像キャプチャデバイスを含む。いくつかの実施態様では、カメラ710は、3次元深さを有する立体画像を提供することが可能な立体カメラである。
いくつかの実施態様では、センサユニット706は、1つまたは複数のマイクロフォンアレイ716をさらに含み、各マイクロフォンアレイは、複数のマイクロフォンを含む。マイクロフォンアレイからの音は、異なるマイクロフォンの間での受音タイミングの差の分析に基づいて、音源の位置を識別するために処理することができる。マイクロフォンアレイによってキャプチャされた音は、処理することができる、かつ/または、仮想的に位置付けられた会場内の位置からの音をバーチャルリアリティ観戦者が体験できるように、シート702に割り当てられたバーチャルリアリティ観戦者に提供することができる。
いくつかの実施態様では、センサユニット712は、バーチャルリアリティ観戦者が、隣接するまたは近くのシートの観戦者とのインタラクトを可能にするハードウェアを含む。示された実施態様では、センサユニット712は、ディスプレイ712と、スピーカ714とをさらに含む。ディスプレイ712は、シート702に割り当てられたバーチャルリアリティ観戦者(または、アバター)の画像を表示することができ、近くのシートの実際の観戦者はバーチャルリアリティ観戦者(または、バーチャルリアリティ観戦者のアバター)を見ることができる。いくつかの実施態様では、バーチャルリアリティ観戦者は、スピーカ714を通してやりとりすることができ、それにより、(たとえば、バーチャルリアリティ観戦者のHMDのマイクロフォンによって、または、バーチャルリアリティ観戦者のローカル環境でキャプチャされた)バーチャルリアリティ観戦者からの音は、センサユニット706に送信し、スピーカ714を通して出力することができる。同様に、近くの実際の観戦者は話をしてもよく、これはマイクロフォンアレイ716によってキャプチャされて、バーチャルリアリティ観戦者が近くの実際の観戦者の話を聞くことができるようにバーチャルリアリティ観戦者のHMDに送信される。このようにして、実際の観戦者及びバーチャルリアリティ観戦者は、互いにインタラクトしてもよい。バーチャルリアリティ観戦者は、いくつかの実施態様では、カメラ710を通して近くの実際の観戦者を見ることができることが理解される。
いくつかの実施態様では、センサユニット706は、シート702の背後にあるシート700の占有を検出するように構成されてもよい後ろ向きセンサ718を含む。いくつかの実施態様では、後ろ向きセンサは、近接センサとすることができ、IR、超音波、または他のセンシング技術を使用してもよい。
いくつかの実施態様では、センサユニット706は、センサユニットの位置の判定を可能にする位置決め技術を含む。これは、例として限定することなしに、Wi-Fiでの位置決め、磁気的な位置決め、GPSなどを含んでもよい。
センサユニット706はさらに、無線及び/または有線ネットワークを含む、セルラー、Wi-Fi、または他の種類のネットワークなどの、1つまたは複数のネットワークを介して、データを通信及び送信/受信してもよい。
いくつかの実施態様では、センサユニット706は、画像認識プロセスによって認識可能であるタグを含み、そのため、センサユニットは、会場内のカメラによって、キャプチャされた画像内で識別することができる。
本開示の実施態様は概して、eスポーツイベント及びeスポーツ会場に関して説明されたが、他の実施態様では、本開示の原理が、例として限定することなしに、スポーツイベント(たとえば、フットボール、バスケットボール、野球、サッカー、ホッケーなど)、コンサート、式典、プレゼンテーションなどを含む、任意の他の種類の観戦されるライブイベント及び対応する会場に適用可能であることは認識されるべきである。
図8は、本開示の実施態様による、ヘッドマウントディスプレイ(HMD)を介した仮想環境とのインタラクションのためのシステムを図示する。HMDは、バーチャルリアリティ(VR)ヘッドセットと呼ぶこともできる。本明細書で使用される場合、「バーチャルリアリティ」(VR)という用語は一般に、(ユーザによって制御される)HMDの動作にリアルタイムに反応する方法でHMD(または、VRヘッドセット)を通して仮想空間を見ることを含む仮想空間/環境とのユーザのインタラクションを表し、ユーザに仮想空間にいる感覚を提供する。たとえば、ユーザは、所定の方向を向いたとき、仮想空間の3次元(3D)ビューを見ることができ、ユーザが横を向き、それによって、同様にHMDを向けると、仮想空間内のその側へのビューがHMD上でレンダリングされる。示された実施態様では、ヘッドマウントディスプレイ(HMD)150を着用するユーザ120が示されている。HMD150は、眼鏡、ゴーグル、またはヘルメットと類似の方法で着用され、ユーザ120にビデオゲームまたは他のコンテンツを表示するように構成される。HMD150は、ユーザの目に近接する表示機構の提供により、ユーザに非常に没入できる体験を提供する。よって、HMD150は、ユーザの視界の大部分または全体を占める、ユーザの目のそれぞれに対する表示領域を提供することができ、3次元深さ及び視点を有するビューも提供してもよい。
示された実施態様では、HMD150は、コンピュータ806に無線で接続されている。他の実施態様では、HMD150は、有線接続を介してコンピュータ806に接続される。コンピュータ806は、当該技術分野において知られている任意の一般的または特別な目的のコンピュータとすることができ、それらは、ゲームコンソール、パーソナルコンピュータ、ラップトップ、タブレットコンピュータ、携帯機器、携帯電話、タブレット、シンクライアント、セットトップボックス、メディアストリーミングデバイスなどを含むが、これらに限定されない。いくつかの実施態様では、コンピュータ106は、ビデオゲームを実行し、HMD150によってレンダリングするためにビデオゲームからのビデオ及びオーディオを出力するように構成することができる。いくつかの実施態様では、コンピュータ806は、HMDを通して見ることができる仮想空間/環境を提供する任意の他の種類のインタラクティブアプリケーションを実行するように構成される。トランシーバ810は、その上にレンダリングするためにビデオゲームからHMD150までビデオ及びオーディオを(有線接続または無線接続によって)送信するように構成される。トランシーバ810は、HMD150へのデータ送信のための送信機、ならびに、HMD150によって送信されたデータを受信するための受信機を含む。
いくつかの実施態様では、HMD150は、HMD150及びコンピュータ106がどちらも接続されるネットワーク812を介するなど、代替の機構またはチャネルを通してコンピュータと通信してもよい。
ユーザ120は、インタフェースオブジェクト152を操作して、ビデオゲームに入力を提供してもよい。さらに、カメラ808は、ユーザ120が位置するインタラクティブ環境の画像をキャプチャするように構成することができる。これらのキャプチャされた画像は、ユーザ120、HMD150、及びインタフェースオブジェクト152の位置及び動作を判定するために分析することができる。さまざまな実施態様では、インタフェースオブジェクト152は、トラッキングできるライト及び/または慣性センサ(複数可)を含み、インタフェースオブジェクトの位置及び方向の判定及び動作のトラッキングが可能にする。
いくつかの実施態様では、HMD150及びインタフェースオブジェクト152の磁気トラッキングを可能にするために磁場を放射する磁気源816が設けられる。HMD150及びインタフェースオブジェクト152の磁気センサは、磁場(たとえば、強さ、方向)を検出するように構成することができ、この情報は、HMD150及びインタフェースオブジェクト152の位置及び/または方向を特定して、トラッキングするのに使用することができる。
いくつかの実施態様では、インタフェースオブジェクト152は、HMD150に対してトラッキングされる。たとえば、HMD150は、インタフェースオブジェクト152を含む画像をキャプチャする外向きカメラを含んでもよい。キャプチャされた画像は、HMD150に対するインタフェースオブジェクト152の位置/方向を特定するために分析することができ、HMDの知られている位置/方向を使用して、ローカル環境におけるインタフェースオブジェクト152の位置/方向を特定する。
ユーザがHMD150に表示されるバーチャルリアリティシーンとインタフェースする方法は変えることができ、インタフェースオブジェクト152に加えて他のインタフェースデバイスを使用することができる。たとえば、さまざまな種類の片手用、ならびに、両手用のコントローラを使用することができる。いくつかの実施態様では、コントローラに含まれるライトをトラッキングすることによって、または、コントローラに関連付けられた形状、センサ、及び慣性データをトラッキングすることによって、コントローラ自体をトラッキングすることができる。これらのさまざまな種類のコントローラを使用して、または、1つまたは複数のカメラでキャプチャされた単なるハンドジェスチャを使用しても、HMD150上に提示されるバーチャルリアリティ環境とのインタフェース、その環境の制御、操作、その環境とのインタラクション、及びその環境への参加が可能である。
さらに、HMD150は、HMD150の位置及び方向を特定するためにトラッキングすることができる1つまたは複数のライトを含んでもよい。カメラ808は、インタラクティブ環境からの音をキャプチャするための1つまたは複数のマイクロフォンを含むことができる。マイクロフォンアレイによってキャプチャされる音は、音源の位置を識別するために処理してもよい。識別された位置からの音は、識別された位置以外からの他の音を除外して、選択的に利用または処理することができる。さらにまた、カメラ808は、複数の画像キャプチャデバイス(たとえば、カメラの立体視対)、IRカメラ、深さカメラ、及びその組合せを含むように定義することができる。
いくつかの実施態様では、コンピュータ806は、ネットワーク812を介してクラウドアプリケーション(たとえば、ゲーム、ストリーミング、観戦など)プロバイダ814と通信するシンクライアントとして機能する。このような実施態様では、一般的に言うと、クラウドアプリケーションプロバイダ114は、ユーザ150によってプレイされているビデオゲームを保守及び実行する。コンピュータ806は、HMD150、インタフェースオブジェクト152、及びカメラ808からの入力をクラウドアプリケーションプロバイダに送信し、クラウドゲーミングプロバイダは、実行しているビデオゲームのゲーム状態に影響を及ぼす入力を処理する。ビデオデータ、オーディオデータ、及び触覚フィードバックデータなどの、実行しているビデオゲームからの出力は、コンピュータ806に送信される。コンピュータ806は、送信前にデータをさらに処理してもよく、または、関連するデバイスにデータを直接送信してもよい。たとえば、ビデオ及びオーディオストリームがHMD150に提供され、その一方で、触覚/振動フィードバックコマンドがインタフェースオブジェクト152に提供される。
いくつかの実施態様では、HMD150、インタフェースオブジェクト152、及びカメラ808はそれ自体が、たとえば、クラウドアプリケーションプロバイダ814と通信するためにネットワーク812に接続するネットワーク化されたデバイスであってもよい。いくつかの実施態様では、コンピュータ106は、ビデオゲーム処理を実行しないが、ネットワークトラフィックの通過を容易にする、ルータなどのローカルネットワークデバイスであってもよい。HMD150、インタフェースオブジェクト152、及びカメラ108によるネットワークへの接続は、有線または無線であってもよい。
さらに、本開示の実施態様がヘッドマウントディスプレイに関して記載されてもよいが、他の実施態様では、携帯装置スクリーン(たとえば、タブレット、スマートフォン、ラップトップなど)、あるいは本実施態様によるビデオのレンダリングならびに/またはインタラクティブなシーンもしくは仮想環境の表示の提供を行うように構成することができる他の種類の任意のディスプレイを含むがこれらに限定されない、非ヘッドマウントディスプレイに置き換えられてもよいことが理解される。
図9A-1及び9A-2は、本開示の実施態様による、ヘッドマウントディスプレイ(HMD)を図示する。図9A-1は特に、本開示の実施態様によるHMDの1つの例であるPlaystation(登録商標)VRヘッドセットを図示する。示されるように、HMD150は、複数のライト900A~Hを含む。これらのライトのそれぞれは、特定の形状を有するように構成されてもよく、同じ色または異なる色を有するように構成することができる。ライト900A、900B、900C、及び900Dは、HMD150の前面に配置される。ライト900E及び900Fは、HMD150の側面に配置される。そして、ライト900G及び900Hは、HMD150の前面及び側面にまたがるように、HMD150の角部に配置される。ライトは、ユーザがHMD150を使用するインタラクティブ環境のキャプチャされた画像で識別することができることが理解される。ライトの識別及びトラッキングに基づき、インタラクティブ環境のHMD150の位置及び方向を特定することができる。ライトのうちのいくつかは、画像キャプチャデバイスに対するHMD150の特定の方向に応じて、見えてもよくまたは見えなくてもよいことがさらに理解される。また、ライトの異なる部分(たとえば、ライト900G及び900H)が、画像キャプチャデバイスに対するHMD150の方向に応じて、画像キャプチャにさらされてもよい。
1つの実施態様では、ライトは、近くで他の人にHMDの現在の状況を示すように構成することができる。たとえば、ライトの一部またはすべては、特定の色配置、強度配置を有するように構成してもよく、明滅するように構成してもよく、特定のオン/オフ構成またはHMD150の現在の状況を示す他の配置を有するように構成してもよい。例として、ライトは、ビデオゲームのアクティブなゲームプレイ(一般にアクティブなタイムラインの間、または、ゲームのシーン内で発生するゲームプレイ)の間に対して、メニューインタフェースの閲覧またはゲーム設定の実施など(ゲームタイムラインまたはシーンが非アクティブまたは休止でもよい間)のビデオゲームの他のアクティブでないゲームプレイ態様では、異なる構成を表示するように構成することができる。また、ライトはゲームプレイの相対的な強度レベルを示すように構成してもよい。たとえば、ゲームプレイの激しさが増すとき、光の強さまたは点滅の速度が増大してもよい。このようにして、ユーザに対して外部の人は、HMD150上のライトを見て、ユーザが激しいゲームプレイに積極的にたずさわっており、その時点で妨げられることを望んでいないことがあることを理解できる。
HMD150は、1つまたは複数のマイクロフォンをさらに含んでもよい。示された実施態様では、HMD150は、HMD150の前面に定義されたマイクロフォン904A及び904Bと、HMD150の側面に定義されたマイクロフォン904Cとを含む。マイクロフォンのアレイを利用することによって、それぞれのマイクロフォンからの音は、音源の位置を特定するように処理することができる。この情報は、望ましくない音源の排除、音源の視覚識別との関連付けなどを含む、さまざまな方法で利用することができる。
HMD150はまた、1つまたは複数の画像キャプチャデバイスを含んでもよい。示された実施態様では、HMD150は画像キャプチャデバイス902A及び902Bを含むように示される。画像キャプチャデバイスの立体視対を利用することによって、環境の3次元(3D)画像及びビデオを、HMD150の視点からキャプチャすることができる。HMD150を着用している間、「ビデオシースルー」機能をユーザに提供するために、そのようなビデオをユーザに示すことができる。すなわち、ユーザは厳密な意味ではHMD150を通して見ることはできないが、それにもかかわらず、画像キャプチャデバイス902A及び902B(または、たとえば、HMD150の外側本体に配設される1つまたは複数の外向き(たとえば、前向き)カメラ)によってキャプチャされたビデオは、HMD150を通して見るかのようにHMD150の外部環境を見ることができるのと機能的に等価なものを提供することができる。そのようなビデオは、仮想要素によって拡張し、拡張現実体験を提供することができ、または、他の方法で仮想要素と合成または混ぜ合わせてもよい。図示された実施態様では、2つのカメラがHMD150の前面に示されているが、任意の方向に向けられた、任意の数の外向きカメラがHMD150上に設置されてもよいことが理解される。たとえば、別の実施態様では、環境のさらなるパノラマ画像キャプチャを提供するために、HMD150の側面に取り付けられるカメラが存在してもよい。さらに、いくつかの実施態様では、このような外向きカメラは、他の周辺機器(たとえば、コントローラなど)をトラッキングするのに使用することができる。すなわち、HMDに対する周辺機器の位置/方向は、HMD上のそのような外向きカメラからのキャプチャされた画像で識別し、トラッキングすることができ、ローカル環境のHMDの知られている位置/方向を使用して、周辺機器の正確な位置/方向を特定することができる。
図9Bは、クライアントシステム806とインタフェースするHMD150のユーザ120と、第2のスクリーン907として呼ばれる第2のスクリーンディスプレイにコンテンツを提供するクライアントシステム806との1つの例を図示する。クライアントシステム806は、HMD150から第2のスクリーン907へのコンテンツの共有を処理するための一体型の電子機器を含んでもよい。他の実施態様は、個別のデバイス、モジュール、コネクタを含んでもよく、それらは、クライアントシステムとHMD150及び第2のスクリーン907のそれぞれとの間をインタフェースする。この一般的な例では、ユーザ120は、HMD150を着用し、インタフェースオブジェクト152であってもよいコントローラを使用してビデオゲームをプレイしている。ユーザ120によるインタラクティブプレイは、HMD150にインタラクティブに表示されるビデオゲームコンテンツ(VGC)を生成する。
1つの実施態様では、HMD150に表示されているコンテンツは、第2のスクリーン907に共有される。1つの例では、第2のスクリーン907を見ている人は、ユーザ120によってHMD150でインタラクティブにプレイされているコンテンツを見ることができる。別の実施態様では、別のユーザ(たとえば、プレイヤー2)は、第2のスクリーンコンテンツ(SSC)を生成するために、クライアントシステム806と対話することができる。コントローラ104(または、任意の種類のユーザインタフェース、ジェスチャ、音声、または入力)とインタラクトするプレイヤーによっても生成される第2のスクリーンコンテンツは、クライアントシステム806へのSSCとして生成されてもよく、それは、HMD150から受信されたVGCとともに、第2のスクリーン907上に表示することができる。
したがって、HMDユーザと同じ位置にいるまたはHMDユーザと離れていてもよい他のユーザによるインタラクティビティは、ソーシャルであり、インタラクティブであり、第2のスクリーン907上でHMDユーザによってプレイされるHMDユーザ及びコンテンツを見ることができるユーザの両方にとってより没入できるものとすることができる。示されるように、クライアントシステム806は、インターネット910に接続することができる。インターネットは、クライアントシステム806、及び、さまざまなコンテンツソース920からのコンテンツへのアクセスを提供することもできる。コンテンツソース920は、インターネットを介してアクセスできる任意の種類のコンテンツを含むことができる。
このようなコンテンツは、限定するものではないが、ビデオコンテンツ、ムービーコンテンツ、ストリーミングコンテンツ、ソーシャルメディアコンテンツ、ニュースコンテンツ、友人コンテンツ、広告コンテンツなどを含むことができる。1つの実施態様では、クライアントシステム806は、HMDユーザのためのコンテンツを同時に処理するのに使用することができ、それにより、HMDには、ゲームプレイ中のインタラクティビティと関連するマルチメディアコンテンツが提供される。次いで、クライアントシステム806は、他のコンテンツを提供することもできる。それは、第2のスクリーンへのビデオゲームコンテンツとは無関係であってもよい。クライアントシステム806は、1つの実施態様では、コンテンツソース920のうちの1つから、または、ローカルユーザもしくはリモートユーザから、第2のスクリーンコンテンツを受信することができる。
図10は、本開示の実施態様による、実行するビデオゲームまたは他のアプリケーションと連動するHMD150の機能を概念的に図示する。実行しているビデオゲーム/アプリケーションは、ビデオゲーム/アプリケーションのゲーム/アプリケーション状態を更新するための入力を受信するゲーム/アプリケーションエンジン1020で定義される。ビデオゲームのゲーム状態は、少なくとも一部において、対象物の存在及び位置、仮想環境の状態、イベントのトリガリング、ユーザプロファイル、ビューの視点などの、現在のゲームプレイのさまざまな態様を定義するビデオゲームのさまざまなパラメータの値によって定義することができる。
示された実施態様では、ゲームエンジンは、例として、コントローラ入力1014、オーディオ入力1016、及び動き入力1018を受信する。コントローラ入力1014は、ハンドヘルドゲームコントローラ(たとえば、Sony DUALSHOCK(登録商標)4 ワイヤレスコントローラ、Sony Playstation(登録商標)Move モーションコントローラ)またはインタフェースオブジェクト152などの、HMD150とは別のゲームコントローラの操作から定義されてもよい。例として、コントローラ入力1014は、方向入力、ボタン押下、トリガ起動、動作、ジェスチャ、またはゲームコントローラの操作から処理される他の種類の入力を含んでもよい。いくつかの実施態様では、ゲームコントローラの動作は、HMD102に対するゲームコントローラの位置/方向を提供する、HMD102の外向きカメラ1011によってトラッキングされる。オーディオ入力1016は、HMD150のマイクロフォン1002から、または、画像キャプチャデバイス808に含まれるマイクロフォンもしくはローカル環境の他の場所から処理することができる。動き入力1018は、HMD150に含まれる動きセンサ1000から処理することができる、または、HMD150の画像をキャプチャするときに画像キャプチャデバイス808から処理することができる。ゲームエンジン1020は、ビデオゲームのゲーム状態を更新するためにゲームエンジンの構成に従って処理される入力を受信する。ゲームエンジン1020は、ユーザに提示するコンテンツを定義するためにゲーム状態データを処理するさまざまなレンダリングモジュールに、ゲーム状態データを出力する。
示された実施態様では、ビデオレンダリングモジュール1022は、HMD150上での提示のためにビデオストリームをレンダリングするために定義される。ビデオストリームはディスプレイ/プロジェクタ機構1010で提示されてもよく、ユーザの目1006で光学部品1008を通して見られてもよい。オーディオレンダリングモジュール1024は、ユーザが聞くためのオーディオストリームをレンダリングするように構成される。1つの実施態様では、オーディオストリームは、HMD150と関連付けられたスピーカ1004による出力である。スピーカ1004は、オープンエアスピーカ、ヘッドホン、または、オーディオを提示することが可能な任意の他の種類のスピーカの形態をとってもよいことは認識されるべきである。
1つの実施態様では、視線トラッキングカメラ1012が、ユーザの視線のトラッキングを可能にするためにHMD150に含まれる。視線トラッキングカメラは、ユーザの目の画像をキャプチャし、それはユーザの視線方向を判定するために分析される。1つの実施態様では、ユーザの視線方向についての情報は、ビデオレンダリングに影響を与えるために利用することができる。たとえば、ユーザの目が特定の方向を見ていると判定された場合、たとえば、ユーザが見ている領域におけるより詳細またはより高速な更新を提供することによって、その方向のビデオレンダリングを優先または強調することができる。ユーザの視線方向は、ヘッドマウントディスプレイに対して、ユーザが位置する実環境に対して、及び/または、ヘッドマウントディスプレイでレンダリングされている仮想環境に対して、定義することができることは認識されるべきである。
大まかに言うと、視線トラッキングカメラ1012によってキャプチャされる画像の分析は、単独で考えるとき、HMD150に対するユーザの視線方向を提供する。しかしながら、HMD150のトラッキングされた位置及び方向と組み合わせて考えるとき、HMD150の位置及び方向はユーザの頭部の位置及び方向と同義であるため、ユーザの現実世界の視線方向を判定することができる。すなわち、ユーザの現実世界の視線方向は、ユーザの目の位置移動のトラッキング、及び、HMD150の位置及び方向のトラッキングから判定することができる。仮想環境のビューがHMD150上でレンダリングされるとき、ユーザの現実世界の視線方向は、仮想環境におけるユーザの仮想世界の視線方向を判定するために適用することができる。
さらに、触覚フィードバックモジュール1026は、HMD150またはインタフェースオブジェクト152などのユーザによって操作される別のデバイスのいずれかに含まれる触覚フィードバックハードウェアに信号を提供するように構成される。触覚フィードバックは、振動フィードバック、温度フィードバック、圧力フィードバックなど、さまざまな種類の触感覚の形態をとってもよい。インタフェースオブジェクト152は、このような形態の触覚フィードバックをレンダリングするために対応するハードウェアを含むことができる。
図11を参照すると、本開示の実施態様による、ヘッドマウントディスプレイ150の構成要素を示す図が示されている。ヘッドマウントディスプレイ150は、プログラム命令を実行するためのプロセッサ1100を含む。メモリ1102は、ストレージのために提供され、揮発性及び不揮発性メモリを含んでもよい。ユーザが見ることができるビジュアルインタフェースを提供するディスプレイ1104が含まれる。バッテリ1106は、ヘッドマウントディスプレイ150の電力源として提供される。動き検出モジュール1108は、磁力計1110、加速度計1112、及びジャイロスコープ1114などのさまざまな種類の動き感応ハードウェアのうちの任意のものを含んでもよい。
加速度計は、加速度及び重力誘導反力を測定するためのデバイスである。異なる方向への加速度の大きさ及び方向を検出するために、一軸及び多軸モデルが利用可能である。加速度計は、傾角、振動、及び衝撃を感知するために使用される。1つの実施態様では、2つの角度(世界空間ピッチ及び世界空間ロール)の絶対基準となる重力の方向を提供するために、3つの加速度計1112が使用される。
磁力計は、ヘッドマウントディスプレイの近くの磁界の強度及び方向を測定する。1つの実施態様では、3つの磁力計1110がヘッドマウントディスプレイ内で使用され、世界空間ヨー角度の絶対基準を規定する。1つの実施態様では、磁力計は、±80マイクロテスラである地磁界をカバーするように設計されている。磁力計は、金属の影響を受け、実際のヨーで単調関係を示すヨー測定値を提供する。磁界は、環境に存在する金属の影響で歪むことがあり、このため、ヨー測定値に歪みが生じる。必要に応じて、この歪みは、ジャイロスコープまたはカメラなどの他のセンサからの情報を使用して較正することができる。1つの実施態様では、加速度計1112は、ヘッドマウントディスプレイ150の傾斜及び方位角を取得するために、磁力計1110とともに使用される。
いくつかの実施態様では、ヘッドマウントディスプレイの磁力計は、他の近くのデバイス内の電磁石が非アクティブである間に読み取られるように構成される。
ジャイロスコープは、角運動量の原理に基づいて、方向を測定及び保持するための装置である。1つの実施態様では、3つのジャイロスコープ1114が、検知された慣性に基づいて、各軸(x、y、z)の移動に関する情報を提供する。ジャイロスコープは、高速回転の検出を補助する。しかしながら、ジャイロスコープは、絶対基準が存在しなければ、時間が経つとずれが生じることがある。このため、ジャイロスコープの定期的なリセットが必要であり、このリセットは、オブジェクトの視覚トラッキング、加速度計、磁力計などに基づく位置/方向決定など、他の入手可能な情報を使用して行うことができる。
画像と、実環境の画像ストリームとをキャプチャするためにカメラ1116が提供される。ヘッドマウントディスプレイ150には1つ以上のカメラが含まれていてもよく、これは、背面カメラ(ユーザがヘッドマウントディスプレイ150のディスプレイを見ているときはユーザから遠ざかるカメラ)と、前面カメラ(ユーザがヘッドマウントディスプレイ150のディスプレイを見ているときはユーザに向けられるカメラ)とを含む。さらに、実環境のオブジェクトの深さ情報を検知するために深さカメラ1118がヘッドマウントディスプレイ150に含まれてもよい。
ヘッドマウントディスプレイ150は、オーディオ出力を提供するためのスピーカ1120を含む。また、マイクロフォン1122が、周囲環境からの音、ユーザにより発せられた音声などを含む実環境からのオーディオをキャプチャするために含まれてもよい。ヘッドマウントディスプレイ150は、ユーザに触覚フィードバックを提供するための触覚フィードバックモジュール1124を含む。1つの実施態様では、触覚フィードバックモジュール1124は、触覚フィードバックをユーザに提供するように、ヘッドマウントディスプレイ150の動作及び/または振動を引き起こすことが可能である。
LED1126は、ヘッドマウントディスプレイ150のステータスのビジュアルインジケータとして提供される。たとえば、LEDは、バッテリレベル、電源オンなどを示してもよい。カードリーダ1128は、ヘッドマウントディスプレイ150がメモリカードから情報を読み出したりメモリカードに情報を書き込んだりすることを可能とするために設けられる。USBインタフェース1130は、周辺機器の接続、または他のポータブルデバイス、コンピュータなどの他のデバイスへの接続を可能にするためのインタフェースの1つの例として含まれる。ヘッドマウントディスプレイ150のさまざまな実施態様では、さまざまな種類のインタフェースのうちの任意のものが、ヘッドマウントディスプレイ150のより多くの接続を可能にするために含まれてもよい。
Wi-Fiモジュール1132は、ワイヤレスネットワーク技術を介したインターネットまたはローカルエリアネットワークへの接続を可能にするために含まれる。また、ヘッドマウントディスプレイ150は、他のデバイスへのワイヤレス接続を可能にするためのブルートゥース(登録商標)モジュール1134を含む。通信リンク1136も、他のデバイスへの接続のために含まれてもよい。1つの実施態様では、通信リンク1136は、ワイヤレス通信のために赤外線伝送を利用する。他の実施態様では、通信リンク1136は、他のデバイスとの通信のために、さまざまな無線または有線の伝送プロトコルのうちの任意のものを利用してもよい。
入力ボタン/センサ1138は、ユーザに入力インタフェースを提供するために含まれる。ボタン、タッチパッド、ジョイスティック、トラックボールなどの任意のさまざまな種類の入力インタフェースが含まれてもよい。超音波通信モジュール1140は、超音波技術を介した他のデバイスとの通信を容易にするために、ヘッドマウントディスプレイ150に含まれてもよい。
バイオセンサ1142は、ユーザからの生理データの検出を可能にするために含まれる。1つの実施態様では、バイオセンサ1142は、ユーザの皮膚を通してユーザの生体電気信号を検出するための1つまたは複数の乾電極を含む。
ビデオ入力1144は、HMD上でレンダリングするために、一次処理コンピュータ(たとえば、メインゲームコンソール)からビデオ信号を受信するように構成される。いくつかの実施態様では、ビデオ入力はHDMI(登録商標)入力である。
ヘッドマウントディスプレイ150の上記構成要素は、ヘッドマウントディスプレイ150に含まれてもよい単なる例示的な構成要素として記載されている。本開示のさまざまな実施態様では、ヘッドマウントディスプレイ150は、さまざまな上述の構成要素のうちのいくつかを含んでもよく、または含まなくてもよい。ヘッドマウントディスプレイ150の実施態様は、本明細書に記載されるような本開示の態様を容易にするために、ここには記載されていないが当該技術分野において知られている他の構成要素をさらに含んでもよい。
図12は、本開示のさまざまな実施態様による、ゲームシステム1200のブロック図である。ゲームシステム1200は、1つまたは複数のクライアント1210にネットワーク1215を介してビデオストリームを提供するように構成される。ゲームシステム1200は典型的には、ビデオサーバシステム1220と、任意選択のゲームサーバ1225とを含む。ビデオサーバシステム1220は、1つまたは複数のクライアント1210にビデオストリームを最低限のサービス品質で提供するように構成される。たとえば、ビデオサーバシステム1220は、ビデオゲーム内のビューの状態または場所を変更するゲームコマンドを受信し、クライアント1210にこの状態の変化を反映して更新したビデオストリームを、最低限の遅れ時間で提供することがある。ビデオサーバシステム1220は、いまだ定義されていないフォーマットを含む、多種多様な代替的なビデオフォーマットでビデオストリームを提供するように構成されることがある。さらに、ビデオストリームは、ユーザに対して多種多様なフレームレートで提示するために構成されたビデオフレームを含むことがある。典型的なフレームレートは、30フレーム毎秒、60フレーム毎秒、及び120フレーム毎秒である。しかし、本開示の代替的な実施態様では、より高いまたはより低いフレームレートも含まれる。
本明細書で個別に参照されるクライアント1210である、1210A、1210Bなどは、ヘッドマウントディスプレイ、ターミナル、パーソナルコンピュータ、ゲームコンソール、タブレットコンピュータ、電話、セットトップボックス、キオスク、ワイヤレスデバイス、デジタルパッド、スタンドアロンデバイス、ハンドヘルドゲームプレイングデバイス、及び/または同様のものを含んでもよい。典型的には、クライアント1210は、エンコードされたビデオストリームを受信し、ビデオストリームをデコードし、結果として得られたビデオをユーザ、たとえば、ゲームのプレイヤーに提示するように構成される。エンコードされたビデオストリームを受信するプロセス、及び/またはビデオストリームをデコードするプロセスは、典型的には、個別のビデオフレームをクライアントの受信バッファに保存することを含む。ビデオストリームは、ユーザに対して、クライアント1210と一体化されたディスプレイ上に、またはモニタもしくはテレビ受像機などの別個のデバイス上に提示されることがある。クライアント1210は任意選択的に、2人以上のゲームプレイヤーをサポートするように構成される。たとえば、ゲームコンソールは、2人、3人、4人、またはより多くのプレイヤーを同時にサポートするように構成されることがある。これらのプレイヤーのそれぞれは、別個のビデオストリームを受信することがあり、または単一のビデオストリームが、それぞれのプレイヤーのために特定的に生成された、たとえば、それぞれのプレイヤーの視点に基づいて生成された、フレームの領域を含むことがある。クライアント1210は任意選択的に、地理的に分散している。ゲームシステム1200に含まれるクライアントの数は、1つ、2つから、数千、数万、またはそれ以上と幅広く異なることがある。本明細書で使用される場合、「ゲームプレイヤー」という用語は、ゲームをプレイする人を指すために使用され、「ゲームプレイングデバイス」という用語は、ゲームをプレイするために使用されるデバイスを指すために使用される。いくつかの実施態様では、ゲームプレイングデバイスは、連動してユーザにゲーム体験を届ける、複数のコンピューティングデバイスを指す場合がある。たとえば、ゲームコンソールとHMDとは、HMDを通して視認されるゲームを届けるためにビデオサーバシステム1220と連携することがある。1つの実施態様では、ゲームコンソールは、ビデオサーバシステム1220からビデオストリームを受信し、ゲームコンソールは、このビデオストリームまたはビデオストリームに対する更新を、レンダリングするためにHMDへと転送する。
クライアント1210は、ネットワーク1215を介してビデオストリームを受信するように構成される。ネットワーク1215は、電話ネットワーク、インターネット、ワイヤレスネットワーク、電力線ネットワーク、ローカルエリアネットワーク、広域ネットワーク、プライベートネットワーク、及び/または同様のものを含む任意の種類の通信ネットワークとすることができる。典型的な実施態様では、ビデオストリームは、TCP/IPまたはUDP/IPなどの標準的なプロトコルを介して通信される。代替的には、ビデオストリームは、独自開発規格を介して通信される。
クライアント1210の典型的な例は、プロセッサと、不揮発性メモリと、ディスプレイと、デコーディングロジックと、ネットワーク通信能力と、入力デバイスとを備える、パーソナルコンピュータである。デコーディングロジックは、ハードウェア、ファームウェア、及び/またはコンピュータ可読媒体上に保存されたソフトウェアを含んでもよい。ビデオストリームをデコード(及びエンコード)するためのシステムは、当該技術分野ではよく知られており、使用される特定のエンコーディングスキームに応じて変化する。
クライアント1210は、受信したビデオを修正するように構成されたシステムをさらに含むことがあるが、これは要求されない。たとえば、クライアントは、さらなるレンダリング、1つのビデオ画像の別のビデオ画像上へのオーバーレイ、ビデオ画像のクロップ、及び/または同様のことを実施するように構成されることがある。たとえば、クライアント1210は、さまざまなタイプのビデオフレーム(I-フレーム、P-フレーム、及びB-フレームなど)を受信し、かつこれらのフレームをユーザに対して表示するために画像へと処理するように構成されることがある。いくつかの実施態様では、クライアント1210のメンバーは、ビデオストリームにさらなるレンダリング、シェーディング、3次元への変換、または同様の動作を実施するように構成される。クライアント1210のメンバーは、任意選択的に2つ以上のオーディオまたはビデオストリームを受信するように構成される。クライアント1210の入力デバイスは、たとえば、片手用ゲームコントローラ、両手用ゲームコントローラ、ジェスチャ認識システム、視線認識システム、音声認識システム、キーボード、ジョイスティック、ポインティングデバイス、フォースフィードバックデバイス、動き及び/もしくは位置検知デバイス、マウス、タッチスクリーン、ニューラルインタフェース、カメラ、いまだ開発されていない入力デバイス、ならびに/または同様のものを含むことがある。
クライアント1210によって受信されるビデオストリーム(及び、任意選択的にオーディオストリーム)は、ビデオサーバシステム1220によって生成され、かつ提供される。本明細書のいずれかにさらに記載されるように、このビデオストリームはビデオフレームを含む(かつ、オーディオストリームはオーディオフレームを含む)。ビデオフレームは、ユーザに表示される画像に有意に寄与するように構成される(たとえば、ビデオフレームは、適切なデータ構造の中にピクセル情報を含む)。本明細書で使用される場合、「ビデオフレーム」という用語は、主としてユーザに対して示される画像に寄与する、たとえば、影響を与えるように構成される情報を含むフレームを指すように使用される。本明細書の、「ビデオフレーム」に関するほとんどの教示は、「オーディオフレーム」にも適用することができる。
クライアント1210は、典型的には、ユーザからの入力を受信するように構成される。これらの入力は、ビデオゲームの状態を変化させるように、または別の方法でゲームプレイに影響を与えるように構成されるゲームコマンドを含むことがある。ゲームコマンドを、入力デバイスを使用して受信することができ、かつ/または、ゲームコマンドを、クライアント1210上で実行する命令を演算することによって自動的に生成することがある。受信したゲームコマンドは、クライアント1210から、ネットワーク1215を介して、ビデオサーバシステム1220及び/またはゲームサーバ1225へ通信される。たとえば、いくつかの実施態様では、ゲームコマンドは、ビデオサーバシステム1220を介してゲームサーバ1225へ通信される。いくつかの実施態様では、ゲームコマンドの別個のコピーが、クライアント1210から、ゲームサーバ1225及びビデオサーバシステム1220へ通信される。ゲームコマンドの通信は任意選択的に、コマンドの識別情報に依存する。ゲームコマンドは任意選択的に、クライアント1210Aから、オーディオまたはビデオストリームをクライアント1210Aに提供するために使用される異なるルートまたは通信チャネルを通して通信される。
ゲームサーバ1225は任意選択的に、ビデオサーバシステム1220とは異なるエンティティによって動作される。たとえば、ゲームサーバ1225は、マルチプレイヤーゲームのパブリッシャーによって動作される場合がある。この例では、ビデオサーバシステム1220は、任意選択的に、ゲームサーバ1225によってクライアントとして見られ、任意選択的に、ゲームサーバ1225の視点から先行技術のゲームエンジンを実行する先行技術のクライアントであることを表すように構成される。ビデオサーバシステム1220とゲームサーバ1225との間の通信は、任意選択的にネットワーク1215を介して発生する。そのため、ゲームサーバ1225は、ゲーム状態情報を複数のクライアントに送る、先行技術のマルチプレイヤーゲームサーバとすることができ、複数のクライアントのうちの1つが、ゲームサーバシステム1220である。ビデオサーバシステム1220は、ゲームサーバ1225の複数のインスタンスと同時に通信するように構成されることがある。たとえば、ビデオサーバシステム1220は、複数の異なるビデオゲームを異なるユーザに提供できるように構成することができる。これらの異なるビデオゲームのそれぞれは、異なるゲームサーバ1225によってサポートされる場合があり、かつ/または異なるエンティティによってパブリッシュされる場合がある。いくつかの実施態様では、いくつかの地理的に分散したビデオサーバシステム1220のインスタンスは、ゲームビデオを複数の異なるユーザへと提供するように構成される。ビデオサーバシステム1220のこれらのインスタンスのそれぞれは、ゲームサーバ1225の同一のインスタンスと通信することがある。ビデオサーバシステム1220と1つまたは複数のゲームサーバ1225との間の通信が、任意選択的に専用の通信チャネルを介して発生する。たとえば、ビデオサーバシステム1220は、ゲームサーバ1225にこれらの2つのシステムの間の通信専用の高帯域幅のチャネルを介して接続されることがある。
ビデオサーバシステム1220は、少なくとも、ビデオソース1230と、I/Oデバイス1245と、プロセッサ1250と、非一時的ストレージ1255とを備える。ビデオサーバシステム1220は、1つのコンピューティングデバイスを含むか、または複数のコンピューティングデバイスの間に分散されることがある。これらのコンピューティングデバイスは、任意選択的に、ローカルエリアネットワークなどの通信システムを介して接続されることがある。
ビデオソース1230は、ビデオストリーム、たとえば、ストリーミングビデオ、または動画を形成する一連のビデオフレームを提供するように構成される。いくつかの実施態様では、ビデオソース1230は、ビデオゲームエンジン及びレンダリングロジックを含む。ビデオゲームエンジンは、プレイヤーからゲームコマンドを受信し、受信したコマンドに基づいてビデオゲームの状態のコピーを維持するように構成される。このゲーム状態には、ゲーム環境内の対象物の位置、ならびに典型的には視点を含む。ゲーム状態は、対象物のプロパティ、画像、色、及び/またはテクスチャも含むことがある。ゲーム状態は、典型的には、ゲームルール、ならびに移動、回転、アタック、焦点を合わせる、インタラクション、使用、及び/または同様なものなどのゲームコマンドに基づいて維持される。ゲームエンジンの一部分は、任意選択的にゲームサーバ1225内に配置される。ゲームサーバ1225は、複数のプレイヤーから地理的に分散したクライアントを使用して受信したゲームコマンドに基づいて、ゲームの状態のコピーを維持する場合がある。これらの場合、ゲーム状態は、ゲームサーバ1225によってビデオソース1230へと提供され、ゲーム状態のコピーは、保存され、レンダリングが実行される。ゲームサーバ1225は、ゲームコマンドをクライアント1210からネットワーク1215を介して直接的に受信することがあり、かつ/または、ゲームコマンドをビデオサーバシステム1220を介して受信することがある。
ビデオソース1230は、典型的には、レンダリングロジック、たとえば、ハードウェア、ファームウェア、及び/またはストレージ1255などのコンピュータ可読媒体上に保存されたソフトウェアを含む。このレンダリングロジックは、ゲーム状態に基づいてビデオストリームのビデオフレームを作製するように構成される。レンダリングロジックのすべてまたは一部分は、任意選択的にグラフィックスプロセッシングユニット(GPU)内に配置される。レンダリングロジックは、ゲーム状態及び視点に基づいて、典型的には対象物間の3次元空間的関係を判定する、及び/または適切なテクスチャを適用する、などのために、構成される処理段階を含む。レンダリングロジックは、通常、その後クライアント1210に通信する前にエンコードされる、未加工のビデオを生成する。たとえば、未加工のビデオは、Adobe Flash(登録商標)standard、.wav、H.264、H.263、On2、VP6、VC-1、WMA、Huffyuv、Lagarith、MPG-x.Xvid.FFmpeg、x264、VP6-8、realvideo、mp3、または同様のものによってエンコードされることがある。エンコードプロセスは任意選択的に、リモートデバイス上のデコーダに送達するためのパッケージ化されたビデオストリームを生成する。ビデオストリームは、フレームサイズ及びフレームレートによって特徴付けられる。典型的なフレームサイズとしては、800×600、1280×720(たとえば、720p)、1024×768が挙げられるが、任意の他のフレームサイズが使用されてもよい。フレームレートは、1秒当たりのビデオフレームの数である。ビデオストリームは、異なるタイプのビデオフレームを含むことがある。たとえば、H.264規格は、「P」フレーム及び「I」フレームを含む。I-フレームは、ディスプレイデバイス上のすべてのマクロブロック/ピクセルをリフレッシュするための情報を含むが、一方で、P-フレームは、そのサブセットをリフレッシュする情報を含む。P-フレームは典型的には、データサイズがI-フレームより小さい。本明細書で使用される場合、「フレームサイズ」という用語は、1つのフレーム内のピクセルの数を意味する。「フレームデータサイズ」という用語は、フレームを保存するために要求されるバイト数を指すために使用される。
代替的な実施態様では、ビデオソース1230は、カメラなどのビデオ録画デバイスを含む。このカメラは、コンピュータゲームのビデオストリームに含まれる遅延ビデオまたはライブビデオを作り出すために使用されることがある。結果として得られるビデオストリームは、任意選択的に、レンダリングされた画像とスチルカメラまたはビデオカメラを使用して録画された画像との両方を含む。ビデオソース1230は、以前録画したビデオをビデオストリームに含むために保存するように構成されたストレージデバイスも含むことがある。ビデオソース1230は、対象物、たとえば、人の動きまたは位置を検出するように構成された、動きまたは位置検知デバイス、及びゲーム状態を判定する、または検出された動き及び/または位置に基づくビデオを生成するように構成されるロジックも含むことがある。
ビデオソース1230は任意選択的に、他のビデオ上に定置されるように構成されたオーバーレイを提供するように構成される。たとえば、これらのオーバーレイは、コマンドインタフェース、ログインのやり方、ゲームプレイヤーへのメッセージ、他のゲームプレイヤーの画像、他のゲームプレイヤーのビデオフィード(たとえば、ウェブカムビデオ)を含んでもよい。タッチスクリーンインタフェースまたは視線検出インタフェースを含むクライアント1210Aの実施態様では、オーバーレイは、バーチャルキーボード、ジョイスティック、タッチパッド、及び/または同様のものを含むことがある。オーバーレイの1つの例では、プレイヤーの声がオーディオストリーム上に重ねられる。ビデオソース1230は任意選択的に、1つまたは複数のオーディオソースをさらに含む。
2人以上のプレイヤーからの入力に基づいてゲーム状態を維持するようにビデオサーバシステム1220が構成される実施態様では、それぞれのプレイヤーは、ビューの位置及び方向を含む異なる視点を有することがある。ビデオソース1230は任意選択的に、それぞれのプレイヤーに対して各自の視点に基づいた別個のビデオストリームを提供するように構成される。さらに、ビデオソース1230は、クライアント1210のそれぞれに対して異なるフレームサイズ、フレームデータサイズ、及び/またはエンコードを提供するように構成されることがある。ビデオソース1230は任意選択的に、3次元ビデオを提供するように構成される。
I/Oデバイス1245は、ビデオサーバシステム1220のために、ビデオ、コマンド、情報要求、ゲーム状態、視線情報、デバイスの動き、デバイスの場所、ユーザの動き、クライアント識別情報、プレイヤー識別情報、ゲームコマンド、セキュリティ情報、オーディオ、及び/または同様なものなどの情報を送信及び/または受信するように構成される。I/Oデバイス1245は典型的には、ネットワークカードまたはモデムなどの通信ハードウェアを含む。I/Oデバイス1245は、ゲームサーバ1225、ネットワーク1215、及び/またはクライアント1210と通信するように構成される。
プロセッサ1250は、ロジック、たとえば、本明細書で論じられるビデオサーバシステム1220のさまざまな構成要素内に含まれる、ソフトウェアを実行するように構成される。たとえば、プロセッサ1250は、ビデオソース1230、ゲームサーバ1225、及び/またはクライアントクオリファイア1260の機能を実行するように、ソフトウェア命令を用いてプログラムされてもよい。ビデオサーバシステム1220は任意選択的に、プロセッサ1250の2つ以上のインスタンスを含む。プロセッサ1250はまた、ビデオサーバシステム1220によって受信されたコマンドを実行するため、または本明細書で論じられるゲームシステム1200のさまざまな要素の動作を連係するために、ソフトウェア命令を用いてプログラムされてもよい。プロセッサ1250は、1つまたは複数のハードウェアデバイスを含んでもよい。プロセッサ1250は、電子プロセッサである。
ストレージ1255は、非一時的アナログ及び/またはデジタルストレージデバイスを含む。たとえば、ストレージ1255は、ビデオフレームを保存するように構成されるアナログストレージデバイスを含むことがある。ストレージ1255は、コンピュータ可読デジタルストレージ、たとえばハードドライブ、光学式ドライブ、またはソリッドステートストレージを含むことがある。ストレージ1215は、ビデオフレーム、人工フレーム、ビデオフレームと人工フレームとを両方含むビデオストリーム、オーディオフレーム、オーディオストリーム、及び/または同様のものを保存するように構成される(たとえば、適切なデータ構造、またはファイルシステムによって)。ストレージ1255は任意選択的に、複数のデバイスの中に分散される。いくつかの実施態様では、ストレージ1255は、本明細書のいずれかで論じられるビデオソース1230のソフトウェア構成要素を保存するように構成される。これらの構成要素は、必要に応じて供給する用意ができた形式で保存されることがある。
ビデオサーバシステム1220は任意選択的に、クライアントクオリファイア1260をさらに備える。クライアントクオリファイア1260は、クライアント1210Aまたは1210Bなどのクライアントの能力をリモートで判定するために構成される。これらの能力は、クライアント1210A自身の能力、ならびに、クライアント1210Aとビデオサーバシステム1220との間の1つまたは複数の通信チャネルの能力の両方を含むことができる。たとえば、クライアントクオリファイア1260は、ネットワーク1215を通る通信チャネルをテストするように構成されることがある。
クライアントクオリファイア1260は、クライアント1210Aの能力を、手動でまたは自動で判定(たとえば、発見)することができる。手動判定は、クライアント1210Aのユーザと通信し、ユーザに能力を提供するように依頼することを含む。たとえば、いくつかの実施態様では、クライアントクオリファイア1260は、画像、テキスト、及び/または同様のものをクライアント1210Aのブラウザ内に表示するように構成される。1つの実施態様では、クライアント1210Aは、ブラウザを含むHMDである。別の実施態様では、クライアント1210Aは、HMD上に表示されてもよいブラウザを有するゲームコンソールである。表示された対象物は、ユーザによる、クライアント1210Aのオペレーティングシステム、プロセッサ、ビデオデコーダタイプ、ネットワーク接続の種類、ディスプレイ解像度などの情報の入力を要求する。ユーザが入力した情報は、クライアントクオリファイア1260に戻すように通信される。
自動判定は、たとえば、クライアント1210A上のエージェントの実行によって、及び/または、テストビデオをクライアント1210Aに送信することによって発生することがある。エージェントは、ウェブページに埋め込まれた、またはアドオンとしてインストールされたjava(登録商標) scriptなどのコンピューティング命令を含むことがある。エージェントは任意選択的に、クライアントクオリファイア1260によって提供される。さまざまな実施態様では、エージェントは、クライアント1210Aの処理能力、クライアント1210Aのデコード及び表示能力、クライアント1210Aとビデオサーバシステム1220との間の通信チャネルの遅れ時間の信頼性及び帯域幅、クライアント1210Aのディスプレイの種類、クライアント1210A上に存在するファイアウォール、クライアント1210Aのハードウェア、クライアント1210Aで実行しているソフトウェア、クライアント1210A内のレジストリエントリ、及び/または同様のものを見出すことができる。
クライアントクオリファイア1260は、ハードウェア、ファームウェア、及び/またはコンピュータ可読媒体上に保存されるソフトウェアを含む。クライアントクオリファイア1260は任意選択的に、ビデオサーバシステム1220の1つまたは複数の他の要素から分離したコンピューティングデバイス上に配置される。たとえば、いくつかの実施態様では、クライアントクオリファイア1260は、クライアント1210とビデオサーバシステム1220の2つ以上のインスタンスとの間の通信チャネルの特性を判定するように構成される。これらの実施態様では、クライアントクオリファイアによって発見された情報を、ビデオサーバシステム1220のどのインスタンスが、クライアント1210のうちの1つへのストリーミングビデオの送達のために最も適しているかを判断するために使用することができる。
本開示の各実施態様は、ハンドヘルドデバイス、マイクロプロセッサシステム、マイクロプロセッサベースまたはプログラム可能な家庭用電気製品、ミニコンピュータ、メインフレームコンピュータなど、さまざまなコンピュータシステム構成によって実施されてもよい。本開示を、タスクが有線ネットワークまたは無線ネットワークを通してリンクされるリモート処理デバイスによって実行される、分散したコンピューティング環境で実践することもできる。
上述の各実施態様を考慮に入れて、本開示は、コンピュータシステムに保存されるデータを含む、さまざまなコンピュータ実装操作を使用してもよいことを理解すべきである。これらの操作には、物理量の物理的な操作を必要とする操作が含まれる。本開示の一部を形成する本明細書に記載された操作はいずれも、有益な機械操作である。本開示は、これらの操作を実行するためのデバイスまたは機器にも関する。機器を要求される目的のために特に構築することができ、または、機器をコンピュータ内に保管されたコンピュータプログラムによって選択的に起動または構成された汎用コンピュータとすることができる。特に、本明細書の教示に従って書かれたコンピュータプログラムを用いて、さまざまな汎用マシンを使用することができ、または、より特化した機器を構築して必要な動作を実行することがより都合がよいことがある。
本開示は、コンピュータ可読媒体上のコンピュータ可読コードとして具現化することもできる。コンピュータ可読媒体は、その後コンピュータシステムによって読み取ることができるデータを保存できる任意のデータストレージデバイスである。コンピュータ可読媒体の例には、ハードディスク、ネットワーク接続ストレージ(NAS)、リードオンリーメモリ、ランダムアクセスメモリ、CD-ROM、CD-R、CD-RW、磁気テープ、ならびに他の光学式データストレージデバイス及び非光学式データストレージデバイスなどがある。コンピュータ可読媒体としては、コンピュータ可読コードを分散した様式で保存及び実行するように、ネットワーク連結されたコンピュータシステムを通して分散するコンピュータ可読有形媒体を挙げることができる。
方法動作を特定の順序で記載したが、動作の間に他のハウスキーピング動作が実行されてもよく、または動作が若干異なる時間に発生するように動作が調整されてもよく、または動作がシステム内に分散されてもよく、これは、オーバーレイ動作の処理が所望されるやり方で実行される限り、処理と関連するさまざまな間隔での処理動作の発生を可能にすることを理解するべきである。
前述の開示は、理解の明確化の目的である程度詳細に記載されてきたが、添付の特許請求の範囲の範囲内で、ある程度の変更及び修正を実践することができることは明らかである。したがって、本実施態様は、例示的であり、制限的でないと考えられるべきであり、本開示は、本明細書で与えられた詳細に制限されないが、添付の特許請求の範囲及び均等物の範囲内で修正されてもよい。

Claims (21)

  1. クライアントデバイスからネットワークを介して、バーチャルリアリティ観戦者によるヘッドマウントディスプレイを通してライブイベントを観戦する要求を受信することと、
    前記バーチャルリアリティ観戦者を前記ライブイベントが開催される会場のシートに割り当てることと、
    前記会場の前記シートがキャプチャされて前記会場内のディスプレイに映写される場合、前記シートに割り当てられた前記バーチャルリアリティ観戦者または前記バーチャルリアリティ観戦者に関連付けられたアバターの画像が前記シートを占有する位置に含まれるように前記会場内の前記ディスプレイにレンダリングされるビデオを変更することと、
    前記会場内に位置付けられた複数のカメラから複数のビデオフィードを受信することと、
    前記シートに関連付けて保存されたビデオ処理パラメータにアクセスすることと、
    前記バーチャルリアリティ観戦者の視界が、前記複数のカメラからの前記複数のビデオフィードに基づいて提供できるカバー領域によって定義され、会場空間のリアルタイムライブビューを提供できるライブビュー領域と、前記リアルタイムライブビューがもたらされない残りのビュー領域との両方の部分を含むとき、前記ライブビュー領域については、前記ビデオ処理パラメータを使用して前記ビデオフィードを選択し、前記選択したビデオフィードをつぎ合わせてライブビデオを生成し、前記残りのビュー領域については、前記複数のカメラによって予め記録されたビデオをつぎ合わせて非ライブビデオを生成し、前記ライブビデオと前記非ライブビデオを組み合わせて、前記会場内の前記シートの3次元位置によって実質的に定義される視点からの前記会場のビューを提供するコンポジットビデオを生成することと、
    前記ヘッドマウントディスプレイにレンダリングするために、前記ネットワークを介して前記コンポジットビデオを前記クライアントデバイスに送信することと
    を含む、方法。
  2. 前記ビデオ処理パラメータが、つぎ合わせのためにどの前記ビデオフィードを選択するか識別し、
    前記ビデオ処理パラメータが、前記ビデオ処理パラメータが関連付けられた前記シートの前記3次元位置と、前記ビデオフィードを提供する前記カメラの3次元位置とに基づいて定義される、請求項1に記載の方法。
  3. 前記バーチャルリアリティ観戦者を前記シートに割り当てることが、前記会場内のシートの占有ステータスを識別することを含み、
    与えられたシートの前記占有ステータスが、前記与えられたシートが前記会場内で実際の観戦者によって占有されているかどうかを示し、
    前記バーチャルリアリティ観戦者が割り当てられる前記シートが、実際の観戦者によって占有されていないシートである、請求項1に記載の方法。
  4. 前記与えられたシートの前記占有ステータスが、前記与えられたシートが別のバーチャルリアリティ観戦者によって占有されているかどうかをさらに示し、
    前記バーチャルリアリティ観戦者が割り当てられる前記シートが、別のバーチャルリアリティ観戦者によって占有されていないシートである、請求項3に記載の方法。
  5. 前記バーチャルリアリティ観戦者を前記シートに割り当てることが、
    前記バーチャルリアリティ観戦者のソーシャルグラフにアクセスすることと、
    前記ソーシャルグラフのメンバーである別のバーチャルリアリティ観戦者に割り当てられたシートへの近さに基づいて前記シートを選択することと
    を含む、請求項1に記載の方法。
  6. 前記シートに関連付けて保存されたオーディオ処理パラメータにアクセスすることと、
    前記オーディオ処理パラメータを使用して、前記会場内の前記シートの前記3次元位置によって実質的に定義される視点から聞こえることをシミュレートするオーディオデータを生成することと、
    前記オーディオデータを前記ネットワークを介して前記クライアントデバイスに送信することと
    をさらに含む、請求項1に記載の方法。
  7. 前記オーディオ処理パラメータが、前記会場内の1つまたは複数のマイクロフォンによってキャプチャされたオーディオを識別して、それから前記オーディオデータを生成し、
    前記オーディオ処理パラメータが、前記オーディオ処理パラメータが関連付けられた前記シートの前記3次元位置と、前記マイクロフォンの3次元位置とに基づいて定義される、請求項6に記載の方法。
  8. 非一時的コンピュータ可読媒体であって、少なくとも1つのコンピュータで実行されるとき、前記少なくとも1つのコンピュータに、以下の操作、
    クライアントデバイスからネットワークを介して、バーチャルリアリティ観戦者によるヘッドマウントディスプレイを通してライブイベントを観戦する要求を受信することと、
    前記バーチャルリアリティ観戦者を前記ライブイベントが開催される会場のシートに割り当てることと、
    前記会場の前記シートがキャプチャされて前記会場内のディスプレイに映写される場合、前記シートに割り当てられた前記バーチャルリアリティ観戦者または前記バーチャルリアリティ観戦者に関連付けられたアバターの画像が前記シートを占有する位置に含まれるように前記会場内の前記ディスプレイにレンダリングされるビデオを変更することと、
    前記会場内に位置付けられた複数のカメラから複数のビデオフィードを受信することと、
    前記シートに関連付けて保存されたビデオ処理パラメータにアクセスすることと、
    前記バーチャルリアリティ観戦者の視界が、前記複数のカメラからの前記複数のビデオフィードに基づいて提供できるカバー領域によって定義され、会場空間のリアルタイムライブビューを提供できるライブビュー領域と、前記リアルタイムライブビューがもたらされない残りのビュー領域との両方の部分を含むとき、前記ライブビュー領域については、前記ビデオ処理パラメータを使用して前記ビデオフィードを選択し、前記選択したビデオフィードをつぎ合わせてライブビデオを生成し、前記残りのビュー領域については、前記複数のカメラによって予め記録されたビデオをつぎ合わせて非ライブビデオを生成し、前記ライブビデオと前記非ライブビデオを組み合わせて、前記会場内の前記シートの3次元位置によって実質的に定義される視点からの前記会場のビューを提供するコンポジットビデオを生成することと、
    前記ヘッドマウントディスプレイにレンダリングするために、前記ネットワークを介して前記コンポジットビデオを前記クライアントデバイスに送信することと
    を含む方法を実行させる、前記非一時的コンピュータ可読媒体上に具現化されたプログラム命令を有する、非一時的コンピュータ可読媒体。
  9. 前記ビデオ処理パラメータが、つぎ合わせのためにどの前記ビデオフィードを選択するか識別し、
    前記ビデオ処理パラメータが、前記ビデオ処理パラメータが関連付けられた前記シートの前記3次元位置と、前記ビデオフィードを提供する前記カメラの3次元位置とに基づいて定義される、請求項8に記載の非一時的コンピュータ可読媒体。
  10. 前記バーチャルリアリティ観戦者を前記シートに割り当てることが、前記会場内のシートの占有ステータスを識別することを含み、
    与えられたシートの前記占有ステータスが、前記与えられたシートが前記会場内で実際の観戦者によって占有されているかどうかを示し、
    前記バーチャルリアリティ観戦者が割り当てられる前記シートが、実際の観戦者によって占有されていないシートである、請求項8に記載の非一時的コンピュータ可読媒体。
  11. 前記与えられたシートの前記占有ステータスが、前記与えられたシートが別のバーチャルリアリティ観戦者によって占有されているかどうかをさらに示し、
    前記バーチャルリアリティ観戦者が割り当てられる前記シートが、別のバーチャルリアリティ観戦者によって占有されていないシートである、請求項10に記載の非一時的コンピュータ可読媒体。
  12. 前記バーチャルリアリティ観戦者を前記シートに割り当てることが、
    前記バーチャルリアリティ観戦者のソーシャルグラフにアクセスすることと、
    前記ソーシャルグラフのメンバーである別のバーチャルリアリティ観戦者に割り当てられたシートへの近さに基づいて前記シートを選択することと
    を含む、請求項8に記載の非一時的コンピュータ可読媒体。
  13. 前記シートに関連付けて保存されたオーディオ処理パラメータにアクセスすることと、
    前記オーディオ処理パラメータを使用して、前記会場内の前記シートの前記3次元位置によって実質的に定義される視点から聞こえることをシミュレートするオーディオデータを生成することと、
    前記オーディオデータを前記ネットワークを介して前記クライアントデバイスに送信することと
    をさらに含む、請求項8に記載の非一時的コンピュータ可読媒体。
  14. 前記オーディオ処理パラメータが、前記会場内の1つまたは複数のマイクロフォンによってキャプチャされたオーディオを識別して、それから前記オーディオデータを生成し、
    前記オーディオ処理パラメータが、前記オーディオ処理パラメータが関連付けられた前記シートの前記3次元位置と、前記マイクロフォンの3次元位置とに基づいて定義される、請求項13に記載の非一時的コンピュータ可読媒体。
  15. 少なくとも1つのコンピューティングデバイスを備え、
    前記少なくとも1つのコンピューティングデバイスが、少なくとも1つのプロセッサと、少なくとも1つのメモリとを有し、
    前記少なくとも1つのコンピューティングデバイスが、
    クライアントデバイスからネットワークを介して、バーチャルリアリティ観戦者によるヘッドマウントディスプレイを通してライブイベントを観戦する要求を受信することと、
    前記バーチャルリアリティ観戦者を前記ライブイベントが開催される会場のシートに割り当てることと、
    前記会場の前記シートがキャプチャされて前記会場内のディスプレイに映写される場合、前記シートに割り当てられた前記バーチャルリアリティ観戦者または前記バーチャルリアリティ観戦者に関連付けられたアバターの画像が前記シートを占有する位置に含まれるように前記会場内の前記ディスプレイにレンダリングされるビデオを変更することと、
    前記会場内に位置付けられた複数のカメラから複数のビデオフィードを受信することと、
    前記シートに関連付けて保存されたビデオ処理パラメータにアクセスすることと、
    前記バーチャルリアリティ観戦者の視界が、前記複数のカメラからの前記複数のビデオフィードに基づいて提供できるカバー領域によって定義され、会場空間のリアルタイムライブビューを提供できるライブビュー領域と、前記リアルタイムライブビューがもたらされない残りのビュー領域との両方の部分を含むとき、前記ライブビュー領域については、前記ビデオ処理パラメータを使用して前記ビデオフィードを選択し、前記選択したビデオフィードをつぎ合わせてライブビデオを生成し、前記残りのビュー領域については、前記複数のカメラによって予め記録されたビデオをつぎ合わせて非ライブビデオを生成し、前記ライブビデオと前記非ライブビデオを組み合わせて、前記会場内の前記シートの3次元位置によって実質的に定義される視点からの前記会場のビューを提供するコンポジットビデオを生成することと、
    前記ヘッドマウントディスプレイにレンダリングするために、前記ネットワークを介して前記コンポジットビデオを前記クライアントデバイスに送信することと
    を実行するように構成された、システム。
  16. 前記ビデオ処理パラメータが、つぎ合わせのためにどの前記ビデオフィードを選択するか識別し、
    前記ビデオ処理パラメータが、前記ビデオ処理パラメータが関連付けられた前記シートの前記3次元位置と、前記ビデオフィードを提供する前記カメラの3次元位置とに基づいて定義される、請求項15に記載のシステム。
  17. 前記バーチャルリアリティ観戦者を前記シートに割り当てることが、前記会場内のシートの占有ステータスを識別することを含み、
    与えられたシートの前記占有ステータスが、前記与えられたシートが前記会場内で実際の観戦者によって占有されているかどうかを示し、
    前記バーチャルリアリティ観戦者が割り当てられる前記シートが、実際の観戦者によって占有されていないシートである、請求項15に記載のシステム。
  18. 前記与えられたシートの前記占有ステータスが、前記与えられたシートが別のバーチャルリアリティ観戦者によって占有されているかどうかをさらに示し、
    前記バーチャルリアリティ観戦者が割り当てられる前記シートが、別のバーチャルリアリティ観戦者によって占有されていないシートである、請求項17に記載のシステム。
  19. 前記バーチャルリアリティ観戦者を前記シートに割り当てることが、
    前記バーチャルリアリティ観戦者のソーシャルグラフにアクセスすることと、
    前記ソーシャルグラフのメンバーである別のバーチャルリアリティ観戦者に割り当てられたシートへの近さに基づいて前記シートを選択することと
    を含む、請求項15に記載のシステム。
  20. 前記シートに関連付けて保存されたオーディオ処理パラメータにアクセスすることと、
    前記オーディオ処理パラメータを使用して、前記会場内の前記シートの前記3次元位置によって実質的に定義される視点から聞こえることをシミュレートするオーディオデータを生成することと、
    前記オーディオデータを前記ネットワークを介して前記クライアントデバイスに送信することと
    をさらに含む、請求項15に記載のシステム。
  21. 前記オーディオ処理パラメータが、前記会場内の1つまたは複数のマイクロフォンによってキャプチャされたオーディオを識別して、それから前記オーディオデータを生成し、
    前記オーディオ処理パラメータが、前記オーディオ処理パラメータが関連付けられた前記シートの前記3次元位置と、前記マイクロフォンの3次元位置とに基づいて定義される、請求項20に記載のシステム。
JP2020518439A 2017-09-29 2018-09-25 エレクトロニックスポーツのバーチャルリアリティ観戦のための会場マッピング Active JP7258864B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/721,656 US10621784B2 (en) 2017-09-29 2017-09-29 Venue mapping for virtual reality spectating of live events
US15/721,656 2017-09-29
PCT/US2018/052744 WO2019067480A1 (en) 2017-09-29 2018-09-25 PLACE MAPPING TO ATTEND VIRTUAL REALITY TO ELECTRONIC SPORTS EVENTS

Publications (2)

Publication Number Publication Date
JP2020535879A JP2020535879A (ja) 2020-12-10
JP7258864B2 true JP7258864B2 (ja) 2023-04-17

Family

ID=63841080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020518439A Active JP7258864B2 (ja) 2017-09-29 2018-09-25 エレクトロニックスポーツのバーチャルリアリティ観戦のための会場マッピング

Country Status (5)

Country Link
US (2) US10621784B2 (ja)
EP (1) EP3687644B1 (ja)
JP (1) JP7258864B2 (ja)
CN (1) CN112135673A (ja)
WO (1) WO2019067480A1 (ja)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11902691B2 (en) * 2015-03-20 2024-02-13 Joseph Register LED panel having integrated infrared retroreflectors for video volume production environments
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
US10471360B2 (en) 2017-03-06 2019-11-12 Sony Interactive Entertainment LLC User-driven spectator channel for live game play in multi-player games
US11579744B2 (en) * 2017-06-21 2023-02-14 Navitaire Llc Systems and methods for seat selection in virtual reality
US10514545B2 (en) * 2017-12-08 2019-12-24 Facebook Technologies, Llc Selective tracking of a head-mounted display
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
US10795445B2 (en) * 2018-01-08 2020-10-06 Facebook Technologies, Llc Methods, devices, and systems for determining contact on a user of a virtual reality and/or augmented reality device
GB2570298A (en) * 2018-01-17 2019-07-24 Nokia Technologies Oy Providing virtual content based on user context
US10953335B2 (en) 2018-02-28 2021-03-23 Sony Interactive Entertainment Inc. Online tournament integration
US11065548B2 (en) 2018-02-28 2021-07-20 Sony Interactive Entertainment LLC Statistical driven tournaments
US10792577B2 (en) 2018-02-28 2020-10-06 Sony Interactive Entertainment LLC Discovery and detection of events in interactive content
US10818142B2 (en) 2018-02-28 2020-10-27 Sony Interactive Entertainment LLC Creation of winner tournaments with fandom influence
US10792576B2 (en) * 2018-02-28 2020-10-06 Sony Interactive Entertainment LLC Player to spectator handoff and other spectator controls
US10814228B2 (en) 2018-02-28 2020-10-27 Sony Interactive Entertainment LLC Statistically defined game channels
US10953322B2 (en) 2018-02-28 2021-03-23 Sony Interactive Entertainment LLC Scaled VR engagement and views in an e-sports event
US10765938B2 (en) 2018-02-28 2020-09-08 Sony Interactive Entertainment LLC De-interleaving gameplay data
US10765957B2 (en) 2018-02-28 2020-09-08 Sony Interactive Entertainment LLC Integrating commentary content and gameplay content over a multi-user platform
US11182962B2 (en) * 2018-03-20 2021-11-23 Logitech Europe S.A. Method and system for object segmentation in a mixed reality environment
CN111936959A (zh) 2018-03-23 2020-11-13 脸谱科技有限责任公司 用于在用户身上显示用户界面并检测触摸手势的方法、设备和系统
CN109242943B (zh) * 2018-08-21 2023-03-21 腾讯科技(深圳)有限公司 一种图像渲染方法、装置及图像处理设备、存储介质
US11381739B2 (en) * 2019-01-23 2022-07-05 Intel Corporation Panoramic virtual reality framework providing a dynamic user experience
JP7314605B2 (ja) * 2019-04-26 2023-07-26 富士通株式会社 表示制御装置、表示制御方法及び表示制御プログラム
US11189097B2 (en) * 2019-06-14 2021-11-30 In It Vr, Llc Simulated reality transition element location
BG67359B1 (bg) * 2019-08-01 2021-07-30 "Фифт Дигрии" Оод Метод и система за интерактивно вграждане на 2d/3d виртуални визуални форми в 360 градуса видеопоток на живо
US11164385B2 (en) * 2019-08-17 2021-11-02 Samsung Electronics Co., Ltd. Apparatuses and methods for establishing virtual reality (VR) call between caller VR device and callee VR device
FR3100637B1 (fr) * 2019-09-09 2022-02-11 Illimitik procédé et dispositif pour diffuser en realite virtuelle des evenements sportifs ou de spectacle vivant
US11298622B2 (en) * 2019-10-22 2022-04-12 Sony Interactive Entertainment Inc. Immersive crowd experience for spectating
US11023729B1 (en) * 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
US11175730B2 (en) * 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
JP6987404B2 (ja) * 2020-02-04 2022-01-05 株式会社コナミデジタルエンタテインメント ゲームプレイシステム
US11430091B2 (en) 2020-03-27 2022-08-30 Snap Inc. Location mapping for large scale augmented-reality
US10956743B1 (en) 2020-03-27 2021-03-23 Snap Inc. Shared augmented reality system
CN113515187B (zh) * 2020-04-10 2024-02-13 咪咕视讯科技有限公司 一种虚拟现实场景的生成方法和网络侧设备
US11196944B2 (en) * 2020-05-06 2021-12-07 At&T Intellectual Property I, L.P. System for infinite windows with optical disparity and depth resolution
JP2021182696A (ja) * 2020-05-19 2021-11-25 憲保 池田 双方向放送方法及びシステム
US11321892B2 (en) 2020-05-21 2022-05-03 Scott REILLY Interactive virtual reality broadcast systems and methods
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
US20230247231A1 (en) * 2020-06-11 2023-08-03 David Cohen Apparatus and method for event participation by spectators
US11991013B2 (en) * 2020-06-19 2024-05-21 Airbnb, Inc. Incorporating individual audience member participation and feedback in large-scale electronic presentation
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
JP7469977B2 (ja) 2020-07-16 2024-04-17 株式会社エヌケービー コンピュータプログラム、情報処理方法及び情報処理装置
JP2022025470A (ja) * 2020-07-29 2022-02-10 株式会社AniCast RM アニメーション制作システム
JP2022028216A (ja) * 2020-08-03 2022-02-16 株式会社セガ プログラム及び情報処理装置
US11070849B2 (en) 2020-08-17 2021-07-20 Zoltan Bathory Event production and distribution networks, systems, apparatuses, and methods related thereto
CN111988635A (zh) * 2020-08-17 2020-11-24 深圳市四维合创信息技术有限公司 基于ai智能的赛事3d动画直播方法及系统
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
US11907412B2 (en) 2020-09-28 2024-02-20 International Business Machines Corporation Contextual spectator inclusion in a virtual reality experience
US11736545B2 (en) * 2020-10-16 2023-08-22 Famous Group Technologies Inc. Client user interface for virtual fan experience
US11341689B1 (en) * 2020-11-05 2022-05-24 International Business Machines Corporation Dynamic virtual audience generation
CN113052978A (zh) * 2020-11-26 2021-06-29 视伴科技(北京)有限公司 一种赛事活动运行仿真系统
JP7283462B2 (ja) * 2020-12-07 2023-05-30 横河電機株式会社 装置、方法およびプログラム
CN112911178B (zh) * 2021-01-18 2024-04-05 奈特视讯科技股份有限公司 飞镖连线竞赛系统
CN112911325B (zh) * 2021-01-29 2023-07-14 百果园技术(新加坡)有限公司 一种跨直播间连线的恢复方法和装置
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
US11622100B2 (en) * 2021-02-17 2023-04-04 flexxCOACH VR 360-degree virtual-reality system for dynamic events
US11893672B2 (en) * 2021-03-02 2024-02-06 International Business Machines Corporation Context real avatar audience creation during live video sharing
US12003806B2 (en) * 2021-03-11 2024-06-04 Quintar, Inc. Augmented reality system for viewing an event with multiple coordinate systems and automatically generated model
CN115086689B (zh) * 2021-03-15 2024-04-05 阿里巴巴创新公司 虚拟直播管理方法、电子设备及计算机存储介质
JPWO2022244157A1 (ja) * 2021-05-19 2022-11-24
JPWO2023286222A1 (ja) * 2021-07-14 2023-01-19
CN113923512A (zh) * 2021-10-13 2022-01-11 咪咕文化科技有限公司 无现场观众赛事视频的处理方法、装置及计算设备
US20230256332A1 (en) * 2022-02-16 2023-08-17 Sony Interactive Entertainment Inc. Massively multiplayer local co-op and competitive gaming
CN115278340B (zh) * 2022-09-26 2022-11-29 中影年年(北京)文化传媒有限公司 一种基于虚拟现实的用户交互方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009065627A (ja) 2007-09-04 2009-03-26 Mitsutoshi Akitani バーチャルイベント視聴システムとその動作方法
JP2013030049A (ja) 2011-07-29 2013-02-07 Fujitsu Ltd 情報処理装置および情報処理プログラム
US20140033078A1 (en) 2010-03-10 2014-01-30 Xmobb, Inc. Instantiating media into a virtual social venue to share with friends
US20160014435A1 (en) 2014-07-11 2016-01-14 ProSports Technologies, LLC Camera feed distribution from event venue virtual seat cameras

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US78917A (en) * 1868-06-16 bailey
GB9601101D0 (en) * 1995-09-08 1996-03-20 Orad Hi Tech Systems Limited Method and apparatus for automatic electronic replacement of billboards in a video image
US5917553A (en) * 1996-10-22 1999-06-29 Fox Sports Productions Inc. Method and apparatus for enhancing the broadcast of a live event
JPH11261884A (ja) * 1998-03-10 1999-09-24 Hitachi Ltd パノラマ映像放送方法および放送受信装置
JP3363861B2 (ja) * 2000-01-13 2003-01-08 キヤノン株式会社 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
JP2003333572A (ja) * 2002-05-08 2003-11-21 Nippon Hoso Kyokai <Nhk> 仮想観客形成装置およびその方法、仮想観客形成受信装置およびその方法ならびに仮想観客形成プログラム
US10438448B2 (en) * 2008-04-14 2019-10-08 Gregory A. Piccionielli Composition production with audience participation
US8167712B2 (en) * 2007-08-08 2012-05-01 Sony Computer Entertainment America Inc. Method and apparatus for player replacement in an on-line game
JP5299018B2 (ja) * 2009-03-26 2013-09-25 ソニー株式会社 情報処理装置、コンテンツ処理方法及びプログラム
US20110225498A1 (en) * 2010-03-10 2011-09-15 Oddmobb, Inc. Personalized avatars in a virtual social venue
CN102195939B (zh) * 2010-03-11 2016-06-15 盛乐信息技术(上海)有限公司 高速无线网络遥控竞技系统及其实现方法
EP3425583A1 (en) * 2010-06-15 2019-01-09 Ticketmaster L.L.C. Methods and systems for computer aided event and venue setup and modeling and interactive maps
US9268406B2 (en) * 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
US20130141526A1 (en) * 2011-12-02 2013-06-06 Stealth HD Corp. Apparatus and Method for Video Image Stitching
US10600235B2 (en) * 2012-02-23 2020-03-24 Charles D. Huston System and method for capturing and sharing a location based experience
US10649613B2 (en) * 2012-06-07 2020-05-12 Wormhole Labs, Inc. Remote experience interfaces, systems and methods
US10137361B2 (en) * 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
CN105474246A (zh) * 2013-07-31 2016-04-06 索尼公司 信息处理设备、信息处理方法和程序
US9542011B2 (en) * 2014-04-08 2017-01-10 Eon Reality, Inc. Interactive virtual reality systems and methods
EP3278308A4 (en) * 2015-04-02 2018-10-24 Catapult Group International Ltd Sports virtual reality system
US10277813B1 (en) * 2015-06-25 2019-04-30 Amazon Technologies, Inc. Remote immersive user experience from panoramic video
US10078917B1 (en) * 2015-06-26 2018-09-18 Lucasfilm Entertainment Company Ltd. Augmented reality simulation
EP3369073A4 (en) * 2015-10-29 2019-06-26 OY Vulcan Vision Corporation VIDEO PICTURE OF A ZONE OF INTEREST USING NETWORKED CAMERAS
US9782678B2 (en) * 2015-12-06 2017-10-10 Sliver VR Technologies, Inc. Methods and systems for computer video game streaming, highlight, and replay
US20170249785A1 (en) 2016-02-29 2017-08-31 Vreal Inc Virtual reality session capture and replay systems and methods
US11163358B2 (en) 2016-03-17 2021-11-02 Sony Interactive Entertainment Inc. Spectating virtual (VR) environments associated with VR user interactivity
CN105915849A (zh) * 2016-05-09 2016-08-31 惠州Tcl移动通信有限公司 一种虚拟现实体育赛事播放方法及系统
US10245507B2 (en) * 2016-06-13 2019-04-02 Sony Interactive Entertainment Inc. Spectator management at view locations in virtual reality environments
US10587905B2 (en) * 2016-12-07 2020-03-10 eSports Immersion LLC Systems and methods for immersing spectators in sporting event and evaluating spectator-participant performance
US10607383B2 (en) * 2017-05-11 2020-03-31 International Business Machines Corporation Seamless focus plane stitching to create panoramic video

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009065627A (ja) 2007-09-04 2009-03-26 Mitsutoshi Akitani バーチャルイベント視聴システムとその動作方法
US20140033078A1 (en) 2010-03-10 2014-01-30 Xmobb, Inc. Instantiating media into a virtual social venue to share with friends
JP2013030049A (ja) 2011-07-29 2013-02-07 Fujitsu Ltd 情報処理装置および情報処理プログラム
US20160014435A1 (en) 2014-07-11 2016-01-14 ProSports Technologies, LLC Camera feed distribution from event venue virtual seat cameras

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
最前列のスポーツ観戦をVRで。NFLが考える、未来のアメフト観戦を紹介する動画が公開,Mogura VR [online],2015年11月02日,URL:https://www.moguravr.com/nfl-future-vr/,[2021年6月3日検索]

Also Published As

Publication number Publication date
JP2020535879A (ja) 2020-12-10
CN112135673A (zh) 2020-12-25
US10621784B2 (en) 2020-04-14
US20200226843A1 (en) 2020-07-16
EP3687644B1 (en) 2024-06-26
US11436803B2 (en) 2022-09-06
EP3687644A1 (en) 2020-08-05
US20190102941A1 (en) 2019-04-04
WO2019067480A1 (en) 2019-04-04

Similar Documents

Publication Publication Date Title
JP7258864B2 (ja) エレクトロニックスポーツのバーチャルリアリティ観戦のための会場マッピング
US10857455B2 (en) Spectator management at view locations in virtual reality environments
US10380798B2 (en) Projectile object rendering for a virtual reality spectator
US10463962B2 (en) Spectator view perspectives in VR environments
US11662813B2 (en) Spectating virtual (VR) environments associated with VR user interactivity
US11389726B2 (en) Second screen virtual window into VR environment
CN109069934B (zh) 对虚拟现实环境(vr)中的vr用户的观众视图跟踪
CN107735152B (zh) 用于虚拟现实(vr)观看的扩展视野重新渲染
US11534684B2 (en) Systems and methods for detecting and displaying a boundary associated with player movement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220411

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221222

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221222

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230112

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230405

R150 Certificate of patent or registration of utility model

Ref document number: 7258864

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150