JP7258864B2 - Venue Mapping for Virtual Reality Spectator of Electronic Sports - Google Patents

Venue Mapping for Virtual Reality Spectator of Electronic Sports Download PDF

Info

Publication number
JP7258864B2
JP7258864B2 JP2020518439A JP2020518439A JP7258864B2 JP 7258864 B2 JP7258864 B2 JP 7258864B2 JP 2020518439 A JP2020518439 A JP 2020518439A JP 2020518439 A JP2020518439 A JP 2020518439A JP 7258864 B2 JP7258864 B2 JP 7258864B2
Authority
JP
Japan
Prior art keywords
video
virtual reality
seat
venue
spectator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020518439A
Other languages
Japanese (ja)
Other versions
JP2020535879A (en
Inventor
カーン、モハメッド
サルカール、バスワー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Publication of JP2020535879A publication Critical patent/JP2020535879A/en
Application granted granted Critical
Publication of JP7258864B2 publication Critical patent/JP7258864B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/86Watching games played by other players
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Image Generation (AREA)

Description

本開示は、エレクトロニックスポーツのバーチャルリアリティ観戦のための会場マッピングに関する。 The present disclosure relates to venue mapping for virtual reality viewing of electronic sports.

エレクトロニックスポーツ(eスポーツ)は一般に、スポーツの主要な態様がエレクトロニックシステムによって容易にされたスポーツの形態を表し、プレイヤー及びチームの入力ならびにeスポーツシステムの出力が、人間コンピュータインタフェースで仲介される。(たとえば、参照により本明細書に組み込まれる、Juho Hamari,Max Sjoblom,(2017)“What is eSports and why do people watch it?”, Internet Research,Vol.27 Issue:2,pp.211-232を参照のこと)。実質的に、eスポーツは、観戦される競争的かつプロフェッショナルなビデオゲームイベントを含む。eスポーツは、例として限定することなしに、オンライン放送またはオンラインストリーミングを介した、かつ、テレビ放送を介した、(たとえば、トーナメント会場における)生で観戦されるライブとすることができる。多くのeスポーツイベントは、組織化されたトーナメントの形態をとり、特に、アマチュアプレイヤー及びプロフェッショナルプレイヤーの両方を含んでもよいプレイヤーのチームの間での、マルチプレイヤーによるビデオゲーム対戦を特徴とする。eスポーツに関連する一般的なビデオゲームのジャンルは、リアルタイムストラテジー(RTS)、ファイティング、ファーストパーソンシューター(FPS)、及びマルチプレイヤーオンラインバトルアリーナ(MOBA)を含む。 Electronic sports (esports) generally represent a form of sports in which key aspects of the sport are facilitated by electronic systems, with player and team inputs and esports system outputs mediated by human-computer interfaces. (See, for example, Juho Hamari, Max Sjoblom, (2017) "What is eSports and why do people watch it?", Internet Research, Vol. 27 Issue: 2, pp. 211-232, which is incorporated herein by reference.) see). Substantially, esports includes competitive and professional video game events that are watched. Esports can be, by way of example and without limitation, live watched (eg, at a tournament venue) via online broadcast or online streaming and via television broadcast. Many esports events take the form of organized tournaments and, in particular, feature multiplayer video game competition between teams of players that may include both amateur and professional players. Common video game genres associated with esports include real-time strategy (RTS), fighting, first-person shooter (FPS), and multiplayer online battle arena (MOBA).

ビデオゲームは、パーソナルコンピュータ、ゲームコンソール、携帯機器などのコンピューティングデバイスによって実行される。ゲームプラットフォームの1つの例はSony Playstation4(登録商標)(PS4)であり、これはゲームコンソールの形態で販売されている。よく知られているように、ゲームコンソールは、ディスプレイ(通常、テレビ受像機)に接続し、ユーザがハンドヘルドコントローラを介してインタラクションができるように設計されている。ゲームコンソールは、CPU、重いグラフィック演算を処理するためのグラフィックスシンセサイザ、ジオメトリ変換を実行するためのベクトル演算ユニット、ならびに、その他のグルーハードウェア、ファームウェア、及びソフトウェアを含む、専用の処理ハードウェアで設計されている。ゲームコンソールは、ゲームコンソールを介してローカルでプレイするためのゲームのディスクを収容するための光学ディスク読取装置を備えるようにさらに設計されてもよい。また、ユーザがインターネットを介して他のユーザとインタラクティブに対戦したり、他のユーザと一緒にインタラクティブにプレイしたりすることができるオンラインゲームも可能である。ゲームを複雑にしてプレイヤーの興味を引き付けるために、ゲーム及びハードウェアの製造業者らは、新しい手法を取り入れて、さらなるインタラクティビティを可能にしようとしてきた。 Video games are played by computing devices such as personal computers, game consoles, and mobile devices. One example of a gaming platform is the Sony Playstation4® (PS4), which is sold in the form of a game console. As is well known, game consoles are designed to connect to a display (usually a television) and allow user interaction via a handheld controller. A game console is dedicated processing hardware, including a CPU, a graphics synthesizer to handle heavy graphics operations, a vector math unit to perform geometry transformations, and other glue hardware, firmware, and software. Designed. The game console may further be designed with an optical disc reader for receiving discs of games for local play through the game console. Online games are also possible in which users can interactively compete against or play interactively with other users over the Internet. To increase the complexity of games and keep them interesting for players, game and hardware manufacturers have taken new approaches to enable more interactivity.

コンピュータゲーム業界においては、ユーザとゲームシステムとの間のインタラクションを高めるゲームを開発する傾向が広がっている。より質の高いインタラクティブな体験を実現する1つの方法として、ゲームシステムによってその動作がトラッキングされる無線ゲームコントローラによってプレイヤーの動作をトラッキングし、この動作をゲームの入力として使用するようにする方法がある。一般的に言うと、ジェスチャ入力とは、コンピューティングシステム、ビデオゲームコンソール、スマート家電などの電子デバイスを、プレイヤーによって行われて、電子デバイスによってキャプチャされる何らかのジェスチャに反応させることを指す。 There is a growing trend in the computer game industry to develop games that enhance the interaction between the user and the game system. One way to achieve a higher quality interactive experience is to track the player's movements with a wireless game controller whose movements are tracked by the game system and use these movements as input for the game. . Generally speaking, gestural input refers to having an electronic device, such as a computing system, video game console, or smart appliance react to some gesture made by a player and captured by the electronic device.

より没入できるインタラクティブな体験を実現する別の方法は、ヘッドマウントディスプレイ(HMD)を使用することである。ヘッドマウントディスプレイはユーザが着用し、仮想空間のビューなどのさまざまなグラフィックスを提示するように構成することができる。ヘッドマウントディスプレイ上で提示されるグラフィックスは、ユーザの視界の大部分またはすべてをカバーすることができる。よって、ヘッドマウントディスプレイは、ユーザの動作に応答するように、仮想環境の3次元リアルタイムビューをレンダリングするので、HMDは、視覚的に没入できるバーチャルリアリティ体験をユーザに提供することができる。HMDを着用しているユーザは、全方向への動作の自由がもたらされ、したがって、HMDを介して仮想環境の全方向へのビューを得ることができる。 Another way to achieve a more immersive and interactive experience is to use a Head Mounted Display (HMD). A head-mounted display is worn by a user and can be configured to present various graphics, such as views of a virtual space. Graphics presented on a head-mounted display can cover most or all of the user's field of view. Thus, HMDs can provide users with a visually immersive virtual reality experience, as the head-mounted display renders a three-dimensional real-time view of the virtual environment in response to the user's movements. A user wearing the HMD is provided with omnidirectional freedom of movement and thus can obtain an omnidirectional view of the virtual environment through the HMD.

本開示の実施態様は、この状況においてなされたものである。 Embodiments of the present disclosure have been made in this context.

本開示の実施態様は、エレクトロニックスポーツのバーチャルリアリティ観戦のための会場マッピングに関するデバイス、方法、及びシステムを含む。 Embodiments of the present disclosure include devices, methods, and systems related to venue mapping for virtual reality viewing of electronic sports.

いくつかの実施態様では、以下の操作、クライアントデバイスからネットワークを介して、バーチャルリアリティ観戦者によるヘッドマウントディスプレイを通してライブイベントを観戦する要求を受信することと、バーチャルリアリティ観戦者をライブイベントが開催される会場のシートに割り当てることと、会場内に位置付けられた複数のカメラから複数のビデオフィードを受信することと、シートに関連付けて保存されたビデオ処理パラメータにアクセスすることと、ビデオ処理パラメータを使用してビデオフィードを選択し、選択したビデオフィードをつぎ合わせて、会場内のシートの3次元位置によって実質的に定義される視点からの会場のビューを提供するコンポジットビデオを生成することと、ヘッドマウントディスプレイにレンダリングするために、ネットワークを介してコンポジットビデオをクライアントデバイスに送信することとを含む方法が提供される。 In some implementations, the following operations: receiving a request from a client device over a network to view a live event through a head-mounted display by a virtual reality spectator; receiving multiple video feeds from multiple cameras positioned within the venue; accessing video processing parameters stored in association with the seat; and using the video processing parameters. selecting video feeds using a head, and stitching the selected video feeds together to produce a composite video providing a view of the venue from a vantage point substantially defined by the three-dimensional position of the seats within the venue; and transmitting the composite video over a network to a client device for rendering on a mounted display.

いくつかの実施態様では、ビデオ処理パラメータは、つぎ合わせのためにどのビデオフィードを選択するか識別し、ビデオ処理パラメータは、ビデオ処理パラメータが関連付けられたシートの3次元位置と、ビデオフィードを提供するカメラの3次元位置とに基づいて定義される。 In some implementations, the video processing parameter identifies which video feed to select for stitching, the video processing parameter provides the three-dimensional position of the sheet with which the video processing parameter is associated, and the video feed. is defined based on the 3D position of the camera that

いくつかの実施態様では、バーチャルリアリティ観戦者をシートに割り当てることは、会場内のシートの占有ステータスを識別することを含み、与えられたシートの占有ステータスは、与えられたシートが会場内で実際の観戦者によって占有されているかどうかを示し、バーチャルリアリティ観戦者が割り当てられるシートは、実際の観戦者によって占有されていないシートである。 In some implementations, assigning the virtual reality spectators to seats includes identifying an occupancy status of the seats within the venue, wherein the occupancy status of a given seat is determined by whether the given seat actually exists within the venue. The seat to which the virtual reality spectator is assigned is the seat not occupied by a real spectator.

いくつかの実施態様では、与えられたシートの占有ステータスは、与えられたシートが別のバーチャルリアリティ観戦者によって占有されているかどうかをさらに示し、バーチャルリアリティ観戦者が割り当てられるシートは、別のバーチャルリアリティ観戦者によって占有されていないシートである。 In some implementations, the occupancy status of a given seat further indicates whether the given seat is occupied by another virtual reality spectator, and the seat to which the virtual reality spectator is assigned is occupied by another virtual reality spectator. A seat not occupied by a reality spectator.

いくつかの実施態様では、バーチャルリアリティ観戦者をシートに割り当てることは、バーチャルリアリティ観戦者のソーシャルグラフにアクセスすることと、ソーシャルグラフのメンバーである別のバーチャルリアリティ観戦者に割り当てられたシートへの近さに基づいてシートを選択することとを含む。 In some implementations, assigning a virtual reality spectator to a seat includes accessing the virtual reality spectator's social graph and assigning a seat to another virtual reality spectator who is a member of the social graph. and selecting a seat based on proximity.

いくつかの実施態様では、方法は、シートに関連付けて保存されたオーディオ処理パラメータにアクセスすることと、オーディオ処理パラメータを使用して、会場内のシートの3次元位置によって実質的に定義される視点から聞こえることをシミュレートするオーディオデータを生成することと、オーディオデータをネットワークを介してクライアントデバイスに送信することとをさらに含む。 In some implementations, the method includes accessing audio processing parameters stored in association with the seat, and using the audio processing parameters to view a viewpoint substantially defined by the three-dimensional position of the seat within the venue. Generating audio data simulating what it sounds like from a device, and transmitting the audio data over the network to the client device.

いくつかの実施態様では、オーディオ処理パラメータは、会場内の1つまたは複数のマイクロフォンによってキャプチャされたオーディオを識別して、それからオーディオデータを生成し、オーディオ処理パラメータは、オーディオ処理パラメータが関連付けられたシートの3次元位置と、マイクロフォンの3次元位置とに基づいて定義される。 In some implementations, the audio processing parameter identifies audio captured by one or more microphones in the venue and generates audio data therefrom, and the audio processing parameter is associated with the audio processing parameter. It is defined based on the three-dimensional position of the seat and the three-dimensional position of the microphone.

いくつかの実施態様では、少なくとも1つのコンピュータで実行されるとき、前記少なくとも1つのコンピュータに、以下の操作、クライアントデバイスからネットワークを介して、バーチャルリアリティ観戦者によるヘッドマウントディスプレイを通してライブイベントを観戦する要求を受信することと、バーチャルリアリティ観戦者をライブイベントが開催される会場のシートに割り当てることと、会場内に位置付けられた複数のカメラから複数のビデオフィードを受信することと、シートに関連付けて保存されたビデオ処理パラメータにアクセスすることと、ビデオ処理パラメータを使用してビデオフィードを選択し、選択したビデオフィードをつぎ合わせて、会場内のシートの3次元位置によって実質的に定義される視点からの会場のビューを提供するコンポジットビデオを生成することと、ヘッドマウントディスプレイにレンダリングするために、ネットワークを介してコンポジットビデオをクライアントデバイスに送信することとを含む方法を実行させる、非一時的コンピュータ可読媒体上に具現化されたプログラム命令を有する非一時的コンピュータ可読媒体が提供される。 In some embodiments, when executed on at least one computer, the at least one computer is given the following operations: viewing a live event through a head-mounted display by a virtual reality spectator over a network from a client device; receiving a request; assigning virtual reality spectators to seats in a venue where a live event is being held; receiving multiple video feeds from multiple cameras positioned within the venue; Accessing stored video processing parameters, selecting video feeds using the video processing parameters, and stitching the selected video feeds to a viewpoint substantially defined by the three-dimensional position of the seats within the venue. generating a composite video that provides a view of the venue from the A non-transitory computer-readable medium having program instructions embodied thereon is provided.

いくつかの実施態様では、少なくとも1つのコンピューティングデバイスを含み、前記少なくとも1つのコンピューティングデバイスが、少なくとも1つのプロセッサと、少なくとも1つのメモリとを有し、前記少なくとも1つのコンピューティングデバイスが、クライアントデバイスからネットワークを介して、バーチャルリアリティ観戦者によるヘッドマウントディスプレイを通してライブイベントを観戦する要求を受信することと、バーチャルリアリティ観戦者をライブイベントが開催される会場のシートに割り当てることと、会場内に位置付けられた複数のカメラから複数のビデオフィードを受信することと、シートに関連付けて保存されたビデオ処理パラメータにアクセスすることと、ビデオ処理パラメータを使用してビデオフィードを選択し、選択したビデオフィードをつぎ合わせて、会場内のシートの3次元位置によって実質的に定義される視点からの会場のビューを提供するコンポジットビデオを生成することと、ヘッドマウントディスプレイにレンダリングするために、ネットワークを介してコンポジットビデオをクライアントデバイスに送信することとを実行するように構成された、システムが提供される。 Some embodiments include at least one computing device, said at least one computing device having at least one processor and at least one memory, said at least one computing device comprising a client receiving requests over the network from a device to view a live event through a head-mounted display by a virtual reality spectator; assigning the virtual reality spectator to a seat at the venue where the live event is held; receiving multiple video feeds from multiple positioned cameras; accessing video processing parameters stored in association with the sheet; using the video processing parameters to select a video feed; to generate a composite video that provides a view of the venue from a viewpoint substantially defined by the three-dimensional position of the seats within the venue, and over a network for rendering to a head-mounted display. and transmitting composite video to a client device.

本開示の他の態様及び利点は、本開示の原理を例示する手段として図示する添付の図面を併用して、以下の課題を解決するための手段から明らかとなる。 Other aspects and advantages of the present disclosure will become apparent from the following summary of the problem, taken in conjunction with the accompanying drawings, which are illustrated as a means of illustrating the principles of the disclosure.

本開示は、添付の図面を併用して以下の記述を参照することによって、より良好に理解される場合がある。 The present disclosure may be better understood by reference to the following description in conjunction with the accompanying drawings.

本開示の実施態様による、エレクトロニックスポーツ(eスポーツ)会場の眺めを図示する。1 illustrates a view of an electronic sports (esports) venue, according to an embodiment of the present disclosure;

本開示の実施態様による、会場の概念俯瞰図である。1 is a conceptual overhead view of a venue, according to an embodiment of the present disclosure; FIG.

本開示の実施態様による、eスポーツのライブイベントが開催されている会場のシートの一部を概念的に図示する。1 conceptually illustrates a portion of a seat at a venue where a live esports event is being held, according to an embodiment of the present disclosure;

本開示の実施態様による、バーチャルリアリティ観戦のためのシート固有パラメータを決定するためにeスポーツ会場の3次元空間をマッピングするためのプロセスを概念的に図示する。1 conceptually illustrates a process for mapping the three-dimensional space of an esports venue to determine seat-specific parameters for virtual reality viewing, according to an embodiment of the present disclosure;

本開示の実施態様による、バーチャルリアリティ観戦者の視界を概念的に図示する。1 conceptually illustrates a virtual reality spectator's field of view, according to an embodiment of the present disclosure;

本開示の実施態様による、eスポーツイベントのバーチャルリアリティ観戦を提供するためのシステムを概念的に図示する。1 conceptually illustrates a system for providing virtual reality viewing of an esports event, according to an embodiment of the present disclosure;

本開示の実施態様による、会場のシートが実際の観戦者によって占有されているかどうかを判定するための技術を図示する。4 illustrates a technique for determining whether seats in a venue are occupied by actual spectators, according to an embodiment of the present disclosure;

本開示の実施態様による、バーチャルリアリティ観戦者が実際の会場内の状況において自分自身を見るための方法を図示する。4 illustrates a method for a virtual reality spectator to see themselves in a real venue situation, according to an embodiment of the present disclosure;

本開示の実施態様による、実際の観戦者を検知して、バーチャルリアリティ観戦者のインタラクティビティを可能にするためのさらなる機能を有する会場内のシートを図示する。FIG. 10 illustrates seating in a venue with additional functionality for sensing physical spectators to enable virtual reality spectator interactivity, according to an embodiment of the present disclosure; FIG.

本開示の実施態様による、ヘッドマウントディスプレイ(HMD)を介した仮想環境とのインタラクションのためのシステムを図示する。1 illustrates a system for interaction with a virtual environment via a head-mounted display (HMD), according to an embodiment of the present disclosure;

本開示の実施態様による、ヘッドマウントディスプレイ(HMD)を図示する。1 illustrates a head-mounted display (HMD), according to an embodiment of the present disclosure; 本開示の実施態様による、ヘッドマウントディスプレイ(HMD)を図示する。1 illustrates a head-mounted display (HMD), according to an embodiment of the present disclosure;

1つの実施態様による、クライアントシステムとインタフェースするHMDユーザと、第2のスクリーンと呼ばれる第2のスクリーンディスプレイにコンテンツを提供するクライアントシステムとの1つの例を図示する。1 illustrates one example of an HMD user interfacing with a client system and the client system providing content to a second screen display, referred to as the second screen, according to one implementation.

本開示の実施態様による、実行するビデオゲームと連動するHMDの機能を概念的に図示する。1 conceptually illustrates the functionality of an HMD in conjunction with a running video game, according to an embodiment of the present disclosure;

本開示の実施態様による、ヘッドマウントディスプレイの構成要素を図示する。1 illustrates components of a head-mounted display, according to an embodiment of the present disclosure;

本開示のさまざまな実施態様による、ゲームシステム1200のブロック図である。12 is a block diagram of a gaming system 1200, according to various implementations of the present disclosure; FIG.

本開示の以下の実施態様は、エレクトロニックスポーツのバーチャルリアリティ観戦のための会場マッピングに関するデバイス、方法、及びシステムを提供する。しかしながら、本開示は、本明細書に記載の特定の詳細の一部またはすべてがなくても実施されてもよいことは当業者には明らかである。他の例では、本開示を不要に曖昧にしないように、よく知られているプロセスオペレーションは詳細に記載されていない。 The following embodiments of the present disclosure provide devices, methods, and systems for venue mapping for virtual reality viewing of electronic sports. However, it will be apparent to those skilled in the art that the present disclosure may be practiced without some or all of the specific details described herein. In other instances, well-known process operations have not been described in detail so as not to unnecessarily obscure the present disclosure.

さまざまな実施態様では、方法、システム、画像キャプチャオブジェクト、センサ、及び関連するインタフェースオブジェクト(たとえば、コントローラ、手袋、周辺機器など)は、ディスプレイスクリーン上に略リアルタイムにレンダリングされるように構成されたデータを処理するように構成される。大まかに言うと、実施態様は、ヘッドマウントディスプレイ(HMD)であるディスプレイに関して記載される。しかしながら、他の実施態様では、ディスプレイは、第2のスクリーン、携帯装置のディスプレイ、コンピュータのディスプレイ、ディスプレイパネル、(たとえば、コンテンツを見ているまたはインタラクティブな体験を共有している)1人または複数人のリモート接続されたユーザのディスプレイなどであってもよい。 In various implementations, the methods, systems, image capture objects, sensors, and associated interface objects (e.g., controllers, gloves, peripherals, etc.) are configured to render data on a display screen in near real time. is configured to handle Broadly speaking, embodiments are described with respect to a display that is a head mounted display (HMD). However, in other implementations, the display is a second screen, a display of a mobile device, a display of a computer, a display panel, one or more people (e.g., viewing content or sharing an interactive experience). It may also be a human remotely connected user display or the like.

図1Aは、本開示の実施態様による、エレクトロニックスポーツ(eスポーツ)会場の眺めを図示する。eスポーツは一般に、さまざまな観戦者またはユーザによって観戦される、競争的なまたはプロフェッショナルなゲーム、特に、マルチプレイヤービデオゲームを指す。近年、eスポーツの人気が高まるにつれて、同様に、実際の会場でのeスポーツイベントのライブ観戦に対する関心も高まっており、その多くの会場では数千人が座ることが可能である。適切な会場は、観戦者がライブ観戦するためのeスポーツイベントを開催可能である、例として限定することなしに、アリーナ、スタジアム、劇場、コンベンションセンター、体育館、コミュニティセンターなどを含む、任意の場所とすることができる。 FIG. 1A illustrates a view of an electronic sports (esports) venue, according to an embodiment of the present disclosure. Esports generally refers to competitive or professional games, especially multiplayer video games, that are watched by a variety of spectators or users. In recent years, as e-sports have grown in popularity, so has interest in live viewing of e-sports events at physical venues, many of which can seat thousands of people. A suitable venue is any location capable of hosting an eSports event for spectators to watch live, including, but not limited to, arenas, stadiums, theaters, convention centers, gymnasiums, community centers, etc. can be

しかしながら、控えめな実際の会場でのトーナメントなどのeスポーツイベントの開催及び制作は、直接の観戦を望むすべての人々が直接観戦できるというわけではないことを意味する。したがって、リモート観戦者がeスポーツイベントが行われている会場に直接居るようにeスポーツイベントを体験することができるようなライブ体験を、リモート観戦者に提供することが望ましい。 However, the hosting and production of esports events, such as tournaments at discreet physical venues, means that not everyone who wants to watch in person can do so. Therefore, it is desirable to provide remote spectators with a live experience that allows them to experience an esports event as if they were directly at the venue where the esports event is taking place.

引き続き図1Aを参照すると、eスポーツイベントを開催している会場100の眺めが示されている。典型的なeスポーツイベントは、プレイヤーのチームがマルチプレイヤービデオゲームにおいて互いに競い合うトーナメントである。示された実施態様では、第1のチームはプレイヤー102a、102b、102c、及び102dからなり、第2のチームはプレイヤー104a、104b、104c、及び104dからなる。第1のチーム及び第2のチームは、アナウンサー/司会者110とともにステージ106上に位置する。第1のチーム及び第2のチームは、会場100で、マルチプレイヤービデオゲームの競争的なゲームプレイにおいて互いに交戦しており、観戦者113は、そのイベントを見るために居る。 With continued reference to FIG. 1A, a view of a venue 100 hosting an esports event is shown. A typical esports event is a tournament in which teams of players compete against each other in a multiplayer video game. In the illustrated implementation, the first team consists of players 102a, 102b, 102c, and 102d, and the second team consists of players 104a, 104b, 104c, and 104d. A first team and a second team are positioned on stage 106 with announcer/host 110 . A first team and a second team are competing against each other in competitive gameplay of a multiplayer video game at venue 100, and spectators 113 are there to watch the event.

大きなディスプレイ108a、108b、及び108cは、ゲームプレイのビューを観戦者113に提供する。ディスプレイ108a、108b、及び108cは、ゲームプレイコンテンツを観戦者に提示することが可能である、例として限定することなしに、LEDディスプレイ、液晶ディスプレイ、DLPなどを含む、当該技術分野で知られている任意の種類のディスプレイであってもよいことが理解される。いくつかの実施態様では、ディスプレイ108a、108b、及び108cは、ゲームプレイビデオ/画像が1つまたは複数のプロジェクタ(図示せず)によって映写されるディスプレイスクリーンである。ディスプレイ108a、108b、及び108cは、例として限定することなしに、ゲームプレイコンテンツ、ビデオゲームのプレイヤービュー、ゲームマップ、ビデオゲーム観戦者のビュー、解説者のビュー、プレイヤー/チーム成績及びスコア、広告などを含む、あらゆる種類のコンテンツを提示するように構成することができることは認識されるべきである。 Large displays 108a, 108b, and 108c provide spectator 113 with a view of the gameplay. Displays 108a, 108b, and 108c are capable of presenting gameplay content to spectators, including, by way of example and without limitation, LED displays, liquid crystal displays, DLP, etc., known in the art. It is understood that the display may be any type of display. In some implementations, displays 108a, 108b, and 108c are display screens onto which gameplay video/images are projected by one or more projectors (not shown). Displays 108a, 108b, and 108c may display, by way of example and without limitation, gameplay content, video game player views, game maps, video game spectator views, commentator views, player/team stats and scores, advertising. It should be appreciated that it can be configured to present any type of content, including;

さらに、解説者112a及び112bは、ゲームプレイが発生したときのリアルタイムでのゲームプレイの説明、ゲームプレイの分析の提供、特定の動作のハイライトなどの、ゲームプレイについての解説を提供する。 In addition, commentators 112a and 112b provide commentary on gameplay, such as explaining gameplay in real time as gameplay occurs, providing analysis of gameplay, highlighting particular actions, and the like.

図1Bは、本開示の実施態様による、会場100の概念俯瞰図である。先に説明したように、プレイヤーの第1のチーム及び第2のチームは、ステージ上に位置し、マルチプレイヤービデオゲームのゲームプレイにおいて交戦している。複数のシート114は、概念的に示されており、それらのシートは、観戦者が直接eスポーツイベントに参加して観戦するときに利用可能である。前述のように、観戦者113にゲームプレイ及び他のコンテンツのビューを提供する大きなディスプレイ108a、108b、及び108cが存在している。さらに、ディスプレイ108a、108b、及び108c上でレンダリングされる任意のコンテンツに関連付けられたまたはそれらに関するオーディオを含む、観戦者が聞くためのオーディオを提供するために、会場の至る所に分散されてもよい複数のスピーカ118が存在している。 FIG. 1B is a conceptual overhead view of venue 100, according to an embodiment of the present disclosure. As previously described, a first team and a second team of players are positioned on a stage and are competing in gameplay of a multiplayer video game. A plurality of seats 114 are shown conceptually, which seats are available when a spectator directly participates in and watches an esports event. As previously mentioned, there are large displays 108a, 108b, and 108c that provide spectator 113 with a view of gameplay and other content. In addition, they may be distributed throughout the venue to provide audio for spectators to hear, including audio associated with or relating to any content rendered on displays 108a, 108b, and 108c. A good number of speakers 118 are present.

さらにまた、本開示の実施態様による、処理、配布、ストリーミング、ならびに/または観戦者による直接ライブ及び/もしくはリモートでの観戦のためにeスポーツイベントのビデオをキャプチャするように構成された、会場100の至る所に分散された任意の数のカメラ116が存在している。カメラ116のいくつかは、位置及び/または方向を固定してもよく、一方、カメラ116のいくつかは、位置及び/または方向を変えることができ、新しい位置への移動及び/または新しい方向への変更が可能であってもよいことが理解される。カメラ116はさまざまな視界を有してもよいことが理解される。さらに、カメラのいくつかは、360度の視界をキャプチャすることが可能な360度カメラであってもよい(たとえば、360度の水平視界を180度の垂直視界と組み合わせて、完全な球面視界を提供することができる)。このような360度のカメラは通常、単数のデバイスパッケージに複数の画像キャプチャデバイスを含む。いくつかの実施態様では、複数のカメラは、実質的にまたはほぼ同じ位置に構成されており、それらのフィードをつぎ合わせると、その位置の視点からの360度の視界が可能になる。 Furthermore, a venue 100 configured to capture video of an esports event for processing, distribution, streaming, and/or direct live and/or remote viewing by spectators in accordance with embodiments of the present disclosure. There are any number of cameras 116 distributed throughout the . Some of the cameras 116 may have a fixed position and/or orientation, while some of the cameras 116 may change position and/or orientation, move to new locations and/or move to new orientations. It is understood that changes in the It is understood that camera 116 may have various fields of view. Additionally, some of the cameras may be 360-degree cameras capable of capturing a 360-degree field of view (e.g., combining a 360-degree horizontal field of view with a 180-degree vertical field of view to obtain a full spherical field of view). can be provided). Such 360 degree cameras typically include multiple image capture devices in a single device package. In some implementations, multiple cameras are configured at substantially or nearly the same location, and their feeds stitched together to allow a 360 degree view from that location's point of view.

本開示の実施態様により、eスポーツイベントの「ライブ」ビュー体験を、バーチャルリアリティ観戦者120に提供することができる。すなわち、バーチャルリアリティ観戦者120には、eスポーツイベントに直接参加して、会場100の特定のシート122(または、指定された位置)を占有する体験をシミュレートする、ヘッドマウントディスプレイ(HMD)(または、バーチャルリアリティヘッドセット)を通してのビューが提供される。大まかに言うと、バーチャルリアリティ観戦者のシート122の3次元(3D)位置を決定することができ、さまざまなカメラ116のうちの特定のカメラからのビデオフィードは、シート122(または、バーチャルリアリティ観戦者が割り振られた指定された位置)の視点からの会場100のバーチャルリアリティビューを提供するようにつぎ合わせることができる。 Embodiments of the present disclosure can provide virtual reality spectators 120 with a “live” viewing experience of an esports event. That is, the virtual reality spectator 120 has a head-mounted display (HMD) (or Alternatively, a view through a virtual reality headset) is provided. Broadly speaking, the three-dimensional (3D) position of the virtual reality spectator's seat 122 can be determined, and the video feed from a particular one of the various cameras 116 is used to capture the seat 122 (or virtual reality spectator's seat). It can be stitched together to provide a virtual reality view of the venue 100 from the point of view of the designated location to which the participants were assigned.

さらにまた、詳細には示されていないが、各カメラは、会場100からのオーディオをキャプチャするための少なくとも1つのマイクロフォンを含んでもよい。また、会場100の至る所に分散されたさらなるマイクロフォンがあってもよい。これらのマイクロフォンのうちの少なくともいくつかからのオーディオも、シート122を占有する観戦者の視点から聞こえるものをシミュレートするオーディオを提供するように、バーチャルリアリティ観戦者のシート122の3次元位置に基づいて処理することができる。 Furthermore, although not shown in detail, each camera may include at least one microphone for capturing audio from venue 100 . There may also be additional microphones distributed throughout the venue 100 . Audio from at least some of these microphones is also based on the three-dimensional position of the virtual reality spectator's seat 122 to provide audio that simulates what is heard from the perspective of a spectator occupying the seat 122 . can be processed by

図1Cは、本開示の実施態様による、eスポーツのライブイベントが開催されている会場100のシートの一部124を概念的に図示する。示されるように、バーチャルリアリティ観戦者120には、会場100内のシート122の占有をシミュレートする、HMD150を通してのビューが提示される。いくつかの実施態様では、バーチャルリアリティ観戦者120に提供されるeスポーツイベントのビューは、ネットワーク144を介したストリーミングサービス142から提供される。すなわち、ストリーミングサービス142は、HMD150上でレンダリングするためにビデオをストリーミングするように構成された1つまたは複数のサーバコンピュータを含み、レンダリングされたビデオは、eスポーツイベントのビューをバーチャルリアリティ観戦者120に提供する。図示された実施態様に特に示されていないが、ストリーミングサービス142は最初に、バーチャルリアリティ観戦者120のローカルにあるコンピューティングデバイスに、ネットワーク144を介して、データの形態でビデオを送信してもよく、コンピューティングデバイスが、HMD150にレンダリングするためにデータを処理してもよいことは認識されるべきである。 FIG. 1C conceptually illustrates a portion 124 of seats in a venue 100 where a live esports event is being held, according to an embodiment of the present disclosure. As shown, virtual reality spectators 120 are presented with a view through HMD 150 that simulates occupation of seats 122 within venue 100 . In some implementations, the view of the esports event provided to virtual reality spectators 120 is provided from streaming service 142 over network 144 . That is, the streaming service 142 includes one or more server computers configured to stream video for rendering on the HMD 150, where the rendered video provides a virtual reality spectator's 120 view of the esports event. provide to Although not specifically shown in the illustrated embodiment, streaming service 142 may first transmit the video in the form of data over network 144 to computing devices local to virtual reality spectators 120 . Well, it should be appreciated that a computing device may process data for rendering on HMD 150 .

ストリーミングサービス142は、HMD150上でレンダリングするためにストリーミングされる1つまたは複数のビューをバーチャルリアリティ観戦者120が選択または申込みすることができるインタフェースを、バーチャルリアリティ観戦者120に提供してもよい。前述のように、これらのビューは、バーチャルリアリティ観戦者120に没入できる観戦体験を提供するイベント/会場の360度ビューとすることができ、そのビューは会場内の特定のシートまたは位置の視点からのものである。 Streaming service 142 may provide virtual reality spectators 120 with an interface through which virtual reality spectators 120 may select or subscribe to one or more views to be streamed for rendering on HMD 150 . As previously mentioned, these views can be 360-degree views of the event/venue that provide an immersive viewing experience for the virtual reality spectators 120, from the perspective of a particular seat or position within the venue. belongs to.

提供されるビューがバーチャルリアリティ観戦者120の動作にリアルタイムに反応することは認識されるべきであり、そのため、たとえば、バーチャルリアリティ観戦者120が左を向いた場合、バーチャルリアリティ観戦者120は(HMD150を通して)シート122の左のビューを見て、バーチャルリアリティ観戦者120が右を向いた場合、バーチャルリアリティ観戦者120は(HMD150を通して)シート122の右のビューを見るなどする。いくつかの実施態様では、バーチャルリアリティ観戦者120に、360度の水平視界を含む全方向へのeスポーツ会場100の可能なビューが提供される。いくつかの実施態様では、バーチャルリアリティ観戦者120に、いくつかの実施態様における約270度の水平視界、または、いくつかの実施態様における約180度の水平視界などの全方向のサブセットへのeスポーツ会場100の可能なビューが提供される。いくつかの実施態様では、提供される視界から真上または真下の領域を除外してもよい。いくつかの実施態様では、eスポーツ会場の視界から除外される領域には、たとえば、広告、スプラッシュ画面、ロゴコンテンツ、ゲーム関連画像またはビデオなどの他のコンテンツが提供されてもよい。 It should be appreciated that the views provided react in real-time to the movements of the virtual reality spectator 120, so, for example, if the virtual reality spectator 120 turns to the left, the virtual reality spectator 120 (HMD 150 If the virtual reality spectator 120 looks to the right (through the HMD 150 ) at the left view of the seat 122 , the virtual reality spectator 120 sees the right view of the seat 122 (through the HMD 150 ), and so on. In some implementations, virtual reality spectators 120 are provided with possible views of esports venue 100 in all directions, including a 360 degree horizontal field of view. In some implementations, the virtual reality spectator 120 has e A possible view of a sports venue 100 is provided. In some implementations, the areas directly above or below may be excluded from the view provided. In some implementations, areas excluded from view of the esports venue may be provided with other content such as, for example, advertisements, splash screens, logo content, game-related images or videos.

いくつかの実施態様では、バーチャルリアリティ観戦者120は、インタフェースを通してシートを選択することができ、バーチャルリアリティ観戦者は、自身が選択した視点からeスポーツイベントを見てもよい。いくつかの実施態様では、選択可能なシートは、eスポーツイベントで直接存在する観戦者によって物理的に占有されていないシートである。他の実施態様では、占有されていないシート及び占有されているシートはどちらも、バーチャルリアリティ観戦のために選択可能である。 In some implementations, the virtual reality spectator 120 can select a seat through the interface, and the virtual reality spectator may view the esports event from their chosen viewpoint. In some implementations, the selectable seats are seats that are not physically occupied by spectators directly present at the esports event. In other embodiments, both unoccupied and occupied seats are selectable for virtual reality viewing.

いくつかの実施態様では、ストリーミングサービス142は、バーチャルリアリティ観戦者を特定のシートに自動的に割り当ててもよい。いくつかの実施態様では、これは、(たとえば、利用可能なシートの既定の順位またはランキングによる)利用可能な最高のシートであってもよい。 In some implementations, the streaming service 142 may automatically assign virtual reality spectators to specific seats. In some implementations, this may be the highest available seat (eg, according to a predetermined order or ranking of available seats).

いくつかの実施態様では、バーチャルリアリティ観戦者は、観戦者のさまざまな特性に基づいて、他の観戦者の近くのシートに割り当てられてもよい。いくつかの実施態様では、バーチャルリアリティ観戦者は、ソーシャルネットワーク/グラフにおけるそのメンバーシップに少なくとも部分的に基づいて、シートに割り当てられる。たとえば、引き続き図1Cを参照すると、別のバーチャルリアリティ観戦者132は、(たとえば、ソーシャルグラフにおけるメンバーシップによって定義される)ソーシャルネットワーク130上のバーチャルリアリティ観戦者120の友人であってもよい。ストリーミングサービス142は、この情報を使用して、バーチャルリアリティ観戦者120が割り当てられたシート122の隣にあるシート134などの、バーチャルリアリティ観戦者120に近いシートにバーチャルリアリティ観戦者132を割り当ててもよい。示された実施態様では、これによって、仮想的に「座り」、バーチャルリアリティ観戦者120が右を向いたとき、バーチャルリアリティ観戦者120は、自身の隣に座るバーチャルリアリティ観戦者132のアバターを見ることができる。 In some implementations, virtual reality spectators may be assigned seats near other spectators based on various characteristics of the spectators. In some implementations, virtual reality spectators are assigned to seats based at least in part on their membership in the social network/graph. For example, with continued reference to FIG. 1C, another virtual reality spectator 132 may be a friend of virtual reality spectator 120 on social network 130 (eg, defined by membership in a social graph). Streaming service 142 may use this information to assign virtual reality spectators 132 to seats that are close to virtual reality spectators 120, such as seat 134 next to seat 122 to which virtual reality spectators 120 are assigned. good. In the illustrated implementation, this allows virtual reality spectators 120 to see the avatars of virtual reality spectators 132 sitting next to them when they virtually "sit" and turn to the right. be able to.

いくつかの実施態様では、シート選択及び/または割当のためのインタフェースにより、ソーシャルネットワーク130上の友人のうちの1人または複数人もeスポーツイベントに仮想的に参加していることを所定のユーザに知らせてもよく、友人のうちの1人または複数人の近くのシートに自動的に割り当てられる選択肢を提供してもよい。このようにして、バーチャルリアリティ観戦者と同じイベントに参加している友人は、イベントを一緒に楽しむことができる。 In some implementations, the interface for seat selection and/or assignment allows a given user to confirm that one or more of their friends on social network 130 are also participating in the esports event virtually. and may provide options to be automatically assigned to seats near one or more of the friends. In this way, friends participating in the same event as the virtual reality spectator can enjoy the event together.

さまざまな実施態様では、バーチャルリアリティ観戦者は、ユーザプロファイル、年齢、ジオロケーション、主要言語、所定のビデオゲームの経験、関心事、性別などの、さまざまな要因のうちの任意のものに基づいて、互いに近くのシートに割り当てることができる。 In various implementations, virtual reality spectators may choose to: Can be assigned to sheets near each other.

いくつかの実施態様では、これらの概念は、このような実際の観戦者についての情報を知ると、(バーチャルリアリティ観戦者とは対照的に、物理的に存在する)直接の「実際の」観戦者を含むように拡張することができる。たとえば、シート136に座っている実際の観戦者138がバーチャルリアリティ観戦者120の友人であると判定されてもよく、その結果、バーチャルリアリティ観戦者120は、実際の観戦者138のシート136の隣にあるシート122に割り当てられてもよい(または、割り当てられるように申し出てものよい)。 In some implementations, these concepts can be applied to direct "real" spectators (physically existing as opposed to virtual reality spectators) when knowing information about such real spectators. can be extended to include For example, a real spectator 138 seated on a seat 136 may be determined to be a friend of the virtual reality spectator 120 so that the virtual reality spectator 120 sits next to the real spectator 138's seat 136 . may be assigned (or offered to be assigned) to a seat 122 in the .

HMDを通してコンテンツを見ながら、入力を提供するために、バーチャルリアリティ観戦者は、1つまたは複数のコントローラデバイスを使用してもよいことが理解される。示された実施態様では、バーチャルリアリティ観戦者120、132、及び140はそれぞれ、コントローラデバイス152、156、及び160を操作して、入力を提供し、たとえば、バーチャルリアリティ観戦のためのビデオのストリーミングの開始及び停止、観戦のためのeスポーツ会場100内のシートの選択などを行う。 It is understood that the virtual reality spectator may use one or more controller devices to provide input while viewing content through the HMD. In the illustrated implementation, virtual reality spectators 120, 132, and 140 operate controller devices 152, 156, and 160, respectively, to provide input, e.g., streaming video for virtual reality viewing. Start and stop, select a seat in the esports venue 100 for watching, etc.

いくつかの実施態様では、観戦者は、仮想または現実にかかわらず、eスポーツ会場100内で互いに近くにいるかどうか互いに聞いてもよいことが理解される。たとえば、バーチャルリアリティ観戦者120及び132は、バーチャルリアリティ観戦者のそれぞれのローカル環境から(たとえば、HMD150及び154のマイクロフォン、コントローラ152及び156、または、観戦者120及び132のローカル環境の他の場所を介して)キャプチャされたオーディオが他のオーディオストリームに提供されるので、互いに聞くことができる。いくつかの実施態様では、バーチャルリアリティ観戦者120は、ローカルのマイクロフォンによってキャプチャされた実際の観戦者138からの音を聞いてもよい。 It is understood that in some implementations, spectators may ask each other if they are near each other within the esports venue 100, whether virtual or real. For example, virtual reality spectators 120 and 132 can communicate from their respective local environments (e.g., microphones of HMDs 150 and 154, controllers 152 and 156, or other locations in the local environment of spectators 120 and 132). via) is provided to other audio streams so they can hear each other. In some implementations, virtual reality spectators 120 may hear sounds from real spectators 138 captured by local microphones.

いくつかの実施態様では、バーチャルリアリティ観戦者は、実際の観戦者によって物理的に占有されたシートを占有してもよい。たとえば、示された実施態様では、バーチャルリアリティ観戦者は、実際の観戦者138によって物理的に占有されたシート136を占有してもよい。バーチャルリアリティ観戦者140には、シート136の位置にいることをシミュレートするビューが提供されてもよい。バーチャルリアリティ観戦者140が右を向くと、観戦者120のアバターを見てもよく、同様に、観戦者120が自身の左を向くと、実際の観戦者138の代わりに観戦者140のアバターを見てもよい。 In some implementations, virtual reality spectators may occupy seats that are physically occupied by real spectators. For example, in the illustrated implementation, virtual reality spectators may occupy seats 136 that are physically occupied by real spectators 138 . A virtual reality spectator 140 may be provided with a view that simulates being in the seat 136 position. When the virtual reality spectator 140 turns to his right, he may see an avatar of the spectator 120; You can look.

図2は、本開示の実施態様による、バーチャルリアリティ観戦のためのシート固有パラメータを決定するためにeスポーツ会場の3次元空間をマッピングするためのプロセスを概念的に図示する。会場100の3次元(3D)空間200が、図示された実施態様の左に示されている。本開示の実施態様により、参照番号210で示されるように、会場空間200の3次元空間マップは、バーチャルリアリティ観戦のためのシート固有パラメータの決定を容易にするために生成することができる。 FIG. 2 conceptually illustrates a process for mapping the three-dimensional space of an esports venue to determine seat-specific parameters for virtual reality viewing, according to an embodiment of the present disclosure. A three-dimensional (3D) space 200 of the venue 100 is shown to the left of the illustrated embodiment. According to embodiments of the present disclosure, a three-dimensional spatial map of venue space 200, as indicated by reference number 210, can be generated to facilitate determination of seat-specific parameters for virtual reality viewing.

会場100の空間200の3次元空間マップを生成するためにさまざまな技術が利用されてもよい。いくつかの実施態様では、1つまたは複数のセンサデバイス202からのデータが、3次元空間マップを生成するために処理される。さまざまな実施態様では、センサデバイス202は、画像キャプチャデバイス(たとえば、カメラ)、深さ検知カメラ、超音波センサ、IRカメラなどのうちのいずれかを含むことができる。会場空間200の3次元空間マップにより、会場100内のそれぞれのシート114の3D座標を決定することができる。いくつかの実施態様では、会場の各シートは、独自の割り当てられた識別子を有する。参照番号212で示されるように、各シートについて、対応する3次元座標を、シートの識別子にマッピングすることができる。いくつかの実施態様では、3次元空間マップの生成を容易にするために、例として限定することなしに、Wi-Fiベースの位置決め、磁気的な位置決め、視覚的マーカ及び/または視覚的特徴の視覚認識などを含む、さまざまなローカライゼーション/位置決め技術が利用されてもよい。このようなローカライゼーション/位置決め技術を利用するセンサは、空間におけるシート位置の3次元位置を決定するために、シート位置に置かれてもよい。 Various techniques may be utilized to generate a three-dimensional spatial map of space 200 of venue 100 . In some implementations, data from one or more sensor devices 202 is processed to generate a three-dimensional spatial map. In various implementations, sensor device 202 may include any of an image capture device (eg, camera), depth sensing camera, ultrasonic sensor, IR camera, or the like. A three-dimensional spatial map of the venue space 200 allows the 3D coordinates of each seat 114 within the venue 100 to be determined. In some implementations, each seat in the venue has a unique assigned identifier. For each sheet, the corresponding three-dimensional coordinates can be mapped to the sheet's identifier, as indicated by reference number 212 . Some implementations employ, by way of example and without limitation, Wi-Fi-based positioning, magnetic positioning, visual markers and/or visual features to facilitate generation of a three-dimensional spatial map. Various localization/positioning techniques may be utilized, including visual recognition and the like. Sensors utilizing such localization/positioning techniques may be placed at the seat position to determine the seat position's three-dimensional position in space.

いくつかの実施態様では、3D空間マップは、会場100の3D空間200におけるカメラ116の3次元位置及び方向も含む。この情報を使用して、次に、参照番号214で、各シートのためのビデオ処理パラメータが生成される。与えられたシートのために、ビデオ処理パラメータは、3次元空間におけるビュー方向に基づいて、与えられたシートの視点から(むしろ、与えられたシートに対応する3次元座標の視点から)の会場空間のビューを生成するために、どのカメラのビデオフィードをつぎ合わせるか、及び、それらをどのようにつぎ合わせるかを定義する。方向を変えることができる(たとえば、オペレータによって制御される)カメラについては、与えられたシートに関連する場合、ビデオ処理パラメータは、カメラの方向に応じて、可能なビデオフィードソースとしてそのようなカメラを識別してもよく、ビデオフィードの空間投影、整列、混合、アンカポイントなどに関するパラメータなど、そのようなカメラからのビデオを(バーチャルリアリティ観戦者のビュー方向に基づいて)どのようにつぎ合わせるかをさらに定義してもよい。ビデオつぎ合わせプロセスは、さまざまな実施態様では、3次元または2次元ビデオを生成するように構成されてもよいことが理解される。3次元ビデオの生成には、各目のための個別のビデオの生成を伴うことができる。 In some implementations, the 3D space map also includes the three-dimensional position and orientation of camera 116 in 3D space 200 of venue 100 . Using this information, video processing parameters for each sheet are then generated at reference numeral 214 . For a given seat, the video processing parameters are based on the view direction in 3D space, from the viewpoint of the given seat (rather, from the viewpoint of the 3D coordinates corresponding to the given seat) in the venue space. It defines which cameras' video feeds are stitched together and how they are stitched together to generate a view of . For cameras that can be oriented (e.g., controlled by an operator), the video processing parameters, when associated with a given seat, are such cameras as possible video feed sources, depending on the orientation of the camera. and how video from such cameras is stitched together (based on the virtual reality spectator's viewing direction), such as parameters for spatial projection, alignment, blending, anchor points, etc. of the video feed. may be further defined. It will be appreciated that the video stitching process may be configured to generate three-dimensional or two-dimensional video in various implementations. Generating a 3D video can involve generating a separate video for each eye.

参照番号216で示されるように、本開示の実施態様により、オーディオ処理パラメータが会場100内の各シートに対して生成される。いくつかの実施態様では、3次元空間は、3次元空間マップを使用して音響的にモデル化され、3次元空間の音響特性を決定する。いくつかの実施態様では、マイクロフォンは、音響特性を決定するために、会場内のさまざまな位置に置かれる。たとえば、音は、会場のスピーカ118によって再生されてもよく、マイクロフォンから録音されたオーディオは、マイクロフォンの知られている位置を考慮して分析することができ、音響特性を決定して、3次元空間の音響モデリングを可能にする。これは、各シートに対するオーディオ処理パラメータを生成するために使用されてもよい。与えられたシートのためのオーディオ処理パラメータは、与えられたシートに割り当てられたバーチャルリアリティ観戦者にオーディオを提供するために、さまざまなソースからのオーディオ、たとえば、ゲームプレイオーディオ、解説者オーディオ、会場100内のライブのマイクロフォンからのオーディオなどをどのように処理するかを定義することができる。 As indicated by reference number 216 , audio processing parameters are generated for each seat in the venue 100 according to embodiments of the present disclosure. In some implementations, a three-dimensional space is acoustically modeled using a three-dimensional space map to determine acoustic properties of the three-dimensional space. In some implementations, microphones are placed at various locations within the venue to determine acoustic characteristics. For example, sounds may be played by speakers 118 in a venue, and audio recorded from microphones can be analyzed given the known positions of the microphones to determine acoustic characteristics and provide three-dimensional Enables spatial acoustic modeling. This may be used to generate audio processing parameters for each sheet. The audio processing parameters for a given seat are used to match audio from various sources, e.g. gameplay audio, commentator audio, venue You can define how to handle audio from live microphones in 100, and so on.

参照番号218で示されるように、与えられたシートに対するビデオ処理パラメータ及びオーディオ処理パラメータは、そのシートの識別子(ID)と関連付けて保存される。いくつかの実施態様では、与えられたシートに対するビデオ処理パラメータ及びオーディオ処理パラメータは、会場内の与えられたシートのシートプロファイルの少なくとも一部を形成する。 As indicated by reference numeral 218, the video processing parameters and audio processing parameters for a given sheet are stored in association with that sheet's identifier (ID). In some implementations, the video processing parameters and audio processing parameters for a given seat form at least a portion of the seat profile for the given seat within the venue.

前述の会場空間のマッピングは、会場内のシートに関して記載されたが、本概念は、会場内の任意の指定された位置に適用可能であることは認識されるべきである。いくつかの実施態様では、たとえば、指定された位置の視点からの360度のビューを提供するために、(会場内の特定のシートと一致してもよくまたは一致しなくてもよい)会場内の1つまたは複数の指定された位置が識別され、ビデオ処理パラメータ及びオーディオ処理パラメータが指定された位置のために上記により決定される。いくつかの実施態様では、バーチャルリアリティ観戦者は、ライブイベントを観戦するために、そのような使用可能な位置から選択してもよい。すなわち、バーチャルリアリティ観戦者は、自身のHMDを通して観戦するためにライブイベントをストリーミングするビューまたはビューの組を選択してもよい。 Although the foregoing mapping of venue space was described with respect to seats within the venue, it should be recognized that the concepts are applicable to any specified location within the venue. In some implementations, for example, seats within the venue (which may or may not coincide with specific seats within the venue) to provide a 360-degree view from a specified position viewpoint. One or more designated locations of are identified, and video processing parameters and audio processing parameters are determined above for the designated locations. In some implementations, virtual reality spectators may select from such available locations to watch the live event. That is, a virtual reality spectator may select a view or set of views that stream the live event for viewing through their HMD.

図3は、本開示の実施態様による、バーチャルリアリティ観戦者の視界を概念的に図示する。示されるように、バーチャルリアリティ観戦者120は、図示された実施態様において概念的に表される360度の視界300を有する。360度の視界300は、例として限定することなしに、いくつかの実施態様では水平視界、または、いくつかの実施態様では垂直視界、または、さまざまな実施態様では視界の任意の他の平面の表現とすることができる。 FIG. 3 conceptually illustrates a virtual reality spectator's field of view, according to an embodiment of the present disclosure. As shown, the virtual reality spectator 120 has a 360 degree field of view 300 conceptually represented in the illustrated embodiment. The 360 degree field of view 300 may be, by way of example and without limitation, a horizontal field of view in some implementations, or a vertical field of view in some implementations, or any other plane of view in various implementations. can be expressed as

上で示されたように、バーチャルリアリティ観戦者120に提供されるeスポーツ会場100のビューは、eスポーツ会場100内の複数のカメラからのビデオフィードからつぎ合わせることができる。示された実施態様では、カメラ304aは視界306aを有するビデオフィードを提供し、カメラ304bは視界306bを有するビデオフィードを提供し、カメラ304cは視界306cを有するビデオフィードを提供し、カメラ304dは視界306dを有するビデオフィードを提供する。バーチャルリアリティ観戦者120が見ている方向に応じて、異なるカメラからのビデオフィードのうちのさまざまなものが、つぎ合わせるために選択されて、バーチャルリアリティ観戦者120に適切なビューを提供する、HMD(150)にレンダリングするためのビデオを形成する。示された実施態様では、バーチャルリアリティ観戦者120は、視界302を有するようにある方向を見るように示されている。これに基づき、バーチャルリアリティ観戦者120が見るためにレンダリングされるビデオは、カメラ304a、304b、及び304dのビデオフィードからつぎ合わされてもよい。カメラ304cからのビデオフィードは、現在のビューを提供するために使用されないが、それは、バーチャルリアリティ観戦者の視界302に含まれる領域の部分をまったくカバーしていないためである。 As indicated above, the view of the esports venue 100 provided to the virtual reality spectators 120 may be stitched together from video feeds from multiple cameras within the esports venue 100 . In the illustrated implementation, camera 304a provides a video feed with field of view 306a, camera 304b provides a video feed with field of view 306b, camera 304c provides a video feed with field of view 306c, and camera 304d provides a video feed with field of view 306c. 306d. Depending on the direction the virtual reality spectator 120 is looking, different ones of the video feeds from different cameras are selected for stitching together to provide the virtual reality spectator 120 with an appropriate view of the HMD. Form a video for rendering (150). In the illustrated implementation, virtual reality spectator 120 is shown looking in a direction to have field of view 302 . Based on this, the rendered video for viewing by virtual reality spectators 120 may be stitched together from the video feeds of cameras 304a, 304b, and 304d. The video feed from camera 304c is not used to provide the current view because it does not cover any portion of the area included in the virtual reality spectator's field of view 302.

さまざまなカメラは、3次元会場空間内で異なる位置を有し、したがって、異なる視点を有することが理解される。よって、特定のバーチャルリアリティ観戦者にビューを提供するための、これらのカメラからのビデオフィードの使用または不使用(及び、使用される場合のつぎ合わせの方法)は、それらの方向性及び/または視点位置にさらに依存してもよい。たとえば、いくつかの実施態様では、バーチャルリアリティ観戦者によって現在見られている領域をカバーするが、バーチャルリアリティ観戦者の視線方向と略反対方向のビデオフィードは、バーチャルリアリティ観戦者にビデオを提供するために使用されない。 It is understood that various cameras have different positions within the three-dimensional venue space and therefore have different points of view. Thus, the use or non-use of video feeds from these cameras (and the method of stitching, if used) to provide a view for a particular virtual reality spectator depends on their orientation and/or It may further depend on the viewpoint position. For example, in some implementations, a video feed covering the area currently viewed by the virtual reality spectator, but in a direction substantially opposite the virtual reality spectator's line-of-sight direction provides video to the virtual reality spectator. not used for

示されたように、いくつかのカメラは方向を固定してもよく、一方、他のカメラは方向を変えることができる。したがって、いくつかの実施態様では、カメラの現在の方向情報が、取得されて、所定のカメラのビデオフィードを使用するべきかどうか、及び/または、選択された場合に所定のカメラのビデオフィードをどのように使用するかを決定するために使用される。 As shown, some cameras may have a fixed orientation, while others may change orientation. Accordingly, in some implementations, the current orientation information of the camera is obtained to determine whether a given camera's video feed should be used and/or, if selected, to use the given camera's video feed. Used to determine how to use.

いくつかの実施態様では、所定のカメラの方向は、バーチャルリアリティ観戦者の視界に基づいて調整される。たとえば、カメラの方向は、その視界がバーチャルリアリティ観戦者によって見られている領域の少なくとも一部をカバーするように調整されてもよい。いくつかの実施態様では、所定のカメラの方向は、複数のバーチャルリアリティ観戦者の視界に基づいて、その視界を最適化するように調整される。いくつかの実施態様では、バーチャルリアリティ観戦者の視界の密度マッピングが決定され、それは、空間のさまざまな領域が観戦されている相対量を識別及び/または定量化する。この情報に基づき、カメラの方向は、たとえば、より高い程度で観戦されている空間の領域を優先するように決定及び調整することができる。 In some implementations, the orientation of a given camera is adjusted based on the virtual reality spectator's field of view. For example, the orientation of the camera may be adjusted so that its field of view covers at least a portion of the area viewed by the virtual reality spectator. In some implementations, the orientation of a given camera is adjusted based on the views of multiple virtual reality spectators to optimize their views. In some implementations, a density mapping of the virtual reality spectator's field of view is determined, which identifies and/or quantifies the relative amount that different regions of space are being watched. Based on this information, camera orientation can be determined and adjusted, for example, to favor areas of space that are being watched to a greater degree.

さまざまなカメラからの利用可能なビデオフィードが、所定のバーチャルリアリティ観戦者が見ているすべての領域の範囲(必要な方向及び/または視点を含む)を提供しなくてもよいことが理解される。利用可能なビデオフィードに基づいて提供できるカバー領域は、ライブビューで利用可能である会場空間の領域を定義する。引き続き図3を参照すると、利用可能なカメラの視界306a、306b、306c、及び306dは、利用可能なカメラからのビデオフィードによってもたらされる会場空間の範囲によって決定される、会場空間のリアルタイムライブビューを提供できる360度の視界300の領域であるライブビュー領域308を一緒に定義する。 It is understood that the available video feeds from the various cameras may not provide coverage of all areas viewed by a given virtual reality spectator, including the required orientation and/or viewpoint. . The coverage area that can be provided based on the available video feed defines the area of the venue space that is available for live view. With continued reference to FIG. 3, the available camera fields of view 306a, 306b, 306c, and 306d provide real-time live views of the venue space as determined by the extent of the venue space provided by the video feeds from the available cameras. Together, we define a live view region 308, which is the region of the 360 degree field of view 300 that can be provided.

いくつかの実施態様では、ライブビューがもたらされない残りの領域は、図示された実施態様で予め記録してあるビュー領域310を定義する、予め記録してあるビューで提示することができる。すなわち、領域310のビデオまたは画像は、より早い時間(たとえば、カメラの1つまたは複数が領域310の少なくとも一部をカバーするように向けられたとき)から記録されてもよく、予め記録してあるビデオ/画像は、つぎ合わせて、領域310のビューを提供するためにレンダリングすることができる。いくつかの実施態様において、バーチャルリアリティ観戦者120の視界がライブビュー領域308及び予め記録してあるビュー領域310の両方の部分を含むとき、バーチャルリアリティ観戦者120に提示されるビューは、ライブビデオ及び予め記録してあるビデオ/画像から生成されるコンポジットであることが理解される。 In some implementations, the remaining regions not provided with live view can be presented in prerecorded views, defining prerecorded view regions 310 in the illustrated implementation. That is, the video or images of region 310 may be recorded from an earlier time (eg, when one or more of the cameras are aimed to cover at least a portion of region 310) and may have been previously recorded. A video/image can be stitched together and rendered to provide a view of region 310 . In some implementations, the view presented to the virtual reality spectator 120 is a live video view when the virtual reality spectator's 120 field of view includes portions of both the live view area 308 and the pre-recorded view area 310 . and composites generated from pre-recorded video/images.

他の実施態様では、ライブビューのために利用できないバーチャルリアリティ観戦者の視界300の領域は、たとえば、広告/スポンサーコンテンツ、ゲーム関連コンテンツなどの他のコンテンツが提示されてもよい。 In other implementations, areas of the virtual reality spectator's field of view 300 that are not available for live view may be presented with other content, such as, for example, advertising/sponsored content, game-related content, and the like.

引き続き図3を参照すると、参照番号320で示されるように、さまざまなカメラからのビデオフィードは、バーチャルリアリティ観戦者の現在の視界302に基づいて、バーチャルリアリティ観戦者120に適切なビューを提供するビデオを形成するためにつぎ合わされてもよい。さらにまた、参照番号322で示されるように、つぎ合わされたビデオは、送信されるデータ量を削減する圧縮プロセスなどのさらなる処理を受けてもよい。いくつかの実施態様では、圧縮プロセスはフォービエイテッドレンダリングを含んでもよく、それによって、たとえば、HMD150によって検出された視線方向情報から判定されるような、バーチャルリアリティ観戦者120が見ていると判定された画像フレームの領域は、たとえば、増加させた解像度、更新頻度、ビットレート、カラー、ダイナミックレンジ、シャープネス、コントラスト、または、画質に影響を与える任意の他のパラメータの使用を通して、他の領域よりも高い画質でレンダリングされる。圧縮プロセスの出力は、バーチャルリアリティ観戦者120のためにビデオを定義する画像フレーム324である。図示された実施態様に示されるように、ビデオ画像フレームの領域326は、領域328よりも高い画質でレンダリングされる。 With continued reference to FIG. 3, video feeds from various cameras, as indicated by reference numeral 320, provide the appropriate view for the virtual reality spectator 120 based on the virtual reality spectator's current field of view 302. May be stitched together to form a video. Furthermore, as indicated by reference numeral 322, the stitched video may undergo further processing such as compression processes to reduce the amount of data to be transmitted. In some implementations, the compression process may include foveated rendering, whereby it is determined that the virtual reality spectator 120 is viewing, for example, as determined from gaze direction information detected by the HMD 150. Regions of the image frame that have been rendered more efficient than others, for example, through the use of increased resolution, update frequency, bitrate, color, dynamic range, sharpness, contrast, or any other parameter that affects image quality. rendered in high quality. The output of the compression process is image frames 324 that define the video for the virtual reality spectator 120 . As shown in the illustrated embodiment, region 326 of the video image frame is rendered at a higher quality than region 328 .

次いで、参照番号330で示されるように、圧縮画像フレームは、バーチャルリアリティ観戦者のHMD150を通した表示のために送信/ストリーミングされる。 The compressed image frames are then transmitted/streamed for display through the virtual reality spectator's HMD 150 , as indicated by reference number 330 .

図4は、本開示の実施態様による、eスポーツイベントのバーチャルリアリティ観戦を提供するためのシステムを概念的に図示する。説明の容易さのために特に詳細には記載しないが、本明細書に記載されるさまざまなシステム、構成要素、及びモジュールは、プログラム命令を実行するための1つまたは複数のプロセッサを有する1つまたは複数のコンピュータまたはサーバ、ならびに、データ及び前記プログラム命令を保存するための1つまたは複数のメモリ装置によって定義されてもよいことが理解される。このようなシステム、構成要素、及びモジュールはいずれも、任意の他のこのようなシステム、構成要素、及びモジュールと通信してもよく、かつ/または、必要に応じて、本開示の実施態様の機能を促進するために、1つまたは複数のネットワークを介して、データを送信/受信してもよいことは認識されるべきである。さまざまな実施態様では、システム、構成要素、及びモジュールのさまざまな部分は、互いにローカルにあってもよく、または、1つまたは複数のネットワークを介して分散されてもよい。 FIG. 4 conceptually illustrates a system for providing virtual reality viewing of an esports event, according to an embodiment of the present disclosure. Although not described in particular detail for ease of explanation, the various systems, components, and modules described herein can be implemented in a single processor having one or more processors for executing program instructions. or by a plurality of computers or servers and one or more memory devices for storing data and said program instructions. Any such systems, components, and modules may communicate with any other such systems, components, and modules, and/or where appropriate, according to embodiments of the present disclosure. It should be appreciated that data may be sent/received via one or more networks to facilitate functionality. In various implementations, various portions of the system, components, and modules may be local to each other or distributed over one or more networks.

示された実施態様では、バーチャルリアリティ観戦者120は、HMD150を通してシステムとインタフェースし、さらなるインタラクティビティ及び入力のために1つまたは複数のコントローラデバイス152を使用する。いくつかの実施態様では、HMDを介してバーチャルリアリティ観戦者120に表示されるビデオイメージは、本明細書で説明されるようなさまざまなシステム及びデバイスに(インターネットを含んでもよい)ネットワーク402を介して通信するコンピューティングデバイス400から受信される。 In the illustrated implementation, virtual reality spectators 120 interface with the system through HMDs 150 and use one or more controller devices 152 for additional interactivity and input. In some implementations, video images displayed to virtual reality spectators 120 via HMDs are transmitted via network 402 (which may include the Internet) to various systems and devices as described herein. is received from a computing device 400 that communicates with.

eスポーツイベントを観戦するためのアクセスを開始するために、バーチャルリアリティ観戦者120は、eスポーツイベントを観戦する要求を処理するイベントマネージャ404にアクセスしてもよい。イベントマネージャ404は、バーチャルリアリティ観戦者120をeスポーツイベントの会場内の特定のシートに割り当てるように構成されたシート割当ロジック405を含むことができる。シート割当ロジック405は、ユーザデータベース407に保存された観戦者のユーザプロファイルデータ408に基づくことを含み、さまざまな情報を利用して、バーチャルリアリティ観戦者120をどのシートに割り当てるか決定することができる。例として、このようなユーザプロファイルデータ408は、年齢、ジオロケーション、性別、国籍、主要言語、職業などのユーザについての人口統計情報、及び、関心事、好み、プレイしたゲーム/所有するゲーム/購入したゲーム、ゲーム経験レベル、インターネットの閲覧履歴などの他の種類の情報を含むことができる。 To initiate access to watch an esports event, the virtual reality spectator 120 may access the event manager 404, which processes requests to watch the esports event. Event manager 404 may include seat assignment logic 405 configured to assign virtual reality spectators 120 to particular seats within the venue of the esports event. Seat assignment logic 405 can utilize a variety of information to determine which seats to assign virtual reality spectators 120 to, including based on spectator user profile data 408 stored in user database 407. . By way of example, such user profile data 408 may include demographic information about the user such as age, geolocation, gender, nationality, primary language, occupation, and interests, preferences, games played/games owned/purchases. It can include other types of information such as games played, gaming experience level, Internet browsing history, and so on.

いくつかの実施態様では、シート割当ロジック405は、ソーシャルネットワーク410から得られた情報を使用して、たとえば、ソーシャルネットワーク上の友人である観戦者を互いに近くのまたは隣のシートに割り当てることができる。このような情報を取得するために、ソーシャルネットワーク410は、(ソーシャルグラフメンバーシップ情報を含む)ユーザについてのソーシャル情報を、ソーシャルデータ414としてソーシャルデータベース412に保存してもよい。いくつかの実施態様では、シート割当ロジック405は、(たとえば、所定のユーザ/観戦者のソーシャルグラフにアクセスする)ソーシャルデータにソーシャルネットワーク410のAPIを介してアクセスしてもよい。 In some implementations, the seat assignment logic 405 can use information obtained from the social network 410 to assign, for example, spectators who are friends on the social network to seats near or next to each other. . To obtain such information, social network 410 may store social information about the user (including social graph membership information) as social data 414 in social database 412 . In some implementations, the seat allocation logic 405 may access social data (eg, access a given user/spectator's social graph) via the API of the social network 410 .

いくつかの実施態様では、シート割当ロジック405は、どのシートが利用可能か、たとえば、実際の及び/または仮想の観戦者によって占有されていないか判定するように構成され、このような情報に少なくとも部分的に基づいて、バーチャルリアリティ観戦者を割り当てる。いくつかの実施態様では、シート割当ロジック405は、バーチャルリアリティ観戦者を、会場内のシートの既定のランキングから判定される利用可能な最高のシートに自動的に割り当てるように構成される。 In some implementations, the seat allocation logic 405 is configured to determine which seats are available, e.g., not occupied by real and/or virtual spectators, and such information includes at least Assign virtual reality spectators based in part. In some implementations, the seat assignment logic 405 is configured to automatically assign virtual reality spectators to the best available seats as determined from a pre-defined ranking of seats within the venue.

シート割当ロジック405は、所定のバーチャルリアリティ観戦者をどのシートに割り当てるか判定する任意の他の要因(複数可)とともに、本明細書に記載された任意の要因を使用することができることが理解される。いくつかの実施態様では、利用可能なシートは、さまざまな要因に基づいてスコア化され、シート割当は、そのスコアに基づいて決定される(たとえば、バーチャルリアリティ観戦者は最も高いスコアのシートに割り当てられる)。いくつかの実施態様では、シート割当ロジック405は、観戦者120による受諾のためにお勧めのシートを提示し、観戦者120は、それを受諾すると、お勧めのシートに割り当てられる。 It is understood that the seat assignment logic 405 can use any of the factors described herein along with any other factor(s) to determine which seat to assign a given virtual reality spectator. be. In some implementations, available seats are scored based on various factors, and seat assignments are determined based on the scores (e.g., virtual reality spectators are assigned to the highest scoring seats). be done). In some implementations, the seat assignment logic 405 presents a recommended seat for acceptance by the spectator 120, who upon acceptance is assigned to the recommended seat.

他の実施態様では、バーチャルリアリティ観戦者120は、バーチャルリアリティ観戦者が利用可能なシートから与えられるシートを選択することができるように構成されたシート選択ロジック406によって提供されるインタフェースにアクセスしてもよい。 In another embodiment, the virtual reality spectator 120 accesses an interface provided by seat selection logic 406 configured to allow the virtual reality spectator to select a given seat from available seats. good too.

会場データベース416は、1つまたは複数の会場についてのデータを会場データ418として保存する。会場データ418は、3次元空間マップ、カメラ、スピーカ、マイクロフォンの位置などの、会場を説明する任意のデータを含むことができる。会場データ418は、シートプロファイルを独自のシート識別子に関連付けるテーブル420をさらに含んでもよい。いくつかの実施態様では、各シートは、その独自のシートプロファイルを有する。いくつかの実施態様では、(たとえば、互いに隣接する)シートの群は、同じシートプロファイルを共有してもよい。例示的なシートプロファイル422は、シートの3次元位置424、ビデオ処理パラメータ426、及びオーディオ処理パラメータ428などの情報を含む。 Venue database 416 stores data about one or more venues as venue data 418 . Venue data 418 can include any data describing the venue, such as a three-dimensional spatial map, camera, speaker, and microphone locations. Venue data 418 may further include a table 420 that associates seat profiles with unique seat identifiers. In some implementations, each sheet has its own sheet profile. In some implementations, groups of sheets (eg, adjacent to each other) may share the same sheet profile. The exemplary seat profile 422 includes information such as the seat's three-dimensional position 424 , video processing parameters 426 , and audio processing parameters 428 .

ビデオプロセッサ432は、バーチャルリアリティ観戦者のビュー方向に従ってバーチャルリアリティ観戦者120にビューを提供するコンポジットビデオを生成するために、ビデオ処理パラメータ426及び/または観戦者の割り当てられたシートの3次元位置424を使用して、カメラ116からのビデオフィード430をつぎ合わせてもよいステッチプロセッサ434を含む。いくつかの実施態様では、空間モデリングモジュール438は、ビデオフィード430のつぎ合わせを容易にするために、(たとえば、カメラの位置及び観戦者のシートの位置を含む)会場の3次元環境の空間モデルを生成し、それにアクセスする。ビデオフィードのつぎ合わせは、観戦者に視点の正確なビデオを提供するために、ビデオフィードの空中投影を伴ってもよい。いくつかの実施態様では、結果として得られるコンポジットビデオは3次元ビデオであるが、その一方で、他の実施態様では、コンポジットビデオは2次元ビデオである。 The video processor 432 uses the video processing parameters 426 and/or the spectator's assigned seat 3D position 424 to generate a composite video that provides a view to the virtual reality spectator 120 according to the virtual reality spectator's viewing direction. includes a stitch processor 434 that may stitch the video feed 430 from the camera 116 using . In some implementations, the spatial modeling module 438 creates a spatial model of the venue's three-dimensional environment (including, for example, camera positions and spectator seat positions) to facilitate stitching together the video feed 430 . create and access it. The stitching of the video feeds may involve aerial projection of the video feeds to provide the viewer with a point-of-view accurate video. In some implementations, the resulting composite video is 3D video, while in other implementations the composite video is 2D video.

圧縮プロセッサ436は、未加工のコンポジットビデオを圧縮するように構成され、当該技術分野において知られているビデオ圧縮技術、ならびに、フォービエイテッドレンダリングを使用して、ストリーミングのために必要なデータ量を削減する。次いで、圧縮ビデオデータは、ストリーミングサーバ448によって、ネットワーク402を介して、コンピューティングデバイス400までストリーミングされ、コンピューティングデバイス400は、バーチャルリアリティ観戦者120が見るためにHMD150に対してビデオを処理及び/またはレンダリングする。 Compression processor 436 is configured to compress the raw composite video, using video compression techniques known in the art, as well as foveated rendering, to reduce the amount of data required for streaming. Reduce. The compressed video data is then streamed by streaming server 448 over network 402 to computing device 400, which processes and/or processes the video to HMD 150 for viewing by virtual reality spectator 120. or render.

いくつかの実施態様では、ビデオフィードは、カメラから、ビデオ処理も実行するカメラ/会場に対してローカルである1つまたは複数のコンピューティングデバイスまで送信される。いくつかの実施態様では、カメラは、このようなコンピューティングデバイスに直接接続される。いくつかの実施態様では、ビデオフィードは、(たとえば、ローカルエリアネットワーク(LAN)、Wi-Fiネットワークなどを含む)ローカルネットワークを介して、このようなコンピューティングデバイスに送信される。いくつかの実施態様では、コンピューティングデバイスはリモートに配置され、ビデオフィードは、インターネット、LAN、ワイドエリアネットワーク(WAN)などの1つまたは複数のネットワークを介して送信されてもよい。 In some implementations, the video feed is transmitted from the camera to one or more computing devices local to the camera/venue that also perform video processing. In some implementations, cameras are directly connected to such computing devices. In some implementations, video feeds are transmitted to such computing devices via local networks (eg, including local area networks (LAN), Wi-Fi networks, etc.). In some implementations, the computing device is remotely located and the video feed may be transmitted over one or more networks such as the Internet, LANs, wide area networks (WANs), and the like.

オーディオプロセッサ444は、圧縮されたビデオデータとともにストリーミングされるオーディオソース440からのオーディオデータ442を処理するように構成される。処理は、オーディオ処理パラメータ428及び/または観戦者のシートの3次元位置424を使用してもよい。いくつかの実施態様では、オーディオモデリングモジュール446は、オーディオデータ442を処理するために会場の3次元空間に基づくオーディオモデルを利用する。このようなオーディオモデルは、オーディオが現実的な方法でバーチャルリアリティ観戦者にレンダリングされるように、会場内の割り当てられたシートの音響効果をシミュレートしてもよい。例として限定することなしに、他のバーチャルリアリティ観戦者からの音は、バーチャルリアリティ観戦者120のシート位置に対する方向性だけでなく、会場内のシート位置に適した音響効果(たとえば、遅延、残響など)もシミュレートするために処理されてもよい。前述のように、オーディオソースは、ゲームプレイオーディオ、解説者(複数可)、家の音楽、会場内のマイクロフォンからのオーディオなどを含むことができる。 Audio processor 444 is configured to process audio data 442 from audio source 440 that is streamed along with the compressed video data. The processing may use the audio processing parameters 428 and/or the three-dimensional position 424 of the spectator's seat. In some implementations, audio modeling module 446 utilizes an audio model based on the three-dimensional space of the venue to process audio data 442 . Such an audio model may simulate the acoustics of assigned seats within a venue such that the audio is rendered to virtual reality spectators in a realistic manner. By way of example and without limitation, sounds from other virtual reality spectators can be directional with respect to the virtual reality spectator's 120 seat position, as well as acoustic effects (e.g., delay, reverberation, etc.) appropriate to their seat position within the venue. etc.) may also be processed to simulate. As previously mentioned, audio sources can include gameplay audio, commentator(s), house music, audio from microphones in the venue, and the like.

図5は、本開示の実施態様による、会場のシートが実際の観戦者によって占有されているかどうかを判定するための技術を図示する。示された実施態様では、会場100内のさまざまなシート500、502、及び504が示されている。シート502は、実際の観戦者506によって占有されている。カメラ512は、シートの画像をキャプチャするように構成することができる。キャプチャ画像は、与えられたシートが占有されているというインジケータを求めて画像を検索する画像認識プロセス514に従って分析することができる。例として限定することなしに、画像認識プロセスは、与えられたシートを占有する人の存在を識別する顔認識または他の形態の人物認識、与えられたシートの近くで発生する動きを検出する動き検出、空のシート構成の画像認識などを含んでもよい。 FIG. 5 illustrates a technique for determining whether seats in a venue are occupied by actual spectators, according to an embodiment of the present disclosure. In the illustrated implementation, various seats 500, 502, and 504 within the venue 100 are shown. Seats 502 are occupied by actual spectators 506 . Camera 512 may be configured to capture an image of the sheet. The captured image can be analyzed according to an image recognition process 514 that searches the image for indicators that a given seat is occupied. By way of example and without limitation, image recognition processes may include facial recognition or other forms of person recognition to identify the presence of a person occupying a given seat, motion to detect movement occurring near a given seat. It may also include detection, image recognition of empty seat configurations, and the like.

いくつかの実施態様では、シートは、画像認識プロセス514によって認識することができるタグを含んでもよい(または、シートに取り付けてもよい)。示された実施態様では、タグ508はシート500に取り付けられ、タグ510はシート504に取り付けられている。シート502は、実際の観戦者506によって占有されており、したがって、シート502に取り付けられたタグはもはや見ることができず、認識されない。このようにして、空のシートは、カメラ512からのキャプチャ画像のタグを識別することによって識別することができる。タグは、さまざまな実施態様において、例として限定することなしに、再帰反射器または再帰反射材、認識可能な画像/パターン/グラフィック、ライト(たとえば、LED)、特定の色(複数可)などを含む、任意の認識可能な形態をとってもよい。 In some implementations, the sheet may include (or may be attached to) a tag that can be recognized by the image recognition process 514 . In the illustrated embodiment, tag 508 is attached to sheet 500 and tag 510 is attached to sheet 504 . The seat 502 is now occupied by a real spectator 506 and thus the tag attached to the seat 502 is no longer visible and recognizable. In this way, empty sheets can be identified by identifying the tag in the captured image from camera 512 . Tags may, in various embodiments, include, by way of example and without limitation, retroreflectors or retroreflective materials, recognizable images/patterns/graphics, lights (e.g., LEDs), specific color(s), etc. It may take any recognizable form, including

タグは、例として限定することなしに、いくつかの実施態様では、背もたれもしくはシートクッションに沿って、より詳細には、背もたれもしくはシートクッションの上部に沿って、または、シートクッションを折り畳む場合、シートが占有されておらずシートクッションが折り畳まれているときに見ることができるようにシートクッションの前部に沿って、または、肘掛けに沿って、などを含む、シートの任意の部分に取り付けられてもよい。さらにまた、与えられるシートは、シートに取り付けられた任意の数のタグを有してもよいことが理解される。 By way of example and without limitation, the tag may, in some embodiments, be along the back or seat cushion, more particularly along the top of the back or seat cushion, or when the seat cushion is folded, the seat. is not occupied and can be seen when the seat cushion is folded, along the front of the seat cushion, or along the armrests, etc. good too. Furthermore, it is understood that a given sheet may have any number of tags attached to the sheet.

参照番号516で示されるように、上記による空のシートまたは占有されたシートの検出に基づいて、与えられるシートの占有ステータスを、シートが占有されているまたは空であるかどうかを反映するために更新することができる。前述のように、いくつかの実施態様では、空のシートは、会場100のバーチャルリアリティ観戦で利用可能となる。 Based on the above detection of an empty or occupied seat, as indicated at reference numeral 516, the occupancy status of a given seat is changed to reflect whether the seat is occupied or empty. can be updated. As previously mentioned, in some implementations, empty seats are made available for virtual reality viewing at venue 100 .

図6は、本開示の実施態様による、バーチャルリアリティ観戦者が実際の会場内の状況において自分自身を見るための方法を図示する。示された実施態様では、eスポーツイベントは会場100で開催され、そこには、多くのシートがある。たとえば、シート136は、実際の観戦者138によって占有されている。バーチャルリアリティ観戦者120は、シート122を「占有する」ことができ、その結果、まるでバーチャルリアリティ観戦者120がシート122に実際に存在するように、会場100のHMD150を通してビューを体験する。 FIG. 6 illustrates a method for a virtual reality spectator to see themselves in a real venue situation, according to an embodiment of the present disclosure. In the illustrated implementation, an esports event is held at venue 100, which has many seats. For example, seats 136 are occupied by actual spectators 138 . A virtual reality spectator 120 can “occupy” the seat 122 and thus experience the view through the HMD 150 of the venue 100 as if the virtual reality spectator 120 were physically present in the seat 122 .

カメラ600は、オペレータ602によって操作されて、シート122及び136の方へ向けられてもよく、それによって、シート136の実際の観戦者138のビデオをキャプチャする。このビデオまたはその一部は、ディスプレイ108cに映写されてもよく、ディスプレイ108cは、同時に多くの観戦者が見ることができる会場100内の大きなディスプレイの1つであってもよい。示されるように、ディスプレイ108c上にレンダリングされる映写されたビデオは、実際の観戦者138の画像606を示す。 Camera 600 may be operated by operator 602 and directed toward seats 122 and 136 , thereby capturing video of actual spectator 138 at seat 136 . This video, or a portion thereof, may be projected on display 108c, which may be one of the larger displays within venue 100 that may be viewed by many spectators at the same time. As shown, the projected video rendered on display 108 c shows an image 606 of the actual spectator 138 .

しかしながら、いくつかの実施態様では、バーチャルリアリティ観戦者120がディスプレイ108cの方を見ると、バーチャルリアリティ観戦者120も、ディスプレイ108c上に示された映写されたビデオ内に自分自身を見る。すなわち、ディスプレイ108c上に映写されたビデオが、バーチャルリアリティ観戦者が「占有する」(または、割り当てられた)シート122の位置を含むとき、ディスプレイ108cを含む、バーチャルリアリティ観戦者120にHMDを通して提供されるビューにおいては、ディスプレイ108cのレンダリングされた画像は、シート122を占有するように適切な位置にバーチャルリアリティ観戦者120(または、バーチャルリアリティ観戦者120に関連付けられたアバター604)の画像を含むように変更される。このようにして、バーチャルリアリティ観戦者120は、会場100内のシート122の自分自身を見ることができ、これによって、バーチャルリアリティ観戦者120の体験のリアリズム及びインタラクティビティがさらに増加する。図示された実施態様に示されるように、バーチャルリアリティ観戦者120によって見られるディスプレイ108c上のレンダリングされたビデオは、バーチャルリアリティ観戦者120(または、バーチャルリアリティ観戦者120の関連付けられたアバター604)の画像608を含む。 However, in some implementations, when virtual reality spectator 120 looks toward display 108c, virtual reality spectator 120 also sees himself within the projected video shown on display 108c. That is, when the video projected on the display 108c includes the position of the seat 122 "occupied" (or assigned) by the virtual reality spectator, it is provided to the virtual reality spectator 120, including the display 108c, through the HMD. In the view shown, the rendered image of display 108c includes an image of virtual reality spectator 120 (or avatar 604 associated with virtual reality spectator 120) positioned appropriately to occupy seat 122. is changed to In this manner, the virtual reality spectators 120 can see themselves on the seats 122 within the venue 100, further increasing the realism and interactivity of the virtual reality spectators' 120 experience. As shown in the illustrated embodiment, the rendered video on display 108c viewed by virtual reality spectator 120 is a representation of virtual reality spectator 120 (or virtual reality spectator 120's associated avatar 604). Contains image 608 .

いくつかの実施態様では、会場100内のディスプレイ108c上に実際にレンダリングされるビデオは、バーチャルリアリティ観戦者の画像を含むように変更されないことが理解される。しかしながら、他の実施態様では、会場100内のディスプレイ108c上で実際にレンダリングされるビデオは、バーチャルリアリティ観戦者の画像を含むように変更される。 It is understood that in some implementations, the video actually rendered on display 108c in venue 100 is not altered to include images of virtual reality spectators. However, in other implementations, the video actually rendered on display 108c in venue 100 is modified to include images of virtual reality spectators.

引き続き図6を参照すると、上記のバーチャルリアリティ観戦者を含むためのビデオ変更を実行するための方法が示されている。動作610では、ビデオは会場内のカメラでキャプチャされ、そのビデオはバーチャルリアリティ観戦者が割り当てられた位置/シートを含み、その位置/シートは、バーチャルリアリティ観戦者がHMDを通して会場のビューが提供される位置を定義している。 Continuing to refer to FIG. 6, a method for performing video modification to include virtual reality spectators as described above is shown. At operation 610, a video is captured with a camera in the venue, the video including the position/seat to which the virtual reality spectator has been assigned, the position/seat to which the virtual reality spectator is provided with a view of the venue through the HMD. defines the position where

動作612では、カメラでキャプチャされたシート及び/または位置が判定される。これは、どのシートがビデオ内でキャプチャされているかを判定するために、会場内のカメラの3次元位置及び/または方向を判定することを伴ってもよい。たとえば、カメラの知られている位置及び方向を使用して、ビデオ内でキャプチャされた会場内の3次元空間を判定することができ、シートの会場内の3次元位置へのマッピングを使用して、ビデオ内でキャプチャされた特定のシートを識別することができる。例として限定することなしに、カメラの位置/方向は、Wi-Fiベースの位置決め、磁気的な位置決め、視覚的マーカ及び/または視覚的特徴の認識などを含む、当該技術分野において知られている任意の種類のローカライゼーション/位置決め技術を使用して判定することができる。 At operation 612, the sheet and/or position captured by the camera is determined. This may involve determining the three-dimensional position and/or orientation of cameras within the venue to determine which seats are being captured in the video. For example, using the known position and orientation of the camera, the three-dimensional space within the venue captured in the video can be determined, and using the mapping of the seat to the three-dimensional position within the venue, , can identify specific sheets captured in the video. By way of example and without limitation, camera position/orientation is known in the art, including Wi-Fi based positioning, magnetic positioning, visual markers and/or visual feature recognition, etc. It can be determined using any kind of localization/positioning technique.

動作614では、所定の識別されたシートに関して、バーチャルリアリティ観戦者がシートに割り当てられているかどうかが判定され、割り当てられている場合、バーチャルリアリティ観戦者が識別される。動作616では、バーチャルリアリティ観戦者に提供されるビューが、キャプチャされたビデオが会場でレンダリングされるディスプレイを含むとき、ディスプレイのビューは、バーチャルリアリティ観戦者によって占有されたシートにバーチャルリアリティ観戦者またはバーチャルリアリティ観戦者の代わりのアバターを示すように修正される。たとえば、バーチャルリアリティ観戦者のビュー方向は、ビューがいつディスプレイを含むか判定するためにトラッキングすることができる。この場合、ビューは、バーチャルリアリティ観戦者を含むように、上記のように修正することができる。いくつかの実施態様では、バーチャルリアリティ観戦者(または、バーチャルリアリティ観戦者のアバター)の画像は、バーチャルリアリティ観戦者に提示されるディスプレイのビューのオーバーレイとして形成される。いくつかの実施態様では、ディスプレイを含むカメラのビデオフィードは、バーチャルリアリティ観戦者(または、アバター)の画像を含むように修正され、修正されたビデオフィードは、事前に論じられたようにつぎ合わされて、バーチャルリアリティ観戦者のためのビューを形成する。 At operation 614, for a given identified seat, it is determined whether a virtual reality spectator has been assigned to the seat, and if so, the virtual reality spectator is identified. At operation 616, when the view provided to the virtual reality spectators includes the display on which the captured video is rendered at the venue, the view of the display is transferred to the seats occupied by the virtual reality spectators or to the seats occupied by the virtual reality spectators. Modified to show an alternate avatar for the virtual reality spectator. For example, a virtual reality spectator's view direction can be tracked to determine when the view includes the display. In this case, the view can be modified as described above to include the virtual reality spectator. In some implementations, the image of the virtual reality spectator (or the virtual reality spectator's avatar) is formed as an overlay of the view of the display presented to the virtual reality spectator. In some implementations, the camera video feed including the display is modified to include images of virtual reality spectators (or avatars), and the modified video feeds are stitched together as previously discussed. to form the view for the virtual reality spectator.

図7は、本開示の実施態様による、実際の観戦者を検知して、バーチャルリアリティ観戦者のインタラクティビティを可能にするためのさらなる機能を有する会場内のシートを図示する。示された実施態様では、シート700及びシート702が示されており、シート702はシート700の前にある。それぞれ、シート700及び702のために構成されたセンサユニット704及び706も示されている。いくつかの実施態様では、センサユニットは、シートから取り外し可能な独立した付属装置である。いくつかの実施態様では、センサユニット及び/または本明細書に記載の任意の構成要素は、シートの一部として組み込むことができる。 FIG. 7 illustrates seating in a venue with additional functionality for sensing physical spectators to enable interactivity for virtual reality spectators, according to an embodiment of the present disclosure. In the illustrated embodiment, seat 700 and seat 702 are shown, with seat 702 in front of seat 700 . Also shown are sensor units 704 and 706 configured for seats 700 and 702, respectively. In some implementations, the sensor unit is a separate attachment that is removable from the seat. In some implementations, the sensor unit and/or any component described herein can be incorporated as part of the seat.

説明を容易にするために、本明細書においてセンサユニット706が説明され、センサユニット704も同様であることが理解される。センサユニット706は、シート702が実際の観戦者によって占有されているかどうかを検出するように構成された1つまたは複数の占有センサ708を含む。示されるように、占有センサ708は、座部及び/または背もたれに沿って位置付けることができる。いくつかの実施態様では、占有センサ708は、人がシート702に座っているかどうかを検知するために、圧力が加えられたときに検出する1つまたは複数の圧力センサを含む。さらに、このような圧力センサは、どれだけの圧力(力)が加えられているかを判定/定量化することができ、人と別の対象物との重量の識別ができてもよい。いくつかの実施態様では、占有センサ708は、別の対象物が近く(たとえば、既定の距離内)にあるときに検出できる、場合によっては、近接センサからの対象物の距離を検出できる、1つまたは複数の近接センサを含む。 For ease of explanation, sensor unit 706 is described herein, and it is understood that sensor unit 704 is similar. Sensor unit 706 includes one or more occupancy sensors 708 configured to detect whether seat 702 is occupied by an actual spectator. As shown, occupancy sensors 708 can be positioned along the seat and/or backrest. In some implementations, occupancy sensor 708 includes one or more pressure sensors that detect when pressure is applied to detect whether a person is sitting on seat 702 . Additionally, such a pressure sensor can determine/quantify how much pressure (force) is being applied and may be capable of weight discrimination between a person and another object. In some implementations, the occupancy sensor 708 can detect when another object is nearby (eg, within a predetermined distance), and in some cases can detect the distance of the object from the proximity sensor. Contains one or more proximity sensors.

いくつかの実施態様では、センサユニット706は、シート702の視点からのビデオ/画像をキャプチャするように構成されたカメラ710をさらに含み、そのカメラ710は、シート702に割り当てられたバーチャルリアリティ観戦者に会場のビューを提供するために使用することができる。いくつかの実施態様では、カメラ710は、360度の視界をキャプチャすることが可能な球面パノラマカメラである。さまざまな実施態様では、カメラ710は、1つまたは複数の画像キャプチャデバイスを含む。いくつかの実施態様では、カメラ710は、3次元深さを有する立体画像を提供することが可能な立体カメラである。 In some implementations, the sensor unit 706 further includes a camera 710 configured to capture video/images from the viewpoint of the seat 702 , the camera 710 being a virtual reality spectator assigned to the seat 702 . can be used to provide a view of the venue to In some implementations, camera 710 is a spherical panoramic camera capable of capturing a 360 degree field of view. In various implementations, camera 710 includes one or more image capture devices. In some implementations, camera 710 is a stereoscopic camera capable of providing stereoscopic images with three-dimensional depth.

いくつかの実施態様では、センサユニット706は、1つまたは複数のマイクロフォンアレイ716をさらに含み、各マイクロフォンアレイは、複数のマイクロフォンを含む。マイクロフォンアレイからの音は、異なるマイクロフォンの間での受音タイミングの差の分析に基づいて、音源の位置を識別するために処理することができる。マイクロフォンアレイによってキャプチャされた音は、処理することができる、かつ/または、仮想的に位置付けられた会場内の位置からの音をバーチャルリアリティ観戦者が体験できるように、シート702に割り当てられたバーチャルリアリティ観戦者に提供することができる。 In some implementations, the sensor unit 706 further includes one or more microphone arrays 716, each microphone array including multiple microphones. Sound from the microphone array can be processed to identify the location of the sound source based on analysis of timing differences in reception between different microphones. The sound captured by the microphone array can be processed and/or placed in a virtual microphone assigned to seat 702 so that the virtual reality spectator can experience the sound from locations within the venue that are virtually located. It can be provided to reality spectators.

いくつかの実施態様では、センサユニット712は、バーチャルリアリティ観戦者が、隣接するまたは近くのシートの観戦者とのインタラクトを可能にするハードウェアを含む。示された実施態様では、センサユニット712は、ディスプレイ712と、スピーカ714とをさらに含む。ディスプレイ712は、シート702に割り当てられたバーチャルリアリティ観戦者(または、アバター)の画像を表示することができ、近くのシートの実際の観戦者はバーチャルリアリティ観戦者(または、バーチャルリアリティ観戦者のアバター)を見ることができる。いくつかの実施態様では、バーチャルリアリティ観戦者は、スピーカ714を通してやりとりすることができ、それにより、(たとえば、バーチャルリアリティ観戦者のHMDのマイクロフォンによって、または、バーチャルリアリティ観戦者のローカル環境でキャプチャされた)バーチャルリアリティ観戦者からの音は、センサユニット706に送信し、スピーカ714を通して出力することができる。同様に、近くの実際の観戦者は話をしてもよく、これはマイクロフォンアレイ716によってキャプチャされて、バーチャルリアリティ観戦者が近くの実際の観戦者の話を聞くことができるようにバーチャルリアリティ観戦者のHMDに送信される。このようにして、実際の観戦者及びバーチャルリアリティ観戦者は、互いにインタラクトしてもよい。バーチャルリアリティ観戦者は、いくつかの実施態様では、カメラ710を通して近くの実際の観戦者を見ることができることが理解される。 In some implementations, sensor unit 712 includes hardware that allows virtual reality spectators to interact with spectators in adjacent or nearby seats. In the illustrated implementation, sensor unit 712 further includes display 712 and speaker 714 . The display 712 can display an image of the virtual reality spectator (or avatar) assigned to the seat 702, and the actual spectator in a nearby seat is the virtual reality spectator (or avatar of the virtual reality spectator). ) can be seen. In some implementations, the virtual reality spectators can interact through speakers 714, thereby capturing (eg, by a microphone on the virtual reality spectator's HMD or in the virtual reality spectator's local environment) d) sounds from the virtual reality spectator can be transmitted to the sensor unit 706 and output through the speaker 714; Similarly, a nearby real spectator may speak, which is captured by the microphone array 716 to allow the virtual reality spectator to hear the nearby real spectator. transmitted to the person's HMD. In this way, real and virtual reality spectators may interact with each other. It is understood that a virtual reality spectator can see a nearby real spectator through camera 710 in some implementations.

いくつかの実施態様では、センサユニット706は、シート702の背後にあるシート700の占有を検出するように構成されてもよい後ろ向きセンサ718を含む。いくつかの実施態様では、後ろ向きセンサは、近接センサとすることができ、IR、超音波、または他のセンシング技術を使用してもよい。 In some implementations, sensor unit 706 includes a rear-facing sensor 718 that may be configured to detect occupancy of seat 700 behind seat 702 . In some implementations, the rear-facing sensor may be a proximity sensor and may use IR, ultrasonic, or other sensing technology.

いくつかの実施態様では、センサユニット706は、センサユニットの位置の判定を可能にする位置決め技術を含む。これは、例として限定することなしに、Wi-Fiでの位置決め、磁気的な位置決め、GPSなどを含んでもよい。 In some implementations, the sensor unit 706 includes positioning technology that enables determination of the position of the sensor unit. This may include, by way of example and without limitation, positioning over Wi-Fi, magnetic positioning, GPS, and the like.

センサユニット706はさらに、無線及び/または有線ネットワークを含む、セルラー、Wi-Fi、または他の種類のネットワークなどの、1つまたは複数のネットワークを介して、データを通信及び送信/受信してもよい。 Sensor unit 706 may also communicate and transmit/receive data over one or more networks, such as cellular, Wi-Fi, or other types of networks, including wireless and/or wired networks. good.

いくつかの実施態様では、センサユニット706は、画像認識プロセスによって認識可能であるタグを含み、そのため、センサユニットは、会場内のカメラによって、キャプチャされた画像内で識別することができる。 In some implementations, the sensor unit 706 includes a tag that is recognizable by an image recognition process so that the sensor unit can be identified in captured images by cameras within the venue.

本開示の実施態様は概して、eスポーツイベント及びeスポーツ会場に関して説明されたが、他の実施態様では、本開示の原理が、例として限定することなしに、スポーツイベント(たとえば、フットボール、バスケットボール、野球、サッカー、ホッケーなど)、コンサート、式典、プレゼンテーションなどを含む、任意の他の種類の観戦されるライブイベント及び対応する会場に適用可能であることは認識されるべきである。 While implementations of the present disclosure have generally been described in terms of esports events and esports venues, in other implementations the principles of the present disclosure can be applied to sporting events (e.g., football, basketball, It should be recognized that it is applicable to any other type of spectated live event and corresponding venue, including baseball, soccer, hockey, etc.), concerts, ceremonies, presentations, and the like.

図8は、本開示の実施態様による、ヘッドマウントディスプレイ(HMD)を介した仮想環境とのインタラクションのためのシステムを図示する。HMDは、バーチャルリアリティ(VR)ヘッドセットと呼ぶこともできる。本明細書で使用される場合、「バーチャルリアリティ」(VR)という用語は一般に、(ユーザによって制御される)HMDの動作にリアルタイムに反応する方法でHMD(または、VRヘッドセット)を通して仮想空間を見ることを含む仮想空間/環境とのユーザのインタラクションを表し、ユーザに仮想空間にいる感覚を提供する。たとえば、ユーザは、所定の方向を向いたとき、仮想空間の3次元(3D)ビューを見ることができ、ユーザが横を向き、それによって、同様にHMDを向けると、仮想空間内のその側へのビューがHMD上でレンダリングされる。示された実施態様では、ヘッドマウントディスプレイ(HMD)150を着用するユーザ120が示されている。HMD150は、眼鏡、ゴーグル、またはヘルメットと類似の方法で着用され、ユーザ120にビデオゲームまたは他のコンテンツを表示するように構成される。HMD150は、ユーザの目に近接する表示機構の提供により、ユーザに非常に没入できる体験を提供する。よって、HMD150は、ユーザの視界の大部分または全体を占める、ユーザの目のそれぞれに対する表示領域を提供することができ、3次元深さ及び視点を有するビューも提供してもよい。 FIG. 8 illustrates a system for interaction with a virtual environment via a head-mounted display (HMD), according to an embodiment of the disclosure. HMDs can also be referred to as virtual reality (VR) headsets. As used herein, the term "virtual reality" (VR) generally refers to viewing a virtual space through an HMD (or VR headset) in a manner that reacts in real time to the movements of the HMD (controlled by a user). Represents the user's interaction with the virtual space/environment, including viewing, and provides the user with the feeling of being in the virtual space. For example, the user can see a three-dimensional (3D) view of the virtual space when facing a given direction, and when the user turns sideways, thereby similarly pointing the HMD, that side of the virtual space can be seen. is rendered on the HMD. In the illustrated embodiment, a user 120 is shown wearing a head-mounted display (HMD) 150 . HMD 150 is worn in a manner similar to eyeglasses, goggles, or a helmet and is configured to display video games or other content to user 120 . HMD 150 provides a highly immersive experience to the user by providing a display mechanism that is close to the user's eyes. Thus, HMD 150 can provide display areas for each of the user's eyes that occupy most or all of the user's field of view, and may also provide views with three-dimensional depth and perspective.

示された実施態様では、HMD150は、コンピュータ806に無線で接続されている。他の実施態様では、HMD150は、有線接続を介してコンピュータ806に接続される。コンピュータ806は、当該技術分野において知られている任意の一般的または特別な目的のコンピュータとすることができ、それらは、ゲームコンソール、パーソナルコンピュータ、ラップトップ、タブレットコンピュータ、携帯機器、携帯電話、タブレット、シンクライアント、セットトップボックス、メディアストリーミングデバイスなどを含むが、これらに限定されない。いくつかの実施態様では、コンピュータ106は、ビデオゲームを実行し、HMD150によってレンダリングするためにビデオゲームからのビデオ及びオーディオを出力するように構成することができる。いくつかの実施態様では、コンピュータ806は、HMDを通して見ることができる仮想空間/環境を提供する任意の他の種類のインタラクティブアプリケーションを実行するように構成される。トランシーバ810は、その上にレンダリングするためにビデオゲームからHMD150までビデオ及びオーディオを(有線接続または無線接続によって)送信するように構成される。トランシーバ810は、HMD150へのデータ送信のための送信機、ならびに、HMD150によって送信されたデータを受信するための受信機を含む。 In the illustrated implementation, HMD 150 is wirelessly connected to computer 806 . In other implementations, HMD 150 is connected to computer 806 via a wired connection. Computer 806 can be any general or special purpose computer known in the art, including game consoles, personal computers, laptops, tablet computers, mobile devices, mobile phones, tablets. , thin clients, set-top boxes, media streaming devices, etc. In some implementations, computer 106 may be configured to run a video game and output video and audio from the video game for rendering by HMD 150 . In some implementations, computer 806 is configured to run any other type of interactive application that provides a virtual space/environment viewable through an HMD. Transceiver 810 is configured to transmit video and audio (via wired or wireless connection) from the video game to HMD 150 for rendering thereon. Transceiver 810 includes a transmitter for data transmission to HMD 150 as well as a receiver for receiving data transmitted by HMD 150 .

いくつかの実施態様では、HMD150は、HMD150及びコンピュータ106がどちらも接続されるネットワーク812を介するなど、代替の機構またはチャネルを通してコンピュータと通信してもよい。 In some implementations, HMD 150 may communicate with the computer through alternative mechanisms or channels, such as via network 812 to which HMD 150 and computer 106 are both connected.

ユーザ120は、インタフェースオブジェクト152を操作して、ビデオゲームに入力を提供してもよい。さらに、カメラ808は、ユーザ120が位置するインタラクティブ環境の画像をキャプチャするように構成することができる。これらのキャプチャされた画像は、ユーザ120、HMD150、及びインタフェースオブジェクト152の位置及び動作を判定するために分析することができる。さまざまな実施態様では、インタフェースオブジェクト152は、トラッキングできるライト及び/または慣性センサ(複数可)を含み、インタフェースオブジェクトの位置及び方向の判定及び動作のトラッキングが可能にする。 User 120 may manipulate interface objects 152 to provide input to the video game. Additionally, camera 808 may be configured to capture an image of the interactive environment in which user 120 is located. These captured images can be analyzed to determine the position and motion of user 120 , HMD 150 and interface objects 152 . In various implementations, the interface object 152 includes trackable lights and/or inertial sensor(s) to enable determination of the position and orientation of the interface object and tracking of movement.

いくつかの実施態様では、HMD150及びインタフェースオブジェクト152の磁気トラッキングを可能にするために磁場を放射する磁気源816が設けられる。HMD150及びインタフェースオブジェクト152の磁気センサは、磁場(たとえば、強さ、方向)を検出するように構成することができ、この情報は、HMD150及びインタフェースオブジェクト152の位置及び/または方向を特定して、トラッキングするのに使用することができる。 In some implementations, a magnetic source 816 is provided that emits a magnetic field to enable magnetic tracking of HMD 150 and interface object 152 . Magnetic sensors in HMD 150 and interface object 152 can be configured to detect magnetic fields (e.g., strength, direction), and this information identifies the position and/or orientation of HMD 150 and interface object 152, Can be used for tracking.

いくつかの実施態様では、インタフェースオブジェクト152は、HMD150に対してトラッキングされる。たとえば、HMD150は、インタフェースオブジェクト152を含む画像をキャプチャする外向きカメラを含んでもよい。キャプチャされた画像は、HMD150に対するインタフェースオブジェクト152の位置/方向を特定するために分析することができ、HMDの知られている位置/方向を使用して、ローカル環境におけるインタフェースオブジェクト152の位置/方向を特定する。 In some implementations, interface object 152 is tracked relative to HMD 150 . For example, HMD 150 may include an outward-facing camera that captures images containing interface object 152 . The captured image can be analyzed to determine the position/orientation of the interface object 152 relative to the HMD 150, and the known position/orientation of the HMD can be used to determine the position/orientation of the interface object 152 in the local environment. identify.

ユーザがHMD150に表示されるバーチャルリアリティシーンとインタフェースする方法は変えることができ、インタフェースオブジェクト152に加えて他のインタフェースデバイスを使用することができる。たとえば、さまざまな種類の片手用、ならびに、両手用のコントローラを使用することができる。いくつかの実施態様では、コントローラに含まれるライトをトラッキングすることによって、または、コントローラに関連付けられた形状、センサ、及び慣性データをトラッキングすることによって、コントローラ自体をトラッキングすることができる。これらのさまざまな種類のコントローラを使用して、または、1つまたは複数のカメラでキャプチャされた単なるハンドジェスチャを使用しても、HMD150上に提示されるバーチャルリアリティ環境とのインタフェース、その環境の制御、操作、その環境とのインタラクション、及びその環境への参加が可能である。 The manner in which a user interfaces with the virtual reality scene displayed on HMD 150 may vary, and other interface devices in addition to interface object 152 may be used. For example, various types of one-handed as well as two-handed controllers can be used. In some implementations, the controller itself can be tracked by tracking lights contained in the controller, or by tracking geometry, sensors, and inertial data associated with the controller. Interfacing with and controlling the virtual reality environment presented on the HMD 150 using these various types of controllers or even using simple hand gestures captured by one or more cameras , manipulate, interact with, and participate in its environment.

さらに、HMD150は、HMD150の位置及び方向を特定するためにトラッキングすることができる1つまたは複数のライトを含んでもよい。カメラ808は、インタラクティブ環境からの音をキャプチャするための1つまたは複数のマイクロフォンを含むことができる。マイクロフォンアレイによってキャプチャされる音は、音源の位置を識別するために処理してもよい。識別された位置からの音は、識別された位置以外からの他の音を除外して、選択的に利用または処理することができる。さらにまた、カメラ808は、複数の画像キャプチャデバイス(たとえば、カメラの立体視対)、IRカメラ、深さカメラ、及びその組合せを含むように定義することができる。 Additionally, HMD 150 may include one or more lights that can be tracked to determine the position and orientation of HMD 150 . Camera 808 may include one or more microphones for capturing sound from the interactive environment. Sound captured by the microphone array may be processed to identify the location of the sound source. Sounds from identified locations can be selectively utilized or processed to the exclusion of other sounds from outside the identified locations. Furthermore, camera 808 can be defined to include multiple image capture devices (eg, stereoscopic pairs of cameras), IR cameras, depth cameras, and combinations thereof.

いくつかの実施態様では、コンピュータ806は、ネットワーク812を介してクラウドアプリケーション(たとえば、ゲーム、ストリーミング、観戦など)プロバイダ814と通信するシンクライアントとして機能する。このような実施態様では、一般的に言うと、クラウドアプリケーションプロバイダ114は、ユーザ150によってプレイされているビデオゲームを保守及び実行する。コンピュータ806は、HMD150、インタフェースオブジェクト152、及びカメラ808からの入力をクラウドアプリケーションプロバイダに送信し、クラウドゲーミングプロバイダは、実行しているビデオゲームのゲーム状態に影響を及ぼす入力を処理する。ビデオデータ、オーディオデータ、及び触覚フィードバックデータなどの、実行しているビデオゲームからの出力は、コンピュータ806に送信される。コンピュータ806は、送信前にデータをさらに処理してもよく、または、関連するデバイスにデータを直接送信してもよい。たとえば、ビデオ及びオーディオストリームがHMD150に提供され、その一方で、触覚/振動フィードバックコマンドがインタフェースオブジェクト152に提供される。 In some implementations, computer 806 functions as a thin client that communicates with cloud application (eg, gaming, streaming, spectator, etc.) provider 814 over network 812 . In such implementations, generally speaking, cloud application provider 114 maintains and runs the video games being played by users 150 . Computer 806 sends input from HMD 150, interface object 152, and camera 808 to the cloud application provider, which processes the input affecting the game state of the running video game. Output from the running video game, such as video data, audio data, and haptic feedback data, is sent to computer 806 . Computer 806 may further process the data before transmission or may transmit the data directly to the associated device. For example, video and audio streams are provided to HMD 150 while haptic/vibration feedback commands are provided to interface object 152 .

いくつかの実施態様では、HMD150、インタフェースオブジェクト152、及びカメラ808はそれ自体が、たとえば、クラウドアプリケーションプロバイダ814と通信するためにネットワーク812に接続するネットワーク化されたデバイスであってもよい。いくつかの実施態様では、コンピュータ106は、ビデオゲーム処理を実行しないが、ネットワークトラフィックの通過を容易にする、ルータなどのローカルネットワークデバイスであってもよい。HMD150、インタフェースオブジェクト152、及びカメラ108によるネットワークへの接続は、有線または無線であってもよい。 In some implementations, HMD 150, interface object 152, and camera 808 may themselves be networked devices that connect to network 812 to communicate with cloud application provider 814, for example. In some implementations, computer 106 may be a local network device, such as a router, that does not perform video game processing, but facilitates the passage of network traffic. Connections to the network by HMD 150, interface object 152, and camera 108 may be wired or wireless.

さらに、本開示の実施態様がヘッドマウントディスプレイに関して記載されてもよいが、他の実施態様では、携帯装置スクリーン(たとえば、タブレット、スマートフォン、ラップトップなど)、あるいは本実施態様によるビデオのレンダリングならびに/またはインタラクティブなシーンもしくは仮想環境の表示の提供を行うように構成することができる他の種類の任意のディスプレイを含むがこれらに限定されない、非ヘッドマウントディスプレイに置き換えられてもよいことが理解される。 Further, while embodiments of the present disclosure may be described in terms of head-mounted displays, in other embodiments, mobile device screens (e.g., tablets, smartphones, laptops, etc.) or video rendering and/or in accordance with the present embodiments or any other type of display that can be configured to provide display of an interactive scene or virtual environment. .

図9A-1及び9A-2は、本開示の実施態様による、ヘッドマウントディスプレイ(HMD)を図示する。図9A-1は特に、本開示の実施態様によるHMDの1つの例であるPlaystation(登録商標)VRヘッドセットを図示する。示されるように、HMD150は、複数のライト900A~Hを含む。これらのライトのそれぞれは、特定の形状を有するように構成されてもよく、同じ色または異なる色を有するように構成することができる。ライト900A、900B、900C、及び900Dは、HMD150の前面に配置される。ライト900E及び900Fは、HMD150の側面に配置される。そして、ライト900G及び900Hは、HMD150の前面及び側面にまたがるように、HMD150の角部に配置される。ライトは、ユーザがHMD150を使用するインタラクティブ環境のキャプチャされた画像で識別することができることが理解される。ライトの識別及びトラッキングに基づき、インタラクティブ環境のHMD150の位置及び方向を特定することができる。ライトのうちのいくつかは、画像キャプチャデバイスに対するHMD150の特定の方向に応じて、見えてもよくまたは見えなくてもよいことがさらに理解される。また、ライトの異なる部分(たとえば、ライト900G及び900H)が、画像キャプチャデバイスに対するHMD150の方向に応じて、画像キャプチャにさらされてもよい。 Figures 9A-1 and 9A-2 illustrate head-mounted displays (HMDs), according to embodiments of the present disclosure. FIG. 9A-1 particularly illustrates one example of an HMD, a Playstation® VR headset, according to an embodiment of the present disclosure. As shown, HMD 150 includes multiple lights 900A-H. Each of these lights may be configured to have a particular shape and may be configured to have the same color or different colors. Lights 900A, 900B, 900C, and 900D are positioned in front of HMD 150 . Lights 900</b>E and 900</b>F are arranged on the sides of HMD 150 . Lights 900G and 900H are arranged at the corners of HMD 150 so as to straddle the front and side surfaces of HMD 150 . It is understood that the lights can be identified in the captured image of the interactive environment using the HMD 150 by the user. Based on light identification and tracking, the position and orientation of the HMD 150 in the interactive environment can be determined. It is further understood that some of the lights may or may not be visible depending on the particular orientation of HMD 150 relative to the image capture device. Also, different portions of the lights (eg, lights 900G and 900H) may be exposed to image capture depending on the orientation of HMD 150 relative to the image capture device.

1つの実施態様では、ライトは、近くで他の人にHMDの現在の状況を示すように構成することができる。たとえば、ライトの一部またはすべては、特定の色配置、強度配置を有するように構成してもよく、明滅するように構成してもよく、特定のオン/オフ構成またはHMD150の現在の状況を示す他の配置を有するように構成してもよい。例として、ライトは、ビデオゲームのアクティブなゲームプレイ(一般にアクティブなタイムラインの間、または、ゲームのシーン内で発生するゲームプレイ)の間に対して、メニューインタフェースの閲覧またはゲーム設定の実施など(ゲームタイムラインまたはシーンが非アクティブまたは休止でもよい間)のビデオゲームの他のアクティブでないゲームプレイ態様では、異なる構成を表示するように構成することができる。また、ライトはゲームプレイの相対的な強度レベルを示すように構成してもよい。たとえば、ゲームプレイの激しさが増すとき、光の強さまたは点滅の速度が増大してもよい。このようにして、ユーザに対して外部の人は、HMD150上のライトを見て、ユーザが激しいゲームプレイに積極的にたずさわっており、その時点で妨げられることを望んでいないことがあることを理解できる。 In one implementation, the lights can be configured to indicate the current status of the HMD to others nearby. For example, some or all of the lights may be configured to have a particular color arrangement, intensity arrangement, may be configured to blink, may indicate a particular on/off configuration or current status of the HMD 150. It may be configured to have other arrangements as shown. For example, lights may be used during active gameplay of a video game (generally during active timelines or gameplay that occurs within scenes of the game), such as browsing a menu interface or performing game settings. Other inactive gameplay aspects of the video game (while the game timeline or scene may be inactive or dormant) may be configured to display different configurations. Lights may also be configured to indicate relative intensity levels of gameplay. For example, the intensity of the light or the rate of blinking may increase as the intensity of gameplay increases. In this way, an outsider to the user can see the lights on the HMD 150 and know that the user is actively engaged in intense game play and may not want to be interrupted at the time. It can be understood.

HMD150は、1つまたは複数のマイクロフォンをさらに含んでもよい。示された実施態様では、HMD150は、HMD150の前面に定義されたマイクロフォン904A及び904Bと、HMD150の側面に定義されたマイクロフォン904Cとを含む。マイクロフォンのアレイを利用することによって、それぞれのマイクロフォンからの音は、音源の位置を特定するように処理することができる。この情報は、望ましくない音源の排除、音源の視覚識別との関連付けなどを含む、さまざまな方法で利用することができる。 HMD 150 may further include one or more microphones. In the illustrated implementation, HMD 150 includes microphones 904A and 904B defined on the front of HMD 150 and microphone 904C defined on the side of HMD 150. FIG. By utilizing an array of microphones, the sound from each microphone can be processed to localize the sound source. This information can be used in a variety of ways, including eliminating unwanted sound sources, correlating with visual identification of sound sources, and the like.

HMD150はまた、1つまたは複数の画像キャプチャデバイスを含んでもよい。示された実施態様では、HMD150は画像キャプチャデバイス902A及び902Bを含むように示される。画像キャプチャデバイスの立体視対を利用することによって、環境の3次元(3D)画像及びビデオを、HMD150の視点からキャプチャすることができる。HMD150を着用している間、「ビデオシースルー」機能をユーザに提供するために、そのようなビデオをユーザに示すことができる。すなわち、ユーザは厳密な意味ではHMD150を通して見ることはできないが、それにもかかわらず、画像キャプチャデバイス902A及び902B(または、たとえば、HMD150の外側本体に配設される1つまたは複数の外向き(たとえば、前向き)カメラ)によってキャプチャされたビデオは、HMD150を通して見るかのようにHMD150の外部環境を見ることができるのと機能的に等価なものを提供することができる。そのようなビデオは、仮想要素によって拡張し、拡張現実体験を提供することができ、または、他の方法で仮想要素と合成または混ぜ合わせてもよい。図示された実施態様では、2つのカメラがHMD150の前面に示されているが、任意の方向に向けられた、任意の数の外向きカメラがHMD150上に設置されてもよいことが理解される。たとえば、別の実施態様では、環境のさらなるパノラマ画像キャプチャを提供するために、HMD150の側面に取り付けられるカメラが存在してもよい。さらに、いくつかの実施態様では、このような外向きカメラは、他の周辺機器(たとえば、コントローラなど)をトラッキングするのに使用することができる。すなわち、HMDに対する周辺機器の位置/方向は、HMD上のそのような外向きカメラからのキャプチャされた画像で識別し、トラッキングすることができ、ローカル環境のHMDの知られている位置/方向を使用して、周辺機器の正確な位置/方向を特定することができる。 HMD 150 may also include one or more image capture devices. In the illustrated embodiment, HMD 150 is shown to include image capture devices 902A and 902B. By utilizing a stereoscopic pair of image capture devices, three-dimensional (3D) images and videos of the environment can be captured from the perspective of HMD 150 . Such videos can be shown to the user while wearing the HMD 150 to provide the user with a "video see-through" function. That is, the user cannot strictly see through HMD 150, but nevertheless image capture devices 902A and 902B (or, for example, one or more outward-facing (e.g., , front-facing camera) can provide the functional equivalent of being able to see the environment external to HMD 150 as if viewed through HMD 150 . Such videos can be augmented with virtual elements to provide an augmented reality experience, or may be otherwise composited or blended with virtual elements. In the illustrated implementation, two cameras are shown in front of HMD 150, but it is understood that any number of outward-facing cameras, oriented in any direction, may be installed on HMD 150. . For example, in another implementation there may be a camera mounted on the side of HMD 150 to provide further panoramic image capture of the environment. Additionally, in some implementations, such an outward facing camera can be used to track other peripherals (eg, controllers, etc.). That is, the position/orientation of the peripheral relative to the HMD can be identified and tracked in captured images from such an outward-facing camera on the HMD, and the known position/orientation of the HMD in the local environment. can be used to determine the exact location/orientation of the peripheral.

図9Bは、クライアントシステム806とインタフェースするHMD150のユーザ120と、第2のスクリーン907として呼ばれる第2のスクリーンディスプレイにコンテンツを提供するクライアントシステム806との1つの例を図示する。クライアントシステム806は、HMD150から第2のスクリーン907へのコンテンツの共有を処理するための一体型の電子機器を含んでもよい。他の実施態様は、個別のデバイス、モジュール、コネクタを含んでもよく、それらは、クライアントシステムとHMD150及び第2のスクリーン907のそれぞれとの間をインタフェースする。この一般的な例では、ユーザ120は、HMD150を着用し、インタフェースオブジェクト152であってもよいコントローラを使用してビデオゲームをプレイしている。ユーザ120によるインタラクティブプレイは、HMD150にインタラクティブに表示されるビデオゲームコンテンツ(VGC)を生成する。 FIG. 9B illustrates one example of user 120 of HMD 150 interfacing with client system 806 and client system 806 providing content to a second screen display, referred to as second screen 907 . Client system 806 may include integrated electronics for handling content sharing from HMD 150 to second screen 907 . Other implementations may include separate devices, modules, connectors that interface between the client system and HMD 150 and second screen 907, respectively. In this general example, user 120 is wearing HMD 150 and playing a video game using a controller, which may be interface object 152 . Interactive play by user 120 produces video game content (VGC) that is interactively displayed on HMD 150 .

1つの実施態様では、HMD150に表示されているコンテンツは、第2のスクリーン907に共有される。1つの例では、第2のスクリーン907を見ている人は、ユーザ120によってHMD150でインタラクティブにプレイされているコンテンツを見ることができる。別の実施態様では、別のユーザ(たとえば、プレイヤー2)は、第2のスクリーンコンテンツ(SSC)を生成するために、クライアントシステム806と対話することができる。コントローラ104(または、任意の種類のユーザインタフェース、ジェスチャ、音声、または入力)とインタラクトするプレイヤーによっても生成される第2のスクリーンコンテンツは、クライアントシステム806へのSSCとして生成されてもよく、それは、HMD150から受信されたVGCとともに、第2のスクリーン907上に表示することができる。 In one implementation, the content displayed on HMD 150 is shared to second screen 907 . In one example, a person viewing second screen 907 can see content being interactively played on HMD 150 by user 120 . In another implementation, another user (eg, Player 2) can interact with client system 806 to generate second screen content (SSC). Second screen content, also generated by a player interacting with the controller 104 (or any kind of user interface, gesture, voice, or input) may be generated as an SSC to the client system 806, which It can be displayed on the second screen 907 along with the VGC received from HMD 150 .

したがって、HMDユーザと同じ位置にいるまたはHMDユーザと離れていてもよい他のユーザによるインタラクティビティは、ソーシャルであり、インタラクティブであり、第2のスクリーン907上でHMDユーザによってプレイされるHMDユーザ及びコンテンツを見ることができるユーザの両方にとってより没入できるものとすることができる。示されるように、クライアントシステム806は、インターネット910に接続することができる。インターネットは、クライアントシステム806、及び、さまざまなコンテンツソース920からのコンテンツへのアクセスを提供することもできる。コンテンツソース920は、インターネットを介してアクセスできる任意の種類のコンテンツを含むことができる。 Interactivity by other users, who may be co-located with the HMD user or remote from the HMD user, is therefore social, interactive, and interactive with the HMD user played by the HMD user on the second screen 907 and It can be more immersive for both users who can see the content. As shown, client system 806 can connect to the Internet 910 . The Internet can also provide client systems 806 and access to content from various content sources 920 . Content sources 920 can include any type of content accessible over the Internet.

このようなコンテンツは、限定するものではないが、ビデオコンテンツ、ムービーコンテンツ、ストリーミングコンテンツ、ソーシャルメディアコンテンツ、ニュースコンテンツ、友人コンテンツ、広告コンテンツなどを含むことができる。1つの実施態様では、クライアントシステム806は、HMDユーザのためのコンテンツを同時に処理するのに使用することができ、それにより、HMDには、ゲームプレイ中のインタラクティビティと関連するマルチメディアコンテンツが提供される。次いで、クライアントシステム806は、他のコンテンツを提供することもできる。それは、第2のスクリーンへのビデオゲームコンテンツとは無関係であってもよい。クライアントシステム806は、1つの実施態様では、コンテンツソース920のうちの1つから、または、ローカルユーザもしくはリモートユーザから、第2のスクリーンコンテンツを受信することができる。 Such content can include, but is not limited to, video content, movie content, streaming content, social media content, news content, friend content, advertising content, and the like. In one implementation, the client system 806 can be used to concurrently serve content for the HMD user, thereby providing the HMD with multimedia content associated with interactivity during game play. be done. Client system 806 can then provide other content as well. It may be independent of the video game content to the second screen. Client system 806, in one implementation, can receive second screen content from one of content sources 920 or from a local or remote user.

図10は、本開示の実施態様による、実行するビデオゲームまたは他のアプリケーションと連動するHMD150の機能を概念的に図示する。実行しているビデオゲーム/アプリケーションは、ビデオゲーム/アプリケーションのゲーム/アプリケーション状態を更新するための入力を受信するゲーム/アプリケーションエンジン1020で定義される。ビデオゲームのゲーム状態は、少なくとも一部において、対象物の存在及び位置、仮想環境の状態、イベントのトリガリング、ユーザプロファイル、ビューの視点などの、現在のゲームプレイのさまざまな態様を定義するビデオゲームのさまざまなパラメータの値によって定義することができる。 FIG. 10 conceptually illustrates the functionality of HMD 150 in conjunction with a running video game or other application, according to an embodiment of the present disclosure. A running video game/application is defined with a game/application engine 1020 that receives input to update the game/application state of the video game/application. A game state in a video game defines, at least in part, various aspects of current gameplay, such as the presence and location of objects, the state of the virtual environment, triggering events, user profiles, viewpoints of view, etc. It can be defined by the values of various parameters of the game.

示された実施態様では、ゲームエンジンは、例として、コントローラ入力1014、オーディオ入力1016、及び動き入力1018を受信する。コントローラ入力1014は、ハンドヘルドゲームコントローラ(たとえば、Sony DUALSHOCK(登録商標)4 ワイヤレスコントローラ、Sony Playstation(登録商標)Move モーションコントローラ)またはインタフェースオブジェクト152などの、HMD150とは別のゲームコントローラの操作から定義されてもよい。例として、コントローラ入力1014は、方向入力、ボタン押下、トリガ起動、動作、ジェスチャ、またはゲームコントローラの操作から処理される他の種類の入力を含んでもよい。いくつかの実施態様では、ゲームコントローラの動作は、HMD102に対するゲームコントローラの位置/方向を提供する、HMD102の外向きカメラ1011によってトラッキングされる。オーディオ入力1016は、HMD150のマイクロフォン1002から、または、画像キャプチャデバイス808に含まれるマイクロフォンもしくはローカル環境の他の場所から処理することができる。動き入力1018は、HMD150に含まれる動きセンサ1000から処理することができる、または、HMD150の画像をキャプチャするときに画像キャプチャデバイス808から処理することができる。ゲームエンジン1020は、ビデオゲームのゲーム状態を更新するためにゲームエンジンの構成に従って処理される入力を受信する。ゲームエンジン1020は、ユーザに提示するコンテンツを定義するためにゲーム状態データを処理するさまざまなレンダリングモジュールに、ゲーム状態データを出力する。 In the illustrated implementation, the game engine receives controller input 1014, audio input 1016, and motion input 1018, as examples. Controller input 1014 is defined from the operation of a game controller separate from HMD 150 , such as a handheld game controller (eg, Sony DUALSHOCK® 4 wireless controller, Sony Playstation® Move motion controller) or interface object 152 . may By way of example, controller input 1014 may include directional inputs, button presses, trigger activations, actions, gestures, or other types of input processed from manipulation of a game controller. In some implementations, the movement of the game controller is tracked by an outward facing camera 1011 of HMD 102 that provides the position/orientation of the game controller relative to HMD 102 . Audio input 1016 may be processed from microphone 1002 of HMD 150, or from a microphone included in image capture device 808 or elsewhere in the local environment. Motion input 1018 may be processed from motion sensor 1000 included in HMD 150 or may be processed from image capture device 808 when capturing images for HMD 150 . Game engine 1020 receives input that is processed according to the configuration of the game engine to update the game state of the video game. The game engine 1020 outputs game state data to various rendering modules that process the game state data to define the content presented to the user.

示された実施態様では、ビデオレンダリングモジュール1022は、HMD150上での提示のためにビデオストリームをレンダリングするために定義される。ビデオストリームはディスプレイ/プロジェクタ機構1010で提示されてもよく、ユーザの目1006で光学部品1008を通して見られてもよい。オーディオレンダリングモジュール1024は、ユーザが聞くためのオーディオストリームをレンダリングするように構成される。1つの実施態様では、オーディオストリームは、HMD150と関連付けられたスピーカ1004による出力である。スピーカ1004は、オープンエアスピーカ、ヘッドホン、または、オーディオを提示することが可能な任意の他の種類のスピーカの形態をとってもよいことは認識されるべきである。 In the illustrated implementation, a video rendering module 1022 is defined for rendering video streams for presentation on HMD 150 . The video stream may be presented on display/projector mechanism 1010 and viewed through optics 1008 by user's eyes 1006 . Audio rendering module 1024 is configured to render an audio stream for listening by a user. In one implementation, the audio stream is output by speaker 1004 associated with HMD 150 . It should be appreciated that the speakers 1004 may take the form of open air speakers, headphones, or any other type of speaker capable of presenting audio.

1つの実施態様では、視線トラッキングカメラ1012が、ユーザの視線のトラッキングを可能にするためにHMD150に含まれる。視線トラッキングカメラは、ユーザの目の画像をキャプチャし、それはユーザの視線方向を判定するために分析される。1つの実施態様では、ユーザの視線方向についての情報は、ビデオレンダリングに影響を与えるために利用することができる。たとえば、ユーザの目が特定の方向を見ていると判定された場合、たとえば、ユーザが見ている領域におけるより詳細またはより高速な更新を提供することによって、その方向のビデオレンダリングを優先または強調することができる。ユーザの視線方向は、ヘッドマウントディスプレイに対して、ユーザが位置する実環境に対して、及び/または、ヘッドマウントディスプレイでレンダリングされている仮想環境に対して、定義することができることは認識されるべきである。 In one implementation, an eye-tracking camera 1012 is included in HMD 150 to enable tracking of the user's eye gaze. An eye-tracking camera captures an image of the user's eyes, which is analyzed to determine the user's gaze direction. In one implementation, information about the user's viewing direction can be utilized to influence video rendering. For example, if it is determined that the user's eyes are looking in a particular direction, then prioritizing or emphasizing video rendering in that direction, e.g. by providing a more detailed or faster update in the area the user is looking can do. It is recognized that the user's gaze direction can be defined with respect to the head-mounted display, with respect to the real environment in which the user is located, and/or with respect to the virtual environment being rendered with the head-mounted display. should.

大まかに言うと、視線トラッキングカメラ1012によってキャプチャされる画像の分析は、単独で考えるとき、HMD150に対するユーザの視線方向を提供する。しかしながら、HMD150のトラッキングされた位置及び方向と組み合わせて考えるとき、HMD150の位置及び方向はユーザの頭部の位置及び方向と同義であるため、ユーザの現実世界の視線方向を判定することができる。すなわち、ユーザの現実世界の視線方向は、ユーザの目の位置移動のトラッキング、及び、HMD150の位置及び方向のトラッキングから判定することができる。仮想環境のビューがHMD150上でレンダリングされるとき、ユーザの現実世界の視線方向は、仮想環境におけるユーザの仮想世界の視線方向を判定するために適用することができる。 Broadly speaking, analysis of the images captured by eye-tracking camera 1012 provides the user's eye-gaze direction relative to HMD 150 when considered alone. However, when considered in combination with the tracked position and orientation of HMD 150, the user's real-world gaze direction can be determined because the position and orientation of HMD 150 is synonymous with the position and orientation of the user's head. That is, the user's viewing direction in the real world can be determined from tracking the movement of the user's eye position and tracking the position and orientation of the HMD 150 . When the view of the virtual environment is rendered on the HMD 150, the user's real world gaze direction can be applied to determine the user's virtual world gaze direction in the virtual environment.

さらに、触覚フィードバックモジュール1026は、HMD150またはインタフェースオブジェクト152などのユーザによって操作される別のデバイスのいずれかに含まれる触覚フィードバックハードウェアに信号を提供するように構成される。触覚フィードバックは、振動フィードバック、温度フィードバック、圧力フィードバックなど、さまざまな種類の触感覚の形態をとってもよい。インタフェースオブジェクト152は、このような形態の触覚フィードバックをレンダリングするために対応するハードウェアを含むことができる。 In addition, haptic feedback module 1026 is configured to provide signals to haptic feedback hardware contained within either HMD 150 or another device manipulated by a user, such as interface object 152 . Haptic feedback may take the form of various types of tactile sensations such as vibration feedback, temperature feedback, pressure feedback, and the like. Interface object 152 may include corresponding hardware to render such forms of haptic feedback.

図11を参照すると、本開示の実施態様による、ヘッドマウントディスプレイ150の構成要素を示す図が示されている。ヘッドマウントディスプレイ150は、プログラム命令を実行するためのプロセッサ1100を含む。メモリ1102は、ストレージのために提供され、揮発性及び不揮発性メモリを含んでもよい。ユーザが見ることができるビジュアルインタフェースを提供するディスプレイ1104が含まれる。バッテリ1106は、ヘッドマウントディスプレイ150の電力源として提供される。動き検出モジュール1108は、磁力計1110、加速度計1112、及びジャイロスコープ1114などのさまざまな種類の動き感応ハードウェアのうちの任意のものを含んでもよい。 Referring to FIG. 11, a diagram illustrating components of a head-mounted display 150 is shown, according to an embodiment of the present disclosure. Head mounted display 150 includes processor 1100 for executing program instructions. Memory 1102 is provided for storage and may include volatile and nonvolatile memory. A display 1104 is included that provides a visual interface viewable by a user. A battery 1106 is provided as a power source for the head mounted display 150 . Motion detection module 1108 may include any of various types of motion sensitive hardware such as magnetometer 1110 , accelerometer 1112 and gyroscope 1114 .

加速度計は、加速度及び重力誘導反力を測定するためのデバイスである。異なる方向への加速度の大きさ及び方向を検出するために、一軸及び多軸モデルが利用可能である。加速度計は、傾角、振動、及び衝撃を感知するために使用される。1つの実施態様では、2つの角度(世界空間ピッチ及び世界空間ロール)の絶対基準となる重力の方向を提供するために、3つの加速度計1112が使用される。 An accelerometer is a device for measuring acceleration and gravity-induced reaction forces. Uniaxial and multiaxial models are available to detect the magnitude and direction of acceleration in different directions. Accelerometers are used to sense tilt, vibration, and shock. In one implementation, three accelerometers 1112 are used to provide the absolute reference direction of gravity for two angles (world-space pitch and world-space roll).

磁力計は、ヘッドマウントディスプレイの近くの磁界の強度及び方向を測定する。1つの実施態様では、3つの磁力計1110がヘッドマウントディスプレイ内で使用され、世界空間ヨー角度の絶対基準を規定する。1つの実施態様では、磁力計は、±80マイクロテスラである地磁界をカバーするように設計されている。磁力計は、金属の影響を受け、実際のヨーで単調関係を示すヨー測定値を提供する。磁界は、環境に存在する金属の影響で歪むことがあり、このため、ヨー測定値に歪みが生じる。必要に応じて、この歪みは、ジャイロスコープまたはカメラなどの他のセンサからの情報を使用して較正することができる。1つの実施態様では、加速度計1112は、ヘッドマウントディスプレイ150の傾斜及び方位角を取得するために、磁力計1110とともに使用される。 A magnetometer measures the strength and direction of the magnetic field near the head-mounted display. In one implementation, three magnetometers 1110 are used in the head-mounted display to define an absolute reference for world space yaw angle. In one embodiment, the magnetometer is designed to cover the earth's magnetic field which is ±80 microTesla. The magnetometer provides a yaw measurement that is influenced by metal and exhibits a monotonic relationship with the actual yaw. The magnetic field can be distorted by the effects of metal present in the environment, which distorts the yaw measurement. If desired, this distortion can be calibrated using information from other sensors such as gyroscopes or cameras. In one implementation, accelerometer 1112 is used in conjunction with magnetometer 1110 to obtain the tilt and azimuth angles of head-mounted display 150 .

いくつかの実施態様では、ヘッドマウントディスプレイの磁力計は、他の近くのデバイス内の電磁石が非アクティブである間に読み取られるように構成される。 In some implementations, the head-mounted display's magnetometer is configured to be read while electromagnets in other nearby devices are inactive.

ジャイロスコープは、角運動量の原理に基づいて、方向を測定及び保持するための装置である。1つの実施態様では、3つのジャイロスコープ1114が、検知された慣性に基づいて、各軸(x、y、z)の移動に関する情報を提供する。ジャイロスコープは、高速回転の検出を補助する。しかしながら、ジャイロスコープは、絶対基準が存在しなければ、時間が経つとずれが生じることがある。このため、ジャイロスコープの定期的なリセットが必要であり、このリセットは、オブジェクトの視覚トラッキング、加速度計、磁力計などに基づく位置/方向決定など、他の入手可能な情報を使用して行うことができる。 A gyroscope is a device for measuring and maintaining orientation, based on the principle of angular momentum. In one implementation, three gyroscopes 1114 provide information about movement in each axis (x, y, z) based on sensed inertia. A gyroscope assists in detecting high speed rotation. However, gyroscopes can drift over time without an absolute reference. For this reason, periodic resetting of the gyroscope is required and should be done using other available information such as position/orientation determination based on visual tracking of objects, accelerometers, magnetometers, etc. can be done.

画像と、実環境の画像ストリームとをキャプチャするためにカメラ1116が提供される。ヘッドマウントディスプレイ150には1つ以上のカメラが含まれていてもよく、これは、背面カメラ(ユーザがヘッドマウントディスプレイ150のディスプレイを見ているときはユーザから遠ざかるカメラ)と、前面カメラ(ユーザがヘッドマウントディスプレイ150のディスプレイを見ているときはユーザに向けられるカメラ)とを含む。さらに、実環境のオブジェクトの深さ情報を検知するために深さカメラ1118がヘッドマウントディスプレイ150に含まれてもよい。 A camera 1116 is provided to capture images and image streams of the real environment. Head-mounted display 150 may include one or more cameras, a rear camera (a camera that moves away from the user when the user is looking at the display of head-mounted display 150) and a front camera (the user (a camera pointed at the user when viewing the display on head-mounted display 150). Additionally, a depth camera 1118 may be included in the head-mounted display 150 to sense depth information for objects in the real environment.

ヘッドマウントディスプレイ150は、オーディオ出力を提供するためのスピーカ1120を含む。また、マイクロフォン1122が、周囲環境からの音、ユーザにより発せられた音声などを含む実環境からのオーディオをキャプチャするために含まれてもよい。ヘッドマウントディスプレイ150は、ユーザに触覚フィードバックを提供するための触覚フィードバックモジュール1124を含む。1つの実施態様では、触覚フィードバックモジュール1124は、触覚フィードバックをユーザに提供するように、ヘッドマウントディスプレイ150の動作及び/または振動を引き起こすことが可能である。 Head-mounted display 150 includes speakers 1120 for providing audio output. A microphone 1122 may also be included to capture audio from the real environment, including sounds from the surrounding environment, voices produced by the user, and the like. Head-mounted display 150 includes haptic feedback module 1124 for providing haptic feedback to the user. In one implementation, haptic feedback module 1124 can cause movement and/or vibration of head-mounted display 150 to provide haptic feedback to the user.

LED1126は、ヘッドマウントディスプレイ150のステータスのビジュアルインジケータとして提供される。たとえば、LEDは、バッテリレベル、電源オンなどを示してもよい。カードリーダ1128は、ヘッドマウントディスプレイ150がメモリカードから情報を読み出したりメモリカードに情報を書き込んだりすることを可能とするために設けられる。USBインタフェース1130は、周辺機器の接続、または他のポータブルデバイス、コンピュータなどの他のデバイスへの接続を可能にするためのインタフェースの1つの例として含まれる。ヘッドマウントディスプレイ150のさまざまな実施態様では、さまざまな種類のインタフェースのうちの任意のものが、ヘッドマウントディスプレイ150のより多くの接続を可能にするために含まれてもよい。 LED 1126 is provided as a visual indicator of the status of head mounted display 150 . For example, LEDs may indicate battery level, power on, and the like. A card reader 1128 is provided to allow the head mounted display 150 to read information from and write information to the memory card. A USB interface 1130 is included as one example of an interface for enabling connection of peripherals or other devices such as other portable devices, computers, and the like. In various implementations of head-mounted display 150, any of various types of interfaces may be included to allow more connections for head-mounted display 150. FIG.

Wi-Fiモジュール1132は、ワイヤレスネットワーク技術を介したインターネットまたはローカルエリアネットワークへの接続を可能にするために含まれる。また、ヘッドマウントディスプレイ150は、他のデバイスへのワイヤレス接続を可能にするためのブルートゥース(登録商標)モジュール1134を含む。通信リンク1136も、他のデバイスへの接続のために含まれてもよい。1つの実施態様では、通信リンク1136は、ワイヤレス通信のために赤外線伝送を利用する。他の実施態様では、通信リンク1136は、他のデバイスとの通信のために、さまざまな無線または有線の伝送プロトコルのうちの任意のものを利用してもよい。 A Wi-Fi module 1132 is included to enable connection to the Internet or local area networks via wireless networking technology. Head-mounted display 150 also includes Bluetooth® module 1134 to enable wireless connectivity to other devices. A communications link 1136 may also be included for connection to other devices. In one embodiment, communication link 1136 utilizes infrared transmission for wireless communication. In other implementations, communication link 1136 may utilize any of a variety of wireless or wired transmission protocols for communication with other devices.

入力ボタン/センサ1138は、ユーザに入力インタフェースを提供するために含まれる。ボタン、タッチパッド、ジョイスティック、トラックボールなどの任意のさまざまな種類の入力インタフェースが含まれてもよい。超音波通信モジュール1140は、超音波技術を介した他のデバイスとの通信を容易にするために、ヘッドマウントディスプレイ150に含まれてもよい。 Input buttons/sensors 1138 are included to provide an input interface for the user. Any of various types of input interfaces such as buttons, touchpads, joysticks, trackballs, etc. may be included. An ultrasound communication module 1140 may be included in the head mounted display 150 to facilitate communication with other devices via ultrasound technology.

バイオセンサ1142は、ユーザからの生理データの検出を可能にするために含まれる。1つの実施態様では、バイオセンサ1142は、ユーザの皮膚を通してユーザの生体電気信号を検出するための1つまたは複数の乾電極を含む。 A biosensor 1142 is included to allow detection of physiological data from the user. In one embodiment, biosensor 1142 includes one or more dry electrodes for detecting the user's bioelectrical signals through the user's skin.

ビデオ入力1144は、HMD上でレンダリングするために、一次処理コンピュータ(たとえば、メインゲームコンソール)からビデオ信号を受信するように構成される。いくつかの実施態様では、ビデオ入力はHDMI(登録商標)入力である。 Video input 1144 is configured to receive video signals from a primary processing computer (eg, main game console) for rendering on the HMD. In some implementations, the video input is an HDMI input.

ヘッドマウントディスプレイ150の上記構成要素は、ヘッドマウントディスプレイ150に含まれてもよい単なる例示的な構成要素として記載されている。本開示のさまざまな実施態様では、ヘッドマウントディスプレイ150は、さまざまな上述の構成要素のうちのいくつかを含んでもよく、または含まなくてもよい。ヘッドマウントディスプレイ150の実施態様は、本明細書に記載されるような本開示の態様を容易にするために、ここには記載されていないが当該技術分野において知られている他の構成要素をさらに含んでもよい。 The above components of head-mounted display 150 are described as merely exemplary components that may be included in head-mounted display 150 . In various implementations of the present disclosure, head-mounted display 150 may or may not include some of the various components described above. Embodiments of head-mounted display 150 may include other components not described herein but known in the art to facilitate aspects of the disclosure as described herein. It may contain further.

図12は、本開示のさまざまな実施態様による、ゲームシステム1200のブロック図である。ゲームシステム1200は、1つまたは複数のクライアント1210にネットワーク1215を介してビデオストリームを提供するように構成される。ゲームシステム1200は典型的には、ビデオサーバシステム1220と、任意選択のゲームサーバ1225とを含む。ビデオサーバシステム1220は、1つまたは複数のクライアント1210にビデオストリームを最低限のサービス品質で提供するように構成される。たとえば、ビデオサーバシステム1220は、ビデオゲーム内のビューの状態または場所を変更するゲームコマンドを受信し、クライアント1210にこの状態の変化を反映して更新したビデオストリームを、最低限の遅れ時間で提供することがある。ビデオサーバシステム1220は、いまだ定義されていないフォーマットを含む、多種多様な代替的なビデオフォーマットでビデオストリームを提供するように構成されることがある。さらに、ビデオストリームは、ユーザに対して多種多様なフレームレートで提示するために構成されたビデオフレームを含むことがある。典型的なフレームレートは、30フレーム毎秒、60フレーム毎秒、及び120フレーム毎秒である。しかし、本開示の代替的な実施態様では、より高いまたはより低いフレームレートも含まれる。 FIG. 12 is a block diagram of a gaming system 1200, according to various implementations of the disclosure. Gaming system 1200 is configured to provide video streams to one or more clients 1210 over network 1215 . Gaming system 1200 typically includes a video server system 1220 and an optional game server 1225 . Video server system 1220 is configured to provide video streams to one or more clients 1210 with a minimum quality of service. For example, video server system 1220 receives game commands that change the state or location of a view within a video game, and provides client 1210 with an updated video stream that reflects this state change with minimal latency. I have something to do. Video server system 1220 may be configured to provide video streams in a wide variety of alternative video formats, including formats not yet defined. Additionally, a video stream may include video frames configured for presentation to a user at a wide variety of frame rates. Typical frame rates are 30 frames per second, 60 frames per second, and 120 frames per second. However, higher or lower frame rates are also included in alternative implementations of the present disclosure.

本明細書で個別に参照されるクライアント1210である、1210A、1210Bなどは、ヘッドマウントディスプレイ、ターミナル、パーソナルコンピュータ、ゲームコンソール、タブレットコンピュータ、電話、セットトップボックス、キオスク、ワイヤレスデバイス、デジタルパッド、スタンドアロンデバイス、ハンドヘルドゲームプレイングデバイス、及び/または同様のものを含んでもよい。典型的には、クライアント1210は、エンコードされたビデオストリームを受信し、ビデオストリームをデコードし、結果として得られたビデオをユーザ、たとえば、ゲームのプレイヤーに提示するように構成される。エンコードされたビデオストリームを受信するプロセス、及び/またはビデオストリームをデコードするプロセスは、典型的には、個別のビデオフレームをクライアントの受信バッファに保存することを含む。ビデオストリームは、ユーザに対して、クライアント1210と一体化されたディスプレイ上に、またはモニタもしくはテレビ受像機などの別個のデバイス上に提示されることがある。クライアント1210は任意選択的に、2人以上のゲームプレイヤーをサポートするように構成される。たとえば、ゲームコンソールは、2人、3人、4人、またはより多くのプレイヤーを同時にサポートするように構成されることがある。これらのプレイヤーのそれぞれは、別個のビデオストリームを受信することがあり、または単一のビデオストリームが、それぞれのプレイヤーのために特定的に生成された、たとえば、それぞれのプレイヤーの視点に基づいて生成された、フレームの領域を含むことがある。クライアント1210は任意選択的に、地理的に分散している。ゲームシステム1200に含まれるクライアントの数は、1つ、2つから、数千、数万、またはそれ以上と幅広く異なることがある。本明細書で使用される場合、「ゲームプレイヤー」という用語は、ゲームをプレイする人を指すために使用され、「ゲームプレイングデバイス」という用語は、ゲームをプレイするために使用されるデバイスを指すために使用される。いくつかの実施態様では、ゲームプレイングデバイスは、連動してユーザにゲーム体験を届ける、複数のコンピューティングデバイスを指す場合がある。たとえば、ゲームコンソールとHMDとは、HMDを通して視認されるゲームを届けるためにビデオサーバシステム1220と連携することがある。1つの実施態様では、ゲームコンソールは、ビデオサーバシステム1220からビデオストリームを受信し、ゲームコンソールは、このビデオストリームまたはビデオストリームに対する更新を、レンダリングするためにHMDへと転送する。 Clients 1210, 1210A, 1210B, etc., which are referred to individually herein, include head-mounted displays, terminals, personal computers, game consoles, tablet computers, telephones, set-top boxes, kiosks, wireless devices, digital pads, stand-alone devices, handheld game-playing devices, and/or the like. Typically, client 1210 is configured to receive an encoded video stream, decode the video stream, and present the resulting video to a user, eg, a player of a game. The process of receiving an encoded video stream and/or decoding a video stream typically involves saving individual video frames to a client's receive buffer. The video stream may be presented to the user on a display integrated with the client 1210 or on a separate device such as a monitor or television. Client 1210 is optionally configured to support two or more game players. For example, game consoles may be configured to support two, three, four, or more players simultaneously. Each of these players may receive a separate video stream, or a single video stream generated specifically for each player, e.g., based on each player's point of view. may contain regions of the frame that have been Clients 1210 are optionally geographically distributed. The number of clients included in gaming system 1200 may vary widely from one or two to thousands, tens of thousands, or more. As used herein, the term "game player" is used to refer to a person who plays a game, and the term "game-playing device" refers to a device used to play a game. used for In some implementations, a game-playing device may refer to multiple computing devices that work together to deliver a gaming experience to a user. For example, game consoles and HMDs may cooperate with a video server system 1220 to deliver games viewed through the HMD. In one implementation, the game console receives a video stream from the video server system 1220, and the game console forwards this video stream or updates to the video stream to the HMD for rendering.

クライアント1210は、ネットワーク1215を介してビデオストリームを受信するように構成される。ネットワーク1215は、電話ネットワーク、インターネット、ワイヤレスネットワーク、電力線ネットワーク、ローカルエリアネットワーク、広域ネットワーク、プライベートネットワーク、及び/または同様のものを含む任意の種類の通信ネットワークとすることができる。典型的な実施態様では、ビデオストリームは、TCP/IPまたはUDP/IPなどの標準的なプロトコルを介して通信される。代替的には、ビデオストリームは、独自開発規格を介して通信される。 Client 1210 is configured to receive the video stream over network 1215 . Network 1215 may be any type of communication network including telephone networks, the Internet, wireless networks, power line networks, local area networks, wide area networks, private networks, and/or the like. In typical implementations, the video stream is communicated via standard protocols such as TCP/IP or UDP/IP. Alternatively, the video stream is communicated via proprietary standards.

クライアント1210の典型的な例は、プロセッサと、不揮発性メモリと、ディスプレイと、デコーディングロジックと、ネットワーク通信能力と、入力デバイスとを備える、パーソナルコンピュータである。デコーディングロジックは、ハードウェア、ファームウェア、及び/またはコンピュータ可読媒体上に保存されたソフトウェアを含んでもよい。ビデオストリームをデコード(及びエンコード)するためのシステムは、当該技術分野ではよく知られており、使用される特定のエンコーディングスキームに応じて変化する。 A typical example of client 1210 is a personal computer that includes a processor, non-volatile memory, a display, decoding logic, network communication capabilities, and input devices. Decoding logic may include hardware, firmware, and/or software stored on a computer-readable medium. Systems for decoding (and encoding) video streams are well known in the art and vary depending on the particular encoding scheme used.

クライアント1210は、受信したビデオを修正するように構成されたシステムをさらに含むことがあるが、これは要求されない。たとえば、クライアントは、さらなるレンダリング、1つのビデオ画像の別のビデオ画像上へのオーバーレイ、ビデオ画像のクロップ、及び/または同様のことを実施するように構成されることがある。たとえば、クライアント1210は、さまざまなタイプのビデオフレーム(I-フレーム、P-フレーム、及びB-フレームなど)を受信し、かつこれらのフレームをユーザに対して表示するために画像へと処理するように構成されることがある。いくつかの実施態様では、クライアント1210のメンバーは、ビデオストリームにさらなるレンダリング、シェーディング、3次元への変換、または同様の動作を実施するように構成される。クライアント1210のメンバーは、任意選択的に2つ以上のオーディオまたはビデオストリームを受信するように構成される。クライアント1210の入力デバイスは、たとえば、片手用ゲームコントローラ、両手用ゲームコントローラ、ジェスチャ認識システム、視線認識システム、音声認識システム、キーボード、ジョイスティック、ポインティングデバイス、フォースフィードバックデバイス、動き及び/もしくは位置検知デバイス、マウス、タッチスクリーン、ニューラルインタフェース、カメラ、いまだ開発されていない入力デバイス、ならびに/または同様のものを含むことがある。 Client 1210 may further include a system configured to modify received video, but this is not required. For example, the client may be configured to perform further rendering, overlaying one video image onto another, cropping video images, and/or the like. For example, client 1210 receives various types of video frames (such as I-frames, P-frames, and B-frames) and processes these frames into images for display to a user. may be configured to In some implementations, members of client 1210 are configured to perform further rendering, shading, conversion to 3D, or similar operations on the video stream. Members of client 1210 are optionally configured to receive more than one audio or video stream. Input devices of client 1210 may include, for example, one-handed game controllers, two-handed game controllers, gesture recognition systems, gaze recognition systems, speech recognition systems, keyboards, joysticks, pointing devices, force feedback devices, motion and/or position sensing devices, They may include mice, touch screens, neural interfaces, cameras, as yet undeveloped input devices, and/or the like.

クライアント1210によって受信されるビデオストリーム(及び、任意選択的にオーディオストリーム)は、ビデオサーバシステム1220によって生成され、かつ提供される。本明細書のいずれかにさらに記載されるように、このビデオストリームはビデオフレームを含む(かつ、オーディオストリームはオーディオフレームを含む)。ビデオフレームは、ユーザに表示される画像に有意に寄与するように構成される(たとえば、ビデオフレームは、適切なデータ構造の中にピクセル情報を含む)。本明細書で使用される場合、「ビデオフレーム」という用語は、主としてユーザに対して示される画像に寄与する、たとえば、影響を与えるように構成される情報を含むフレームを指すように使用される。本明細書の、「ビデオフレーム」に関するほとんどの教示は、「オーディオフレーム」にも適用することができる。 Video streams (and, optionally, audio streams) received by client 1210 are generated and provided by video server system 1220 . The video stream includes video frames (and the audio stream includes audio frames), as further described elsewhere herein. A video frame is constructed to contribute significantly to the image displayed to the user (eg, the video frame contains pixel information in a suitable data structure). As used herein, the term "video frame" is used to refer to a frame containing information that primarily contributes to, e.g., influences, the image shown to the user. . Most of the teachings herein regarding "video frames" are also applicable to "audio frames."

クライアント1210は、典型的には、ユーザからの入力を受信するように構成される。これらの入力は、ビデオゲームの状態を変化させるように、または別の方法でゲームプレイに影響を与えるように構成されるゲームコマンドを含むことがある。ゲームコマンドを、入力デバイスを使用して受信することができ、かつ/または、ゲームコマンドを、クライアント1210上で実行する命令を演算することによって自動的に生成することがある。受信したゲームコマンドは、クライアント1210から、ネットワーク1215を介して、ビデオサーバシステム1220及び/またはゲームサーバ1225へ通信される。たとえば、いくつかの実施態様では、ゲームコマンドは、ビデオサーバシステム1220を介してゲームサーバ1225へ通信される。いくつかの実施態様では、ゲームコマンドの別個のコピーが、クライアント1210から、ゲームサーバ1225及びビデオサーバシステム1220へ通信される。ゲームコマンドの通信は任意選択的に、コマンドの識別情報に依存する。ゲームコマンドは任意選択的に、クライアント1210Aから、オーディオまたはビデオストリームをクライアント1210Aに提供するために使用される異なるルートまたは通信チャネルを通して通信される。 Client 1210 is typically configured to receive input from a user. These inputs may include game commands configured to change the state of the video game or otherwise affect gameplay. Game commands may be received using an input device and/or game commands may be automatically generated by computing instructions to execute on client 1210 . Received game commands are communicated from client 1210 over network 1215 to video server system 1220 and/or game server 1225 . For example, in some implementations, game commands are communicated to game server 1225 via video server system 1220 . In some implementations, separate copies of game commands are communicated from client 1210 to game server 1225 and video server system 1220 . Communication of game commands optionally relies on the identification of the command. Game commands are optionally communicated from client 1210A through different routes or communication channels used to provide audio or video streams to client 1210A.

ゲームサーバ1225は任意選択的に、ビデオサーバシステム1220とは異なるエンティティによって動作される。たとえば、ゲームサーバ1225は、マルチプレイヤーゲームのパブリッシャーによって動作される場合がある。この例では、ビデオサーバシステム1220は、任意選択的に、ゲームサーバ1225によってクライアントとして見られ、任意選択的に、ゲームサーバ1225の視点から先行技術のゲームエンジンを実行する先行技術のクライアントであることを表すように構成される。ビデオサーバシステム1220とゲームサーバ1225との間の通信は、任意選択的にネットワーク1215を介して発生する。そのため、ゲームサーバ1225は、ゲーム状態情報を複数のクライアントに送る、先行技術のマルチプレイヤーゲームサーバとすることができ、複数のクライアントのうちの1つが、ゲームサーバシステム1220である。ビデオサーバシステム1220は、ゲームサーバ1225の複数のインスタンスと同時に通信するように構成されることがある。たとえば、ビデオサーバシステム1220は、複数の異なるビデオゲームを異なるユーザに提供できるように構成することができる。これらの異なるビデオゲームのそれぞれは、異なるゲームサーバ1225によってサポートされる場合があり、かつ/または異なるエンティティによってパブリッシュされる場合がある。いくつかの実施態様では、いくつかの地理的に分散したビデオサーバシステム1220のインスタンスは、ゲームビデオを複数の異なるユーザへと提供するように構成される。ビデオサーバシステム1220のこれらのインスタンスのそれぞれは、ゲームサーバ1225の同一のインスタンスと通信することがある。ビデオサーバシステム1220と1つまたは複数のゲームサーバ1225との間の通信が、任意選択的に専用の通信チャネルを介して発生する。たとえば、ビデオサーバシステム1220は、ゲームサーバ1225にこれらの2つのシステムの間の通信専用の高帯域幅のチャネルを介して接続されることがある。 Game server 1225 is optionally operated by a different entity than video server system 1220 . For example, game server 1225 may be operated by a multiplayer game publisher. In this example, video server system 1220 is optionally viewed as a client by game server 1225 and is optionally a prior art client executing a prior art game engine from the perspective of game server 1225. is configured to represent Communication between video server system 1220 and game server 1225 optionally occurs over network 1215 . As such, game server 1225 may be a prior art multiplayer game server that sends game state information to multiple clients, one of which is game server system 1220 . Video server system 1220 may be configured to communicate with multiple instances of game server 1225 simultaneously. For example, video server system 1220 may be configured to provide multiple different video games to different users. Each of these different video games may be supported by different game servers 1225 and/or published by different entities. In some implementations, several geographically distributed instances of video server system 1220 are configured to serve game videos to multiple different users. Each of these instances of video server system 1220 may communicate with the same instance of game server 1225 . Communication between the video server system 1220 and one or more game servers 1225 optionally occurs via dedicated communication channels. For example, video server system 1220 may be connected to game server 1225 via a high bandwidth channel dedicated to communication between these two systems.

ビデオサーバシステム1220は、少なくとも、ビデオソース1230と、I/Oデバイス1245と、プロセッサ1250と、非一時的ストレージ1255とを備える。ビデオサーバシステム1220は、1つのコンピューティングデバイスを含むか、または複数のコンピューティングデバイスの間に分散されることがある。これらのコンピューティングデバイスは、任意選択的に、ローカルエリアネットワークなどの通信システムを介して接続されることがある。 Video server system 1220 includes at least video sources 1230 , I/O devices 1245 , processor 1250 , and non-transitory storage 1255 . Video server system 1220 may include a single computing device or be distributed among multiple computing devices. These computing devices may optionally be connected via a communication system such as a local area network.

ビデオソース1230は、ビデオストリーム、たとえば、ストリーミングビデオ、または動画を形成する一連のビデオフレームを提供するように構成される。いくつかの実施態様では、ビデオソース1230は、ビデオゲームエンジン及びレンダリングロジックを含む。ビデオゲームエンジンは、プレイヤーからゲームコマンドを受信し、受信したコマンドに基づいてビデオゲームの状態のコピーを維持するように構成される。このゲーム状態には、ゲーム環境内の対象物の位置、ならびに典型的には視点を含む。ゲーム状態は、対象物のプロパティ、画像、色、及び/またはテクスチャも含むことがある。ゲーム状態は、典型的には、ゲームルール、ならびに移動、回転、アタック、焦点を合わせる、インタラクション、使用、及び/または同様なものなどのゲームコマンドに基づいて維持される。ゲームエンジンの一部分は、任意選択的にゲームサーバ1225内に配置される。ゲームサーバ1225は、複数のプレイヤーから地理的に分散したクライアントを使用して受信したゲームコマンドに基づいて、ゲームの状態のコピーを維持する場合がある。これらの場合、ゲーム状態は、ゲームサーバ1225によってビデオソース1230へと提供され、ゲーム状態のコピーは、保存され、レンダリングが実行される。ゲームサーバ1225は、ゲームコマンドをクライアント1210からネットワーク1215を介して直接的に受信することがあり、かつ/または、ゲームコマンドをビデオサーバシステム1220を介して受信することがある。 Video source 1230 is configured to provide a video stream, eg, streaming video, or a series of video frames that form a motion picture. In some implementations, video source 1230 includes a video game engine and rendering logic. The video game engine is configured to receive game commands from the player and maintain a copy of the state of the video game based on the received commands. This game state includes the positions of objects within the game environment, as well as typically the viewpoint. A game state may also include object properties, images, colors, and/or textures. Game states are typically maintained based on game rules and game commands such as move, rotate, attack, focus, interact, use, and/or the like. A portion of the game engine is optionally located within the game server 1225 . The game server 1225 may maintain a copy of the game state based on game commands received from multiple players using geographically distributed clients. In these cases, the game state is provided by the game server 1225 to the video source 1230 and a copy of the game state is saved and rendered. Game server 1225 may receive game commands directly from client 1210 via network 1215 and/or may receive game commands via video server system 1220 .

ビデオソース1230は、典型的には、レンダリングロジック、たとえば、ハードウェア、ファームウェア、及び/またはストレージ1255などのコンピュータ可読媒体上に保存されたソフトウェアを含む。このレンダリングロジックは、ゲーム状態に基づいてビデオストリームのビデオフレームを作製するように構成される。レンダリングロジックのすべてまたは一部分は、任意選択的にグラフィックスプロセッシングユニット(GPU)内に配置される。レンダリングロジックは、ゲーム状態及び視点に基づいて、典型的には対象物間の3次元空間的関係を判定する、及び/または適切なテクスチャを適用する、などのために、構成される処理段階を含む。レンダリングロジックは、通常、その後クライアント1210に通信する前にエンコードされる、未加工のビデオを生成する。たとえば、未加工のビデオは、Adobe Flash(登録商標)standard、.wav、H.264、H.263、On2、VP6、VC-1、WMA、Huffyuv、Lagarith、MPG-x.Xvid.FFmpeg、x264、VP6-8、realvideo、mp3、または同様のものによってエンコードされることがある。エンコードプロセスは任意選択的に、リモートデバイス上のデコーダに送達するためのパッケージ化されたビデオストリームを生成する。ビデオストリームは、フレームサイズ及びフレームレートによって特徴付けられる。典型的なフレームサイズとしては、800×600、1280×720(たとえば、720p)、1024×768が挙げられるが、任意の他のフレームサイズが使用されてもよい。フレームレートは、1秒当たりのビデオフレームの数である。ビデオストリームは、異なるタイプのビデオフレームを含むことがある。たとえば、H.264規格は、「P」フレーム及び「I」フレームを含む。I-フレームは、ディスプレイデバイス上のすべてのマクロブロック/ピクセルをリフレッシュするための情報を含むが、一方で、P-フレームは、そのサブセットをリフレッシュする情報を含む。P-フレームは典型的には、データサイズがI-フレームより小さい。本明細書で使用される場合、「フレームサイズ」という用語は、1つのフレーム内のピクセルの数を意味する。「フレームデータサイズ」という用語は、フレームを保存するために要求されるバイト数を指すために使用される。 Video source 1230 typically includes rendering logic, eg, hardware, firmware, and/or software stored on a computer-readable medium such as storage 1255 . The rendering logic is configured to produce video frames of the video stream based on the game state. All or part of the rendering logic is optionally located within a graphics processing unit (GPU). Rendering logic typically configures processing steps to determine 3D spatial relationships between objects, apply appropriate textures, etc., based on game state and viewpoint. include. Rendering logic typically produces raw video that is then encoded before being communicated to client 1210 . For example, raw video can be stored in Adobe Flash® standard, . wav, H. 264, H. 263, On2, VP6, VC-1, WMA, Huffyuv, Lagarith, MPG-x. Xvid. May be encoded by FFmpeg, x264, VP6-8, realvideo, mp3, or the like. The encoding process optionally produces a packaged video stream for delivery to decoders on remote devices. A video stream is characterized by a frame size and a frame rate. Typical frame sizes include 800x600, 1280x720 (eg, 720p), 1024x768, although any other frame size may be used. Frame rate is the number of video frames per second. A video stream may contain different types of video frames. For example, H. The H.264 standard includes 'P' frames and 'I' frames. I-frames contain information to refresh all macroblocks/pixels on the display device, while P-frames contain information to refresh a subset thereof. P-frames are typically smaller in data size than I-frames. As used herein, the term "frame size" means the number of pixels in one frame. The term "frame data size" is used to refer to the number of bytes required to store a frame.

代替的な実施態様では、ビデオソース1230は、カメラなどのビデオ録画デバイスを含む。このカメラは、コンピュータゲームのビデオストリームに含まれる遅延ビデオまたはライブビデオを作り出すために使用されることがある。結果として得られるビデオストリームは、任意選択的に、レンダリングされた画像とスチルカメラまたはビデオカメラを使用して録画された画像との両方を含む。ビデオソース1230は、以前録画したビデオをビデオストリームに含むために保存するように構成されたストレージデバイスも含むことがある。ビデオソース1230は、対象物、たとえば、人の動きまたは位置を検出するように構成された、動きまたは位置検知デバイス、及びゲーム状態を判定する、または検出された動き及び/または位置に基づくビデオを生成するように構成されるロジックも含むことがある。 In alternative implementations, video source 1230 includes a video recording device, such as a camera. This camera may be used to produce delayed or live video included in the video stream of a computer game. The resulting video stream optionally includes both rendered images and images recorded using a still or video camera. Video source 1230 may also include a storage device configured to store previously recorded video for inclusion in the video stream. Video source 1230 includes a motion or position sensing device configured to detect motion or position of an object, e.g., a person, and determine game state or output video based on detected motion and/or position. It may also include logic configured to generate.

ビデオソース1230は任意選択的に、他のビデオ上に定置されるように構成されたオーバーレイを提供するように構成される。たとえば、これらのオーバーレイは、コマンドインタフェース、ログインのやり方、ゲームプレイヤーへのメッセージ、他のゲームプレイヤーの画像、他のゲームプレイヤーのビデオフィード(たとえば、ウェブカムビデオ)を含んでもよい。タッチスクリーンインタフェースまたは視線検出インタフェースを含むクライアント1210Aの実施態様では、オーバーレイは、バーチャルキーボード、ジョイスティック、タッチパッド、及び/または同様のものを含むことがある。オーバーレイの1つの例では、プレイヤーの声がオーディオストリーム上に重ねられる。ビデオソース1230は任意選択的に、1つまたは複数のオーディオソースをさらに含む。 Video source 1230 is optionally configured to provide overlays configured to be placed over other videos. For example, these overlays may include command interfaces, login instructions, messages to game players, images of other game players, video feeds of other game players (eg, webcam video). In implementations of client 1210A that include a touch screen interface or eye-gaze detection interface, overlays may include virtual keyboards, joysticks, touchpads, and/or the like. In one example of an overlay, the player's voice is superimposed over the audio stream. Video source 1230 optionally further includes one or more audio sources.

2人以上のプレイヤーからの入力に基づいてゲーム状態を維持するようにビデオサーバシステム1220が構成される実施態様では、それぞれのプレイヤーは、ビューの位置及び方向を含む異なる視点を有することがある。ビデオソース1230は任意選択的に、それぞれのプレイヤーに対して各自の視点に基づいた別個のビデオストリームを提供するように構成される。さらに、ビデオソース1230は、クライアント1210のそれぞれに対して異なるフレームサイズ、フレームデータサイズ、及び/またはエンコードを提供するように構成されることがある。ビデオソース1230は任意選択的に、3次元ビデオを提供するように構成される。 In implementations in which the video server system 1220 is configured to maintain game state based on input from more than one player, each player may have a different perspective, including position and orientation of the view. Video source 1230 is optionally configured to provide each player with a separate video stream based on their point of view. Additionally, video source 1230 may be configured to provide different frame sizes, frame data sizes, and/or encodings to each of clients 1210 . Video source 1230 is optionally configured to provide three-dimensional video.

I/Oデバイス1245は、ビデオサーバシステム1220のために、ビデオ、コマンド、情報要求、ゲーム状態、視線情報、デバイスの動き、デバイスの場所、ユーザの動き、クライアント識別情報、プレイヤー識別情報、ゲームコマンド、セキュリティ情報、オーディオ、及び/または同様なものなどの情報を送信及び/または受信するように構成される。I/Oデバイス1245は典型的には、ネットワークカードまたはモデムなどの通信ハードウェアを含む。I/Oデバイス1245は、ゲームサーバ1225、ネットワーク1215、及び/またはクライアント1210と通信するように構成される。 I/O devices 1245 provide video, commands, information requests, game state, line of sight information, device movement, device location, user movement, client identification information, player identification information, game commands for the video server system 1220 . , security information, audio, and/or the like. I/O devices 1245 typically include communication hardware such as network cards or modems. I/O devices 1245 are configured to communicate with game server 1225 , network 1215 , and/or client 1210 .

プロセッサ1250は、ロジック、たとえば、本明細書で論じられるビデオサーバシステム1220のさまざまな構成要素内に含まれる、ソフトウェアを実行するように構成される。たとえば、プロセッサ1250は、ビデオソース1230、ゲームサーバ1225、及び/またはクライアントクオリファイア1260の機能を実行するように、ソフトウェア命令を用いてプログラムされてもよい。ビデオサーバシステム1220は任意選択的に、プロセッサ1250の2つ以上のインスタンスを含む。プロセッサ1250はまた、ビデオサーバシステム1220によって受信されたコマンドを実行するため、または本明細書で論じられるゲームシステム1200のさまざまな要素の動作を連係するために、ソフトウェア命令を用いてプログラムされてもよい。プロセッサ1250は、1つまたは複数のハードウェアデバイスを含んでもよい。プロセッサ1250は、電子プロセッサである。 Processor 1250 is configured to execute logic, eg, software, contained within the various components of video server system 1220 discussed herein. For example, processor 1250 may be programmed with software instructions to perform the functions of video source 1230, game server 1225, and/or client qualifier 1260. Video server system 1220 optionally includes more than one instance of processor 1250 . Processor 1250 may also be programmed with software instructions to execute commands received by video server system 1220 or to coordinate the operation of the various elements of game system 1200 discussed herein. good. Processor 1250 may include one or more hardware devices. Processor 1250 is an electronic processor.

ストレージ1255は、非一時的アナログ及び/またはデジタルストレージデバイスを含む。たとえば、ストレージ1255は、ビデオフレームを保存するように構成されるアナログストレージデバイスを含むことがある。ストレージ1255は、コンピュータ可読デジタルストレージ、たとえばハードドライブ、光学式ドライブ、またはソリッドステートストレージを含むことがある。ストレージ1215は、ビデオフレーム、人工フレーム、ビデオフレームと人工フレームとを両方含むビデオストリーム、オーディオフレーム、オーディオストリーム、及び/または同様のものを保存するように構成される(たとえば、適切なデータ構造、またはファイルシステムによって)。ストレージ1255は任意選択的に、複数のデバイスの中に分散される。いくつかの実施態様では、ストレージ1255は、本明細書のいずれかで論じられるビデオソース1230のソフトウェア構成要素を保存するように構成される。これらの構成要素は、必要に応じて供給する用意ができた形式で保存されることがある。 Storage 1255 includes non-transitory analog and/or digital storage devices. For example, storage 1255 may include an analog storage device configured to store video frames. Storage 1255 may include computer-readable digital storage such as hard drives, optical drives, or solid state storage. Storage 1215 is configured to store video frames, artificial frames, video streams containing both video frames and artificial frames, audio frames, audio streams, and/or the like (e.g., suitable data structures, or by the file system). Storage 1255 is optionally distributed among multiple devices. In some implementations, storage 1255 is configured to store the software components of video source 1230 discussed elsewhere herein. These components may be stored in a form ready to be supplied as needed.

ビデオサーバシステム1220は任意選択的に、クライアントクオリファイア1260をさらに備える。クライアントクオリファイア1260は、クライアント1210Aまたは1210Bなどのクライアントの能力をリモートで判定するために構成される。これらの能力は、クライアント1210A自身の能力、ならびに、クライアント1210Aとビデオサーバシステム1220との間の1つまたは複数の通信チャネルの能力の両方を含むことができる。たとえば、クライアントクオリファイア1260は、ネットワーク1215を通る通信チャネルをテストするように構成されることがある。 Video server system 1220 optionally further comprises client qualifier 1260 . Client qualifier 1260 is configured to remotely determine capabilities of a client, such as client 1210A or 1210B. These capabilities can include both the capabilities of client 1210A itself, as well as the capabilities of one or more communication channels between client 1210A and video server system 1220. FIG. For example, client qualifier 1260 may be configured to test communication channels through network 1215 .

クライアントクオリファイア1260は、クライアント1210Aの能力を、手動でまたは自動で判定(たとえば、発見)することができる。手動判定は、クライアント1210Aのユーザと通信し、ユーザに能力を提供するように依頼することを含む。たとえば、いくつかの実施態様では、クライアントクオリファイア1260は、画像、テキスト、及び/または同様のものをクライアント1210Aのブラウザ内に表示するように構成される。1つの実施態様では、クライアント1210Aは、ブラウザを含むHMDである。別の実施態様では、クライアント1210Aは、HMD上に表示されてもよいブラウザを有するゲームコンソールである。表示された対象物は、ユーザによる、クライアント1210Aのオペレーティングシステム、プロセッサ、ビデオデコーダタイプ、ネットワーク接続の種類、ディスプレイ解像度などの情報の入力を要求する。ユーザが入力した情報は、クライアントクオリファイア1260に戻すように通信される。 Client qualifier 1260 can manually or automatically determine (eg, discover) the capabilities of client 1210A. Manual determination involves communicating with the user of client 1210A and asking the user to provide capabilities. For example, in some implementations, client qualifier 1260 is configured to display images, text, and/or the like within the browser of client 1210A. In one implementation, client 1210A is an HMD that includes a browser. In another implementation, client 1210A is a game console with a browser that may be displayed on an HMD. The displayed objects request information from the user such as client 1210A's operating system, processor, video decoder type, network connection type, display resolution, and the like. The information entered by the user is communicated back to the client qualifier 1260 .

自動判定は、たとえば、クライアント1210A上のエージェントの実行によって、及び/または、テストビデオをクライアント1210Aに送信することによって発生することがある。エージェントは、ウェブページに埋め込まれた、またはアドオンとしてインストールされたjava(登録商標) scriptなどのコンピューティング命令を含むことがある。エージェントは任意選択的に、クライアントクオリファイア1260によって提供される。さまざまな実施態様では、エージェントは、クライアント1210Aの処理能力、クライアント1210Aのデコード及び表示能力、クライアント1210Aとビデオサーバシステム1220との間の通信チャネルの遅れ時間の信頼性及び帯域幅、クライアント1210Aのディスプレイの種類、クライアント1210A上に存在するファイアウォール、クライアント1210Aのハードウェア、クライアント1210Aで実行しているソフトウェア、クライアント1210A内のレジストリエントリ、及び/または同様のものを見出すことができる。 Automatic determination may occur, for example, by running an agent on client 1210A and/or by sending a test video to client 1210A. Agents may include computing instructions such as java scripts embedded in web pages or installed as add-ons. Agents are optionally provided by client qualifiers 1260 . In various embodiments, the agent controls the processing capabilities of client 1210A, the decoding and display capabilities of client 1210A, the latency reliability and bandwidth of the communication channel between client 1210A and video server system 1220, the display of client 1210A. , firewalls present on the client 1210A, hardware of the client 1210A, software running on the client 1210A, registry entries within the client 1210A, and/or the like.

クライアントクオリファイア1260は、ハードウェア、ファームウェア、及び/またはコンピュータ可読媒体上に保存されるソフトウェアを含む。クライアントクオリファイア1260は任意選択的に、ビデオサーバシステム1220の1つまたは複数の他の要素から分離したコンピューティングデバイス上に配置される。たとえば、いくつかの実施態様では、クライアントクオリファイア1260は、クライアント1210とビデオサーバシステム1220の2つ以上のインスタンスとの間の通信チャネルの特性を判定するように構成される。これらの実施態様では、クライアントクオリファイアによって発見された情報を、ビデオサーバシステム1220のどのインスタンスが、クライアント1210のうちの1つへのストリーミングビデオの送達のために最も適しているかを判断するために使用することができる。 Client qualifier 1260 includes hardware, firmware, and/or software stored on a computer-readable medium. Client qualifier 1260 is optionally located on a computing device separate from one or more other elements of video server system 1220 . For example, in some implementations, client qualifier 1260 is configured to determine characteristics of a communication channel between client 1210 and two or more instances of video server system 1220 . In these embodiments, the information discovered by the Client Qualifier is used to determine which instance of the Video Server System 1220 is most suitable for delivery of streaming video to one of the Clients 1210. can be used.

本開示の各実施態様は、ハンドヘルドデバイス、マイクロプロセッサシステム、マイクロプロセッサベースまたはプログラム可能な家庭用電気製品、ミニコンピュータ、メインフレームコンピュータなど、さまざまなコンピュータシステム構成によって実施されてもよい。本開示を、タスクが有線ネットワークまたは無線ネットワークを通してリンクされるリモート処理デバイスによって実行される、分散したコンピューティング環境で実践することもできる。 Embodiments of the present disclosure may be practiced with various computer system configurations, such as handheld devices, microprocessor systems, microprocessor-based or programmable consumer electronics, minicomputers, mainframe computers, and the like. The disclosure may also be practiced in distributed computing environments where tasks are performed by remote processing devices that are linked through wired or wireless networks.

上述の各実施態様を考慮に入れて、本開示は、コンピュータシステムに保存されるデータを含む、さまざまなコンピュータ実装操作を使用してもよいことを理解すべきである。これらの操作には、物理量の物理的な操作を必要とする操作が含まれる。本開示の一部を形成する本明細書に記載された操作はいずれも、有益な機械操作である。本開示は、これらの操作を実行するためのデバイスまたは機器にも関する。機器を要求される目的のために特に構築することができ、または、機器をコンピュータ内に保管されたコンピュータプログラムによって選択的に起動または構成された汎用コンピュータとすることができる。特に、本明細書の教示に従って書かれたコンピュータプログラムを用いて、さまざまな汎用マシンを使用することができ、または、より特化した機器を構築して必要な動作を実行することがより都合がよいことがある。 With the above embodiments in mind, it should be understood that the present disclosure may employ various computer-implemented operations involving data stored in computer systems. These operations include those requiring physical manipulation of physical quantities. Any of the operations described herein that form part of the disclosure are useful machine operations. The present disclosure also relates to devices or apparatus for performing these operations. An apparatus may be specially constructed for the required purposes, or it may be a general purpose computer selectively activated or configured by a computer program stored in the computer. In particular, various general purpose machines may be used with computer programs written in accordance with the teachings herein, or it may be more convenient to construct more specialized apparatus to perform the required operations. There is good news.

本開示は、コンピュータ可読媒体上のコンピュータ可読コードとして具現化することもできる。コンピュータ可読媒体は、その後コンピュータシステムによって読み取ることができるデータを保存できる任意のデータストレージデバイスである。コンピュータ可読媒体の例には、ハードディスク、ネットワーク接続ストレージ(NAS)、リードオンリーメモリ、ランダムアクセスメモリ、CD-ROM、CD-R、CD-RW、磁気テープ、ならびに他の光学式データストレージデバイス及び非光学式データストレージデバイスなどがある。コンピュータ可読媒体としては、コンピュータ可読コードを分散した様式で保存及び実行するように、ネットワーク連結されたコンピュータシステムを通して分散するコンピュータ可読有形媒体を挙げることができる。 The present disclosure can also be embodied as computer readable code on a computer readable medium. A computer-readable medium is any data storage device that can store data that can then be read by a computer system. Examples of computer-readable media include hard disks, network-attached storage (NAS), read-only memory, random-access memory, CD-ROMs, CD-Rs, CD-RWs, magnetic tapes, and other optical and non-optical data storage devices. and optical data storage devices. The computer readable medium can include computer readable tangible medium distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

方法動作を特定の順序で記載したが、動作の間に他のハウスキーピング動作が実行されてもよく、または動作が若干異なる時間に発生するように動作が調整されてもよく、または動作がシステム内に分散されてもよく、これは、オーバーレイ動作の処理が所望されるやり方で実行される限り、処理と関連するさまざまな間隔での処理動作の発生を可能にすることを理解するべきである。 Although the method operations are described in a particular order, other housekeeping operations may be performed between the operations, or the operations may be coordinated so that they occur at slightly different times, or the operations may be performed by the system. It should be understood that this allows the processing operations to occur at various intervals associated with the processing, so long as the processing of the overlay operations is performed in the manner desired. .

前述の開示は、理解の明確化の目的である程度詳細に記載されてきたが、添付の特許請求の範囲の範囲内で、ある程度の変更及び修正を実践することができることは明らかである。したがって、本実施態様は、例示的であり、制限的でないと考えられるべきであり、本開示は、本明細書で与えられた詳細に制限されないが、添付の特許請求の範囲及び均等物の範囲内で修正されてもよい。 Although the foregoing disclosure has been described in some detail for purposes of clarity of understanding, it will be apparent that certain changes and modifications may be practiced within the scope of the appended claims. Accordingly, the present embodiments are to be considered illustrative and not restrictive and the present disclosure is not limited to the details given herein, but rather within the scope of the appended claims and their equivalents. may be modified within

Claims (21)

クライアントデバイスからネットワークを介して、バーチャルリアリティ観戦者によるヘッドマウントディスプレイを通してライブイベントを観戦する要求を受信することと、
前記バーチャルリアリティ観戦者を前記ライブイベントが開催される会場のシートに割り当てることと、
前記会場の前記シートがキャプチャされて前記会場内のディスプレイに映写される場合、前記シートに割り当てられた前記バーチャルリアリティ観戦者または前記バーチャルリアリティ観戦者に関連付けられたアバターの画像が前記シートを占有する位置に含まれるように前記会場内の前記ディスプレイにレンダリングされるビデオを変更することと、
前記会場内に位置付けられた複数のカメラから複数のビデオフィードを受信することと、
前記シートに関連付けて保存されたビデオ処理パラメータにアクセスすることと、
前記バーチャルリアリティ観戦者の視界が、前記複数のカメラからの前記複数のビデオフィードに基づいて提供できるカバー領域によって定義され、会場空間のリアルタイムライブビューを提供できるライブビュー領域と、前記リアルタイムライブビューがもたらされない残りのビュー領域との両方の部分を含むとき、前記ライブビュー領域については、前記ビデオ処理パラメータを使用して前記ビデオフィードを選択し、前記選択したビデオフィードをつぎ合わせてライブビデオを生成し、前記残りのビュー領域については、前記複数のカメラによって予め記録されたビデオをつぎ合わせて非ライブビデオを生成し、前記ライブビデオと前記非ライブビデオを組み合わせて、前記会場内の前記シートの3次元位置によって実質的に定義される視点からの前記会場のビューを提供するコンポジットビデオを生成することと、
前記ヘッドマウントディスプレイにレンダリングするために、前記ネットワークを介して前記コンポジットビデオを前記クライアントデバイスに送信することと
を含む、方法。
receiving a request to watch a live event through a head-mounted display by a virtual reality spectator over a network from a client device;
assigning the virtual reality spectators to seats at a venue where the live event is held;
When the seat of the venue is captured and projected onto a display in the venue, an image of the virtual reality spectator assigned to the seat or an avatar associated with the virtual reality spectator occupies the seat. modifying a video rendered on the display within the venue to be included in the location;
receiving multiple video feeds from multiple cameras positioned within the venue;
accessing video processing parameters stored in association with the sheet;
a live view area capable of providing a real-time live view of a venue space, wherein the virtual reality spectator's field of view is defined by a coverage area capable of providing a real-time live view of a venue space based on the plurality of video feeds from the plurality of cameras; for the live view region, selecting the video feed using the video processing parameters and stitching the selected video feeds together to generate live video; and for said remaining viewing area, stitching pre-recorded videos by said plurality of cameras to generate a non-live video, combining said live video and said non-live video to produce said seat in said venue. generating a composite video providing a view of the venue from a viewpoint substantially defined by the three-dimensional position of
transmitting the composite video over the network to the client device for rendering on the head-mounted display.
前記ビデオ処理パラメータが、つぎ合わせのためにどの前記ビデオフィードを選択するか識別し、
前記ビデオ処理パラメータが、前記ビデオ処理パラメータが関連付けられた前記シートの前記3次元位置と、前記ビデオフィードを提供する前記カメラの3次元位置とに基づいて定義される、請求項1に記載の方法。
the video processing parameters identify which of the video feeds to select for stitching;
2. The method of claim 1, wherein the video processing parameters are defined based on the three-dimensional position of the seat with which the video processing parameters are associated and the three-dimensional position of the camera providing the video feed. .
前記バーチャルリアリティ観戦者を前記シートに割り当てることが、前記会場内のシートの占有ステータスを識別することを含み、
与えられたシートの前記占有ステータスが、前記与えられたシートが前記会場内で実際の観戦者によって占有されているかどうかを示し、
前記バーチャルリアリティ観戦者が割り当てられる前記シートが、実際の観戦者によって占有されていないシートである、請求項1に記載の方法。
assigning the virtual reality spectators to the seats includes identifying an occupancy status of seats within the venue;
the occupancy status of a given seat indicates whether the given seat is occupied by an actual spectator within the venue;
2. The method of claim 1, wherein the seats to which the virtual reality spectators are assigned are seats not occupied by real spectators.
前記与えられたシートの前記占有ステータスが、前記与えられたシートが別のバーチャルリアリティ観戦者によって占有されているかどうかをさらに示し、
前記バーチャルリアリティ観戦者が割り当てられる前記シートが、別のバーチャルリアリティ観戦者によって占有されていないシートである、請求項3に記載の方法。
the occupancy status of the given seat further indicates whether the given seat is occupied by another virtual reality spectator;
4. The method of claim 3, wherein the seat to which the virtual reality spectator is assigned is a seat not occupied by another virtual reality spectator.
前記バーチャルリアリティ観戦者を前記シートに割り当てることが、
前記バーチャルリアリティ観戦者のソーシャルグラフにアクセスすることと、
前記ソーシャルグラフのメンバーである別のバーチャルリアリティ観戦者に割り当てられたシートへの近さに基づいて前記シートを選択することと
を含む、請求項1に記載の方法。
assigning the virtual reality spectators to the seats;
accessing the virtual reality spectator's social graph;
and selecting the seat based on proximity to a seat assigned to another virtual reality spectator who is a member of the social graph.
前記シートに関連付けて保存されたオーディオ処理パラメータにアクセスすることと、
前記オーディオ処理パラメータを使用して、前記会場内の前記シートの前記3次元位置によって実質的に定義される視点から聞こえることをシミュレートするオーディオデータを生成することと、
前記オーディオデータを前記ネットワークを介して前記クライアントデバイスに送信することと
をさらに含む、請求項1に記載の方法。
accessing audio processing parameters stored in association with the sheet;
using the audio processing parameters to generate audio data that simulates hearing from a viewpoint substantially defined by the three-dimensional position of the seat within the venue;
2. The method of claim 1, further comprising transmitting said audio data over said network to said client device.
前記オーディオ処理パラメータが、前記会場内の1つまたは複数のマイクロフォンによってキャプチャされたオーディオを識別して、それから前記オーディオデータを生成し、
前記オーディオ処理パラメータが、前記オーディオ処理パラメータが関連付けられた前記シートの前記3次元位置と、前記マイクロフォンの3次元位置とに基づいて定義される、請求項6に記載の方法。
wherein the audio processing parameters identify audio captured by one or more microphones within the venue to generate the audio data therefrom;
7. The method of claim 6, wherein the audio processing parameter is defined based on the three-dimensional position of the seat with which the audio processing parameter is associated and the three-dimensional position of the microphone.
非一時的コンピュータ可読媒体であって、少なくとも1つのコンピュータで実行されるとき、前記少なくとも1つのコンピュータに、以下の操作、
クライアントデバイスからネットワークを介して、バーチャルリアリティ観戦者によるヘッドマウントディスプレイを通してライブイベントを観戦する要求を受信することと、
前記バーチャルリアリティ観戦者を前記ライブイベントが開催される会場のシートに割り当てることと、
前記会場の前記シートがキャプチャされて前記会場内のディスプレイに映写される場合、前記シートに割り当てられた前記バーチャルリアリティ観戦者または前記バーチャルリアリティ観戦者に関連付けられたアバターの画像が前記シートを占有する位置に含まれるように前記会場内の前記ディスプレイにレンダリングされるビデオを変更することと、
前記会場内に位置付けられた複数のカメラから複数のビデオフィードを受信することと、
前記シートに関連付けて保存されたビデオ処理パラメータにアクセスすることと、
前記バーチャルリアリティ観戦者の視界が、前記複数のカメラからの前記複数のビデオフィードに基づいて提供できるカバー領域によって定義され、会場空間のリアルタイムライブビューを提供できるライブビュー領域と、前記リアルタイムライブビューがもたらされない残りのビュー領域との両方の部分を含むとき、前記ライブビュー領域については、前記ビデオ処理パラメータを使用して前記ビデオフィードを選択し、前記選択したビデオフィードをつぎ合わせてライブビデオを生成し、前記残りのビュー領域については、前記複数のカメラによって予め記録されたビデオをつぎ合わせて非ライブビデオを生成し、前記ライブビデオと前記非ライブビデオを組み合わせて、前記会場内の前記シートの3次元位置によって実質的に定義される視点からの前記会場のビューを提供するコンポジットビデオを生成することと、
前記ヘッドマウントディスプレイにレンダリングするために、前記ネットワークを介して前記コンポジットビデオを前記クライアントデバイスに送信することと
を含む方法を実行させる、前記非一時的コンピュータ可読媒体上に具現化されたプログラム命令を有する、非一時的コンピュータ可読媒体。
A non-transitory computer-readable medium which, when executed on at least one computer, causes said at least one computer to perform the following operations:
receiving a request to watch a live event through a head-mounted display by a virtual reality spectator over a network from a client device;
assigning the virtual reality spectators to seats at a venue where the live event is held;
When the seat of the venue is captured and projected onto a display in the venue, an image of the virtual reality spectator assigned to the seat or an avatar associated with the virtual reality spectator occupies the seat. modifying a video rendered on the display within the venue to be included in the location;
receiving multiple video feeds from multiple cameras positioned within the venue;
accessing video processing parameters stored in association with the sheet;
a live view area capable of providing a real-time live view of a venue space, wherein the virtual reality spectator's field of view is defined by a coverage area capable of providing a real-time live view of a venue space based on the plurality of video feeds from the plurality of cameras; for the live view region, selecting the video feed using the video processing parameters and stitching the selected video feeds together to generate live video; and for said remaining viewing area, stitching pre-recorded videos by said plurality of cameras to generate a non-live video, combining said live video and said non-live video to produce said seat in said venue. generating a composite video providing a view of the venue from a viewpoint substantially defined by the three-dimensional position of
sending the composite video over the network to the client device for rendering on the head-mounted display. A non-transitory computer-readable medium, comprising:
前記ビデオ処理パラメータが、つぎ合わせのためにどの前記ビデオフィードを選択するか識別し、
前記ビデオ処理パラメータが、前記ビデオ処理パラメータが関連付けられた前記シートの前記3次元位置と、前記ビデオフィードを提供する前記カメラの3次元位置とに基づいて定義される、請求項8に記載の非一時的コンピュータ可読媒体。
the video processing parameters identify which of the video feeds to select for stitching;
9. The apparatus of claim 8, wherein the video processing parameters are defined based on the three-dimensional position of the seat with which the video processing parameters are associated and the three-dimensional position of the camera providing the video feed. Temporary computer-readable medium.
前記バーチャルリアリティ観戦者を前記シートに割り当てることが、前記会場内のシートの占有ステータスを識別することを含み、
与えられたシートの前記占有ステータスが、前記与えられたシートが前記会場内で実際の観戦者によって占有されているかどうかを示し、
前記バーチャルリアリティ観戦者が割り当てられる前記シートが、実際の観戦者によって占有されていないシートである、請求項8に記載の非一時的コンピュータ可読媒体。
assigning the virtual reality spectators to the seats includes identifying an occupancy status of seats within the venue;
the occupancy status of a given seat indicates whether the given seat is occupied by an actual spectator within the venue;
9. The non-transitory computer readable medium of claim 8, wherein the seats to which the virtual reality spectators are assigned are seats not occupied by real spectators.
前記与えられたシートの前記占有ステータスが、前記与えられたシートが別のバーチャルリアリティ観戦者によって占有されているかどうかをさらに示し、
前記バーチャルリアリティ観戦者が割り当てられる前記シートが、別のバーチャルリアリティ観戦者によって占有されていないシートである、請求項10に記載の非一時的コンピュータ可読媒体。
the occupancy status of the given seat further indicates whether the given seat is occupied by another virtual reality spectator;
11. The non-transitory computer readable medium of claim 10, wherein the seat to which the virtual reality spectator is assigned is a seat not occupied by another virtual reality spectator.
前記バーチャルリアリティ観戦者を前記シートに割り当てることが、
前記バーチャルリアリティ観戦者のソーシャルグラフにアクセスすることと、
前記ソーシャルグラフのメンバーである別のバーチャルリアリティ観戦者に割り当てられたシートへの近さに基づいて前記シートを選択することと
を含む、請求項8に記載の非一時的コンピュータ可読媒体。
assigning the virtual reality spectators to the seats;
accessing the virtual reality spectator's social graph;
9. The non-transitory computer-readable medium of claim 8, comprising selecting the seat based on proximity to a seat assigned to another virtual reality spectator who is a member of the social graph.
前記シートに関連付けて保存されたオーディオ処理パラメータにアクセスすることと、
前記オーディオ処理パラメータを使用して、前記会場内の前記シートの前記3次元位置によって実質的に定義される視点から聞こえることをシミュレートするオーディオデータを生成することと、
前記オーディオデータを前記ネットワークを介して前記クライアントデバイスに送信することと
をさらに含む、請求項8に記載の非一時的コンピュータ可読媒体。
accessing audio processing parameters stored in association with the sheet;
using the audio processing parameters to generate audio data that simulates hearing from a viewpoint substantially defined by the three-dimensional position of the seat within the venue;
9. The non-transitory computer-readable medium of claim 8, further comprising transmitting the audio data over the network to the client device.
前記オーディオ処理パラメータが、前記会場内の1つまたは複数のマイクロフォンによってキャプチャされたオーディオを識別して、それから前記オーディオデータを生成し、
前記オーディオ処理パラメータが、前記オーディオ処理パラメータが関連付けられた前記シートの前記3次元位置と、前記マイクロフォンの3次元位置とに基づいて定義される、請求項13に記載の非一時的コンピュータ可読媒体。
wherein the audio processing parameters identify audio captured by one or more microphones within the venue to generate the audio data therefrom;
14. The non-transitory computer-readable medium of claim 13, wherein the audio processing parameter is defined based on the three-dimensional position of the sheet with which the audio processing parameter is associated and the three-dimensional position of the microphone.
少なくとも1つのコンピューティングデバイスを備え、
前記少なくとも1つのコンピューティングデバイスが、少なくとも1つのプロセッサと、少なくとも1つのメモリとを有し、
前記少なくとも1つのコンピューティングデバイスが、
クライアントデバイスからネットワークを介して、バーチャルリアリティ観戦者によるヘッドマウントディスプレイを通してライブイベントを観戦する要求を受信することと、
前記バーチャルリアリティ観戦者を前記ライブイベントが開催される会場のシートに割り当てることと、
前記会場の前記シートがキャプチャされて前記会場内のディスプレイに映写される場合、前記シートに割り当てられた前記バーチャルリアリティ観戦者または前記バーチャルリアリティ観戦者に関連付けられたアバターの画像が前記シートを占有する位置に含まれるように前記会場内の前記ディスプレイにレンダリングされるビデオを変更することと、
前記会場内に位置付けられた複数のカメラから複数のビデオフィードを受信することと、
前記シートに関連付けて保存されたビデオ処理パラメータにアクセスすることと、
前記バーチャルリアリティ観戦者の視界が、前記複数のカメラからの前記複数のビデオフィードに基づいて提供できるカバー領域によって定義され、会場空間のリアルタイムライブビューを提供できるライブビュー領域と、前記リアルタイムライブビューがもたらされない残りのビュー領域との両方の部分を含むとき、前記ライブビュー領域については、前記ビデオ処理パラメータを使用して前記ビデオフィードを選択し、前記選択したビデオフィードをつぎ合わせてライブビデオを生成し、前記残りのビュー領域については、前記複数のカメラによって予め記録されたビデオをつぎ合わせて非ライブビデオを生成し、前記ライブビデオと前記非ライブビデオを組み合わせて、前記会場内の前記シートの3次元位置によって実質的に定義される視点からの前記会場のビューを提供するコンポジットビデオを生成することと、
前記ヘッドマウントディスプレイにレンダリングするために、前記ネットワークを介して前記コンポジットビデオを前記クライアントデバイスに送信することと
を実行するように構成された、システム。
comprising at least one computing device;
said at least one computing device having at least one processor and at least one memory;
the at least one computing device;
receiving a request to watch a live event through a head-mounted display by a virtual reality spectator over a network from a client device;
assigning the virtual reality spectators to seats at a venue where the live event is held;
When the seat of the venue is captured and projected onto a display in the venue, an image of the virtual reality spectator assigned to the seat or an avatar associated with the virtual reality spectator occupies the seat. modifying a video rendered on the display within the venue to be included in the location;
receiving multiple video feeds from multiple cameras positioned within the venue;
accessing video processing parameters stored in association with the sheet;
a live view area capable of providing a real-time live view of a venue space, wherein the virtual reality spectator's field of view is defined by a coverage area capable of providing a real-time live view of a venue space based on the plurality of video feeds from the plurality of cameras; for the live view region, selecting the video feed using the video processing parameters and stitching the selected video feeds together to generate live video; and for said remaining viewing area, stitching pre-recorded videos by said plurality of cameras to generate a non-live video, combining said live video and said non-live video to produce said seat in said venue. generating a composite video providing a view of the venue from a viewpoint substantially defined by the three-dimensional position of
transmitting the composite video over the network to the client device for rendering on the head-mounted display.
前記ビデオ処理パラメータが、つぎ合わせのためにどの前記ビデオフィードを選択するか識別し、
前記ビデオ処理パラメータが、前記ビデオ処理パラメータが関連付けられた前記シートの前記3次元位置と、前記ビデオフィードを提供する前記カメラの3次元位置とに基づいて定義される、請求項15に記載のシステム。
the video processing parameters identify which of the video feeds to select for stitching;
16. The system of claim 15, wherein the video processing parameters are defined based on the three-dimensional position of the seat with which the video processing parameters are associated and the three-dimensional position of the camera providing the video feed. .
前記バーチャルリアリティ観戦者を前記シートに割り当てることが、前記会場内のシートの占有ステータスを識別することを含み、
与えられたシートの前記占有ステータスが、前記与えられたシートが前記会場内で実際の観戦者によって占有されているかどうかを示し、
前記バーチャルリアリティ観戦者が割り当てられる前記シートが、実際の観戦者によって占有されていないシートである、請求項15に記載のシステム。
assigning the virtual reality spectators to the seats includes identifying an occupancy status of seats within the venue;
the occupancy status of a given seat indicates whether the given seat is occupied by an actual spectator within the venue;
16. The system of claim 15, wherein the seats to which the virtual reality spectators are assigned are seats not occupied by real spectators.
前記与えられたシートの前記占有ステータスが、前記与えられたシートが別のバーチャルリアリティ観戦者によって占有されているかどうかをさらに示し、
前記バーチャルリアリティ観戦者が割り当てられる前記シートが、別のバーチャルリアリティ観戦者によって占有されていないシートである、請求項17に記載のシステム。
the occupancy status of the given seat further indicates whether the given seat is occupied by another virtual reality spectator;
18. The system of claim 17, wherein the seat to which the virtual reality spectator is assigned is a seat not occupied by another virtual reality spectator.
前記バーチャルリアリティ観戦者を前記シートに割り当てることが、
前記バーチャルリアリティ観戦者のソーシャルグラフにアクセスすることと、
前記ソーシャルグラフのメンバーである別のバーチャルリアリティ観戦者に割り当てられたシートへの近さに基づいて前記シートを選択することと
を含む、請求項15に記載のシステム。
assigning the virtual reality spectators to the seats;
accessing the virtual reality spectator's social graph;
16. The system of claim 15, comprising selecting the seat based on proximity to seats assigned to other virtual reality spectators who are members of the social graph.
前記シートに関連付けて保存されたオーディオ処理パラメータにアクセスすることと、
前記オーディオ処理パラメータを使用して、前記会場内の前記シートの前記3次元位置によって実質的に定義される視点から聞こえることをシミュレートするオーディオデータを生成することと、
前記オーディオデータを前記ネットワークを介して前記クライアントデバイスに送信することと
をさらに含む、請求項15に記載のシステム。
accessing audio processing parameters stored in association with the sheet;
using the audio processing parameters to generate audio data that simulates hearing from a viewpoint substantially defined by the three-dimensional position of the seat within the venue;
16. The system of claim 15, further comprising transmitting said audio data over said network to said client device.
前記オーディオ処理パラメータが、前記会場内の1つまたは複数のマイクロフォンによってキャプチャされたオーディオを識別して、それから前記オーディオデータを生成し、
前記オーディオ処理パラメータが、前記オーディオ処理パラメータが関連付けられた前記シートの前記3次元位置と、前記マイクロフォンの3次元位置とに基づいて定義される、請求項20に記載のシステム。
wherein the audio processing parameters identify audio captured by one or more microphones within the venue to generate the audio data therefrom;
21. The system of claim 20, wherein the audio processing parameter is defined based on the three-dimensional position of the seat with which the audio processing parameter is associated and the three-dimensional position of the microphone.
JP2020518439A 2017-09-29 2018-09-25 Venue Mapping for Virtual Reality Spectator of Electronic Sports Active JP7258864B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/721,656 2017-09-29
US15/721,656 US10621784B2 (en) 2017-09-29 2017-09-29 Venue mapping for virtual reality spectating of live events
PCT/US2018/052744 WO2019067480A1 (en) 2017-09-29 2018-09-25 Venue mapping for virtual reality spectating of electronic sports

Publications (2)

Publication Number Publication Date
JP2020535879A JP2020535879A (en) 2020-12-10
JP7258864B2 true JP7258864B2 (en) 2023-04-17

Family

ID=63841080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020518439A Active JP7258864B2 (en) 2017-09-29 2018-09-25 Venue Mapping for Virtual Reality Spectator of Electronic Sports

Country Status (5)

Country Link
US (2) US10621784B2 (en)
EP (1) EP3687644A1 (en)
JP (1) JP7258864B2 (en)
CN (1) CN112135673A (en)
WO (1) WO2019067480A1 (en)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11902691B2 (en) * 2015-03-20 2024-02-13 Joseph Register LED panel having integrated infrared retroreflectors for video volume production environments
JP7159057B2 (en) * 2017-02-10 2022-10-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Free-viewpoint video generation method and free-viewpoint video generation system
US10471360B2 (en) 2017-03-06 2019-11-12 Sony Interactive Entertainment LLC User-driven spectator channel for live game play in multi-player games
US11579744B2 (en) * 2017-06-21 2023-02-14 Navitaire Llc Systems and methods for seat selection in virtual reality
US10514545B2 (en) * 2017-12-08 2019-12-24 Facebook Technologies, Llc Selective tracking of a head-mounted display
US10824235B2 (en) * 2018-01-08 2020-11-03 Facebook Technologies, Llc Methods, devices, and systems for displaying a user interface on a user and detecting touch gestures
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
GB2570298A (en) * 2018-01-17 2019-07-24 Nokia Technologies Oy Providing virtual content based on user context
US10765938B2 (en) 2018-02-28 2020-09-08 Sony Interactive Entertainment LLC De-interleaving gameplay data
US10818142B2 (en) 2018-02-28 2020-10-27 Sony Interactive Entertainment LLC Creation of winner tournaments with fandom influence
US10792577B2 (en) 2018-02-28 2020-10-06 Sony Interactive Entertainment LLC Discovery and detection of events in interactive content
US10792576B2 (en) * 2018-02-28 2020-10-06 Sony Interactive Entertainment LLC Player to spectator handoff and other spectator controls
US10953322B2 (en) 2018-02-28 2021-03-23 Sony Interactive Entertainment LLC Scaled VR engagement and views in an e-sports event
US10765957B2 (en) 2018-02-28 2020-09-08 Sony Interactive Entertainment LLC Integrating commentary content and gameplay content over a multi-user platform
US10814228B2 (en) 2018-02-28 2020-10-27 Sony Interactive Entertainment LLC Statistically defined game channels
US11065548B2 (en) 2018-02-28 2021-07-20 Sony Interactive Entertainment LLC Statistical driven tournaments
US10953335B2 (en) 2018-02-28 2021-03-23 Sony Interactive Entertainment Inc. Online tournament integration
US10943402B2 (en) * 2018-03-20 2021-03-09 Logitech Europe S.A. Method and system for mixed reality interaction with peripheral device
CN111868666A (en) 2018-03-23 2020-10-30 脸谱科技有限责任公司 Method, device and system for determining contact of a user of a virtual reality and/or augmented reality device
CN109242943B (en) * 2018-08-21 2023-03-21 腾讯科技(深圳)有限公司 Image rendering method and device, image processing equipment and storage medium
US11381739B2 (en) * 2019-01-23 2022-07-05 Intel Corporation Panoramic virtual reality framework providing a dynamic user experience
JP7314605B2 (en) * 2019-04-26 2023-07-26 富士通株式会社 Display control device, display control method and display control program
US11189097B2 (en) * 2019-06-14 2021-11-30 In It Vr, Llc Simulated reality transition element location
BG67359B1 (en) * 2019-08-01 2021-07-30 "Фифт Дигрии" Оод METHOD AND SYSTEM FOR INTERACTIVE INCORPORATION OF 2D/3D VIRTUAL VISUAL FORMS IN A 360o LIVE VIDEO STREAMING
US11164385B2 (en) * 2019-08-17 2021-11-02 Samsung Electronics Co., Ltd. Apparatuses and methods for establishing virtual reality (VR) call between caller VR device and callee VR device
FR3100637B1 (en) * 2019-09-09 2022-02-11 Illimitik method and device for broadcasting in virtual reality sports or live performance events
US11298622B2 (en) * 2019-10-22 2022-04-12 Sony Interactive Entertainment Inc. Immersive crowd experience for spectating
US11023729B1 (en) * 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
US11175730B2 (en) * 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
JP6987404B2 (en) * 2020-02-04 2022-01-05 株式会社コナミデジタルエンタテインメント Gameplay system
US10956743B1 (en) 2020-03-27 2021-03-23 Snap Inc. Shared augmented reality system
US11430091B2 (en) 2020-03-27 2022-08-30 Snap Inc. Location mapping for large scale augmented-reality
CN113515187B (en) * 2020-04-10 2024-02-13 咪咕视讯科技有限公司 Virtual reality scene generation method and network side equipment
US11196944B2 (en) * 2020-05-06 2021-12-07 At&T Intellectual Property I, L.P. System for infinite windows with optical disparity and depth resolution
JP2021182696A (en) * 2020-05-19 2021-11-25 憲保 池田 Method and system for bidirectional broadcast
US11321892B2 (en) * 2020-05-21 2022-05-03 Scott REILLY Interactive virtual reality broadcast systems and methods
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
US20230247231A1 (en) * 2020-06-11 2023-08-03 David Cohen Apparatus and method for event participation by spectators
US11646905B2 (en) 2020-06-19 2023-05-09 Airbnb, Inc. Aggregating audience member emotes in large-scale electronic presentation
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
JP7469977B2 (en) 2020-07-16 2024-04-17 株式会社エヌケービー COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS
JP2022025470A (en) * 2020-07-29 2022-02-10 株式会社AniCast RM Animation creation system
JP2022028216A (en) * 2020-08-03 2022-02-16 株式会社セガ Program and information processing device
US11070849B2 (en) 2020-08-17 2021-07-20 Zoltan Bathory Event production and distribution networks, systems, apparatuses, and methods related thereto
CN111988635A (en) * 2020-08-17 2020-11-24 深圳市四维合创信息技术有限公司 AI (Artificial intelligence) -based competition 3D animation live broadcast method and system
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
US11907412B2 (en) 2020-09-28 2024-02-20 International Business Machines Corporation Contextual spectator inclusion in a virtual reality experience
US11736545B2 (en) * 2020-10-16 2023-08-22 Famous Group Technologies Inc. Client user interface for virtual fan experience
US11341689B1 (en) * 2020-11-05 2022-05-24 International Business Machines Corporation Dynamic virtual audience generation
CN113052978A (en) * 2020-11-26 2021-06-29 视伴科技(北京)有限公司 Event activity operation simulation system
JP7283462B2 (en) * 2020-12-07 2023-05-30 横河電機株式会社 Apparatus, method and program
CN112911178B (en) * 2021-01-18 2024-04-05 奈特视讯科技股份有限公司 Dart connection competition system
CN112911325B (en) * 2021-01-29 2023-07-14 百果园技术(新加坡)有限公司 Method and device for recovering inter-live-broadcast room connection
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
US11622100B2 (en) * 2021-02-17 2023-04-04 flexxCOACH VR 360-degree virtual-reality system for dynamic events
US11893672B2 (en) * 2021-03-02 2024-02-06 International Business Machines Corporation Context real avatar audience creation during live video sharing
US20220295139A1 (en) * 2021-03-11 2022-09-15 Quintar, Inc. Augmented reality system for viewing an event with multiple coordinate systems and automatically generated model
CN115086689B (en) * 2021-03-15 2024-04-05 阿里巴巴创新公司 Virtual live broadcast management method, electronic equipment and computer storage medium
JPWO2022244157A1 (en) * 2021-05-19 2022-11-24
JPWO2023286222A1 (en) * 2021-07-14 2023-01-19
CN113923512A (en) * 2021-10-13 2022-01-11 咪咕文化科技有限公司 Method and device for processing event video of non-live audience and computing equipment
US20230256332A1 (en) * 2022-02-16 2023-08-17 Sony Interactive Entertainment Inc. Massively multiplayer local co-op and competitive gaming
CN115278340B (en) * 2022-09-26 2022-11-29 中影年年(北京)文化传媒有限公司 User interaction method and system based on virtual reality

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009065627A (en) 2007-09-04 2009-03-26 Mitsutoshi Akitani Virtual event view system and operating method thereof
JP2013030049A (en) 2011-07-29 2013-02-07 Fujitsu Ltd Information processing device and information processing program
US20140033078A1 (en) 2010-03-10 2014-01-30 Xmobb, Inc. Instantiating media into a virtual social venue to share with friends
US20160014435A1 (en) 2014-07-11 2016-01-14 ProSports Technologies, LLC Camera feed distribution from event venue virtual seat cameras

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US78917A (en) * 1868-06-16 bailey
GB9601101D0 (en) * 1995-09-08 1996-03-20 Orad Hi Tech Systems Limited Method and apparatus for automatic electronic replacement of billboards in a video image
US5917553A (en) * 1996-10-22 1999-06-29 Fox Sports Productions Inc. Method and apparatus for enhancing the broadcast of a live event
JPH11261884A (en) * 1998-03-10 1999-09-24 Hitachi Ltd Panoramic video broadcast method and broadcast receiving device
JP3363861B2 (en) 2000-01-13 2003-01-08 キヤノン株式会社 Mixed reality presentation device, mixed reality presentation method, and storage medium
JP2003333572A (en) * 2002-05-08 2003-11-21 Nippon Hoso Kyokai <Nhk> Virtual customer forming apparatus and method thereof, virtual customer forming reception apparatus and method thereof, and virtual customer forming program
US10438448B2 (en) * 2008-04-14 2019-10-08 Gregory A. Piccionielli Composition production with audience participation
US8167712B2 (en) * 2007-08-08 2012-05-01 Sony Computer Entertainment America Inc. Method and apparatus for player replacement in an on-line game
JP5299018B2 (en) * 2009-03-26 2013-09-25 ソニー株式会社 Information processing apparatus, content processing method, and program
US20110225498A1 (en) * 2010-03-10 2011-09-15 Oddmobb, Inc. Personalized avatars in a virtual social venue
CN102195939B (en) * 2010-03-11 2016-06-15 盛乐信息技术(上海)有限公司 High-speed wireless network remote-control competition system and its implementation
WO2011159811A2 (en) * 2010-06-15 2011-12-22 Ticketmaster, Llc Methods and systems for computer aided event and venue setup and modeling and interactive maps
US9268406B2 (en) * 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
US9516225B2 (en) * 2011-12-02 2016-12-06 Amazon Technologies, Inc. Apparatus and method for panoramic video hosting
US10600235B2 (en) * 2012-02-23 2020-03-24 Charles D. Huston System and method for capturing and sharing a location based experience
US10649613B2 (en) * 2012-06-07 2020-05-12 Wormhole Labs, Inc. Remote experience interfaces, systems and methods
US10137361B2 (en) * 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
WO2015016094A1 (en) * 2013-07-31 2015-02-05 ソニー株式会社 Information processing device, information processing method, and program
US10277813B1 (en) * 2015-06-25 2019-04-30 Amazon Technologies, Inc. Remote immersive user experience from panoramic video
US10078917B1 (en) * 2015-06-26 2018-09-18 Lucasfilm Entertainment Company Ltd. Augmented reality simulation
CN109074629A (en) * 2015-10-29 2018-12-21 Oy沃肯视觉有限公司 Video camera is carried out using region of the networking camera to concern
US9782678B2 (en) * 2015-12-06 2017-10-10 Sliver VR Technologies, Inc. Methods and systems for computer video game streaming, highlight, and replay
US20170249785A1 (en) 2016-02-29 2017-08-31 Vreal Inc Virtual reality session capture and replay systems and methods
US11163358B2 (en) 2016-03-17 2021-11-02 Sony Interactive Entertainment Inc. Spectating virtual (VR) environments associated with VR user interactivity
CN105915849A (en) * 2016-05-09 2016-08-31 惠州Tcl移动通信有限公司 Virtual reality sports event play method and system
US10245507B2 (en) * 2016-06-13 2019-04-02 Sony Interactive Entertainment Inc. Spectator management at view locations in virtual reality environments
US10587905B2 (en) * 2016-12-07 2020-03-10 eSports Immersion LLC Systems and methods for immersing spectators in sporting event and evaluating spectator-participant performance
US10607383B2 (en) * 2017-05-11 2020-03-31 International Business Machines Corporation Seamless focus plane stitching to create panoramic video

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009065627A (en) 2007-09-04 2009-03-26 Mitsutoshi Akitani Virtual event view system and operating method thereof
US20140033078A1 (en) 2010-03-10 2014-01-30 Xmobb, Inc. Instantiating media into a virtual social venue to share with friends
JP2013030049A (en) 2011-07-29 2013-02-07 Fujitsu Ltd Information processing device and information processing program
US20160014435A1 (en) 2014-07-11 2016-01-14 ProSports Technologies, LLC Camera feed distribution from event venue virtual seat cameras

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
最前列のスポーツ観戦をVRで。NFLが考える、未来のアメフト観戦を紹介する動画が公開,Mogura VR [online],2015年11月02日,URL:https://www.moguravr.com/nfl-future-vr/,[2021年6月3日検索]

Also Published As

Publication number Publication date
US11436803B2 (en) 2022-09-06
WO2019067480A1 (en) 2019-04-04
EP3687644A1 (en) 2020-08-05
US10621784B2 (en) 2020-04-14
CN112135673A (en) 2020-12-25
US20190102941A1 (en) 2019-04-04
US20200226843A1 (en) 2020-07-16
JP2020535879A (en) 2020-12-10

Similar Documents

Publication Publication Date Title
JP7258864B2 (en) Venue Mapping for Virtual Reality Spectator of Electronic Sports
US10857455B2 (en) Spectator management at view locations in virtual reality environments
US10380798B2 (en) Projectile object rendering for a virtual reality spectator
US10463962B2 (en) Spectator view perspectives in VR environments
US11662813B2 (en) Spectating virtual (VR) environments associated with VR user interactivity
US11389726B2 (en) Second screen virtual window into VR environment
CN109069934B (en) Audience view tracking of virtual reality environment (VR) users in a VR
CN107735152B (en) Extended field of view re-rendering for Virtual Reality (VR) viewing
US11534684B2 (en) Systems and methods for detecting and displaying a boundary associated with player movement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220411

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221222

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221222

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230112

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230405

R150 Certificate of patent or registration of utility model

Ref document number: 7258864

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150