JP7041253B2 - 現実世界空間の仮想現実提示 - Google Patents

現実世界空間の仮想現実提示 Download PDF

Info

Publication number
JP7041253B2
JP7041253B2 JP2020518404A JP2020518404A JP7041253B2 JP 7041253 B2 JP7041253 B2 JP 7041253B2 JP 2020518404 A JP2020518404 A JP 2020518404A JP 2020518404 A JP2020518404 A JP 2020518404A JP 7041253 B2 JP7041253 B2 JP 7041253B2
Authority
JP
Japan
Prior art keywords
real
world
real world
capture system
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020518404A
Other languages
English (en)
Other versions
JP2020536603A (ja
Inventor
カーン、モハメッド
リー、ミャオ
ケン 宮城
Original Assignee
ソニー・インタラクティブエンタテインメント エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー・インタラクティブエンタテインメント エルエルシー filed Critical ソニー・インタラクティブエンタテインメント エルエルシー
Publication of JP2020536603A publication Critical patent/JP2020536603A/ja
Application granted granted Critical
Publication of JP7041253B2 publication Critical patent/JP7041253B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/86Watching games played by other players
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/61Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor using advertising information
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/77Game security or game management aspects involving data related to game devices or game servers, e.g. configuration data, software version or amount of memory
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25891Management of end-user data being end-user preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • General Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Environmental & Geological Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本開示は概して、現実世界空間の仮想現実(VR)に関し、特に、ユーザにリモートであるeスポーツイベントなどのライブイベントのVR体験をヘッドマウントディスプレイ(HMD)のユーザに提供する方法及びシステムに関する。
エレクトロニックスポーツ、すなわち、「eスポーツ」が観客に対するエンターテインメントのますます人気の形式となっている。eスポーツは、ビデオゲームサーバ及びコンピュータシステムなどの電子システムによって促進される、マルチプレイヤビデオゲームを典型的には伴う競技の形式である。eスポーツの環境でプレイされるより人気のあるビデオゲームのジャンルには、リアルタイムの戦略ゲーム、戦闘ゲーム、ファーストパーソンシューター(FPS)シュータゲーム、及びマルチプレイヤオンラインバトルアリーナ(MOBA)ゲームがある。eスポーツイベントは、eスポーツゲームが観衆の前でライブでプレイされるときに観客のイベントになる。多くのeスポーツイベントは、大型アリーナで開催され、観衆のメンバに、ジャンボトロンなどの大型ディスプレイ上のゲームアクションのビューと共に、コメンテータチームからのライブコメンタリを提供する。よって、eスポーツのライブ観衆メンバは、ゲームアクション、プレイヤ、コメンテータ、及び観衆自身の没入型の現実世界体験が与えられる。
多くの例では、eスポーツイベントに直に参加することが可能でないeスポーツのファンはなお、イベントのオンラインライブストリームを介して視聴することが可能である。よって、リモートの観客は、例えば、イベントを主催する組織またはイベントを配給する配給会社によって作成されたイベントの一般的なビデオストリームを取得することが可能である。いずれのシナリオでも、eスポーツイベントの現在のビデオストリームは没入型ではない。例えば、ディスプレイ上でeスポーツのビデオストリームを見ているリモートの観客は、eスポーツイベントが主催されているアリーナにおいて没頭しているように感じない。その上、観客にとって関心があることがある複数のカメラビュー及び「スクリーンビュー」(例えば、プレイヤのスクリーンが表示しているもの)が存在することがある。eスポーツの現在の放送は、消費者が望んでいるどのビューが示されるかを選択することを可能にしない。
実施形態は、この状況においてなされる。
本開示の実施形態は、ヘッドマウントディスプレイ(HMD)を介してリモートユーザに現実世界空間の仮想現実(VR)提示を配信する方法及びシステムに関する。一実施形態では、方法は、現実世界空間のVR提示についての要求を送信し、ユーザによって行われた現実世界空間内のシート選択を識別し、シート選択は、シート選択に対応する位置においてビデオ及び音声を捕捉するように構成された現実世界捕捉システムにマッピングされる、動作を含む。方法はまた、現実世界捕捉システムについてのマッピングデータを受信する動作を含み、マッピングデータは、現実世界捕捉システムに対する現実世界座標を含む。方法は、ユーザのユーザ好みを有するユーザプロファイルにアクセスすることが可能である。いくつかの実施形態に従って、方法は、現実世界捕捉システムから現実世界空間のビデオストリームを受信し、ビデオストリームは、現実世界捕捉システムの1つ以上のカメラによって捕捉された複数のビデオ画像を含み、複数の画像は、シート選択に対応する現実世界捕捉システムの現実世界座標と関連付けられた観点からHMDにおいて提示される。方法は更に、ビデオストリームの複数の画像から、提示の間に再スキンするように構成された現実世界オブジェクトを識別する動作を含む。この実施形態及び他の実施形態に従って、方法は、ユーザプロファイルに基づいて、複数のビデオ画像内の現実世界オブジェクトを再スキンし、再スキンすることは、現実世界オブジェクトと関連付けられた画像データの代わりにグラフィカルコンテンツ要素をオーバレイすることを含む。特定の実施形態では、オーバレイすることは、シート選択に対応する現実世界捕捉システムと関連付けられた観点に基づいて幾何学的に調節される。方法は次いで、VR提示のためにHMDを介してユーザに、再スキンされたビデオストリームを提示する。
開示の他の態様が、開示の原理を例として表す添付図面を併用して、以下の詳細な説明から明らかになる。
添付図面を併用して以下の説明を参照することによって、開示を最良に理解することができる。
リモート現実世界空間において行われるeスポーツイベントの仮想現実(VR)提示を配信する実施形態の概念図である。
一実施形態に従った、現実世界空間のVR提示を再スキンする方法の全体フローを示す。
一実施形態に従った、ユーザによって行われるシート選択に対応する視点を有する現実世界空間のVR提示を提供するために現実世界空間から収集されたデータを使用する方法の全体フローを示す。
一実施形態に従った、現実世界空間のVR提示の間に現実世界空間の静的な現実世界オブジェクトを再スキンする方法の全体フローを示す。
一実施形態に従った、現実世界空間のVR提示の間に現実世界空間の移動している現実世界オブジェクトを再スキンする方法の全体フローを示す。
一実施形態に従った、HMDを介してライブイベントを観覧するためにシート選択を行うリモート観客の概念図を示す。
一実施形態に従った、リモート観客のシート選択を現実世界捕捉システムにマッピングする処理の概念図を示し、現実世界捕捉システムは、現実世界におけるイベントを捕捉するための複数のカメラ及びマイクロフォンを含む。
一実施形態に従った、現実世界空間データ及び現実世界環境データから現実世界捕捉システムと関連付けられた視点マッピングデータを取得する概念図を示す。
eスポーツイベントの現実世界ビューにおける現実世界オブジェクトを再スキンする概念図を示す。
現実世界捕捉システムの観点に基づいて再スキンする広告の上でオーバレイするグラフィカル要素を幾何学的に調節する概念図を示す。 現実世界捕捉システムの観点に基づいて再スキンする広告の上でオーバレイするグラフィカル要素を幾何学的に調節する概念図を示す。
再スキンされるように構成可能な現実世界オブジェクトの追加の実施形態を示す。
一実施形態に従った、eスポーツイベントにおいてプレイされているビデオゲームのゲーム内フライスルービューが提示されているリモート観客の概念図を示す。
一実施形態に従った、表示のためにeスポーツイベントの異なるビューの間で選択しているリモート観客の概念図を示す。
一実施形態に従った、HMDを介したユーザへのeスポーツイベントのVR提示を可能にする例示的なコンピューティングシステムの図を示す。
一実施形態に従った、eスポーツイベントのコンテキスト内で相互に仮想的にインタラクトしている2人のリモート観客の概念図を示す。
ここで提示される方法及び処理と共に使用されることが可能なヘッドマウントディスプレイ(HMD)の実施形態を示す。
以下の実施形態は、HMDを介してリモート観客にライブイベントの没入型の仮想体験を提供する方法、コンピュータプログラム、及び装置を説明する。しかしながら、本開示は、それらの特定の詳細のいくつかまたは全てなしに実施されてもよいことが当業者にとって明白である。他の例では、本開示を不必要に不明瞭にしないために、周知の処理動作が説明されていない。
エレクトロニックスポーツ、すなわち、「eスポーツ」が観客に対するエンターテインメントのますます人気の形式となっている。eスポーツは、ビデオゲームサーバ及びコンピュータシステムなどの電子システムによって促進される、マルチプレイヤビデオゲームを典型的には伴う競技の形式である。eスポーツの環境でプレイされるより人気のあるビデオゲームのジャンルには、リアルタイムの戦略ゲーム、戦闘ゲーム、ファーストパーソンシューター(FPS)シュータゲーム、及びマルチプレイヤオンラインバトルアリーナ(MOBA)ゲームがある。eスポーツイベントは、eスポーツゲームが観衆の前でライブでプレイされるときに観客のイベントになる。多くのeスポーツイベントは、大型アリーナで開催され、観衆のメンバに、ジャンボトロンなどの大型ディスプレイ上のゲームアクションのビューと共に、コメンテータチームからのライブコメンタリを提供する。よって、eスポーツのライブ観衆メンバは、ゲームアクション、プレイヤ、コメンテータ、及び観衆自身の没入型の現実世界体験が与えられる。
多くの例では、eスポーツイベントに直に参加することが可能でないeスポーツのファンはなお、イベントのオンラインライブストリームを介して視聴することが可能である。よって、リモートの観客は、例えば、イベントを主催する組織またはイベントを配給する配給会社によって作成されたイベントの一般的なビデオストリームを取得することが可能である。いずれのシナリオでも、eスポーツイベントの現在のビデオストリームは没入型ではない。例えば、ディスプレイ上でeスポーツのビデオストリームを見ているリモートの観客は、eスポーツイベントが主催されているアリーナにおいて没頭しているように感じない。その上、観客にとって関心があることがある複数のカメラビュー及び「スクリーンビュー」(例えば、プレイヤのスクリーンが表示しているもの)が存在することがある。eスポーツの現在の放送は、消費者が望んでいるどのビューが示されるかを選択することを可能にしない。
ここで提示される及びシステムは、HMDのリモートユーザが、eスポーツイベントなどの現実世界イベントのVR提示を観覧することを可能にする。いくつかの実施形態に従って、ビデオ、音声、及び他のデータなどの現実世界データは、観客席、アリーナ、コンサートホール、倉庫などの現実世界空間内に位置するデバイスによって捕捉される。ビデオ及び音声データを含む現実世界データは、処理のためにVRホスティングサーバまたは他のコンテンツプロバイダに配信される。VRホスティングサーバは、現実世界データを処理し、現実世界イベントのVR提示をレンダリングすることが可能である。VR提示データは、ネットワークを通じてユーザのHMDまたはHMDに接続されたコンピューティングデバイスに送信される。
いくつかの実施形態に従って、特定のエリアもしくは領域、または概して現実世界オブジェクトは、VR提示のために視覚的に修正されてもよい。一実施形態では、視覚的修正は、広告などの現実世界オブジェクトを再スキンすることを含む。再スキンすることは、ビデオフレーム内の既存のコンテンツと関連付けられた画素データの代わりに、既存のコンテンツの上で新たなコンテンツをオーバレイし、または新たなコンテンツと関連付けられた画素データを置き換えもしくは統合する処理を含む。ここで考えられる実施形態は、再スキンするいずれかの方法を使用してもよい。結果として、現実世界イベントのリモートの観客は、自分の関心に更に順応したコンテンツが、望まれないコンテンツなしに提供されてもよい。
図1は、HMD102及びVR環境104を介してリモートユーザ101に、eスポーツイベント100の仮想現実(VR)提示106を配信する実施形態の概念図である。ローカルサーバ116によってホストされたマルチプレイヤビデオゲームにおいて相互にプレイしている第1のチーム112及び第2のチーム114を含むeスポーツイベント100が示される。どのチームがどれであるかを示すチームバナー120及び122が示される。ビデオゲームの出来事のリアルタイム提示103は、ジャンボトロンなどのメインディスプレイ118上で表示され、様々な視点からプレイされているようなビデオゲームのライブビデオを含む。
マルチプレイヤゲームをプレイしている間にモニタ及び入力デバイスとインタラクトすることができる自分のゲーミングステーションを有する、eスポーツイベント100における各々のプレイヤが示される。各々のゲーミングステーションはまた、プレイヤがマルチプレイヤゲームをプレイするにつれて、各々のプレイヤのライブポートレートビューを表示するように示される観衆対面パネルを有する。また、図1に示されるのは、ゲーム及びそのプレイヤに関する実況及びカラーコメンタリを提供することができるコメンテータ105のペアである。
更に、観衆132によって観覧可能な複数の物理的な広告を含むeスポーツイベント100が示される。物理的な広告は、印刷されたバナー広告、投影された広告、及びLED表示された広告などを含んでもよい。例えば、ミルクについての左壁の広告124、インスタントヌードルについての右壁の広告126、エネルギードリンクについての舞台壁の広告130、及びゲーム製品についてのコメンテータデスク広告128を含むeスポーツイベントが示される。
eスポーツイベント100の舞台に面した複数のシートを含む観衆132が示される。いくつかの実施形態に従って、リモートユーザ101は、eスポーツイベント100のVR提示106のために複数のシートのうちの特定のシートを選択することが可能である。示される実施形態では、ユーザ101は、VR提示106を介してeスポーツイベント100を観覧するための視点136を有するシート134を選択している。以下で更に詳細に説明されるように、シート134の視点136は、シート134の視点136からeスポーツイベント100を捕捉するように、シート134に位置する複数のカメラ及びマイクロフォンを有する現実世界捕捉システム138によって提供される。
VRホスティングサーバ107を通じてeスポーツイベント100へのアクセスを有するHMD102が示される。VRホスティングサーバ107は、VR提示を処理するために、ローカルサーバ116によって提供される現実世界データ及びゲーム状態データを受信する。例えば、ビデオゲームのゲーム状態情報などのビデオゲームデータと共に、異なる視点からレンダリングされているビデオゲームのビデオシーンは、処理のためにVRホスティングサーバ107に提供されてもよい。その上、現実世界捕捉システム136によって捕捉された現実世界データは、処理のためにローカルサーバ116によってVRホスティングサーバ107に経路指定されてもよい。いくつかの実施形態では、eスポーツイベント100内の複数の視座から現実世界データを捕捉するための複数の現実世界捕捉システムが存在してもよい。結果として、異なるサーバまたは複数のサーバは、マルチプレイヤビデオゲームをホストするために、ローカルサーバ116とは別個のリモートユーザに、複数の現実世界捕捉システムによって捕捉された現実世界データをサービスするために使用されてもよい。
リモートユーザ101によって選択されたシート134の視点または視座からであるeスポーツイベント100のVR提示106が示される。結果として、VR提示106は、リモートユーザ101がシート134に位置しているかのように、eスポーツイベント100の視覚的及び音声体験を提供することができる。いくつかの実施形態では、現実世界捕捉システム138は、リモートユーザ101も頭または体を移動及び回転させることによってeスポーツイベント100の360度のビューを有することが可能であるように、eスポーツイベント100の360度のビュー及びそれを囲む物理空間を提供することが可能である。結果として、eスポーツイベント100を主催するアリーナの内部にリモートユーザ101があるかのような体験をリモートユーザ101が提供されることを理由に、リモートユーザ101は、現在のeスポーツ放送が提供することが可能でないeスポーツイベント100の没入型のVR提示106を提供される。
図1に示される実施形態に従って、現実世界捕捉システム138によって捕捉された現実世界データとは異なるVR提示106に対していくつかの修正が行われている。例えば、ミルクについての左壁の広告124は、VR提示におけるPlayStationについての左壁の広告124’に再スキンされている。同様に、現実世界空間におけるインスタントヌードルについての右壁の広告126は、Farpointについての右壁の広告126’としてリモートユーザ101に対して現れる。その上、舞台壁の広告136及びコメンテータデスク広告128は、現実世界空間のコンテンツとは異なる広告コンテンツを表示するように再スキンされている。再スキンされた広告124’~130’の各々が、シート134及び現実世界捕捉システム138の視点に関して現実世界における観点、サイズ、及び幾何学的比率に対するVR提示106内の観点、サイズ、及び幾何学的比率を維持して示される。例えば、左壁の広告124’は、VR提示106が再スキンすることなく発生した場合に、左壁の広告124があるのと同一の観点によりユーザ101に対して現れる。
前に言及されたように、再スキンすることは、既存のコンテンツの代わりに新たなコンテンツが表示されるように、既存のコンテンツを有するビデオストリームにフレームを挿入することによって、既存のコンテンツ上に置き換えコンテンツをオーバレイすることを伴ってもよい。他の実施形態では、再スキンすることは、既存のコンテンツと関連付けられた既存の画素データに、新たなコンテンツと関連付けられた新たな画素データを置き換えること、混合すること、または挿入することを伴ってもよい。
その上、新たなコンテンツにより既存のコンテンツを再スキンすることは、同一または類似の観点を有する新たなコンテンツが再スキンされるように、既存のコンテンツの観点を分析することを伴ってもよいことが想定される。いくつかの実施形態では、方法またはシステムは、既存のコンテンツの頂点の各々の現実世界座標と共に、現実世界捕捉システム(例えば、既存のコンテンツを捕捉するカメラ)の現実世界座標に関するデータを収集してもよい。それらの実施形態では、既存のコンテンツの観点は、収集された座標に基づいて判定されてもよい。例えば、新たなコンテンツの頂点は、既存のコンテンツの頂点の座標に一致するように3次元空間に仮想的に置かれてもよく、2次元空間に再度投影されてもよい。新たなコンテンツの結果として生じる2次元投影は、既存のコンテンツと同一または類似の観点を有する。再スキンすることの他の実施形態では、再スキンすることは、ビデオ画像内の既存のコンテンツと同一の2次元エリアを占有するように、新たなコンテンツを変形させる変形または新たなコンテンツを変形する観点によって2次元空間において行われてもよい。
その上、ここで提示される方法及びシステムにより使用される再スキンすることは、カメラ視点に関連して移動する既存のコンテンツを動的に再スキンすることを可能にされると考えられる。例えば、現実世界において移動しているオブジェクトは、ビデオフレームの各々におけるオブジェクトを追跡し、ビデオフレーム内のオブジェクトに対して再スキンすることを実行することによって再スキンされてもよい。オブジェクトが移動するにつれて、オブジェクトの観点も変化してもよい。ここで考えられる再スキンする方法は、それらの変化をリアルタイムで追跡し、変化する観点に従って新たなコンテンツを再スキンすることが可能である。
他の実施形態では、現実世界捕捉システムは、現実世界空間内で移動してもよい。よって、現実世界オブジェクトが現実世界において静止している場合でさえ、現実世界オブジェクトの観点は、カメラが移動している間に変化する。ここで考えられる方法及びシステムは、現実世界捕捉システムのカメラが現実世界の周りで移動するにつれて変化する観点に従って、現実世界オブジェクトを再スキンすることが可能である。移動しているオブジェクトを再スキンすることと同様に、移動しているカメラ視点に対して静止オブジェクトを再スキンすることは、一連のビデオフレームにわたってオブジェクトを追跡すること、及び既存のコンテンツと関連付けられた既存の画像データを新たなコンテンツと関連付けられた新たな画像データによりオーバレイまたは置き換えることを伴ってもよい。
いくつかの実施形態では、既存のコンテンツ(例えば、現実世界広告)は、分類器、オブジェクト認識器、特徴認識器、及び人工知能を使用して自動で識別されてもよい。それらの実施形態では、自動で識別された既存のコンテンツは、再スキンロジックによって置き換えられるとタグ付けされる。例えば、VRホスティングサービスは、ビーフジャーキの特定のブランドを、そのブランドの目印が捕捉されるたびに識別及び再スキンすることを指示されてもよい。VRホスティングサービスは、最終的なVR提示のためにビーフジャーキのブランドの目印を自動で再スキンすることを可能にされてもよいことが想定される。
いくつかの実施形態では、再スキンするために使用されるコンテンツ(例えば、「PlayStation」、「FarPoint」など)は、ユーザ好み、ユーザ設定、ユーザ統計、ユーザ閲覧履歴、ユーザ買い物履歴、及びユーザ観覧履歴などに基づいてもよい。結果として、リモートユーザ101は、eスポーツイベント100のVR提示106から注意を逸らさない方式において、リモートユーザ101の関心に一致する広告コンテンツが提供されてもよい。
図2は、一実施形態に従った、現実世界空間のVR提示を再スキンする方法の全体フローを示す。方法は、HMDを使用して、現実世界空間のVR提示を体験するように、リモート位置にあるユーザから現実世界空間に入ることを要求する動作210を含む。方法は次いで、ユーザのユーザプロファイルを識別する働きをし、ユーザプロファイルは、ユーザ好みを含む、動作220に移る。いくつかの実施形態では、ユーザプロファイル及びユーザ好みは、ユーザ関心、ユーザ統計、ユーザ買い物履歴、ユーザ閲覧履歴、ユーザ観覧履歴に関するデータと共に、ソーシャルフレンド活動及び関心などに関するソーシャルネットワークデータを含んでもよい。結果として、方法は、リモートユーザに関心がある製品、サービス、イベントなどを学習することを可能にされてもよい。
動作230では、方法は、ユーザからシート選択を受信する。以下で更に詳細に議論されるように、ユーザは、現実世界アクションを観覧するための現実世界空間における現実世界位置に対応する複数のシートが供給されてもよい。異なるシートは、異なるシートが現実世界アクションの異なる視点または視座を有することに起因して、異なるVR提示を提供することができる。いくつかの実施形態では、異なるシートは、異なる値で価格付けされてもよい。例えば、舞台の前及び中心にある家屋内の最良のシートは、舞台から離れて位置するシートよりも高い価格または要件を有してもよい。
動作240では、方法は、リモートユーザのシート選択に対応する視座を有するライブビデオストリームを要求する。図1に示されるように、ライブビデオストリームは、複数のカメラ及びマイクロフォンを有する現実世界捕捉システムによって提供されてもよい。方法は次いで、視座に対する現実世界座標位置を受ける働きをする、動作250に流れる。よって、例えば、動作250は、図1に示された現実世界捕捉システムの現実世界座標位置を取得することができる。加えて、方法は、現実世界空間の現実世界マッピングデータを取得することが可能であり、現実世界空間は、現実世界空間内のオブジェクトの現実世界座標を含んでもよい。例えば、現実世界空間が舞台を有するアリーナである場合、現実世界マッピングデータは、舞台が視座に関連する情報を提供することができる。
方法は次いで、視座に対する現実世界座標位置、現実世界マッピングデータ、及びユーザ好みに基づいて、HMD上で観覧された現実世界オブジェクトに対して動的な再スキン処理を実行する働きをする、動作260に移る。動的な再スキンのために使用される現実世界オブジェクトは、広告、バナー、ディスプレイ、表面、パッチ、床、天井、電子デバイスなど、現実世界におけるいずれかのオブジェクトを含んでもよい。
図3は、一実施形態に従った、ユーザによって行われたシート選択に対応する視点を有する現実世界空間のVR提示を提供するために、現実世界空間から収集されたデータを使用する方法の全体フローを示す。動作310は、現実世界空間のVR提示を体験するためにユーザによって行われたシート選択を識別する。方法は次いで、VR提示を処理するために、シート選択のための現実世界座標位置を取得する働きをする、動作320に移る。シート選択のための現実世界座標を取得する処理は、シート選択に対応する現実世界に位置する現実世界捕捉システムにシート選択をマッピングすることを伴ってもよい。
いくつかの実施形態では、シート選択処理は、チケット販売者がアリーナ内の特定のシートのためのチケットを購入するオプションが提供される、ライブイベントのためにシートを選択することと同様である。よって、各々のシート選択は、現実世界空間における現実世界シートにマッピングする。いくつかの実施形態では、シート選択ごとに、シート選択に対応する位置から現実世界におけるイベントを捕捉する明確に異なる現実世界捕捉システムが存在する。それらの実施形態では、現実世界シートについての現実世界座標は、現実世界捕捉システムの現実世界座標と同様である。他の実施形態では、同一の現実世界捕捉システムにマッピングする2つ以上のシート選択が存在してもよい。結果として、方法は、VR提示を処理する目的で、現実世界捕捉システムの現実世界座標を取得する。他の実施形態では、現実世界捕捉システムへのシート選択の1対1及び多対1のマッピングの組み合わせが存在してもよい。動作320は、シート選択に対して、近接性、観覧角度などに関して最良に適合する現実世界捕捉システムにシート選択をマッピングすることが可能である。
シート選択がeスポーツイベントを主催する観客席またはアリーナにおけるシートに対するものである場合、動作320によって取得された現実世界捕捉システムの現実世界座標位置は、現実世界捕捉システムが観客席またはアリーナにおけるオブジェクトに関連する場所を識別することを支援する。例えば、AA01のシート選択は、観客席またはアリーナの座標システム内の(x,y,z)の現実世界座標位置を有する現実世界捕捉システムにマッピングされてもよい。
動作330は、現実世界空間についての空間マッピングデータにアクセスするように構成される。空間マッピングデータは、上述した観客席またはアリーナの座標システムに関して物理空間の仮想マップを含んでもよい。空間マッピングデータは概して、オブジェクト、壁、床、天井、シート、舞台などの位置を識別することを支援する。再度、現実世界空間がeスポーツイベントを主催する観客席またはアリーナである場合、空間マッピングデータは、eスポーツプレイヤ、コメンテータ、メインディスプレイ、舞台、広告、及び関心の他のポイントの座標データを含んでもよい。
動作340では、方法は、シート選択がマッピングされる現実世界捕捉システムから現実世界空間についての空間環境データにアクセスする。空間環境データは、現実世界捕捉システムによって捕捉されることが可能ないずれかのタイプのデータを含んでもよい。例えば、上述したように、現実世界捕捉システムは、カメラ、マイクロフォン、及びオブジェクトの距離を測定するための他のセンサのアレイを含んでもよい。結果として、空間環境データは、現実世界捕捉システムの場所に対する観客席の音響特性を検出する音声校正処理から収集されたデータを含んでもよい。検出された音響特性は、指向性音響反射率、インピーダンス、ゲイン、ハーモニック、背景、または周辺雑音などを含んでもよい。
動作340によって取得された空間環境データはまた、現実世界捕捉システムと現実世界空間内の様々なオブジェクトとの間の距離の測定値を含んでもよい。現実世界空間内の大型広告の角など、現実世界オブジェクトの頂点への追跡された光線の間の角距離も測定されてもよい。例えば、空間マッピングデータは、現実世界空間における大型の矩形広告の4つの頂点の各々の座標位置を判定することが可能であってもよい。結果として、空間環境データは、現実世界空間における3Dモデル現実世界オブジェクトを構築するために使用可能であってもよい。
動作340では、動作320から収集されたデータ(例えば、現実世界捕捉システムに対する現実世界座標位置)、動作330から収集されたデータ(例えば、空間マッピングデータ)、及び動作340から収集されたデータ(例えば、空間環境データ)は、視点マッピングデータを処理するために使用される。視点マッピングデータは、現実世界空間のVR提示を処理することと共に、VR提示のために現実世界オブジェクトを再スキンすることに関連するデータを含んでもよい。例えば、視点マッピングデータは、現実世界オブジェクトへの測定された距離、現実世界オブジェクトの頂点への追跡された光線の角距離、現実世界オブジェクトの現実世界座標(例えば、現実世界捕捉システムとは独立した現実世界オブジェクトの座標)、現実世界オブジェクトのカメラ座標(例えば、現実世界捕捉システムに対する現実世界オブジェクトの座標)を含んでもよい。加えて、視点マッピングデータはまた、現実世界捕捉システムの位置における現実世界空間の音響特性に関するデータを含んでもよい。
図3に示される方法は次いで、動作350によって処理された視点マッピングデータに従って、HMDを介してユーザに現実世界空間のVR提示を提供する、動作360に移る。VR提示は、現実世界捕捉システムによって捕捉されたライブ音声及びビデオストリームを含んでもよい。特定の実施形態では、VR提示は、視点マッピングデータに従ったライブ音声及びビデオストリームの修正されたバージョンを含んでもよい。音声ストリームを修正する実施例は、現実世界捕捉システムにおいて捕捉されたそのような音声の様々な音声入力を、観衆、プレイヤ、コメンテータ、ゲームサウンドなどと関連付けられた音声と混合することを含む。ビデオストリームを修正する実施例は、VR提示において他の何かについての大型の矩形広告として現れる大型の矩形広告などの現実世界オブジェクトを再スキンすることを含む。
図4は、一実施形態に従った、現実世界空間のVR提示の間に現実世界空間の静的な現実世界オブジェクトを再スキンする全体フローを示す。方法は、HMDを介してリモートユーザから現実世界空間のVR提示を要求する動作410により開始する。方法は次いで、現実世界捕捉システムから、現実世界空間のライブビデオストリームを受信し、ビデオストリームは、複数のビデオ画像を含む、動作420に移る。現実世界空間がeスポーツイベントを主催するアリーナである場合、ビデオストリームは、各々のチームのプレイヤ、ビデオゲームのメインディスプレイ、他の観客、コメンテータ、広告のビデオなどを含んでもよい。上述したように、ビデオフィードは、ビデオフィードを受信するHMDユーザが頭または体を回転させることによって360度で見渡すことを可能にする、現実世界空間の360度の水平ビューを含んでもよい。他の実施形態では、現実世界空間の360度の垂直ビューももたらされてもよい。
方法は次いで、現実世界捕捉システムの現実世界座標位置を識別する働きをし、現実世界座標位置は、現実世界捕捉システムに対する観点を判定するために使用可能である、動作430に移る。例えば、現実世界捕捉システムの現実世界座標を有することによって、方法は、様々な現実世界オブジェクトと関連付けられた観点または現実世界捕捉システムによって捕捉されたシーンを分析することが可能である。一実施例では、現実世界座標が現実世界空間における大型の矩形広告に対して既知である場合、方法は次いで、現実世界捕捉システムによって捕捉されるときに広告と関連付けられた観点を判定するために、現実世界捕捉システムの現実世界座標(例えば、x,y,z)を使用してもよい。
動作440では、方法は、位置、閲覧履歴、購入履歴、検索履歴、統計、及び関心などの好みを識別するように、ユーザプロファイルにアクセスする。動作450では、方法は、現実世界アリーナのライブビデオストリームの複数のビデオ画像から、再スキンされるように構成可能な静止した現実世界オブジェクトを識別する。例えば、動作450は、大型の矩形広告がいくつかの他のコンテンツにより再スキンされるように構成可能であると識別してもよい。再スキンされるように構成可能とされることができる、いずれかの数のタイプの静的現実世界オブジェクト及び現実世界オブジェクトの一部が存在する。例えば、壁の一部、カーテン、ディスプレイ、ゲーミングステーション、舞台の一部などは全て、静的現実世界オブジェクトとして再スキンされるように構成可能であってもよい。再スキンされるように構成可能である現実世界オブジェクトも、再スキンされるように構成可能である現実世界オブジェクトの一部を意味すると取られることを認識される。
方法は次いで、ユーザのユーザプロファイルに基づいて、及び現実世界捕捉システムの現実世界座標システムに基づいて、ライブビデオストリーム内の静止した現実世界オブジェクトを再スキンする働きをする、動作460に移る。示される実施形態では、再スキンすることは、ライブビデオストリームにおいて現実世界オブジェクトと関連付けられた画像データの代わりにグラフィカルコンテンツをオーバレイすることを含む。その上、オーバレイすることが、現実世界捕捉システムの現実世界座標位置と関連付けられた観点に基づいて幾何学的に調節されることが示される。
例えば、大型の矩形広告が、再スキンされるように構成可能な静止した現実世界オブジェクトとして動作450によって識別される場合、動作460は次いで、例えば、スニーカについての広告を再スキンするために、ユーザにとって関心があるグラフィカルコンテンツ要素を識別するように動作可能である。動作460は、例えば、大型の矩形広告と前に関連付けられた画素値の代わりに、スニーカについての広告を有する新たなビデオストリームを作成することによって、大型の矩形広告と関連付けられた画像データの代わりにスニーカについての広告をオーバレイすることが可能である。その上、スニーカについての広告が現実世界捕捉システムの観点に基づいて幾何学的に調節できると考えられる。例えば、大型の矩形広告が現実世界捕捉システムの観点から斜めに現れる場合、スニーカについての広告の置き換えグラフィカルコンテンツも、大型の矩形広告と同様の方式において歪んで現れるようにされてもよい。動作470は次いで、再スキンされる現実世界オブジェクトを有する修正されたビデオストリームを提示する。
図5は、一実施形態に従った、現実世界空間のVR提示の間に現実世界空間の移動している現実世界オブジェクトを再スキンする全体フローを示す。方法は、図4に示された方法と同様に続行する。例えば、動作510及び520はそれぞれ、HMDを介して提示されたリモートユーザからの現実世界空間のVR提示を要求し、現実世界捕捉システムから現実世界空間のライブビデオストリームを受信するように構成される。
動作530では、方法は、現実世界捕捉システムの観点を判定するために、現実世界捕捉システムの現実世界座標位置を識別する。動作540では、方法は、位置、閲覧履歴、購入履歴、検索履歴、統計、関心などのユーザ好みを識別するように、ユーザのユーザプロファイルにアクセスする。動作550では、方法は、現実世界空間のライブビデオストリームの複数のビデオ画像から再スキンされるように構成可能な動的オブジェクトを識別する。
図5の方法は次いで、ライブビデオストリームの複数のビデオフレーム内の動的なオブジェクトを追跡する働きをする、動作560に移る。再スキンされるように構成可能である動的現実世界オブジェクトは、プレイヤまたは観客が着用している服装、服飾品、及び物理空間内で移動する傾向がある他のギアを含んでもよい。動作560は、後の動作において再スキンするためにそれらの移動を追跡するように構成される。
方法の動作570は、ユーザのユーザプロファイルに基づいて、及び現実世界捕捉システムの現実世界座標位置に基づいて、ビデオストリーム内の動的な現実世界オブジェクトを再スキンすることを可能にする。示される実施形態に従って、再スキンすることは、現実世界オブジェクトと関連付けられた画像データの代わりに、置き換えグラフィカルコンテンツをオーバレイすることを含み、オーバレイは、現実世界捕捉システムの現実世界座標位置の観点に基づいて幾何学的に調節される。動作580では、方法は、HMDを介してユーザに再スキンされたビデオストリームを提示する。
図6は、一実施形態に従った、HMD601を介してライブイベントを観覧するためのシート選択を行うリモート観客600の概念図を示す。HMDにより観覧可能であるシート選択インタフェース602が提供されるリモート観客600が示される。シート選択インタフェース602は、ユーザに観客席及びシート情報を搬送することが可能である。いくつかの実施形態では、シート選択インタフェース602はまた、現実世界イベントのVR提示のための各々のシートの価格情報を搬送することが可能である。
図6に従って、リモート観客600は、シート選択インタフェース602において示される様々なシートをプレビューすることが可能である。例えば、観客席の前に向かうシートのための第1の選択604を行うことリモート観客600が示される。シート選択インタフェース602は次いで、第1の選択604に対応するシートからの観客席のVRシーンを含む第1のプレビュー606を提供することができる。同様に、リモート観客600が観客席のバルコニー内にある第2の選択608を行うとき、シート選択インタフェース602は次いで、第2の選択618に対応するシートからの観客席のVRシーンを含む第2のプレビュー610を提供することができる。いくつかの実施形態について、第1のプレビュー606及び第2のプレビュー610は、360度のビューを有する没入型のVRビューであってもよいと考えられる。
図7は、リモート観客のシート選択を現実世界捕捉システムにマッピングする処理の概念図を示す。シートマッピングチャート716における黒点によって表される様々な現実世界捕捉システムにマッピングされる実施例のシート選択700が示される。例えば、現実世界捕捉システム718にマッピングするシートA8のための選択702が示される。シートA8のための選択702に対応する実世界シート720の背面上に取り付けられる現実世界捕捉システム718が示される。結果として、現実世界捕捉システム718は、シート720に座っている人間が有するビューと同様である現実世界空間内のビューを提供する。
現実世界の360度のビューを捕捉するためのカメラ722のアレイ、様々な方向から発するサウンドを捕捉するためのマイクロフォン724のアレイ、及び環境データ検知するためのセンサ726のアレイを含む現実世界捕捉システム718が示される。
図7のシートマッピングチャート716は、シート選択700が様々な現実世界捕捉システムにどのようにマッピングされるかを例示する。行A及びBについて、明確に異なる現実世界捕捉システムへのシート選択の1対1のマッピングが存在する。すなわち、行A及びBからのあらゆるシート選択は、その自身の現実世界捕捉システムにマッピングする。例えば、シートA8のための選択704は、シートA8に特有であり、シートA9とは明確に異なる現実世界捕捉システムにマッピングする。しかしながら、行C及びDについて、シートマッピングチャート716は、4つのシート選択のグループが1つの現実世界捕捉システムにマッピングされることを示す。例えば、4つのシート(例えば、C9、C10、D9、及びD10)のグループ728は各々、1つの現実世界捕捉システムにマッピングされる。よって、例えば、シートC9のための選択706は、シートC10、D9、及びD10のための選択のように現実世界捕捉システム730にマッピングされてもよい。示される実施形態に従って、現実世界捕捉システム730は、シートC9、C10、D9、及びD10の各々の位置の間または平均にある場所に置かれる。しかしながら、他の実施形態では、これは、必ずしも必須ではない。
現実世界捕捉システム734にマッピングされるシートE3のためのシート選択708が示され、現実世界捕捉システム734は、9個のシートのグループ736と関連付けられる。よって、グループ736におけるシートの各々の位置の平均に最も近い、シートF9の上に取り付けられる現実世界捕捉システム734が示される。
シート選択チャート716は、様々なサイズのグループを示す。例えば、シートの4行及び5列に及ぶグループ738と関連付けられた現実世界捕捉システムにマッピングするための選択710が示される。その上、5×5パターンにおいて配列された25個のシートを有するグループ740と関連付けられた現実世界捕捉システムにマッピングするための選択712及び714の両方が示される。シートの特定のグループ化が例示を目的に図7において示されているが、いずれかのサイズまたはパターンのグループ化がここで提示される方法及びシステムにより利用されてもよいことを認識できる。
様々な実施形態に従って、現実世界捕捉システム718、730、及び734は、1人以上の仮想観客が接続されると現実世界観衆が認識するように、現実世界観衆にフィードバック信号を提供することを可能にされてもよい。例えば、現実世界捕捉システム718、730、及び734の各々は、仮想観客からフィードバックを配信するための1つ以上のLED(図示せず)などのフィードバックシステムを含んでもよい。いくつかの実施形態では、フィードバックシステムは、現実世界観客に対して1人以上の仮想観客から取得されたフィードバックの表現を表示するように構成されたLEDのアレイを含んでもよい。それらの実施形態及び他の実施形態では、現実世界捕捉システム718、730、及び734はまた、仮想観客から現実世界観客にサウンドを配信するように構成されたスピーカ(図示せず)を含んでもよい。結果として、仮想観客は、現実世界アリーナの応答及び興奮を強化することができる、現実世界空間へのフィードバックを表現することが可能である。
特定の実施形態では、フィードバックシステムは、仮想観客フィードバックの強度及び方向性を識別及び搬送するように構成されてもよい。実施例として、仮想観客が拍手を開始する場合、観客の拍手は、LEDのアレイを介して表示される動的なパターンによって表されてもよい。観客の拍手の強度は、LEDのアレイ内の移動の様々な色またはパターンを表示することによって表されてもよい。いくつかの実施形態では、1人よりも多い仮想観客は、いずれかの所与の時間に現実世界捕捉システムに接続されてもよい。それらの実施形態では、フィードバックの強度及びパターンは、現実世界捕捉システムに接続された2人以上の仮想観客の平均的な反応または応答と相関付けられてもよい。例えば、同一の現実世界捕捉システムに接続された10人以上の仮想観客が称賛の反応を提供する場合、スターバーストなどのパターンが現実世界捕捉システムの表示機構上に現れてもよい。結果として、現実世界観衆は、仮想観客の応答または反応の性質に加え、現実世界捕捉システムに接続された仮想観客の数を示す仮想観客からのフィードバックを提供されてもよい。
図8は、一実施形態に従った、現実世界空間データ及び現実世界環境データから現実世界捕捉システムと関連付けられた視点マッピングデータを取得する概念図を示す。現実世界空間内の現実世界オブジェクトのマッピングデータを含む現実世界空間データ800が示される。例えば、現実世界空間データ800は、物理環境における様々な現実世界オブジェクトの座標位置を含んでもよい。示される実施形態では、現実世界空間は、Bill Graham Civic Auditoriumであってもよく、現実世界空間データは、舞台、壁、階段、歩道、観客席のバルコニー階の座標位置と共に、観客席において開催される所与の現実世界イベントについての様々な関心のポイントを含んでもよい。
現実世界捕捉システム801によって捕捉される現実世界空間環境データ802が示され、現実世界捕捉システム801は、現実世界捕捉デバイス801と関連付けられたシートの視点またはシートのグループについての環境データを捕捉する。上述したように、現実世界捕捉デバイス801は、マイクロフォン、カメラ、及びセンサのアレイを含んでもよい。
図8は、現実世界空間データ800及び現実世界環境データ802が視点マッピングデータ804を提供するように組み合わされてもよいことを示す。現実世界座標、舞台への距離(例えば、20メートル)、チーム1のプレイヤ1への距離(例えば、25メートル)、wヘルツにある方向θ、Φの音響反射率、大型の矩形広告への距離、コメンテータへの距離、カメラ角度、カメラ視野、物理空間の3Dマップ、物理空間の音響マップ、観衆メンバのマップ、ジャンボトロンへの距離、スピーカへの距離、及び/または現実世界空間において直にもしくは仮想的のいずれかで存在する友人への距離を含む、視点マッピングデータ804が示される。
いくつかの実施形態に従って、視点マッピングデータ804は、現実世界及び現実世界オブジェクトのカメラ座標を構築するために、現実世界空間データ800及び現実世界空間環境データ802を使用する。例えば、いくつかの実施形態では、視点マッピングデータ804は、現実世界環境データ802を使用して、現実世界空間データによってもたらされる「世界座標」を「カメラ座標」に変換することが可能である。結果として、視点マッピングデータ804は、視点マッピングデータ804が、現実世界空間の画像捕捉の間に大型の矩形広告がどのようにカメラ上で投影されるかを知るように、例えば、再スキンする目的で、大型の矩形広告のカメラ座標を使用することを可能にされる。
図9は、eスポーツイベントの現実世界ビューにおける現実世界オブジェクトを再スキンする概念図を示す。eスポーツイベントを捕捉するように再スキンされている第1のビュー900が示される。ビュー900は、例えば、現実世界捕捉システムのビデオ捕捉の一部であってもよい。第1のビュー900は、eスポーツイベントの観衆によって観覧可能である様々な表面上に置かれた複数の広告を含む。例えば、第1のビュー900は、ミルクについての左壁の広告904、ヌードルについての右壁の広告、エネルギードリンクについての第1の舞台の広告908、チップメーカについての第2の舞台の広告910、及び製作会社についてのコメンテータデスク広告912を含む。ビューはまた、プレイされているビデオゲームアクションのメインディスプレイ904と共に、チームバナーを含む。
再スキンロジック901に入力される第1のビュー900が示され、次いで、再スキンされているeスポーツイベントの第2のビュー900を出力するための再スキンロジック901が示される。図9は、再スキンロジックのグラフィカル及び視覚的能力を証明する。例えば、ミルクについての左壁の広告904’は、PlayStationについての左壁の広告904’として現れるように再スキンされている。同様に、Farpointについての右壁の広告906’及び異なるチップメーカについての第2の舞台の広告910’として現れるように再スキンされているヌードルについての右壁の広告906及び第2の舞台の広告910が各々示される。広告904’、906’、及び広告910’の各々について、再スキンロジック901は、元の広告904、906、及び910と同一の空間を占有する方式において置き換え広告をオーバレイしている。その上、再スキンロジック901は、置き換え広告904’、906’、及び910’の各々が、第1のビュー900において提供されるそれぞれの元の広告904、906、及び910と同一の第2のビュー902における観点を提供するよう描かれるように、再スキンすることを実行している。例えば、左壁の広告904は、歪みを有する観点により第1のビュー900に現れる。第2のビュー902では、再スキンロジック901は、同一の歪みを有する観点により置き換え左壁の広告904’をオーバレイする。
既存の広告を置き換えまたはオーバレイすることに加え、再スキンロジック901はまた、コンテンツにより再スキンされることができる表面の一部などの追加の現実世界オブジェクトを検出することが可能である。例えば、第1のビュー900におけるコンテンツを有さない領域において再スキンされている、ヘッドフォンメーカについての背壁の広告914が示される。同様に、現実世界空間の第1のビュー900において既存のコンテンツが存在しなかった領域における第2のビュー902にある舞台床の広告916が示される。更に、現実世界捕捉デバイスにより第1のビュー900によって捕捉されるような、舞台床との幾何学的及び遠近感の一貫性を有するように再スキンされている舞台床の広告916が示される。すなわち、舞台床の広告916は、あたかも舞台床上で平坦に据えられたように現れる。
結果として、ここで考えられる再スキンロジック901は、現実世界空間内の領域を現実世界捕捉デバイスによって捕捉されたとして識別することが可能であり、現実世界捕捉デバイスでは、コンテンツが補足されてもよく、そこでは、コンテンツが現実世界空間に存在しない。追加のコンテンツにより補足されることができる現実世界空間内の領域があるかどうか、及びどの領域であるかの判定は、各々の現実世界捕捉システムによって受信されたビューに依存する。例えば、コンテンツが特定の現実世界捕捉システムに対して存在しないコンテンツを捕捉することが望ましいと判定される、現実世界空間内の領域は、視点における差を理由に、異なる現実世界捕捉システムによって望ましいと発見されなくてもよい。
いくつかの実施形態では、置き換えコンテンツは、元の既存のコンテンツと同一の空間をして占有するようにされ、置き換えコンテンツが再スキンされる既存のコンテンツとは異なる表示寸法及びアスペクト比を有する他の例が存在する。例えば、より広い寸法を有するスターウォーズバトルフロントについての置き換えの第1の舞台の広告908’により再スキンされている、エネルギードリンクについての第1の舞台の広告908が示される。示される実施形態では、置き換えられた第1の舞台の広告908’は、空中に浮かび上がるように現れる代わりに、舞台の前の輪郭に対してフラッシュするように第2のビュー902に現れる。結果として、再スキンロジック901は、置き換えられるコンテンツとは異なる寸法を有する置き換えコンテンツを再スキンすることが可能であり、置き換えコンテンツがオーバレイされる現実世界オブジェクトとの幾何学的及び遠近感の一貫性を維持する。
その上、追加の領域が再スキンされてもよいことが考えられる。例えば、第1のビュー900では、ゲーミングステーションの観衆が対面するディスプレイ上のそれぞれのプレイヤのライブポートレートビューを表示するためのプレイヤゲーミングステーション918の各々が示される。ライブポートレートディスプレイは、観衆に、そうではない場合にそれぞれのコンピュータモニタによってビューから遮断されるプレイヤの顔表情を見る方式をもたらす。以下で更に詳細に議論されるように、ここで考えられる実施形態は、理解することが困難である場合がある、ゲーミングステーションの観衆が対面するディスプレイに依存する必要なく、リモートユーザが、プレイヤのそれらのライブポートレートビューにアクセスすることを可能にする。よって、いくつかの実施形態では、再スキンすることはまた、ゲーミングステーションの全てまたは一部の観衆が対面するディスプレイ上で実行されてもよい。例えば、図9は、プレイヤゲーミングステーション918の各々の第1のビュー900が、第2のビュー902においてプレイヤゲーミングステーション918’上の「GEATNESS AWAITS」と読む文字を表示するように再スキンロジック901によって再スキンされていることを示す。よって、置き換えコンテンツは、広告グラフィックなどのグラフィカルコンテンツに加えて、テキストの形式にあってもよいことが考えられる。
特定の条件下で、数または理由に対して変わらないままであってもよく、及び再スキンされていなくてもよい元の、既存の広告コンテンツが存在してもよい。示される実施形態では、再スキンロジック901による再スキンの後に変わらないままでいるコメンテータデスク広告912が示される。
図10Aは、現実世界捕捉システム1006の観点に基づいて再スキンするための現実世界広告1004の上でオーバレイする置き換えグラフィック1002を幾何学的に調節する概念図を示す。正方形でなく、または現実世界広告1004の平面に直行する、観点における現実世界広告1004を捕捉する現実世界捕捉システム1006が示される。現実世界捕捉システム1006は、現実世界広告1006の頂点v1、v2、v3、及びv4への距離(d:d1、d2、d3、及びd4)と共に、頂点の各々への追跡された光線の間で形成された角度(θ:θ1、θ2、θ3、及びθ4)を判定することが可能とされると考えられる。d及びθに基づいて、再スキンロジックは、現実世界捕捉システム1006の観点からの現実世界広告に類似して現れるように、変換関数を使用して様々なグラフィカル要素を変換することが可能である。
d及びθの関数である変換関数Fを含む再スキンロジック1001が示され、変換関数Fは、セットXからの画像データを2次元空間または3次元空間のいずれかにあるそれ自体にマッピングする。示される実施形態では再スキンロジックに入力される置き換えグラフィック1002が示され、再スキンロジックは、置き換えグラフィック1002と関連付けられた画素データを修正された置き換えグラフィック1002における新たな画素座標にマッピングする。結果として、修正された置き換えグラフィック1002は、VR提示における現実世界広告1004と同一の観点により現れるようにされる。
図10Bは、現実世界捕捉デバイスの視点が変化している間に現実世界オブジェクトを再スキンする実施形態を示す。例えば、現実世界オブジェクトの左にある視点から現実世界オブジェクトの右にある視点に縦方向に進む現実世界捕捉デバイスが示される。その移動の間、再スキンロジックは、入力グラフィックを幾何学的に変換するために使用されるパラメータを更新する。結果として、再スキンロジックは、現実世界捕捉デバイスの現在の場所及び視点に応じて、入力グラフィックの変化する観点を出力することが可能である。
図11は、再スキンされるように構成可能にできる追加の現実世界オブジェクトを示す。多くのeスポーツイベントでは、異なる角度からプレイヤを捕捉する多数のビデオカメラが存在してもよい。示される実施形態では、ビデオゲームとインタラクトしているプレイヤのショット1000は、再スキンされることができるいくつかの現実世界オブジェクトを含む。例えば、プレイヤが使用しているモニタと関連付けられた領域1102及び1104は、再スキンされるように構成可能であってもよい。「パフォーマンスチェア」と関連付けられた領域1106及びヘッドフォンと関連付けられた領域1108などの特定の他のゲーミングギアロゴは、ここで説明される再スキンロジックと互換性を有する領域でもあってもよい。その上、プレイヤの服装上に着用されたグラフィック、ロゴ、バッジ、パッチなどは、再スキンされるように構成可能な候補現実世界オブジェクトでもあってもよい。例えば、プレイヤのチームジャージまたは服装と関連付けられた領域1110及び1112も、VR提示のために再スキンされると考えられる。
図12は、一実施形態に従った、eスポーツイベントにおいてプレイされているビデオゲームのゲーム内フライスルービューが提示されているリモート観客1201の概念図を示す。リモート観客は、eスポーツイベントに位置する現実世界捕捉システムによって提供される、eスポーツイベントの第1のビュー1200を受信する。リモート観客1201は、ゲームの「内部」にある視点からゲームアクションを観覧するために、プレイされているゲームの「フライスルー」ビュー(例えば、第1の個人ビュー)を有することを望むことがある。ここで考えられる方法及びシステムは、ユーザが、ゲームアクションのフライスルービューを受信するように、eスポーツイベントにおいてプレイされているeスポーツビデオゲームに「ジャンプインする」ことを可能にする。示される実施形態では、ユーザは、人形をeスポーツイベントのメインディスプレイ内の場所に指し示し、ドラッグする。それに応じて、VR提示は、現実世界捕捉システムによって提供されるビデオストリームから、人形が置かれた場所に対応する位置にあるフライスルービューである第2のビュー1202に変化する。フライスルービューは、eスポーツゲームのライブゲーム状態データを使用してレンダリングされてもよく、HMD上で、HMDと関連付けられたコンピューティングデバイスにおいて、またはリモートサーバにおいて実行されてもよい。
図13は、一実施形態に従った、表示のためにeスポーツイベントの異なるビューの間で選択しているリモート観客1301の概念図を示す。第1のビュー1300では、リモート観客1301は、選択のために、現実世界捕捉システムと共に複数の観覧モジュール1304からeスポーツイベントのビデオフィードが提供される。観覧モジュールは、プレイヤのポートレートビュー、プレイヤの背後からのビュー、キーボード、マウス、タッチパッド、ジョイスティック、もしくは他の入力デバイスとインタラクトしているプレイヤのビュー、個々のプレイヤスクリーンのビュー、フライスルービュー、観衆のビュー、コメンテータのビューなど、現実世界の様々なカメラビューを含んでもよい。プレイヤ1のスクリーンビュー1306を選択しており、表示のために望まれるVR提示内の位置に、プレイヤ1の正面1308と関連付けられた観覧モジュールを指し示し、ドラッグする(1310)ことによって、プレイヤ1の正面1308を選択している最中であるリモート観客1301が示される。
VR提示の第2のビュー1302では、選択された位置において表示される選択された観覧モジュールが示される。例えば、プレイヤ1が自分のスクリーン上で何を見ているかのミラーを表示するためのプレイヤ1のスクリーンビュー1306’が示される。よって、リモート観客1301は、プレイヤ1によって実行されるクリック及びコマンドなどの制御アクションを見ることが可能である。加えて、顔表情を含むことができるプレイヤ1のビュー、及びコントローラ入力アクションを表示するためのプレイヤ1の正面1308’が示される。結果として、eスポーツイベントのピクチャ対ピクチャビュー(複数可)がここで考えられる方法及びシステムによって提供されることができ、リモート観客1301は、そうでない場合に対面の観客として所望のビューへのアクセスを有しないことがあるリモート観客1301に所望のビューを見ることを可能にする。様々なカメラビュー及びゲームアクションビューを同時に観覧する機能は、リモート観客が何を観覧することを望んでいるかの同一の程度の制御を与えない、現在のeスポーツの放送への追加の技術的な利点を表す。
図14は、一実施形態に従った、ユーザへのHMDを介したeスポーツイベントのVR提示を可能にする例示的なVRホスティングサーバ/コンピューティングデバイス1401の図を示す。eスポーツイベントサーバ1400から現実世界データを受信するVRホスティングサーバ/コンピューティングデバイス1401が示される。様々な実施形態に応じて、eスポーツイベントサーバ1400は、eスポーツイベントにおいて捕捉されたデータをサービスする、製作会社または配給会社からであってもよい。eスポーツイベントの様々なカメラビュー及びゲームアクションビューを含むビデオストリーム1404と共に、eスポーツイベントを主催する物理空間またはアリーナの空間マッピングデータ1410、及び現実世界捕捉システムによって捕捉された空間環境データ1412を取得するVRホスティングサーバ/コンピューティングデバイス1401が示される。加えて、ユーザ好み及びユーザデータを含むユーザプロファイル1406と共に、例えば、置き換え広告を含む置き換えコンテンツ1408を受信するVRホスティングサーバ/コンピューティングデバイス1401が示される。
前に言及されたように、ビデオストリーム1404は、いくつかの視点からのいくつかのビデオを含んでもよい。また、単一の視点であったとしても、360度(または、それよりも低い)視野を生じさせるために使用される複数のビデオストリームが存在してもよい。いくつかの実施形態では、360度のビューを生じさせるための1つの位置から取られる複数のビデオストリームは、eスポーツイベントサーバ1400などのリモートサーバによって、または製作会社もしくはコンテンツ供給サーバにおいて共にステッチされてもよい。他の実施形態では、VRホスティングサーバ/コンピューティングデバイス1401のビデオ画像ステッチングロジック1424は、360度のビューをレンダリングするように、重なり合う視野を有する複数のビデオストリームのステッチングを実行してもよい。ビデオ画像ステッチングロジック1424によって提供される360度のビューは次いで、再スキンロジック1428にフィードされる。360度のビューがここで提示される方法及びシステムによって列挙されてもよいが、360度よりも低いビュー、例えば、180度のビューまたは150度のビューなども使用されてもよいことを認識されるべきである。
また、再スキンロジック1428にフィードされるのは、ユーザプロファイル1406から分析されたユーザ好み1426である。ユーザ好み1426は、置き換えコンテンツ(例えば、置き換え広告)のどれがリモート観客に関心があるかもしれないかを判定することを支援する。置き換えコンテンツ1408もVR提示1440へのビデオクリップを再スキンするためのビデオ画像を含んでもよいことを認識されるべきである。加えて、視点マッピングデータ1432も、置き換えコンテンツ1408によって提供される画像またはビデオへの幾何学的及び遠近感の修正などの変換を実行するために再スキンロジック1428にフィードされる。
ビデオ画像ステッチングロジック1424によって提供されるビデオストリーム、ユーザ好み1426、置き換えコンテンツ1408、及びPOVマッピングデータ1432に基づいて、再スキンロジック1428は、再スキンするために使用される現実世界オブジェクトとの幾何学的及び遠近感の一貫性を維持する方式において、置き換えコンテンツによりビデオストリーム内の現実世界オブジェクトを再スキンすることを可能にされる。再スキンされたビデオストリームは次いで、HMDインタフェース1438を介したリモート観客へのVR提示をレンダリングするように構成されたVRグラフィックシステム1430にフィードされる。図示されないが、様々なビデオ圧縮処理及び符号化は、VRホスティングサーバ/コンピューティングデバイス1401において示される様々な構成要素の前、内、または後に実行されてもよいことが理解できる。例えば、VRグラフィックシステム1430によって出力されるビデオフィードは、ネットワークを通じたHDMへの配信のためにHMDインタフェース1438に転送される前に圧縮を受けてもよい。
また、現実世界捕捉システムにおいて捕捉されたサウンドを含むシートサウンドフィード1414、群衆によって生じたサウンド及び雑音を含む背景サウンド1416、コメンテータサウンドフィード1418、プレイヤ/チームサウンドフィード1420、並びに友人の音声フィード1422を含む、様々なサウンドストリームを受信するHMD/コンピューティングデバイス1401が示される。ここで説明される方法及びシステムは、リモート観客が、VR提示1440において配信される様々なサウンド源の間で選択することを可能にすると考えられる。サウンド混合ロジック1434は、ユーザ選択に応じて、サウンド処理システム1426にフィードされる所望のサウンド出力を提供するように、様々なサウンド源を混合するように構成される。サウンド処理システム1426は、HMDインタフェース1438を介してVR提示1438に音声信号を出力する。再度、図示されないが、明確にすることを目的に、様々な圧縮及び解凍工程が例示から省略されている。しかしながら、圧縮及び解凍、符号化及び復号を伴う様々な動作は、サウンドに関連するモジュールまたは工程のいずれかの前、内、または後に実行されてもよいことが理解される。例えば、サウンド処理システムによって提供されるサウンド出力は、HMDインタフェース1438を介してHMDに伝送される前に符号化されてもよい。
図15は、一実施形態に従った、eスポーツイベントのコンテキスト内で相互に仮想的にインタラクトしている2人のリモート観客の概念図を示す。現実世界空間において隣接するシートを選択している2人のリモート観客が示される。結果として、2人のリモート観客は、それぞれのVR提示を介して共に対面しているかのようにeスポーツイベントを体験することができる。いくつかの実施形態では、VR提示は、他のリモート観客の仮想提示を表示するようにVRシーンをレンダリングしてもよく、逆もそうである。よって、各々のリモート観客は、お互いを見る。いくつかの実施形態では、示されるものなど、アバタが仮想提示のために使用されてもよい。他の実施形態では、リモート観客のうちの1人のライブ画像または3D表現は、他のリモート観客のためにVR提示においてレンダリングされておよい。また、2人以上の観客が上記説明された体験を観戦しているグループに参加することができることが想定される。
いくつかの実施形態では、リモート観客は、eスポーツイベントを観覧もしているライブ観客と連絡することが可能であってもよい。例えば、現実世界シートが、カメラ、マイクロフォン、及びスピーカを含む現実世界捕捉システムを備える場合、リモート観客は、VR提示内で現実世界において隣に座っているライブ顧客を見ることが可能であってもよい。
図16は、提示される方法及び/またはシステムにより使用されることができるHMD1600の追加の実施形態を例示する。HMD1600は、プロセッサ1602、バッテリ1604、顔認識器1606、ボタン、センサ、スイッチ1608、サウンド特定器1610、ディスプレイ1612、及びメモリ1614などのハードウェアを含む。また、磁力計1616、加速度計1618、ジャイロスコープ1620、GPS1622、及びコンパス1624を含むポジションモジュール1626を含むHMD1600が示される。更に、ロボット1600に含まれるのは、スピーカ1628、マイクロフォン1630、LED1632、視覚的認識のためのオブジェクト(複数可)1634、IRライト1636、フロントカメラ1638、リアカメラ1640、凝視追跡カメラ(複数可)1642、USB1644、永続的記憶装置1646、振動触知フィードバック1648、通信リンク1650、WiFi(登録商標)1652、超音波通信1654、Bluetooth(登録商標)1656、近接場通信(NFC)1658、及びレーダ1660である。
方法動作が特定の順序で説明されてきたが、他の維持管理動作が動作の間で実行されてもよく、動作が僅かに異なる時に行われるように動作が調節されてもよく、または処理と関連付けられた様々な間隔において処理動作を行うことを可能にするシステム内で分散されてもよいことが理解されるべきである。
また、1つ以上の実施形態は、コンピュータ可読媒体上でコンピュータ可読コードとして組み立てられることができる。コンピュータ可読媒体は、その後、コンピュータシステムによって読み取られることができる、データを記憶することができるいずれかのデータ記憶装置である。コンピュータ可読媒体の実施例は、ハードドライブ、ネットワークアタッチドストレージ(NAS)、リードオンリメモリ、ランダムアクセスメモリ、CD-ROM、CD-R、CD-RW、磁気テープ、並びに他の光学及び非光学データ記憶装置を含む。コンピュータ可読媒体は、コンピュータ可読コードが分散方式において記憶及び実行されるように、ネットワーク結合コンピュータシステムにわたって分散されたコンピュータ可読有形媒体を含むことができる。
上記実施形態が理解を明確にする目的である程度詳細に説明されてきたが、特定の変更及び修正が添付の請求項の範囲内で実施されることができることが明白である。したがって、本実施形態は、例示的且つ非限定的であると考えられ、実施形態は、本明細書で与えられる詳細に限定されないが、添付の請求項の範囲及びその同等物内で修正されてもよい。

Claims (20)

  1. ヘッドマウントディスプレイ(HMD)を介してリモートユーザに現実世界空間の仮想現実(VR)提示を配信する方法であって、
    前記現実世界空間の前記VR提示についての要求を送信することと、
    前記ユーザによって行われた前記現実世界空間内のシート選択を識別することであって、前記シート選択は、前記現実世界空間における現実世界捕捉システムにマッピングされ、前記現実世界捕捉システムは、前記シート選択に対応する位置においてビデオ及び音声を捕捉するように構成される、前記識別することと、
    前記現実世界捕捉システムについてのマッピングデータを受信することであって、前記マッピングデータは、前記現実世界捕捉システムに対する現実世界座標を含む、前記受信することと、
    前記ユーザのユーザ好みを有するユーザプロファイルにアクセスすることと、
    前記現実世界捕捉システムから前記現実世界空間のビデオストリームを受信することであって、前記ビデオストリームは、前記現実世界捕捉システムの1つ以上のカメラによって捕捉された複数のビデオ画像を含み、前記複数の画像は、前記シート選択に対応する前記現実世界捕捉システムの前記現実世界座標と関連付けられた観点から前記HMDにおいて提示される、前記受信することと、
    前記ビデオストリームの前記複数の画像から、前記ユーザへの提示の間に再スキンするように構成された現実世界オブジェクトを識別することと、
    前記ユーザプロファイルに基づいて、前記複数のビデオ画像内の前記現実世界オブジェクトを再スキンすることであって、前記再スキンすることは、前記現実世界オブジェクトと関連付けられた画像データの代わりにグラフィカルコンテンツ要素をオーバレイすることを含み、前記オーバレイすることは、前記シート選択に対応する前記現実世界捕捉システムと関連付けられた前記観点に基づいて幾何学的に調節され、前記再スキンすることは、前記グラフィカルコンテンツ要素が、前記現実世界オブジェクトと関連付けられた前記画像データと同一の寸法をもつ場合、前記現実世界オブジェクトと関連付けられた前記画像データと同一の歪みを有する観点により前記グラフィカルコンテンツ要素をオーバレイする一方、前記再スキンすることは、前記グラフィカルコンテンツ要素が、前記現実世界オブジェクトと関連付けられた前記画像データとは異なる寸法をもつ場合、前記現実世界オブジェクトの輪郭に沿うように前記グラフィカルコンテンツ要素をレンダリングする、前記再スキンすることと、
    前記VR提示のために前記HMDを介して前記ユーザに前記ビデオストリームを提示することと、
    を備えた、方法。
  2. 複数のセンサから、前記ユーザが前記HMDを着用している間の場所及び方位を追跡することと、
    前記HMDの前記場所及び方位を前記追跡したことに基づいて、前記ユーザが前記HMDを着用している間の前記HMDの移動を検出することであって、前記ビデオストリームの視野は、前記HMDの前記移動に応答して変化するように行われる、前記検出することと、
    を更に備えた、請求項1に記載の方法。
  3. 前記現実世界捕捉システムによって提供される前記ビデオストリームは、水平の360度の視野を含む、請求項1に記載の方法。
  4. 前記マッピングデータは更に、前記現実世界オブジェクトの座標を含み、前記現実世界オブジェクトの前記座標は、前記現実世界オブジェクトを前記再スキンするために使用可能である、請求項1に記載の方法。
  5. 前記ユーザ好みは、前記ユーザの統計、前記ユーザの閲覧履歴、前記ユーザの買い物履歴、前記ユーザの観覧履歴、前記ユーザのソーシャルメディアデータ、またはユーザの関心を含み、前記ユーザ好みは、前記再スキンするための前記グラフィカルコンテンツ要素を判定するために使用可能である、請求項1に記載の方法。
  6. 前記オーバレイすることは、前記現実世界捕捉システムと前記現実世界オブジェクトの頂点との間の現実世界距離を測定すること、並びに前記現実世界捕捉システムから前記頂点に追跡された光線の間で形成された角度を測定することを含み、前記測定された距離及び測定された角度は、前記現実世界捕捉システムの前記観点に基づいて幾何学的に調節される前記グラフィカルコンテンツ要素をオーバレイするために使用される、請求項1に記載の方法。
  7. 前記現実世界オブジェクトは移動し、前記現実世界距離を前記測定すること、及び前記角度を前記測定することは、現実世界オブジェクトが移動するにつれて変化する現実世界オブジェクトの観点に基づいて前記グラフィカルコンテンツ要素が幾何学的に調節されるように、前記現実世界オブジェクトが移動するのとリアルタイムで、または準リアルタイムで行われる、請求項6に記載の方法。
  8. 前記再スキンすることは、前記複数のビデオ画像内の前記現実世界オブジェクトの頂点を識別すること、及び前記グラフィカルコンテンツ要素の頂点が前記現実世界オブジェクトの前記頂点と適合するように、前記グラフィカルコンテンツ要素を変換することを含み、前記グラフィカルコンテンツ要素は、前記現実世界オブジェクトと関連付けられた前記画像データの代わりに、前記グラフィカルコンテンツ要素を前記オーバレイするために使用されるように変換されている、請求項1に記載の方法。
  9. 前記現実世界捕捉システムから前記現実世界空間の音声フィードを受信することを更に備え、前記音声フィードは、前記シート位置と関連付けられた前記現実世界捕捉システムの現実世界座標に従って処理される、請求項1に記載の方法。
  10. 前記ユーザからビデオモジュールの選択を受信すること、前記ビデオモジュールは、前記現実世界空間の追加のビデオストリームであることを更に備え、前記ビデオモジュールは、前記HMDを介して前記ユーザに前記ビデオストリームを前記提示している間にピクチャ対ピクチャ表示として表示される、請求項1に記載の方法。
  11. 前記現実世界空間は、エレクトロニックスポーツ(eスポーツ)活動を含み、前記ビデオモジュールは、プレイヤの前の観点、プレイヤの後の観点、プレイヤのスクリーン、プレイヤの制御パッドの観点、ゲームのジャンボトロンの観点、1つ以上のコメンテータの観点、プレイヤのチームの観点、または観衆メンバの観点の追加のビデオストリームのうちの1つである、請求項10に記載の方法。
  12. 前記ユーザから、前記現実世界空間においてプレイされているビデオゲームのフライスルービューについてのコマンドを受信することであって、前記コマンドは、前記フライスルービューについての前記ビデオゲーム内の位置を含む、前記受信することと、
    前記現実世界空間から、プレイされている前記ビデオゲームのゲーム状態のストリームを受信することと、
    前記ゲーム状態の前記ストリーム、及び前記フライスルービューについての前記ビデオゲーム内の前記位置と関連付けられた仮想カメラビューに基づいて、前記フライスルービューをレンダリングすることと、
    前記HMDを介して前記ユーザに前記フライスルービューを提示することと、
    を更に備えた、請求項1に記載の方法。
  13. 1つ以上のプロセッサと、
    前記1つ以上のプロセッサと通信するように配置され、プロセッサ実行可能命令を記憶したメモリと、を備え、前記プロセッサ実行可能命令は、
    現実世界空間のVR提示についての要求を送信し、前記要求は、HMDを介してユーザに前記現実世界空間の前記VR提示を配信するための要求であり、
    前記ユーザによって行われた前記現実世界空間内のシート選択を識別し、前記シート選択は、前記現実世界空間における現実世界捕捉システムにマッピングされ、前記現実世界捕捉システムは、前記シート選択に対応する位置においてビデオ及び音声を捕捉するように構成され、
    前記ユーザのユーザ好みを有するユーザプロファイルにアクセスし、
    前記現実世界捕捉システムについてのマッピングデータを受信し、前記マッピングデータは、前記現実世界捕捉システムに対する現実世界座標を含み、
    前記現実世界捕捉システムから前記現実世界空間のビデオストリームを受信し、前記ビデオストリームは、前記現実世界捕捉システムの1つ以上のカメラによって捕捉された複数のビデオ画像を含み、前記複数の画像は、前記シート選択に対応する前記現実世界捕捉システムの前記現実世界座標と関連付けられた観点から前記HMDにおいて提示され、
    前記ビデオストリームの前記複数の画像から、前記ユーザへの提示の間に再スキンするように構成された現実世界オブジェクトを識別し、
    前記ユーザプロファイルに基づいて、前記複数のビデオ画像内の前記現実世界オブジェクトを再スキンし、前記再スキンすることは、前記現実世界オブジェクトと関連付けられた画像データの代わりに、グラフィカルコンテンツ要素をオーバレイすることを含み、前記オーバレイすることは、前記シート選択に対応する前記現実世界捕捉システムと関連付けられた前記観点に基づいて幾何学的に調節され、前記再スキンすることは、前記グラフィカルコンテンツ要素が、前記現実世界オブジェクトと関連付けられた前記画像データと同一の寸法をもつ場合、前記現実世界オブジェクトと関連付けられた前記画像データと同一の歪みを有する観点により前記グラフィカルコンテンツ要素をオーバレイする一方、前記再スキンすることは、前記グラフィカルコンテンツ要素が、前記現実世界オブジェクトと関連付けられた前記画像データとは異なる寸法をもつ場合、前記現実世界オブジェクトの輪郭に沿うように前記グラフィカルコンテンツ要素をレンダリングし、
    前記VR提示のために前記HMDを介して前記ユーザに前記ビデオストリームを提示する、
    サーバシステム。
  14. 複数のセンサから、前記ユーザが前記HMDを着用している間の場所及び方位を追跡し、
    前記HMDの前記場所及び方位を前記追跡したことに基づいて、前記ユーザが前記HMDを着用している間の前記HMDの移動を検出し、前記ビデオストリームの視野は、前記HMDの前記移動に応答して変化するように行われる、
    命令を更に含む、請求項13に記載のサーバシステム。
  15. 前記マッピングデータは更に、前記現実世界オブジェクトの座標を含み、前記現実世界オブジェクトの前記座標は、前記現実世界オブジェクトを前記再スキンするために使用可能である、請求項13に記載のサーバシステム。
  16. 前記オーバレイすることは、前記現実世界捕捉システムと前記現実世界オブジェクトの頂点との間の現実世界距離を測定すること、並びに前記現実世界捕捉システムから前記頂点に追跡された光線の間で形成された角度を測定することを含み、前記測定された距離及び前記測定された角度は、前記現実世界捕捉システムの前記観点に基づいて幾何学的に調節される前記グラフィカルコンテンツ要素をオーバレイするために使用される、請求項13に記載のサーバシステム。
  17. 前記現実世界オブジェクトは移動し、前記現実世界距離を前記測定すること、及び前記角度を前記測定することは、現実世界オブジェクトが移動するにつれて変化する現実世界オブジェクトの観点に基づいて前記グラフィカルコンテンツ要素が幾何学的に調節されるように、前記現実世界オブジェクトが移動するのとリアルタイムで、または準リアルタイムで行われる、請求項13に記載のサーバシステム。
  18. 前記再スキンすることは、前記複数のビデオ画像内の前記現実世界オブジェクトの頂点を識別すること、及び前記グラフィカルコンテンツ要素の頂点が前記現実世界オブジェクトの前記頂点と適合するように、前記グラフィカルコンテンツ要素を変換することを含み、前記グラフィカルコンテンツ要素は、前記現実世界オブジェクトと関連付けられた前記画像データの代わりに、前記グラフィカルコンテンツ要素を前記オーバレイするために使用されるように変換されている、請求項13に記載のサーバシステム。
  19. プロセッサ実行可能命令を記憶した非一時的媒体であって、前記命令は、
    現実世界空間のVR提示についての要求を送信し、前記要求は、HMDを介してユーザに前記現実世界空間の前記VR提示を配信するための要求であり、
    前記ユーザによって行われた前記現実世界空間内のシート選択を識別し、前記シート選択は、前記現実世界空間における現実世界捕捉システムにマッピングされ、前記現実世界捕捉システムは、前記シート選択に対応する位置においてビデオ及び音声を捕捉するように構成され、
    前記ユーザのユーザ好みを有するユーザプロファイルにアクセスし、
    前記現実世界捕捉システムについてのマッピングデータを受信し、前記マッピングデータは、前記現実世界捕捉システムに対する現実世界座標を含み、
    前記現実世界捕捉システムから前記現実世界空間のビデオストリームを受信し、前記ビデオストリームは、前記現実世界捕捉システムの1つ以上のカメラによって捕捉された複数のビデオ画像を含み、前記複数の画像は、前記シート選択に対応する前記現実世界捕捉システムの前記現実世界座標と関連付けられた観点から前記HMDにおいて提示され、
    前記ビデオストリームの前記複数の画像から、前記ユーザへの提示の間に再スキンするように構成された現実世界オブジェクトを識別し、
    前記ユーザプロファイルに基づいて、前記複数のビデオ画像内の前記現実世界オブジェクトを再スキンし、前記再スキンすることは、前記現実世界オブジェクトと関連付けられた画像データの代わりに、グラフィカルコンテンツ要素をオーバレイすることを含み、前記オーバレイすることは、前記シート選択に対応する前記現実世界捕捉システムと関連付けられた前記観点に基づいて幾何学的に調節され、前記再スキンすることは、前記グラフィカルコンテンツ要素が、前記現実世界オブジェクトと関連付けられた前記画像データと同一の寸法をもつ場合、前記現実世界オブジェクトと関連付けられた前記画像データと同一の歪みを有する観点により前記グラフィカルコンテンツ要素をオーバレイする一方、前記再スキンすることは、前記グラフィカルコンテンツ要素が、前記現実世界オブジェクトと関連付けられた前記画像データとは異なる寸法をもつ場合、前記現実世界オブジェクトの輪郭に沿うように前記グラフィカルコンテンツ要素をレンダリングし、
    前記VR提示のために前記HMDを介して前記ユーザに前記ビデオストリームを提示する、
    前記命令を含む、非一時的媒体。
  20. 前記オーバレイすることは、前記現実世界捕捉システムと前記現実世界オブジェクトの頂点との間の現実世界距離を測定すること、並びに前記現実世界捕捉システムから前記頂点に追跡された光線の間で形成された角度を測定することを含み、前記測定された距離及び前記測定された角度は、前記現実世界捕捉システムの前記観点に基づいて幾何学的に調節される前記グラフィカルコンテンツ要素をオーバレイするために使用される、請求項19に記載の非一時的媒体。
JP2020518404A 2017-09-29 2018-09-26 現実世界空間の仮想現実提示 Active JP7041253B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762566266P 2017-09-29 2017-09-29
US62/566,266 2017-09-29
US15/901,845 US10556185B2 (en) 2017-09-29 2018-02-21 Virtual reality presentation of real world space
US15/901,845 2018-02-21
PCT/US2018/052986 WO2019067640A1 (en) 2017-09-29 2018-09-26 PRESENTATION IN VIRTUAL REALITY OF REAL WORLD SPACE

Publications (2)

Publication Number Publication Date
JP2020536603A JP2020536603A (ja) 2020-12-17
JP7041253B2 true JP7041253B2 (ja) 2022-03-23

Family

ID=65896466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020518404A Active JP7041253B2 (ja) 2017-09-29 2018-09-26 現実世界空間の仮想現実提示

Country Status (5)

Country Link
US (3) US10556185B2 (ja)
EP (1) EP3687645B1 (ja)
JP (1) JP7041253B2 (ja)
CN (1) CN111148554B (ja)
WO (1) WO2019067640A1 (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109478339A (zh) * 2016-07-29 2019-03-15 三菱电机株式会社 显示装置、显示控制装置和显示控制方法
US10810541B2 (en) 2017-05-03 2020-10-20 Hand Held Products, Inc. Methods for pick and put location verification
US11579744B2 (en) * 2017-06-21 2023-02-14 Navitaire Llc Systems and methods for seat selection in virtual reality
USD936697S1 (en) * 2017-09-21 2021-11-23 Yuri Hosokuni Display screen with a graphical interface for an electronic game
EP3704563A4 (en) * 2017-10-31 2021-08-04 Outward, Inc. MIXED PHYSICAL AND VIRTUAL REALITIES
JP7298932B2 (ja) * 2018-02-02 2023-06-27 アクセス ヴァーチャル, エルエルシー 仮想現実に基づくパイロット訓練システム
US20190378334A1 (en) * 2018-06-08 2019-12-12 Vulcan Inc. Augmented reality portal-based applications
US10996831B2 (en) 2018-06-29 2021-05-04 Vulcan Inc. Augmented reality cursors
US20200019782A1 (en) * 2018-07-13 2020-01-16 International Business Machines Corporation Accommodating object occlusion in point-of-view displays
US11030796B2 (en) * 2018-10-17 2021-06-08 Adobe Inc. Interfaces and techniques to retarget 2D screencast videos into 3D tutorials in virtual reality
US10974153B2 (en) * 2019-01-17 2021-04-13 Disney Enterprises, Inc. Streamable compressed geometry for live broadcast
US20200346114A1 (en) * 2019-04-30 2020-11-05 Microsoft Technology Licensing, Llc Contextual in-game element recognition and dynamic advertisement overlay
US11050977B2 (en) 2019-06-18 2021-06-29 Tmrw Foundation Ip & Holding Sarl Immersive interactive remote participation in live entertainment
US11270347B2 (en) * 2019-07-09 2022-03-08 Josh Lehman Apparatus, system, and method of providing a three dimensional virtual local presence
US10757528B1 (en) 2019-10-11 2020-08-25 Verizon Patent And Licensing Inc. Methods and systems for simulating spatially-varying acoustics of an extended reality world
JP2021065283A (ja) * 2019-10-18 2021-04-30 株式会社コナミデジタルエンタテインメント プログラム、ゲーム装置、ゲーム装置の制御方法及びゲームシステム
US11023729B1 (en) * 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
US20210194942A1 (en) * 2019-12-19 2021-06-24 Volta Audio Ltd System, platform, device, and method for spatial audio production and virtual reality environment
JP7462916B2 (ja) 2019-12-27 2024-04-08 株式会社コナミデジタルエンタテインメント 演出制御システム、それに用いるコンピュータプログラム、及び制御方法
JP1724353S (ja) * 2020-05-13 2022-09-09 文書間の関連を示す画像を表示可能な情報端末機
US11321892B2 (en) 2020-05-21 2022-05-03 Scott REILLY Interactive virtual reality broadcast systems and methods
CN115916359A (zh) * 2020-05-29 2023-04-04 科乐美数码娱乐株式会社 分发系统、分发系统的控制方法以及计算机程序
CN115997187A (zh) * 2020-07-03 2023-04-21 普费奇公司 远程出席和参与系统和方法
EP4210847A1 (en) * 2020-09-02 2023-07-19 Daniel Choi Systems and methods for augmented reality environments and tokens
US11622100B2 (en) * 2021-02-17 2023-04-04 flexxCOACH VR 360-degree virtual-reality system for dynamic events
US11657578B2 (en) 2021-03-11 2023-05-23 Quintar, Inc. Registration for augmented reality system for viewing an event
US11645819B2 (en) 2021-03-11 2023-05-09 Quintar, Inc. Augmented reality system for viewing an event with mode based on crowd sourced images
US11527047B2 (en) 2021-03-11 2022-12-13 Quintar, Inc. Augmented reality system for viewing an event with distributed computing
US20220295139A1 (en) * 2021-03-11 2022-09-15 Quintar, Inc. Augmented reality system for viewing an event with multiple coordinate systems and automatically generated model
US20220398936A1 (en) * 2021-06-15 2022-12-15 Richard Parker Aircraft training aid systems and processes
CN113613028B (zh) * 2021-08-03 2023-08-08 北京达佳互联信息技术有限公司 直播数据处理方法、装置、终端、服务器及存储介质
CN114047824A (zh) * 2022-01-13 2022-02-15 北京悉见科技有限公司 多终端用户在虚拟空间交互的方法
CN114679619B (zh) * 2022-03-18 2023-08-01 咪咕数字传媒有限公司 滑雪比赛信息增强展示方法、系统、设备及存储介质
CN114745598B (zh) * 2022-04-12 2024-03-19 北京字跳网络技术有限公司 视频数据展示方法、装置、电子设备及存储介质
US20230381674A1 (en) * 2022-05-31 2023-11-30 Sony Interactive Entertainment LLC Triggering virtual help or hindrance based on audience participation tiers
CN115113737B (zh) * 2022-08-30 2023-04-18 四川中绳矩阵技术发展有限公司 一种虚拟对象声音和图像的重现方法、系统、设备及介质
CN115278340B (zh) * 2022-09-26 2022-11-29 中影年年(北京)文化传媒有限公司 一种基于虚拟现实的用户交互方法及系统
US11842543B1 (en) * 2023-01-17 2023-12-12 Starbucks Corporation Camera system for providing an in-store experience to a remote user
CN117596373B (zh) * 2024-01-17 2024-04-12 淘宝(中国)软件有限公司 基于动态数字人形象进行信息展示的方法及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009065627A (ja) 2007-09-04 2009-03-26 Mitsutoshi Akitani バーチャルイベント視聴システムとその動作方法
JP2014035763A (ja) 2012-08-10 2014-02-24 Nippon Telegr & Teleph Corp <Ntt> 情報表示装置
JP2017064161A (ja) 2015-09-30 2017-04-06 株式会社バンダイナムコエンターテインメント ゲームシステム、撮影装置、ゲーム装置およびプログラム
JP6126272B1 (ja) 2016-05-17 2017-05-10 株式会社コロプラ 仮想空間を提供する方法、プログラム及び記録媒体

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3991076B2 (ja) 1997-06-30 2007-10-17 雅信 鯨田 有限個数の座席の遠隔利用のためのシステム及び方法
US20130278631A1 (en) * 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US20110225516A1 (en) * 2010-03-10 2011-09-15 Oddmobb, Inc. Instantiating browser media into a virtual social venue
US9007364B2 (en) * 2011-10-12 2015-04-14 Salesforce.Com, Inc. Augmented reality display apparatus and related methods using database record data
WO2013126784A2 (en) 2012-02-23 2013-08-29 Huston Charles D System and method for creating an environment and for sharing a location based experience in an environment
US20130317912A1 (en) * 2012-05-09 2013-11-28 William Bittner Advertising in Augmented Reality Based on Social Networking
US9049469B2 (en) * 2013-04-03 2015-06-02 Roy S. Melzer Encryption and decryption of visible codes for real time augmented reality views
US10019057B2 (en) * 2013-06-07 2018-07-10 Sony Interactive Entertainment Inc. Switching mode of operation in a head mounted display
US10137361B2 (en) * 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
CN105359063B (zh) * 2013-06-09 2018-08-17 索尼电脑娱乐公司 利用追踪的头戴式显示器
EP2930671A1 (en) 2014-04-11 2015-10-14 Microsoft Technology Licensing, LLC Dynamically adapting a virtual venue
US10852838B2 (en) * 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
WO2016017997A1 (en) * 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Wearable glasses and method of providing content using the same
US10733565B1 (en) * 2014-09-30 2020-08-04 Amazon Technologies, Inc. Interactive data processing system
US20170243403A1 (en) * 2014-11-11 2017-08-24 Bent Image Lab, Llc Real-time shared augmented reality experience
US10043319B2 (en) * 2014-11-16 2018-08-07 Eonite Perception Inc. Optimizing head mounted displays for augmented reality
US10438262B1 (en) * 2015-06-15 2019-10-08 Amazon Technologies, Inc. Method and device for implementing a virtual browsing experience
US9530426B1 (en) * 2015-06-24 2016-12-27 Microsoft Technology Licensing, Llc Filtering sounds for conferencing applications
US9573062B1 (en) * 2015-12-06 2017-02-21 Silver VR Technologies, Inc. Methods and systems for virtual reality streaming and replay of computer video games
US9782678B2 (en) * 2015-12-06 2017-10-10 Sliver VR Technologies, Inc. Methods and systems for computer video game streaming, highlight, and replay
US9648438B1 (en) * 2015-12-16 2017-05-09 Oculus Vr, Llc Head-related transfer function recording using positional tracking
US10531137B1 (en) * 2015-12-31 2020-01-07 Mayfonk Athletic Llc Athletic telemetry system
CA3015164A1 (en) * 2016-02-18 2017-08-24 Edx Technologies, Inc. Systems and methods for augmented reality representations of networks
US10412438B2 (en) * 2016-03-14 2019-09-10 The Directv Group, Inc. Method and system for viewing sports content within a virtual reality environment
US10112111B2 (en) * 2016-03-18 2018-10-30 Sony Interactive Entertainment Inc. Spectator view perspectives in VR environments
US11181990B2 (en) * 2016-03-18 2021-11-23 Sony Interactive Entertainment Inc. Spectator view tracking of virtual reality (VR) user in VR environments
US10666768B1 (en) * 2016-09-20 2020-05-26 Alarm.Com Incorporated Augmented home network visualization
US10388072B2 (en) * 2016-10-31 2019-08-20 Verizon Patent And Licensing Inc. Methods and systems for dynamically customizing a scene for presentation to a user
US10880086B2 (en) * 2017-05-02 2020-12-29 PracticalVR Inc. Systems and methods for authenticating a user on an augmented, mixed and/or virtual reality platform to deploy experiences

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009065627A (ja) 2007-09-04 2009-03-26 Mitsutoshi Akitani バーチャルイベント視聴システムとその動作方法
JP2014035763A (ja) 2012-08-10 2014-02-24 Nippon Telegr & Teleph Corp <Ntt> 情報表示装置
JP2017064161A (ja) 2015-09-30 2017-04-06 株式会社バンダイナムコエンターテインメント ゲームシステム、撮影装置、ゲーム装置およびプログラム
JP6126272B1 (ja) 2016-05-17 2017-05-10 株式会社コロプラ 仮想空間を提供する方法、プログラム及び記録媒体

Also Published As

Publication number Publication date
EP3687645A1 (en) 2020-08-05
JP2020536603A (ja) 2020-12-17
EP3687645B1 (en) 2021-06-30
WO2019067640A1 (en) 2019-04-04
CN111148554B (zh) 2023-10-03
US20190099678A1 (en) 2019-04-04
CN111148554A (zh) 2020-05-12
US20210346811A1 (en) 2021-11-11
US10556185B2 (en) 2020-02-11
US11738275B2 (en) 2023-08-29
US11065551B2 (en) 2021-07-20
US20200171394A1 (en) 2020-06-04

Similar Documents

Publication Publication Date Title
JP7041253B2 (ja) 現実世界空間の仮想現実提示
US11436803B2 (en) Insertion of VR spectator in live video of a live event
JP6792044B2 (ja) ヘッドマウントディスプレイによって提示されるパーソナル空間コンテンツの制御
US10780350B2 (en) Spatially and user aware second screen projection from a companion robot or device
CN109475774B (zh) 虚拟现实环境中的视图位置处的观众管理
US20200346105A1 (en) Controller Having Lights Disposed Along a Loop of the Controller
EP3265864B1 (en) Tracking system for head mounted display
US10380798B2 (en) Projectile object rendering for a virtual reality spectator
JP2020518321A (ja) Vr環境への第2の画面の仮想ウィンドウ
JPWO2016009865A1 (ja) 情報処理装置及び方法、表示制御装置及び方法、再生装置及び方法、プログラム、並びに情報処理システム
KR102082670B1 (ko) 방송 시청을 위한 가상 현실 사용자 인터페이스 제공 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220310

R150 Certificate of patent or registration of utility model

Ref document number: 7041253

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150