JP7125992B2 - 現実世界の仮想現実マップを用いた仮想現実(vr)ゲーム環境の構築 - Google Patents

現実世界の仮想現実マップを用いた仮想現実(vr)ゲーム環境の構築 Download PDF

Info

Publication number
JP7125992B2
JP7125992B2 JP2020546091A JP2020546091A JP7125992B2 JP 7125992 B2 JP7125992 B2 JP 7125992B2 JP 2020546091 A JP2020546091 A JP 2020546091A JP 2020546091 A JP2020546091 A JP 2020546091A JP 7125992 B2 JP7125992 B2 JP 7125992B2
Authority
JP
Japan
Prior art keywords
model
real
base
world
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020546091A
Other languages
English (en)
Other versions
JP2021514775A (ja
Inventor
リ ミアオ
ヘ ショーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Publication of JP2021514775A publication Critical patent/JP2021514775A/ja
Application granted granted Critical
Publication of JP7125992B2 publication Critical patent/JP7125992B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/352Details of game servers involving special game server arrangements, e.g. regional servers connected to a national server or a plurality of servers managing partitions of the game world
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、ゲームアプリケーションの3D仮想現実(VR)ゲーム世界の開発などの、ソフトウェア開発を開示する。特に、本開示は、オブジェクトの欠落サーフェスを拡張するように、及びギャップを充填するように強化される現実世界環境の利用可能なベースVRモデルからVRゲーム環境を構築する方法及びシステムを説明する。
ビデオゲーム技術の進歩により、ビデオゲームはますます人気となってきている。例えば、高性能グラフィックプロセッサは、ビデオゲームをプレイするときに信じられないほどの視聴体験及び双方向体験をもたらす。さらに、ディスプレイは、ますます高解像度で設計されている。例えば、本技術は、ほぼ19:10のアスペクト比で2K解像度(例えば、2048×1080ピクセル上で2.2メガピクセル)を有するディスプレイを含む。16:9のアスペクト比で4K UHD(超高精細)解像度(例えば、3840×2160ピクセル上で8.2メガピクセル)を有する他のディスプレイが現在市場で推進されており、その勢いを増すことが期待されている。特に、高解像度ディスプレイを利用するように設計されたゲームエンジン上で実行されるビデオゲームをプレイするとき、高解像度ディスプレイと共にグラフィック処理キャパビリティの向上が、ユーザにとってこれまで驚くべき視聴体験を提供している。
高性能グラフィックを使用するため、ゲーム開発者は、3D没入型及び対話型ゲームアプリケーション(あるいはインタラクティブゲームアプリケーション)を作成している。これらのゲームアプリケーションに見られる3Dコンテンツは、3D空間内に増加した数のオブジェクトを追加することによって構築される、3Dゲーム環境を含む。現実的には、これらのオブジェクトは、オブジェクトの相互作用を定義する物理学の標準法則に従い得る。3Dゲーム環境の作成は、複数のステップを伴う。例えば、3Dゲーム環境は、1つまたは複数のシーンで構成されてもよく、各シーンは、1つまたは複数のオブジェクトを含む。特定シーン内のオブジェクトのそれぞれが、開発者により苦心して構築されており、他のオブジェクトと相互作用するように3Dゲーム環境内に置かれている。3Dゲーム環境構築のこのプロセスは、時間がかかるが、エンドユーザにより楽しめる没入型環境を生成するために必要である。
しかしながら、3Dゲーム環境の構築には非常に時間がかかり、かつ開発者には時間的制約がある場合もあるので、3Dゲーム環境が意図されるよりも小さくなり得るように、3Dゲーム環境の十分な開発が犠牲にされることがある。さらに、3Dゲーム環境は、ゲーム環境を開発するためのコストを考慮すると、その使用を最大化させる取り組みにおいて同じ開発者によって継続的に再使用され得る。しかしながら、これは、3Dゲーム環境における新鮮味のなさに繋がり、最終的には新たなゲームアプリケーションが同じ3Dゲーム環境に基づくものとなってしまう。
ゲームロジックを構築する時間を、ゲームロジックが動作するバックグラウンドよりも多く開発者に与えるために、3Dゲーム環境の生成を能率化することが有益である。
本開示の実施形態は、このような背景の下になされたものである。
本開示の実施形態は、サードパーティマッピングシステムから現実世界VRモデルをベースとして用いたVRゲーム環境の構築に関し、さらにVRゲーム環境を作成するためにオブジェクトのサーフェスを拡張すること及びベースVRモデル内のオブジェクトを充填することに関する。ゲーム開発者は、ゲームアプリケーション内の新たに拡張され充填されたVR環境を使用することができる。
一実施形態では、ゲーム環境を構築する方法が開示される。この方法は、サードパーティマッピングデータストアから現実世界環境のベースVRモデルにアクセスし、現実世界環境は複数の現実世界オブジェクトを含むものである。この方法は、現実世界環境内の第1の現実世界オブジェクトに対応するベースVRモデル内の第1のオブジェクトの拡張を行うことを含む。この方法は、拡張ベースVRモデルを生成するために、拡張される第1のオブジェクトをベースVRモデル内にスティッチすることを含む。この方法は、対応するゲームアプリケーションの仮想環境として使用するための複数の拡張ベースVRモデルを含むライブラリデータストアに拡張ベースVRモデルを記憶することを含む。特に、この方法は、拡張ベースVRモデルを複数の拡張ベースVRモデルを含むライブラリデータストアに記憶する、対応するゲームアプリケーションの仮想環境として使用するための複数の拡張ベースVRモデルを含むライブラリデータストアに、拡張ベースVRモデルを記憶することを含む。この方法は、複数の拡張ベースVRモデルのうちの1つまたは複数を用いて、ゲームアプリケーションの仮想環境を定義することを含む。
さらなる別の実施形態では、コンピュータシステムが開示される。コンピュータシステムは、プロセッサ及びメモリを含み、メモリは、プロセッサに連結され、コンピュータシステムによって実行される場合に、ゲーム環境を構築する方法をコンピュータシステムに実行させる命令を記憶している。この方法は、サードパーティマッピングデータストアから現実世界環境のベースVRモデルにアクセスし、現実世界環境が複数の現実世界オブジェクトを含む、アクセスすることを含む。この方法は、現実世界環境内の第1の現実世界オブジェクトに対応するベースVRモデル内の第1のオブジェクトを拡張することを含む。この方法は、拡張ベースVRモデルを生成するために、拡張される第1のオブジェクトをベースVRモデル内にスティッチすることを含む。この方法は、対応するゲームアプリケーションの仮想環境として使用するための複数の拡張ベースVRモデルを含むライブラリデータストアに拡張ベースVRモデルを記憶することを含む。特に、この方法は、拡張ベースVRモデルを複数の拡張ベースVRモデルを含むライブラリデータストアに記憶する、対応するゲームアプリケーションの仮想環境として使用するための複数の拡張ベースVRモデルを含むライブラリデータストアに、拡張ベースVRモデルを記憶することを含む。この方法は、複数の拡張ベースVRモデルのうちの1つまたは複数を用いて、ゲームアプリケーションの仮想環境を定義することを含む。
別の実施形態では、ゲーム環境を構築するためのコンピュータプログラムを記憶する非一時的コンピュータ可読媒体が、開示される。コンピュータ可読媒体は、サードパーティマッピングデータストアから現実世界環境のベースVRモデルにアクセスするためのプログラム命令であって、現実世界環境が複数の現実世界オブジェクトを含む、アクセスするためのプログラム命令を含む。コンピュータ可読媒体は、現実世界環境内の第1の現実世界オブジェクトに対応するベースVRモデル内の第1のオブジェクトを拡張するためのプログラム命令を含む。コンピュータ可読媒体は、拡張ベースVRモデルを生成するために、拡張される第1のオブジェクトをベースVRモデル内にスティッチするためのプログラム命令を含む。コンピュータ可読媒体は、対応するゲームアプリケーションの仮想環境として使用するための複数の拡張ベースVRモデルを含むライブラリデータストアに拡張ベースVRモデルを記憶するためのプログラム命令を含む。特に、コンピュータ可読媒体は、拡張ベースVRモデルを複数の拡張ベースVRモデルを含むライブラリデータストアに記憶する対応するゲームアプリケーションの仮想環境として使用するための複数の拡張ベースVRモデルを含むライブラリデータストアに拡張ベースVRモデルを記憶するためのプログラム命令を含む。コンピュータ可読媒体は、複数の拡張ベースVRモデルのうちの1つまたは複数を用いて、ゲームアプリケーションの仮想環境を定義するためのプログラム命令を含む。
本開示の他の態様は、例として本開示の原理を示し、添付図面と併せて掲げる以下の詳細な説明から明らかとなるであろう。
本開示は、添付図面と併せて掲げる以下の説明を参照することによって、最もよく理解され得る。
本開示の一実施形態による、サードパーティマッピングシステムから現実世界VRモデルをベースとして用いてVRゲーム環境を構築するように構成されるシステムを示す。 本開示の一実施形態による、サードパーティマッピングシステムから現実世界VRモデルをベースとして用いてVRゲーム環境を構築するように構成されるVRモデルビルダの機能コンポーネントを示す。 本開示の一実施形態による、オブジェクトのモデル構築のため、画像及び/またはビデオ内のオブジェクトの認識のため、ならびに現実世界環境の認識のために使用される、例としてのニューラルネットワークを示す。 本開示の一実施形態による、サードパーティマッピングシステムから現実世界VRモデルをベースとして用いてVRゲーム環境を構築する方法におけるステップを示すフロー図である。 本開示の一実施形態による、ベースVRモデル内の不完全なオブジェクトをサーフェスセグメントで拡張するため、及びベースVRモデル内の欠落オブジェクトをフィラーオブジェクトで充填するための方法におけるステップを示すフロー図である。 本開示の一実施形態による、現実世界環境のベースVRモデルを構築するための画像キャプチャデバイスの使用を示す。 本開示の一実施形態による、不十分な数の画像キャプチャデバイスがVRモデルを構築するために使用されるときの、現実世界環境のVRモデル内の不完全なオブジェクト及びギャップの識別を示す。 本開示の一実施形態による、サードパーティマッピングシステムから現実世界VRモデルをベースとして用いてVRゲーム環境を構築するために使用される情報のフローを示すデータフロー図である。 本開示の一実施形態による、現実世界環境の拡張VRモデルの選択、及びゲームアプリケーションのゲームロジックへの拡張VRモデルの統合を示す。 本開示の様々な実施形態の態様を実行するために使用され得る例としてのデバイスのコンポーネントを示す。
以下の詳細な説明は、例示のために多くの具体的詳細を含むが、当業者であれば、以下の詳細に対する多数の変形及び変更が本開示の範囲内にあると理解するであろう。したがって、以下に記載される本開示の態様は、この説明に続く特許請求の範囲に対して一般性を失うことなく、かつ特許請求の範囲に対して制限を課すことなく、明記される。
概して、本開示の様々な実施形態は、サードパーティマッピングシステムから現実世界VRモデルをベースとして用いたVRゲーム環境の構築に関する。ベースVRモデル内の不完全なオブジェクトは、完全なモデル化されたオブジェクトを作成するためにサーフェスで拡張され、1つまたは複数の拡張ベースVRモデルを作成するために,ベースVRモデル内のギャップがフィラーオブジェクトで充填される。マッピングライブラリは拡張ベースVRモデルを含み、そのゲーム環境のそれぞれは現実世界環境に基づく。このようにして、ゲーム環境を構築するために用いられる取り組みは、サードパーティの現実世界ベースVRモデルに依拠し、かつ、ゲームアプリケーション内の使用に適した拡張ベースVRモデル(例えば、ゲーム環境を実施するためのゲームアプリケーションのゲームロジックとインタフェース接続する拡張ベースVRモデル)を生成するためにそれらのベースVRモデルを修正することによって、はるかに減少される。
一実施態様では、これらのゲーム環境は、ゲームアプリケーションを作り出す開発段階の間、ゲーム開発者に利用可能にされる。このように、それぞれの新たなゲームアプリケーションのために対応するVR世界またはゲーム環境をゼロから生成するには著しい時間と取り組みを要するが、それに代えて、ゲーム開発者は、対応するゲームアプリケーションのために拡張ベースVRモデルをVRゲーム環境として直ちに使用できる。さらに、対応する現実世界環境を表すそれぞれの拡張ベースVRモデルは、複数のゲームアプリケーションのためのゲーム環境として使用され得る。即ち、一旦拡張ベースVRモデルが作成されると、そのモデルは、現実世界環境内に設定される新たなゲームを作成するときに、多くのゲーム開発者によって使用され得る。したがって、ゲームアプリケーション毎に1つまたは複数の固有のゲーム環境を生成する代わりに、ゲーム環境は、複数のゲームアプリケーションにわたって使用され得る。
このように、VRゲーム環境を生成することに時間をかける代わりに、ゲーム開発者は、VRゲーム環境とインタフェース接続するゲームロジックにより集中することができ、それによって、より高品質のゲームアプリケーションを作成することができる。さらに、事前生成されたゲーム環境を使用すること及び再使用することによって、各ゲームアプリケーションを開発するために必要な時間がより少なくなる。さらに、1つの拡張ベースVRモデルが複数のゲームアプリケーションにわたって使用され得るため、拡張ベースVRモデルを記憶するように構成されるデータストアは、それが減少した数の拡張ベースVRモデルを記憶することができ、複数のゲームアプリケーションのそれぞれについての異なる拡張ベースVRモデルを記憶する必要がないときに、より効率的に動作する。即ち、拡張ベースVRモデルに基づくゲーム環境を有する、複数のゲームアプリケーションを実行するように構成されるサーバシステムは、記憶される拡張ベースVRモデルの数が少なくなるにつれて、ゲーム環境を効率的に記憶し、ゲーム環境に迅速にアクセスすることが可能である。
様々な実施形態の上記概略的理解とともに、実施形態の例としての詳細について、ここで様々な図面を参照して説明する。
明細書全体を通して、「ビデオゲーム」または「ゲームアプリケーション」とは、入力コマンドの実行を通して指示される、任意の種類の対話型アプリケーション、あるいはインタラクティブアプリケーションを表すことを意味する。単なる例示であるが、対話型アプリケーションには、ゲーム、文書処理、ビデオ処理、ビデオゲーム処理などのためのアプリケーションが含まれる。さらに、ビデオゲーム及びゲームアプリケーションという用語は、交換可能である。さらに、「デジタルコンテンツ」とは、2Dまたは3Dデジタルコンテンツを表し、少なくともその一部にビデオゲーム、ゲームアプリケーション、及びビデオを含むものである。
図1は、本開示の一実施形態による、サードパーティマッピングシステムから現実世界VRモデルをベースとして用いてVRゲーム環境を構築するように構成されるシステム100を示す。サーバ160は、拡張ベースVRモデルビルダ200及び深層学習エンジン190を含む。サーバ160は、サードパーティマッピングシステムから現実世界マッピングまたはVRモデルを用いて1つまたは複数のVRゲーム環境を構築するように構成される。特に、拡張ベースVRモデルビルダ200は、サードパーティマッピングシステムから3D現実世界データにアクセスし、及び/または受信することが可能である。各サードパーティマッピングシステムは、ベースVRモデルによって表されるような現実世界環境(例えば、屋内及び屋外環境)の構築またはマッピングの、それらの独自のやり方を有する。
このデータ(RAW及び/またはベースVRモデル)は、現実世界環境の拡張ベースVRモデルを構築するために使用され、ベースVRモデルは、オブジェクトの不完全なサーフェスを拡張すること、及び欠落オブジェクトを充填することによって再構築される。拡張ベースVRモデルは、(例えば、画像キャプチャ点に関連する位置だけではなく)任意の位置からの現実世界環境の3D仮想ビューを提供する。一実施形態では、現実世界環境は、ライブイベントを含み、ライブイベントは、対応する拡張ベースVRモデルによって表される。1つまたは複数の現実世界環境の拡張ベースVRモデルは、ライブラリに記憶されてもよく、ゲーム開発者によって後でアクセスされてもよい。このようにして、開発者は、事前生成された拡張ベースVRモデルを用いることによって、それらのベースVRモデルを再構築すること、またはVRモデルをゼロから生成することから時間を節約し得る。したがって、開発者は、エンドユーザのゲーム体験を最大化するゲームロジックを開発することにより多くの時間及びエネルギーを集中させ得る。即ち、開発者は、VRゲーム環境を構築する際に実行される現実世界環境において繰り返し見出される共通の日常的なオブジェクト(例えば、建物、木、街路、公園など)を構築しなくてもよい。
特に、深層学習エンジン190は、拡張ベースVRモデルビルダ200の能力を補助するように構成される。例えば、深層学習エンジン190は、1つまたは複数の現実世界環境において見出される共通オブジェクトの、3Dサーフェスモデルを含むように3Dモデルを構築するように構成され得る。例示的な例として、オブジェクトは、建物、家具、一般的な人、動物、木、茂み、木の葉、自動車、バスなどを含み得る。深層学習エンジン190は、現実世界環境の画像、ビデオ、及び/またはVRモデルに基づくオブジェクトの認識のために使用され得る。オブジェクトの3Dモデル182は、データストレージ180に記憶され得る。
深層学習エンジン190は、現実世界環境の画像、ビデオ、及び/またはVRモデルに基づく現実世界環境の認識のためにも使用され得る。さらに、深層学習エンジン190は、ベースVRモデルから不完全なオブジェクト(例えば、不完全なサーフェスモデル)を認識するように構成され、対応する現実世界環境を表すベースVRモデル内のギャップ(例えば、欠落オブジェクト)を認識するように構成される。ギャップは、深層学習エンジン190によって識別される。このようにして、拡張ベースVRモデルビルダ200は、以前定義されたオブジェクトモデルに基づく追加サーフェスで不完全なサーフェスモデルを拡張することが可能であり、拡張VRモデルを作成するためにフィラーオブジェクトでベースVRモデル内のギャップを充填することも可能である。拡張VRモデル構築プロセスの管理は、構築プロセスへのインタフェースを提供するクライアントデバイス100を介して実行され得る。
拡張ベースVRモデルは、データストレージ180のライブラリ181に記憶される。さらに、オブジェクトモデル(例えば、サーフェスモデル)182も、データストレージ180に記憶される。拡張ベースVRモデルは、対応するゲームアプリケーションの開発中、ゲームロジックと統合されるゲーム環境として後にアクセスされ使用され得る。このようにして、ゲーム開発者は、それらのゲーム環境を生成する代わりに、ゲームアプリケーションにおける使用のために現実世界環境を表す事前生成されたゲーム環境(例えば、3D VRモデル)にアクセスすることだけを必要とする。ゲーム開発者は、インターネット150を通し、クライアントデバイス170を介して拡張VRモデルライブラリ181にアクセスし得る。さらに、拡張ベースVRモデルは、複数のユーザのゲームプレイと連携して1つまたは複数のゲームアプリケーションを実行するように構成されるサーバまたはコンピューティングリソースによって後にアクセスされ得る。ユーザのゲームプレイ中、ゲームアプリケーションのゲームロジックは、対応する拡張ベースVRモデルを通して実施されるように、対応するゲーム環境を作成する。
(VRモデラの)クライアントデバイス100、(例えば、ゲームアプリケーションをプレイしているユーザの)170A、及び(例えば、ゲーム開発者の)170Bは、当技術分野において既知の汎用または専用コンピュータであってもよく、ゲームコンソール、パーソナルコンピュータ、ラップトップ、タブレットコンピュータ、モバイルデバイス、携帯電話、タブレット、シンクライアント、セットトップボックス、メディアストリーミングデバイスなどを含むがこれらに限定されない。一実施形態では、クライアントデバイス100及び170A~170Bは、ビデオゲームを実行し、HMD(図示せず)によるレンダリングのためにビデオゲームからビデオ及び音声を出力するように構成され得る。クライアントデバイス100及び170A~170Bは、ネットワークを経てサーバ160と通信するシンクライアントとしても構成され得る。例えば、HMDは、一実施態様において、拡張VRモデルを編集及び/または生成する際に装着されてもよい。別の実施態様において、HMDは、ゲーム開発中にVRゲーム環境をレビューする際にゲーム開発者によって装着されてもよい。クライアントデバイス100及び170A~170Bは、ビデオゲームを実行することに制限されず、HMDによってレンダリングするためのVRコンテンツを出力する対話型アプリケーションを実行するようにも構成され得る。概して、HMDは、眼鏡、ゴーグル、またはヘルメットと同様の様式で装着され、対話型ビデオゲームからビデオゲームを、または対話型アプリケーションから他のコンテンツを、対応するユーザに対して表示するように構成される。HMDは、ユーザの目に近接するそのディスプレイ構造の提供のおかげで、極めて没入型の体験をユーザにもたらす。したがって、HMDは、ユーザの視野の大部分または全体でさえも占める、ユーザの目のそれぞれに対する表示領域を提供し得る。
システム100は、ベースVRモデルを提供するために構成されるサードパーティマッピングシステム120を含む。ベースVRモデル128は、画像データ126及び/またはビデオデータ127を用いて構築され、その両方がデータストレージ125に記憶される。例えば、フランス、パリのエッフェル塔周辺あたりのベースVRモデルが、(例えば、専門家及び/または旅行者などの画像キャプチャデバイスから)キャプチャされた画像データ126及び/またはキャプチャされたビデオデータ127を用いて構築され得る。ベースVRモデル128の生成についての概略的説明は、図5Aに関連して以下に提供される。
例えば、サードパーティマッピングシステムは、ベースVRモデルとして動作する街路の3Dビューを含むようにサービスをユーザに提供し得る。様々な検索会社が、世界中の街路のこれらのビューを一般大衆に提供している。基本的に、ユーザは、街路に沿ったキャプチャ点の間を飛び越すことが可能であり、各キャプチャ点において、その特定のキャプチャ点におけるビューを(例えば、360度)回転することが可能である。キャプチャ点は、典型的には街路の中心または中心付近に位置する。キャプチャ点以外の点からのビューは、サードパーティマッピングシステム120によって提供されない。一方、本開示の実施形態は、以下でさらに説明するように、ライブラリ181に記憶される拡張ベースVRモデルを、サーバ160を用いて生成するためにベースVRモデル128に基づいて構築されることが可能である。いくつかの実施形態では、サーバ160は、ベースVRモデル128上に構築するように構成され、他の実施形態では、サーバ160は、ベースVRモデル128を構築するためにRAW画像データ126及び/またはビデオデータ127にアクセスするように構成される。ベースVRモデル128は、以下でさらに所望されるように、現実世界環境の完全なVRモデルを作成するために後でさらに拡張及び充填され得る。
さらに、システム100は、追加の画像データ136及び/またはビデオデータ137を提供するように構成されるサードパーティ画像コレクタ130を含み、その両方がデータストレージ135に記憶される。この追加の画像及びビデオデータは、不完全であるかまたは欠落しているかのいずれかであるベースVRモデル内のオブジェクトを拡張するために使用され得る。例えば、フランス、パリのベースVRモデルは、画像データ126として不完全である場合があり、そのベースVRモデルを作成するために使用されるビデオデータ127は、キャプチャにおけるキャプチャ点の数が不十分な場合がある。
即ち、画像データ126及びビデオデータ127は、フランス、パリの完全なVRモデルを構築するには不十分でもある。このようにして、追加及び補足の画像データ136及び/またはビデオデータ137が、ベースVRモデル内のオブジェクトの不完全なサーフェスモデルを拡張するために、サーバ160によってアクセスされ得る。例えば、不完全なサーフェスモデルが、対応する、かつ汎用の完全なサーフェスモデルで完全に置換されてもよく、または欠落サーフェスが、(例えば、深層学習エンジン190によって構築される)完全なサーフェスモデルからのサーフェス部分で置換されてもよい。
図2は、本開示の一実施形態による、サードパーティマッピングシステムから現実世界VRモデルをベースとして用いてVRゲーム環境を構築するように構成されるサーバ160の機能コンポーネントを示す。特に、システム160は、拡張ベースVRモデルを構築するように構成される拡張ベースVRモデルビルダ200と、ビルダ200をサポートする深層学習エンジン190とを含み、システム200への制御及びアクセスは、サーバ160と直接、またはインターネット150などのネットワークを通してのいずれかで、クライアントデバイス100を通過し得る。システム160のコンポーネントは、ソフトウェア、ハードウェア、またはソフトウェア及びハードウェアの組み合わせにおいて実施され得る。
特に、拡張ベースVRモデルビルダ200は、ローカル環境内で撮られた画像及び/またはビデオに基づくオブジェクト及び/またはローカル環境を認識するように構成される、オブジェクト/環境認識検出モジュール210を含む。検出モジュール210は、一実施形態において、深層学習エンジン190内に構成される。一実施態様では、検出モジュール210は、1つまたは複数のオブジェクトを検出するように構成される。例えば、1つまたは複数の画像及び/またはビデオは、オブジェクト認識のために深層学習エンジン190に入力され得る。特に、深層学習エンジン190は、画像内のオブジェクトのパターンが深層学習エンジン190によって以前に学習またはモデル化されたオブジェクトのパターンに類似していると認識することによって、(ビデオの画像を含む)画像内のオブジェクトを識別することが可能である。
例えば、深層学習エンジン190は、入力として複数の猫の画像を提供すること、及び飼い猫に一意のパターンを深層学習エンジン190に認識させることによって、飼い猫をモデル化すること、及びより詳細には飼い猫の品種または種類(例えば、斑)をモデル化することが可能である。深層学習エンジンによって実行される際に、猫についての同一パターンを有する画像内のオブジェクトを認識し得る、猫認識(例えば、猫についてのオブジェクト認識)アルゴリズムが、作成され得る。即ち、深層学習エンジン190は、画像が猫のオブジェクトを含むときに認識し得る。さらに、画像内の他のオブジェクトもまた、他の対応するオブジェクト識別子アルゴリズムを用いて深層学習エンジン190によって認識される。
別の実施態様では、検出モジュール210は、ローカル環境を検出するように構成される。例えば、1つまたは複数の画像及び/またはビデオは、環境認識のために深層学習エンジン190に入力され得る。即ち、深層学習エンジン190は、画像またはビデオがキャプチャされているローカル環境を識別することが可能である。深層学習エンジン190によって実行される際に、キャプチャされた画像及び/またはビデオに基づくローカル環境を認識し得る、環境認識アルゴリズム(ローカル環境に固有の各アルゴリズム)が作成され得る。したがって、画像及び/またはビデオが、入力として深層学習エンジンに提供されるときに、対応する環境認識アルゴリズムは、入力がそのローカル環境に関連付けられていると判断する。
さらに、拡張ベースVRモデルビルダ200は、(例えば、サードパーティマッピングシステムを通して提供されるような)現実世界環境のベースVRモデル内のオブジェクトが不完全であるときに判断するように構成される、サーフェスモデル完全性評価器215を含む。オブジェクトモデル(例えば、サーフェスモデル)は、モデルを作成するために使用される画像が十分でないときに、不完全であり得る。例えば、オブジェクトをモデル化するために画像が1つだけ使用されるとき、反対側は、見ることができない場合があり、オブジェクトモデル内に含まれないこととなり、したがって不完全である。オブジェクト及び/またはオブジェクトのモデルが不完全であると識別されるとき、以下で説明するように、それらのモデルを完全にするために追加のアクションが実行され得る。
拡張ベースVRモデルビルダ200は、それらのサーフェスモデルを完全にするために不完全なサーフェスモデルを情報で拡張するように構成されるオブジェクトサーフェス拡張モジュール220を含む。例えば、対応するオブジェクトのサーフェスモデルが不完全であると識別されるとき、モデル内で欠落しているサーフェスの部分が、サーフェスモデル内に含まれるようにアクセスされ及び/または生成されてもよく、それによって、モデルを完全にする。例えば、そのオブジェクトのための汎用サーフェスモデルが、以前に生成されていてもよく、ベースVRモデルから欠落しているサーフェスの部分が、不完全なサーフェスモデルを拡張するために使用され得る。また、完全な汎用サーフェスモデルが、不完全なサーフェスモデルの代用として使用されてもよい。
さらに、汎用モデルが存在しない場合、そのときオブジェクトサーフェス拡張モジュール220は、(例えば、対応するローカル環境内のオブジェクトから撮られる、または対応する汎用オブジェクトから撮られる)オブジェクトの追加画像またはビデオをアクセス及び/またはグラブするように構成され、追加情報に基づいて、不完全なサーフェスモデルを拡張するため、または代用で使用され得る完全なサーフェスモデルを構築するためにそのとき使用される、欠落しているサーフェスの部分(または完全なモデル)を生成するように構成される。
さらに、拡張ベースVRモデルビルダ200は、サードパーティソースによって提供される、対応する現実世界環境のベースVRモデルを分析し、モデル内のギャップを検出するように構成される、ベースVRモデルギャップ検出器225を含む。ベースVRモデル内のギャップが、ギャップ領域内の1つのまたは欠落したオブジェクトによって例示される。例えば、ローカル環境が、画像及び/または他の情報源に基づいて、深層学習エンジン190によってフランス、パリのエッフェル塔であると認識されるとき、特定のレストランがごく周辺範囲内であることが分かる。ギャップは、ベースVRモデル内にその特定のレストランを有しないと識別され得る。他の欠落オブジェクトは、対応するベースVRモデルの同一のギャップ及び/または他のギャップから欠落していると識別され得る。
拡張ベースVRモデルビルダ200は、対応するベースVRモデル内で識別されるギャップ内に置かれるべきフィラーオブジェクトを構築するように構成される、フィラーオブジェクト用サーフェスモデラ230を含む。例えば、フィラーオブジェクトは、対応する現実世界の同一空間内で見出される実際のオブジェクトとの関連付けを有しなくてもよい。即ち、フィラーオブジェクトは、ベースVRモデルのギャップまたはギャップ領域内に置かれ得る任意のオブジェクトであってもよい。例えば、オフィスのベースVRモデルにおいて、フィラーオブジェクトは、サイドボード、壁の絵、植物、またはテーブルの上の植物などを含み得る。これらのフィラーオブジェクトは、事前に生成されていてもよく、またはベースVRモデルを拡張するときに生成されてもよい。一実施態様では、対応するフィラーオブジェクトの追加の画像及び/またはビデオは、(例えば、図1のサードパーティ画像コレクタ130から)アクセスされ、フィラーオブジェクト用サーフェスモデルを生成するために使用される。別の実施態様では、フィラーオブジェクトは、対応する現実世界の同一空間内で見出される実際のオブジェクトと関連付けられてもよい。したがって、フィラーオブジェクトは、対応する現実世界オブジェクトを表してもよく、フィラーオブジェクトは、対応するギャップ領域内のベースVRモデル内で使用され得る。
さらに、拡張ベースVRモデルビルダ200は、対応する現実世界環境の拡張VRモデルを作成するように構成される、スティッチ/ブレンドモジュール235を含む。特に、追加画像及び/またはビデオ、ならびに不完全なオブジェクトの拡張サーフェスモデル、不完全なオブジェクトの代替サーフェスモデル、及びフィラーオブジェクトが、サードパーティマッピングシステムによって提供されるベースVRモデルから形成される拡張VRモデルを作成するために合わせてスティッチされ得る。
拡張ベースVRモデルビルダ200は、対応する現実世界環境の生成された拡張VRモデルへのアクセスを提供するように構成される、ソフトウェア開発キット(SDK)ビルダ240を含む。例えば、SDKは、拡張VRモデルのライブラリを管理するサーバ200へのアクセスを与えるツールを含み得る。特に、SDKは、ゲーム開発者による拡張VRモデルのライブラリ181へのアクセスを与えてもよく、選択された拡張VRモデルは、ゲームアプリケーションを開発するためにゲームロジックでレイヤ化され得る。SDKは、一実施態様において、特定のゲームプラットフォーム(例えば、Sony PlayStation(登録商標))に固有であってもよい。別の場合において、SDKは、拡張VRモデルのライブラリ181にアクセスを提供するだけであってもよく、拡張VRモデルのライブラリ181から選択されるVRモデルは、1つまたは複数のゲームプラットフォーム上でプレイ可能なゲームロジックと統合され得る。
拡張ベースVRモデルビルダ200は、1つまたは複数の汎用オブジェクトについてのサーフェスモデルを構築するように構成されるオブジェクトモデラ245を含む。即ち、平屋の建物、住居、二階建ての建物、給油所、特定の動物、立っている一般的な人、歩いている一般的な人、自動車、オートバイ、机、木、セミトレーラなどのいくつかのオブジェクトが、1つまたは複数の現実世界環境において見出される。汎用サーフェスモデルは、それらのオブジェクトについて生成され得る。例えば、対応するオブジェクトについての画像及び/またはビデオが、そのオブジェクトについての汎用モデルを作成するために、深層学習エンジン190内で実施されるように、オブジェクトモデラ245に入力され得る。
拡張ベースVRモデルビルダ200は、また、反復的かつ計算集中型動作を実行するように構成される深層学習エンジン190と併せて作動し得る。具体的には、深層学習エンジン190は、前に紹介したオブジェクトモデラ245及びオブジェクト/環境認識/検出モジュール210の機能を含み、かつ実行し得る。深層学習エンジンは、図3に関連してより完全に説明される。
図3は、本開示の一実施形態による、オブジェクトについてのサーフェスモデルを構築するため、画像及び/またはビデオ内のオブジェクトの認識を実行するため、ならびに画像及び/またはビデオ内にキャプチャされたローカル環境の認識を実行するために使用される、例としてのニューラルネットワークを示す。具体的には、サーバ160内の深層学習または機械学習エンジン190は、オブジェクト及び/またはローカル環境に関する入力情報(例えば、画像、ビデオ、ベースVRモデルなど)として受信するように構成される。深層学習エンジン190は、深層学習アルゴリズム、強化学習、または他の人工知能ベースのアルゴリズムを含む人工知能を利用して、前述のようにオブジェクトについてのサーフェスモデルを構築し、画像及び/またはビデオ内のオブジェクトを認識し、画像及び/またはビデオ内のローカル環境を認識する。即ち、学習及び/またはモデル化段階の間、入力データは、オブジェクトについてのサーフェスモデルを作成するため、及び特定の事前定義されたオブジェクトを識別/認識するために使用され得る並列モデル(例えば、学習済みアルゴリズム)を作成するために、深層学習エンジン190によって使用される。例えば、入力データは、猫の複数の画像を含んでもよく、それは、深層学習エンジン190に供給されるときに一般的な猫についてのサーフェスモデルを作成するように構成され、画像及び/またはビデオ内及び現実世界環境のVRモデル内の猫を識別するために使用されるオブジェクト認識アルゴリズム(モデル)を作成するようにも構成される。
ニューラルネットワーク190は、対応するユーザの応答、アクション、挙動、欲しいもの及び/または必要なものを判断するためにデータセットを分析する自動化分析ツールの例を表す。異なる種類のニューラルネットワーク190が可能である。例では、ニューラルネットワーク190が、深層学習をサポートする。それに応じて、教師ありまたは教師なし訓練を用いた深層ニューラルネットワーク、畳み込み深層ニューラルネットワーク、及び/または回帰型ニューラルネットワークが、実施され得る。別の例では、ニューラルネットワーク190は、強化学習をサポートする深層学習ネットワークを含む。例えば、ニューラルネットワーク190は、強化学習アルゴリズムをサポートするマルコフ決定プロセス(MDP)としてセットアップされている。
概して、ニューラルネットワーク190は、人工ニューラルネットワークなどの相互接続されたノードのネットワークを表す。各ノードは、データから何らかの情報を学習する。知識は、相互接続を通してノード間で交換され得る。ニューラルネットワーク190への入力は、ノードのセットをアクティブ化する。同様に、ノードのこのセットは、他のノードをアクティブ化し、それによって入力についての知識を伝播する。このアクティブ化プロセスは、出力が提供されるまで他のノードにわたって繰り返される。
例示されるように、ニューラルネットワーク190は、ノードの階層を含む。最下位階層レベルに、入力層191が存在する。入力層191は、入力ノードのセットを含む。例えば、これらの入力ノードのそれぞれは、自律パーソナルコンパニオン100によるユーザ及びユーザに関連付けられた環境のモニタリング及び/または照会中に、アクチュエータを通して能動的に、またはセンサによって受動的に収集されるローカルデータ115にマッピングされる。
最上位階層レベルに、出力層193が存在する。出力層193は、出力ノードのセットを含む。出力ノードは、例えば、ローカルAIモデル120の1つまたは複数のコンポーネントに関する決定(例えば、予測)を表す。前述の通り、出力ノードは、入力の所与のセットについてユーザの予測または予期される応答、アクション、挙動、欲しいもの及び/または必要なものを識別し得る。入力は、様々なシナリオ(例えば、直接リクエスト、時刻、挙動の様々なパターンなど)を定義し得る。これらの結果は、入力の所与のセットについてのユーザの適当な予測または予期される応答、アクション、挙動、欲しいもの及び/または必要なものを繰り返し判断するために深層学習エンジン190によって使用されるパラメータを改良及び/または修正するために、ユーザ及び/または環境の以前の対話及びモニタリングから取得される所定の及び真の結果と比較され得る。即ち、ニューラルネットワーク190内のノードは、パラメータを改良するときにそのような決定を行うために使用され得るAIモデル120のパラメータを学習する。
特に、隠れ層192は、入力層191と出力層193との間に存在する。隠れ層192は、「N」個の隠れ層を含み、「N」は、1以上の整数である。同様に、隠れ層のそれぞれもまた、隠れノードのセットを含む。入力ノードは、隠れノードに相互接続される。同様に、入力ノードが出力ノードに直接相互接続されないように、隠れノードは、出力ノードに相互接続される。複数の隠れ層が存在する場合、入力ノードは、最下位隠れ層の隠れノードに相互接続される。同様に、これらの隠れノードは、次の隠れ層の隠れノードに相互接続される、などである。2番目に上位の隠れ層の隠れノードは、出力ノードに相互接続される。相互接続は、2つのノードを接続する。相互接続は、学習され得る数値加重を有し、ニューラルネットワーク190を入力に適合的で学習可能にする。
概して、隠れ層192は、入力ノードについての知識が出力ノードに対応する全てのタスク間で共有されることを可能にする。そうすることで、一実施態様において、変換fが、隠れ層192を通して入力ノードに適用される。例では、変換fは非線形である。例えば、線形正規化関数f(x)=max(0,x)を含む異なる非線形変換fが利用可能である。
ニューラルネットワーク190は、最適解を見つけるためにコスト関数cも使用する。コスト関数は、所与の入力xについてf(x)として定義されるニューラルネットワーク190によって出力される予測と、グランドトゥルースまたは目標値y(例えば、予測結果)との間の偏差を測定する。最適解は、最適解のコストよりも低いコストを有する解がない状況を表す。コスト関数の例は、そのようなグランドトゥルースラベルが利用可能であるデータについての予測とグランドトゥルースとの間の平均二乗誤差である。学習プロセスの間、ニューラルネットワーク190は、逆伝播アルゴリズムを用いて、コスト関数を最小化するモデルパラメータ(例えば、隠れ層192内のノード間の相互接続についての加重)を学習する異なる最適化方法を採用し得る。そのような最適化方法の例が、確率的勾配降下である。
例では、ニューラルネットワーク190のための訓練データセットは、同じデータ領域からのものであり得る。例えば、ニューラルネットワーク190は、入力の所与のセットまたは入力データに基づいて、類似オブジェクトのパターン及び/または特性を学習するため、ローカル環境を認識するため、汎用オブジェクトについてのサーフェスモデルを構築するため、などに訓練される。この例示においては、データ領域は、オブジェクトまたはローカル環境の画像及びビデオデータを含む。別の例では、訓練データセットは、基準値以外の入力データを含むように、異なるデータ領域からのものである。したがって、ニューラルネットワーク190は、画像及び/またはビデオデータ内のオブジェクトを認識してもよく、または画像及び/またはビデオデータによってキャプチャされるようにローカル環境を認識してもよく、または入力画像及びビデオデータに基づく対応オブジェクトについてのサーフェスモデルを生成するように構成されてもよい。
拡張ベースVRモデルビルダ200及び深層学習エンジン190を含むシステム200の様々なモジュールの詳細な説明を用いて、図4Aのフロー図400Aは、本開示の一実施形態による、サードパーティマッピングシステムから現実世界VRモデルをベースとして用いてVRゲーム環境を構築する方法を開示する。フロー図400Aは、前述のように、対応する現実世界環境の拡張VRモデルを構築するときに、システム200内、より詳細には、拡張ベースVRモデルビルダ200及び/または深層学習エンジン190内で実施される。
フロー図400Aの方法は、ゲームアプリケーションを開発するときにゲーム環境を提供するために、現実世界環境の拡張VRモデルを構築する状況内で説明するが、他の実施形態は、任意の種類の環境の拡張ベースVRモデルを仮想環境として構築するのに十分適している。即ち、任意の種類のベースVRモデルの拡張は、1つまたは複数の拡張VRモデルを生成するために実行されてもよく、ベースVRモデルは、現実世界、空想世界、仮想世界、及び/または他のデジタル作成された世界に対応し得る。
410において、この方法は、サードパーティマッピングデータストレージから現実世界環境のベースVRモデルにアクセスすることを含む。現実世界オブジェクトが環境内で見出され得るように、現実世界環境は、複数の現実世界オブジェクトを含む。本発明の実施形態は、現実世界環境に対応するVR世界を生成し、VR世界は、ゲームアプリケーションについてのゲーム環境として使用され得る。ゼロから、またはボトムアップから始めるのではなく、サードパーティマッピングエンティティからのVR世界は、ベースVRモデルとして使用される。ベースVRモデルは、典型的には範囲が非常に制限され、概して不完全である。即ち、現実世界環境へのビューは、環境内の点または位置の事前定義されたセットから提供されるだけであるように、ベースVRモデルは、現実世界環境の十分なカバレッジを提供しない。一方、本開示の実施形態は、十分なカバレッジを提供する現実世界環境の完全なモデルを作成するためにベースVRモデルを修正するように構成される(例えば、対応する拡張ベースVRモデルによって定義される空間は、空間内のどの位置からも見ることができる)。当然ながら、本発明の他の実施形態は、(例えば、ボトムアップから構築する)全体で、ゲーム環境として使用されるものなどのVR世界を生成することも可能である。
前述のように、現実世界環境内の複数の現実世界オブジェクトは、深層学習プロセスを通して判断され得る。即ち、現実世界環境の画像及び/またはビデオは、サーバ160内の深層学習または機械学習エンジン190への入力として提供される。深層学習エンジン190は、深層学習アルゴリズム、強化学習、または他の人工知能ベースのアルゴリズムを含む人工知能を利用して、画像及び/またはビデオ内のオブジェクトを認識し、画像及び/またはビデオ内のローカル環境を認識する。
415において、この方法は、ベースVRモデル内の第1のオブジェクトを拡張することを含む。第1のオブジェクトは、現実世界環境内の第1の現実世界オブジェクトに対応する。第1のオブジェクトは、ベースVRモデル内の第1の現実世界オブジェクトの表現(例えば、サーフェスモデル)であってもよい。
一実施形態では、表現が不完全である(例えば、1つまたは複数のサーフェスセグメントがサーフェスモデルにおいて欠落している)ように、第1のオブジェクトは、ベースVRモデルにおいて不完全であってもよい。第1のオブジェクトは、ベースVRモデル内の第1の現実世界オブジェクトの、より完全な表現を生成するために拡張される。一実施形態では、サーフェスセグメントが、第1の現実世界オブジェクトに対応する不完全なサーフェスモデルを拡張するために使用され得る。サーフェスモデルでは、1つまたは複数のサーフェスセグメントが欠落している。別の実施形態では、第1の現実世界オブジェクトの完全なサーフェスモデル(例えば、汎用またはカスタムサーフェスモデル)が、不完全なサーフェスモデルに対して代用されてもよく、ベースVRモデルを拡張するときに第1の現実世界オブジェクトを表すために使用されてもよい。完全なサーフェスモデルは、一実施形態では事前生成されてもよく、別の実施形態では、第1の現実世界オブジェクトの複数の画像及び/またはビデオから生成される。
他の実施形態では、第1のオブジェクトは、ベースVRモデルから欠落していてもよい。即ち、拡張プロセスは、ベースVRモデル内の第1の現実世界オブジェクトの表現を生成するように修正され得る。一実施形態では、事前生成された完全なサーフェスモデルが、ベースVRモデルを拡張するときに第1の現実世界オブジェクトを表すために使用され得る。別の実施形態では、完全なサーフェスモデルは、第1の現実世界オブジェクトの複数の画像及び/またはビデオから生成され、ベースVRモデルを拡張するときに第1の現実世界オブジェクトを表すために使用される。
この方法では、任意で、ベースVRモデル内のギャップ領域を判断する。ギャップ領域には、少なくとも1つのオブジェクトが欠けている。一例では、ベースVRモデルは、現実世界環境において表された領域についての欠落データである。別の例では、現実世界環境において識別された第2の現実世界オブジェクトの表現は、ベースVRモデルから欠落していてもよい。
この方法では、ギャップ領域を充填するためにフィラーオブジェクトにアクセスすることを含む。一実施態様において、フィラーオブジェクトは、ギャップ領域を充填するために使用される任意の汎用オブジェクトであってもよく、現実世界環境内に存在してもしなくてもよい。例えば、フィラーオブジェクトは、アクセスのために事前生成され記憶されてもよく、またはフィラーオブジェクトは、対応するオブジェクトの画像及び/またはビデオに基づいて生成され、生成された後でアクセスされてもよい。例えば、420において、この方法は、ギャップ領域を充填するために、フィラーオブジェクトを生成すること、及び/または事前生成されたフィラーオブジェクトにアクセスすることを含む。別の実施態様では、フィラーオブジェクトは、ベースVRモデルから欠落している、前に紹介した第2の現実世界オブジェクトに対応し得る。例えば、423において、この方法は、現実世界環境内の第2の現実世界オブジェクトに対応する、フィラーオブジェクトを生成すること、及び/または事前生成されたフィラーオブジェクトにアクセスすることを含む。
425において、この方法は、現実世界環境に対応する拡張ベースVRモデルを生成するために、拡張される第1のオブジェクトをベースVRモデル内にスティッチすることを含む。さらに、この方法は、任意で、拡張ベースVRモデルを生成するために1つまたは複数のフィラーオブジェクトをベースVRモデル内にスティッチすることを含む。スティッチアルゴリズム及び方法は、当技術分野において周知であり、環境のシームレスな3Dモデルを作成するためにオブジェクト、画像、ビデオを合わせて統合するために使用される。例えば、スティッチすることは、拡張VRモデルを生成するときに不完全なサーフェスモデルに対して拡張サーフェスモデルを代用することを含む。さらに、1つまたは複数のフィラーサーフェスモデルは、拡張VRモデルを生成するときに現実世界環境のベースVRモデル内に置かれる。したがって、拡張ベースVRモデル内で、オブジェクトはどの位置からも見ることができる。即ち、ビューが現実世界環境内の任意の位置から生成され得るように、現実世界環境の拡張VRモデルは、完全である。このようにして、オブジェクトは、拡張VRモデルの環境内の任意の位置から撮られるように任意の視点から見ることが可能であり得る。
430において、この方法は、拡張ベースVRモデルを、複数の拡張ベースVRモデルを含むライブラリデータストアに記憶することを含む。拡張ベースVRモデルのそれぞれが、対応するゲームアプリケーションの対応する仮想環境として使用するために構成される。一実施形態では、拡張ベースVRモデルは、ゲームアプリケーションのゲーム環境として使用され得る。431において、この方法は、複数の拡張ベースVRモデルのうちの1つまたは複数を用いて、ゲームアプリケーションの仮想環境を定義することを含む。
例えば、ゲーム開発者のクライアントデバイスは、拡張ベースVRモデルとゲームアプリケーションのゲームロジックをインタフェース接続することを容易にするために、ゲーム開発中に1つまたは複数の拡張ベースVRモデルにアクセスし得る。特に、この方法は、拡張ベースVRモデルとインタフェース接続されるように構成されるゲームアプリケーションのゲームロジックの開発に使用するために、ライブラリデータストレージからソフトウェア開発キット(SDK)を通してリモートデバイスに、対応する拡張ベースVRモデルを利用可能にすることを含み、ゲームアプリケーションが、現実世界環境に基づくゲーム環境を有する。このようにして、ゲームロジックは、ゲームアプリケーションにゲーム環境を提供するために、拡張ベースVRモデルとインタフェース接続される。
別の例では、ゲームアプリケーションをプレイしている第1のユーザのゲームプレイと連携するクライアントデバイスが、ゲームロジックの実行中に、1つまたは複数の拡張ベースVRモデルにアクセスし得る。このようにして、ユーザのゲームプレイのゲーム環境は、対応する現実世界環境の1つまたは複数の拡張ベースVRモデルを通して実施される。特に、この方法は、リモートデバイスから拡張ベースVRモデルについてのリクエストを受信することを含む。拡張ベースVRモデルは、ゲームアプリケーションのゲームロジックとインタフェース接続するためにリモートデバイスに配信され、ゲームロジックは、第1のユーザのゲームプレイと連携してモートデバイス上で実行している。リモートデバイスは、一実施形態では、複数のユーザについての複数のゲームロジックを実行するように構成されるサーバであってもよい。別の実施形態では、リモートデバイスは、第1のユーザのコンソールであってもよい。
この方法では、実施形態では、グラフィックのすべてをゼロから生成する必要はなく、対応する現実世界環境の仮想環境またはゲーム環境を生成することができる。これは、サードパーティマッピングデータを使用し、それを拡張することによって達成され、それにより、拡張仮想環境の一部は予め作成され、拡張仮想環境内で再利用可能である。拡張仮想環境は、他のグラフィックデータのほか、他のVR世界の部分を追加及び/またはインポートすることによって生成される。拡張仮想環境は、ゲームアプリケーションの背景または環境として使用できる。即ち、拡張仮想環境は、関数型ゲームロジックの一部になる。
一実施形態では、サードパーティマッピングデータを分析し、用いて、現実世界環境で見つけられたオブジェクトのグリッドマッピングを生成する。機能層は、オブジェクトのグリッドマッピングに加えることができる。例えば、色、照明、及びテクスチャ、及び他の特徴は、グリッドマッピングの上面に層をなすことができる。さらに、グリッドマッピングによって表されるオブジェクトは、ゲームロジックにプログラムされる物理法則に影響され得る。その方法では、特に仮想環境で他のオブジェクトと対話するとき、オブジェクトは、現実的に見て応答する。別の実施形態では、オブジェクトのグリッドマッピング表現を修正して、ゲームアプリケーション内の仮想環境として使うための現実世界環境の動画版及び/またはグラフィック版を生成することができる。さらに、スキニングを実施して、所望に応じてオブジェクトの修正スキンを生成してもよい。
本開示の一実施形態によれば、拡張ベースVRモデルビルダ200及び深層学習エンジン190を含むシステム200の様々なモジュールの詳細な説明と共に、図4Bのフロー図400Bは、サーフェスセグメントを有するベースVRモデル内の不完全なオブジェクトを拡張すること及びベースVRモデル内のギャップ領域をフィラーオブジェクトで充填することを含む、サードパーティマッピングシステムから現実世界VRモデルをベースとして用いてVRゲーム環境を構築するための方法を開示する。フロー図400Bは、上述したように、対応する現実世界環境の拡張VRモデルを構築するとき、システム200内に、より詳細には拡張ベースVRモデルビルダ200及び/または深層学習エンジン190内に実装される。
433において、この方法は、現実世界環境内の複数の現実世界オブジェクトを決定することを含む。例えば、現実世界環境の画像及び/またはビデオは、深層学習エンジン190によって分析されて、局所(例えば、名前、場所など)を認識するだけでなく、局所内のオブジェクトも認識し得る。ベースVRモデルは、オブジェクト決定のため使用される、少なくとも画像及び/またはビデオの一部を提供してもよい。さらに、ガイドブック、局所に関連した公開情報、都市の販促材料など、オブジェクト決定のため、他のデータ源を使用してもよく、オブジェクト認識アルゴリズムは、どのオブジェクトが局所内に見つかるかを判定するため(例えば、テキストパーサを)実装されてもよい。
加えて、ベースVRモデルの分析は、複数の現実世界オブジェクトからのどの現実世界オブジェクトがベースVRモデルに表されているかを決定する助けになり得る。ベースVRモデルは、ベースVRモデルを構築するとき、サードパーティマッピングエンティティによって使用される画像及び/またはビデオによって決定されるように、対応する現実世界環境で見つかったオブジェクトの表示を含んでもよい。通常、ベースモデルを構築するために使用される画像及び/またはビデオの数は、完全なVRモデルを構築するには不十分で、それにより、現実世界環境のすべての視野が、ベースVRモデル内に表されるわけではない。ベースVRモデル内の欠落オブジェクト及びギャップ領域は、以下に記載するように、どのオブジェクトがベースVRモデルに表されているかの理解を通して部分的に決定され得る。
435において、この方法は、ベースVRモデル内の複数の現実世界オブジェクトのための複数のサーフェスモデルを検出することを含む。サーフェスモデルは、任意の角度または視点から見るのに適切な3Dモデルとして生成される。3Dモデルは、様々な幾何学的形状(例えば、三角形、線など)によって接続される空間内の点の集まり(例えば、頂点)であり得る。表面は、粗さもあってよい。サードパーティマッピングエンティティに応じて、ベースVRモデルは、多角形メッシュ、湾曲した表面のための湾曲モデル、点モデル、ワイヤーフレームなどとして構成することができるオブジェクトを含む。
437において、この方法は、複数のサーフェスモデル内の不完全なサーフェスモデルを検出することを含む。不完全なオブジェクト及び/またはモデルを、図5Bに示す。ベースVRモデルを構築するために使用される画像及び/またはビデオの数は、不十分なので、全てのオブジェクトのすべての視野を生成することはできない。例えば、オブジェクトの1つの画像だけがキャプチャされ、対応するオブジェクトモデルを作成、構築するために使用される場合、その1つの画像は、オブジェクトの片側だけをキャプチャできる。そのため、オブジェクトモデルは、反対側の画像が存在しないので、不完全である。即ち、オブジェクトモデルの反対側は、空白である。本開示の実施形態は、以下に記載するように、ベースVRモデルを修正する時に使用するためのサーフェスモデルを完成することができる。
439において、この方法は、拡張サーフェスモデルを生成するために、不完全なサーフェスモデルの表面を拡張する。この方法では、対応するオブジェクトのための完全なサーフェスモデルは、これらのオブジェクトがすべての角度から完全に見ることができるようにベースVRモデルに配置され得る。一実施形態では、第1のオブジェクトは、ベースVRモデル内の第1のサーフェスモデルと関連付けられていると認識される。第1のサーフェスモデルは、第1のオブジェクトのすべての視野がベースVRモデル内で入手できるわけではないなどのように、既に不完全であると識別されている。第1のオブジェクトは、特定のオブジェクトの種類に対してオブジェクト認識アルゴリズム/モデルを使用して認識されてもよい。ベースVRモデルは、それぞれが、現実世界オブジェクトに対応する複数のサーフェスモデルを含む。
一実施形態では、第1のオブジェクトが、第1の不完全なサーフェスモデルと関連付けられていると認識された後、次に第2のデータストレージから(例えば、サードパーティの画像収集エンティティから)第1のオブジェクトの複数の画像及び/またはビデオが得られる。サードパーティのマッピングエンティティが、ベースVRモデルの構築時に使用されず、かつ、オブジェクトモデルを完成させるために使用できる他の画像やビデオを持っている場合は別として、持っていない場合には、ベースVRモデルの作成に使用された画像やビデオは完全な表面モデルを構築するにはまだ不十分であると推定されるので、補足画像および/またはビデオは、必ずしも元のサードパーティのマッピングエンティティから取得されるとは限られない。したがって、補足画像及び/またはビデオは、別のサードパーティマッピングエンティティまたは画像収集エンティティ、局所的オブジェクトデータストアなどから取得される。その後、これらの補足画像及び/またはビデオは、第1の不完全なサーフェスモデルを第1のオブジェクトの複数の画像に基づいて生成されるサーフェスセグメントと共に拡張するために使用されて、第1のオブジェクトの第1の拡張サーフェスモデルを生成する。例えば、様々なスティッチ技術を使用して、第1のオブジェクトのサーフェスモデルを完成するために使用できる補足画像及び/またはビデオを合わせてスティッチし得る。その方法では、不完全な第1のサーフェスモデルは、拡張された第1のサーフェスモデルを生成するために複数の画像及び/またはビデオから構築される少なくとも1つのサーフェスセグメントで拡張される。この拡張された第1のサーフェスモデルを使用して、ベースVRモデルの他のオブジェクトと第1のオブジェクトをスティッチすることができる。
別の実施形態では、第1のオブジェクトが、第1の不完全なサーフェスモデルと関連付けられていると認識された後、次に以前生成された完全な第1のサーフェスモデルは、例えば、オブジェクトデータストアから(例えば、サードパーティの画像収集エンティティから、サードパーティマッピングエンティティから、局所的データストアから、など)441でアクセスすることができる。この完全な第1のサーフェスモデルは、第1のオブジェクトをベースVRモデル内の他のオブジェクトとスティッチするとき、対応する不完全なサーフェスモデルの代替として使用されて、第1のサーフェスモデルを表すことができる。即ち、現実世界環境の拡張VR世界を生成するとき、第1の不完全なサーフェスモデルは、以前生成された完全な第1のサーフェスモデルによって置換される。
さらに別の実施形態では、第1のオブジェクトが、第1の不完全なサーフェスモデルと関連付けられていると認識された後、次に完全な第1のサーフェスモデルを生成することができる。例えば、第1のオブジェクトの複数の画像及び/またはビデオは、上述したように、第2のデータストレージから(例えば、サードパーティの画像収集エンティティから)アクセスできる。第1の現実世界オブジェクトの完全な第1のサーフェスモデルは、複数の画像及び/またはビデオを用いて生成することができる。この完全な第1のサーフェスモデルは、第1のオブジェクトをベースVRモデル内の他のオブジェクトとスティッチするとき、対応する不完全なサーフェスモデルの代替として使用されて、第1のサーフェスモデルを表すことができる。即ち、現実世界環境の拡張VR世界を生成するとき、第1の不完全なサーフェスモデルは、新しく生成された完全な第1のサーフェスモデルによって置換される。
さらに、現実世界環境に存在するが、ベースVRモデルに表されていないことが知られているオブジェクトが識別され得る。欠落オブジェクトを図5Bに示す。例えば、街路のシーンでは、街路の特定の位置にある建物は、環境内にあると識別される。ベースVRモデルの分析は、建物の表示は、ベースVRモデルに表されないと判定し得る。したがって、本開示の実施形態は、ベースVRモデルを修正するときに使用する欠落オブジェクトのサーフェスモデルにアクセスする、かつ/またはそれを構築することができる。ベースVRモデルを修正するとき、欠落オブジェクトの以前生成されたサーフェスモデルまたは新しく生成されたサーフェスモデルを使用して、欠落オブジェクトを表すことができる。即ち、現実世界環境の拡張VR世界を生成する場合、欠落オブジェクトをベースVRモデル内の他のオブジェクトとスティッチするときに、欠落オブジェクトの以前生成されたサーフェスモデルまたは新しく生成されたサーフェスモデルが使用される。
443において、この方法は、ベースVRモデル内の第1の複数の現実世界オブジェクトのギャップ領域を検出することを含む。ギャップ領域を図5Bに記載し図示する。ベースVRモデルを構築するために使用される画像及び/またはビデオの数は十分ではないため、現実世界環境のすべての視野がベースVRモデル内でサポートできるわけではない。即ち、ギャップ領域は、ベースVRモデル内に存在し、ギャップ領域は、1つまたは複数の欠落オブジェクトを含んでもよい。一実施形態では、ギャップ領域は、まず、ベースVRモデルに対応する現実世界環境を認識することによって決定される。この認識は、上述したように深層学習エンジンを用いて実行することができる。例えば、ベースVRモデルを生成するために使用される生の画像及び/またはビデオ、あるいはベースVRモデル自体またはベースVRモデルからの画像は、深層学習エンジンに入力すると提供され得る。
類似のパターンまたは特徴に基づいて、深層学習エンジンは、入力データが、対応する現実世界環境に関連する以前学習したデータに類似すると認識できる。このように、現実世界環境を認識及び/または標識化できる。さらに、現実世界環境を認識すると、現実世界環境内の予想された領域及び/またはオブジェクトを決定できる。また、ベースVRモデル内の欠落している領域及び/またはオブジェクトは、ベースVRモデル内の1つまたは複数のギャップ領域を示す。例えば、ベースVRモデル内に表される現実世界オブジェクトは、現実世界環境に存在する既知のオブジェクトと比較することができる。
445において、この方法は、ギャップ領域に位置するフィラーオブジェクト用の1つまたは複数のフィラーサーフェスモデルにアクセスすること及び/またはそれらを生成することを含む。フィラーオブジェクトは、以下に記載するように、現実世界環境内のオブジェクトに対応してもしなくてもよい。
一実施形態では、フィラーオブジェクトは、現実世界環境に存在する任意のオブジェクトに関連しなくてもよい。完全な以前生成された第1のフィラーサーフェスモデルは、アクセスされる。この場合、以前生成された完全な第1のフィラーサーフェスモデルは、現実世界環境の拡張VR世界を生成するとき、ベースVRモデルの第1のギャップ位置に配置される。ベースVRモデルを修正するとき、以前生成された第1のフィラーサーフェスモデルを使用して、ギャップ領域に充填してもよい。即ち、現実世界環境の拡張VR世界を生成する場合、フィラーオブジェクトをベースVRモデル内の他のオブジェクトとスティッチするときに、以前生成された第1のフィラーサーフェスモデルが使用される。
別の実施形態では、フィラーオブジェクトは、現実世界環境内に存在するオブジェクトに関連し得るが、ベースVRモデルでは欠落している。例えば、現実世界環境に存在することが知られているが、ベースVRモデルでは欠落している、第1のギャップオブジェクトを検出することができる。第1のギャップオブジェクトは、ベースVRモデル内のギャップ領域(例えば、第1のギャップ位置)に関連付けられる。第1のフィラーサーフェスモデルは、上述したように、第2のデータストレージから第1のギャップオブジェクトの複数の画像にアクセスすることによって新しく生成され得る。
例えば、第2のデータストレージは、サードパーティの画像収集エンティティに関連付けられてもよく、または複数のオブジェクト用の画像を含む独自のデータストレージであってもよい。この場合、第1のギャップオブジェクト用の第1のフィラーサーフェスモデルは、複数の画像に基づいて生成される。したがって、第1のフィラーサーフェスモデルは、現実世界環境の拡張VR世界を生成するとき、ベースVRモデルの第1のギャップ位置に配置される。即ち、ベースVRモデルを修正する場合、第1のギャップオブジェクトの第1のフィラーサーフェスモデルを使用して、第1のギャップオブジェクトを表すことができる。具体的には、現実世界環境の拡張VR世界を生成する場合、第1のギャップオブジェクトをベースVRモデル内の他のオブジェクトとスティッチするときに、第1のフィラーサーフェスモデルを使用する。
447において、この方法は、現実世界環境に対応する拡張VRモデルを生成するために、拡張サーフェスモデル及び1つまたは複数のフィラーサーフェスモデルをベースVRモデルにスティッチすることを含む。例えば、スティッチすることは、拡張VRモデルを生成するときに、不完全なサーフェスモデルを拡張サーフェスモデルに置換することを含む。さらに、1つまたは複数のフィラーサーフェスモデルは、拡張VRモデルを生成するとき、現実世界環境のベースVRモデル内に配置される。したがって、拡張VRモデル内で、オブジェクトは任意の位置から見ることができる。即ち、現実世界環境の拡張VRモデルは、完全であり、それにより、視野が現実世界環境の任意の位置から生成できる。その方法では、オブジェクトは、拡張VRモデルの環境内の任意の位置から撮られる任意の視点から見ることができる。
一実施形態では、現実世界環境は、街、公園、内部環境、外部環境などの任意の局所的環境であってもよい。例えば、現実世界環境は、博物館、遊園地、映画館、街、部屋、家、アパートなどであってもよい。別の実施形態では、現実世界環境は、ライブイベントの記録など(例えば、コンサート、映画、講演など)の記録されたイベントである。そのため、拡張ベースVR世界を組み入れるゲームアプリケーションは、上述の通り、任意の現実世界環境に設定することができる。一ユースケースは、博物館である現実世界環境のツアーであるゲームアプリケーションを含む。そうして、ユーザは、仮想環境の博物館内のディスプレイ上でオブジェクトを見るために博物館を通して巧みに操作(例えば、歩く)することができる。別のユースケースでは、ゲームアプリケーションは、ライブイベントを提供できる。そうして、ユーザは、ライブイベントの開催場所を歩き回り、前もって記録されたライブイベントに参加できる。
図5Aは、現実世界環境500のベースVRモデルを構築するための画像キャプチャデバイスの使用を示し、本開示の一実施形態による、ビデオ及び音声データ収集デバイスの位置を含む。例えば、複数のデータ収集デバイスは、現実世界環境500内に配置される。例えば、データ収集デバイスは、ポイント510B、511B、512B、513B、515B、及び516Bに配置されてもよい。データ収集デバイスは、画像及び/またはビデオキャプチャデバイス、ならびに音声収集デバイスを含んでもよい。他の種類のデータ収集デバイス(例えば、温度、音声など)はまた、現実世界環境の完全に没入型の経験を作成するために使用され得る。データキャプチャデバイスから記録された画像及び/またはビデオを使用して、現実世界環境500の仮想視野を生成することができる。具体的には、記録された画像及び/またはビデオは、上述したように、ベースVR世界/モデルを生成するために、合わせてスティッチされ得る。これは、ライブイベントの記録を含んでもよく、ライブイベントの仮想ビューを、1つまたは複数のデータ収集デバイスから取得されたビデオ記録から合わせてスティッチし得る。
理想的には、十分なデータ収集デバイスが、ベースVRモデルで表したように、現実世界環境500を完全に網羅するため使用され散在される。図5Aに示すように、ポイント510B、511B、512B、513B、515B、および516Bでのデータ収集デバイスはそれぞれ、カバーエリアを有する。例えば、ポイント510Aでデータ収集デバイスは、カバーエリア510A全体の画像及び/またはビデオを撮影する。カバーエリア511Aは、ポイント511Bでのデータ収集デバイスの網羅を示す。相応して、追加のカバーエリア512A、513A、514A、515A、および516Aが示される。全体としてみると、データ収集デバイスは、現実世界環境500の完全な網羅を提供する。
図5Bは、本開示の一実施形態にしたがって、不十分な数の画像キャプチャデバイスが、VRモデルを構築するために使用される場合、現実世界環境500のベースVRモデル内の不完全なオブジェクト及びギャップの識別を示す。図5Bに示すように、現実世界環境からデータ(例えば、画像、ビデオ、音声など)を収集するため、不十分なデータ収集デバイスが使用される。図5Aと比較すると、ポイント510B、512B、および516Bでデータ収集デバイスは提供されない。即ち、図5Aで示すように、対応するカバーエリア510A、512a、および516Aで収集されるデータはない。
ベースVRモデル内のギャップ領域は、ポイント510B、512B、及び516Bでデータ収集デバイスが不足していることに関連付けられ得る。例えば、ギャップ領域531は、ポイント510Bでデータ収集デバイスが不足していることに関連付けられ得る。ギャップ領域531は、オブジェクト用のデータが収集されなかった、ベースVRモデルから欠落しているオブジェクト560A~560Dを含む。また、ギャップ領域532は、オブジェクトがない可能性がある。さらに、ギャップ領域533は、それらのオブジェクト用のデータが収集されなかった、ベースVRモデルから欠落しているオブジェクト560E~560Fを含む。
加えて、現実世界環境500の他のオブジェクトは、そのオブジェクト用にキャプチャされる複数の視点が不足しているため、ベースVRモデル内に表されているように不完全である可能性がある。例えば、オブジェクト550Aは、ポイント511Bで一データ収集デバイスからのみキャプチャされ得る。その場合、オブジェクト550Aのモデルは、オブジェクトの後ろ側の表示がなくオブジェクトの前側だけを有する可能性がある。さらに、不完全なオブジェクト550Bは、511Bの一視点から1つの側を網羅され、不完全なオブジェクト550Cは、514Bの一視点から1つの側を網羅され、不完全なオブジェクト550Dは、514Bの一視点から1つの側を網羅され、不完全なオブジェクト550Eは、514Bの一視点から1つの側を網羅され、不完全なオブジェクト550Fは、513Bの一視点から1つの側を網羅され、かつ不完全なオブジェクト550G、550H、および550Jはそれぞれ、515Bの一視点から1つの側を網羅される。
図6Aは、本開示の一実施形態による、サードパーティマッピングシステムから現実世界VRモデルをベースとして用いてVRゲーム環境を構築するために使用される情報の流れを示すデータフロー600Aである。データフロー600Aは、一実施形態では、図4A~4Bのフロー図400A~400Bに従ってもよい。
図示の通り、データフロー600Aは、サードパーティマッピングエンティティによって実行されるサードパーティマッピング段階691、拡張VR世界を構築するためのVR世界拡張段階692、および使用段階693を含む3つの段階の間で仕切ることができる。使用段階は、ゲーム環境として拡張VR世界を使用するためのゲーム開発及びゲームアプリケーションが拡張VR世界に基づいてゲーム環境を提供するように実行することができるゲームプレイを含んでもよい。
サードパーティマッピング段階691において、サードパーティマッピングエンティティは、対応する現実世界環境のベースVRモデル655を構築する。通常、サードパーティマッピングエンティティは、ゲームプレイ中に使用し楽しむために、ベースVRモデル655をユーザにアクセス可能にすることができる。例えば、マッピング会社は、1つまたは複数の環境の3Dビューを含み得るマッピングサービスをユーザに(例えば、サーチエンジンを介して)提供できる。すでに紹介したように、これらのベースVRモデルは、デジタル生成された3D世界の全ての位置からではなく、デジタル生成された3D世界への特定の視野だけを提供するので、網羅する範囲が限られている。
具体的には、ベースVRモデル655は、インドア環境及びアウトドア環境用に作成することができる。対応するベースVRモデルを生成するために使用される処理及び強化フェーズ650は、インドア環境用及びアウトドア環境用両方共に類似している。インドア環境のために、物理的、現実世界環境の1つまたは複数のキャプチャポイントが使用され、キャプチャポイントで1つまたは複数の3Dビデオカメラ651が、現実世界環境の画像及び/またはビデオ652をキャプチャするように構成される。音声及び他のデータも現実世界環境からキャプチャされ得る。同様に、アウトドア環境のために、物理的、現実世界環境の1つまたは複数のキャプチャポイントが使用され、キャプチャポイントで1つまたは複数の3Dビデオカメラ653が、現実世界環境の画像及び/またはビデオ654をキャプチャするように構成される。音声及び他のデータも現実世界環境からキャプチャされ得る。キャプチャ画像及び/またはビデオは、合わせてスティッチされて、ベースVRモデル/世界655を形成することができる。
VR世界拡張段階691において、対応する現実世界環境の拡張ベースVRモデル675は、ベースVRモデル655を用いて生成される。例えば、660において実施される処理は、上述のように、環境、その環境内のオブジェクト、ベースVRモデル内のオブジェクトの不完全なモデル、ギャップ認識、ベースVRモデル内のオブジェクトの拡張、およびベースVRモデルのギャップ充填を認識することを含む。一部では、拡張VRモデル675は、事前定義オブジェクトモデル661及び/または補足画像/ビデオ662を用いて構築される。ライブラリ181は、複数の拡張VRモデル(例えば、モデル675-1~675-N)を記憶する。
使用段階693において、拡張ベースVRモデルは、ゲーム開発中及びゲームプレイ中に使用することができる。具体的には、使用段階は、ゲーム開発を含むことができ、ゲーム開発者による拡張VR世界675へのアクセスは、ゲーム開発者が拡張VR世界675にゲーム環境として対応するゲームアプリケーションのゲームロジックをインタフェース接続する、かつ/または組み込むことができるように提供される。例えば、拡張ベースVRモデルは、ゲーム開発中に、拡張ベースVRモデルをゲームアプリケーション680のゲームロジック685に、もしくは拡張ベースVRモデルにゲームアプリケーション680のゲームロジック685をインタフェース接続する、かつ/または組み込むためゲーム開発者によってアクセスされてもよい。
加えて、使用段階693は、ゲームロジック685が、プレイされるゲームアプリケーションのゲーム環境を実装するための対応する拡張VR世界を有するユーザインタフェースのゲームプレイをサポートして実行する(例えば、サーバ、ゲームコンソールなど)ゲームプレイを含んでもよい。例えば、図6Bは、本開示の一実施形態による、現実世界環境の拡張VRモデル675~5の選択及び拡張VRモデル675~5のゲームアプリケーション680のゲームロジック685への組み込みを示す。図示の通り、ゲームアプリケーション680のゲームロジック685は、ユーザのゲームプレイをサポートして実行している。
ゲームロジック685は、複数のノード(例えば、実行ノード、ロジックノード、データノードなど)によって表すことができ、それぞれが、1つまたは複数の他のノードに接続される。ゲームロジック685のノードはまた、拡張VRモデル675-2のノード(例えば、実行ノード、ロジックノード、データノードなど)に接続できる。その方法では、ゲームロジック685は、選択された拡張VRモデル675-2とインタフェース接続する。ゲームアプリケーション680は、複数のゲームアプリケーションの複数のゲームプレイをサポートするバックエンドサーバで、またはユーザに関連付けられたゲームコンソールで実行することができる。
具体的には、ゲームアプリケーション680は、1つまたは複数のゲーム環境をサポートできる。例えば、ゲームアプリケーション680は、世界中から探し出された多くのレースコース(現実のコース)に設定されたレースカーのビデオゲームであってもよい。各レースコースは、ライブラリ181内の複数の拡張VRモデル675のうちの1つに対応し得る。ユーザのゲームプレイ中、ユーザは、拡張ベースVRモデル675-5に対応する特定のレースコースを選択できていてもよい。拡張ベースVRモデル675-5は、選択されたレースコースのゲーム環境がゲームロジック685に提供されるように、ゲームアプリケーション680を実行するクライアントデバイス170Aにネットワーク150上で届けられる。その方法では、ユーザは、選択されたレースコースで車のレースをすることができる。
図7は、本開示の様々な実施形態の態様を実行するために使用され得る例としてのデバイス700のコンポーネントを示す。例えば、図7は、一実施形態による、サードパーティマッピングエンティティによって提供されたVR世界に基づいて拡張ベースVR世界を構築するように構成され得る、ユーザをサポートするサービスを提供するデバイスを実装するのに適切な例示的なハードウェアシステムを示す。このブロック図は、パーソナルコンピュータ、ビデオゲームコンソール、パーソナルデジタルアシスタント、または本開示の実施形態を実践するのに適切な他のデジタルデバイスを組み入れる、またはそれらであってよいデバイス700を示す。デバイス700は、ソフトウェアアプリケーション及び任意でオペレーティングシステムを実行する中央処理装置(CPU)702を含む。CPU702は、1つまたは複数の均質または異質な処理コアから構成され得る。例えば、CPU702は、1つまたは複数の処理コアを有する1つまたは複数の汎用マイクロプロセッサである。さらなる実施形態は、上述したように、媒体及び相互作用するエンタテイメントアプリケーション、または深層学習エンジン190と連携してVR世界モデルビルダ200によるなど拡張ベースVRモデルを構築するように構成されたアプリケーションなど、高並列かつ計算集約的アプリケーションに特に適合されたマイクロプロセッサアーキテクチャを有する1つまたは複数のCPUを使用して実施され得る。
メモリ704は、CPU702によって使用するアプリケーション及びデータを記憶する。ストレージ706は、アプリケーション及びデータ用不揮発性ストレージ及び他のコンピュータ可読媒体を提供し、固定ディスクドライブ、リムーバブルディスクドライブ、フラッシュメモリデバイス、及びCD-ROM、DVD-ROM、ブルーレイ、HD-DVD、または他の光ストレージデバイス、ならびに信号伝送およびストレージ媒体を含んでもよい。ユーザ入力デバイス708は、1人または複数のユーザからデバイス700にユーザ入力を伝達し、例として、キーボード、マウス、ジョイスティック、タッチパッド、タッチスクリーン、スチルもしくはビデオレコーダー/カメラ、身振りを認識するための追跡デバイス、及び/またはマイクを挙げることができる。ネットワークインタフェース714は、デバイス700が電子通信ネットワークを介して他のコンピュータシステムと通信することを可能にし、ローカルエリアネットワーク及びインターネットなどのワイドエリアネットワーク上の有線または無線通信を含み得る。オーディオプロセッサ712は、CPU702、メモリ704、及び/またはストレージ706によって提供される命令及び/またはデータからアナログまたはデジタルオーディオ出力を生成するように適合される。CPU702、メモリ704、データストレージ706、ユーザ入力デバイス708、ネットワークインタフェース710、及びオーディオプロセッサ712を含むデバイス700のコンポーネントは、1つまたは複数のデータバス722を介して接続される。
グラフィックサブシステム714は、データバス722及びデバイス700のコンポーネントとさらに接続される。グラフィックサブシステム714は、グラフィック処理装置(GPU)716及びグラフィックメモリ718を含む。グラフィックメモリ718は、出力画像の各画素の画素データを記憶するために使用されるディスプレイメモリ(例えば、フレームバッファ)を含む。グラフィックメモリ718は、GPU716とは別個のデバイスとして接続されて、かつ/またはメモリ704内に実装されてGPU716と同じデバイスに組み込むことができる。
画素データは、CPU702から直接グラフィックメモリ718に与えられ得る。代替として、CPU702は、GPU716が、1つまたは複数の出力画像用の画素データを生成する、所望の出力画像を定義するデータ及び/または命令をGPU716に与える。所望の出力画像を定義するデータ及び/または命令は、メモリ704及び/またはグラフィックメモリ718に記憶できる。一実施形態では、GPU716は、幾何学的形状、明暗、陰影、テクスチャ、動き、及び/またはシーン用のカメラのパラメータを定義する命令及びデータから出力画像用の画素データを生成するための3Dレンダリング機能を含む。GPU716は、シェーダプログラムを実行できる1つまたは複数のプログラム可能実行装置をさらに含むことができる。
グラフィックサブシステム714は、表示装置710に表示されるか、またはプロジェクションシステム740によって投影されるグラフィックメモリ718からの画像用の画素データを定期的に出力する。表示装置710は、CRT、LCD、プラズマ、およびOLEDディスプレイを含むデバイス700からの信号に応じて視覚情報を表示できる任意のデバイスであってよい。デバイス700は、表示装置710に、例えばアナログまたはデジタル信号を与えることができる。
本明細書に開示された様々な特徴を用いて、本明細書で定義された様々な実施形態を、特定の実施態様に組み合わせる、または組み立てることができることを理解されたい。したがって、提供された例は、いくつかの可能な例に過ぎず、より多くの実施態様を定義するために様々な要素を組み合わせることによって可能な様々な実施態様に制限するものではない。いくつかの例では、開示された実施態様または同等の実施態様の精神から逸脱しない限り、一部の実施態様がより少ない要素を含んでもよい。
本開示の実施形態は、ハンドヘルドデバイス、マイクロプロセッサシステム、マイクロプロセッサベースまたはプログラム可能家電、ミニコンピュータ、メインフレームコンピュータなどを含む、様々なコンピュータシステムの構成で実践されてもよい。本開示の実施形態はまた、有線ベースまたは無線ネットワークを介してリンクされた遠隔処理デバイスによってタスクが実施される分散コンピューティング環境で実践することができる。
上述の実施形態を念頭に置いて、本開示の実施形態は、コンピュータシステムにデータストレージを伴う様々なコンピュータ実施される動作を利用できることを理解されたい。これらの動作は、物理量の物理的操作を必要とするものである。本開示の実施形態の一部を形成する本明細書に記載のいずれの動作も有用な機械動作である。本発明の実施形態はまた、これらの動作を実行するデバイスまたは装置に関連する。装置は、所望の目的のために特に構築され得るか、または装置は、選択的に起動された、またはコンピュータに記憶されたコンピュータプログラムによって構成された汎用コンピュータであってよい。具体的には、様々な汎用機械が、本明細書の教授にしたがって書かれたコンピュータプログラムと共に使用できるか、または所望の動作を実行するためにより専用的な装置を構築することがより都合がよくてもよい。
本開示はまた、コンピュータ可読媒体上のコンピュータ可読コードとして具現化されてもよい。コンピュータ可読媒体は、データを記憶できる任意のデータストレージデバイスであり、その後コンピュータシステムによって読み出されてもよい。コンピュータ可読媒体の例として、ハードドライブ、ネットワーク接続ストレージ(NAS)、読み出し専用メモリ、ランダムアクセスメモリ、CD-ROM、CD-R、CD-RW、磁気テープならびに他の光学及び非光学データストレージデバイスが挙げられる。コンピュータ可読媒体は、コンピュータ可読コードが分散式に記憶され、実行されるように、ネットワーク結合コンピュータシステム上に分散されたコンピュータ可読有形媒体を含んでもよい。
方法の作業は、特定の順序で記載されているが、重なる作業の処理が所望の方法で実行される限り、他のシステム管理作業が、作業の間に実行されてもよく、または作業が、わずかに異なる時間に起きるように調整されてもよく、または、処理作業の発生が処理に関連付けられた様々な間隔で可能になるシステム内で分散されてもよいことを理解されたい。
上述の開示は、理解を明瞭にするためにいくつか詳細に説明されたが、いくつかの変更及び修正が、添付の特許請求の範囲内で実践されてもよいことは明らかであろう。したがって、本実施形態は、例示的なものであって制限するものではないとみなされるべきであり、本開示の実施形態は、本明細書に記載の詳細に制限されず、添付の特許請求の範囲およびその等価物内で修正されてもよい。

Claims (17)

  1. コンピュータにより実行される、ゲーム環境を構築する方法であって、
    サードパーティマッピングデータストレージから現実世界環境のベースVRモデルにアクセスし、前記現実世界環境は複数の現実世界オブジェクトを含むものであり、
    前記現実世界環境内の第1の現実世界オブジェクトに対応する前記ベースVRモデル内の第1のオブジェクトの拡張を行い、
    拡張される前記第1のオブジェクトを前記ベースVRモデル内にスティッチして拡張ベースVRモデルを生成し、
    前記拡張ベースVRモデルを、複数の拡張ベースVRモデルを含むライブラリデータストアに記憶し、
    前記複数の拡張ベースVRモデルのうちの1つまたは複数を用いて、ゲームアプリケーションの仮想環境を定義し、
    前記拡張ベースVRモデルとインタフェース接続されるように構成されるゲームアプリケーションのゲームロジックの開発に使用するために、前記ライブラリデータストアからソフトウェア開発キット(SDK)を通してリモートデバイスに前記拡張ベースVRモデルを利用可能にし、前記ゲームアプリケーションが、前記現実世界環境に基づくゲーム環境を更に有する、方法。
  2. 更に、前記複数の拡張ベースVRモデルのうちの前記1つまたは複数についてのリクエストをリモートデバイスから受信し、
    前記ゲームアプリケーションのゲームロジックとインタフェース接続するために、前記複数の拡張ベースVRモデルのうちの前記1つまたは複数を前記リモートデバイスに送信し、前記ゲームロジックが、第1のユーザのゲームプレイと連携して前記リモートデバイス上で実行されている、請求項1に記載の方法。
  3. 前記リモートデバイスが、複数のユーザのために複数のゲームロジックを実行するように構成されるサーバである、請求項2に記載の方法。
  4. 前記リモートデバイスが、前記第1のユーザのコンソールである、請求項2に記載の方法。
  5. コンピュータにより実行される、ゲーム環境を構築する方法であって、
    サードパーティマッピングデータストレージから現実世界環境のベースVRモデルにアクセスし、前記現実世界環境は複数の現実世界オブジェクトを含むものであり、
    前記現実世界環境内の第1の現実世界オブジェクトに対応する前記ベースVRモデル内の第1のオブジェクトの拡張を行い、
    拡張される前記第1のオブジェクトを前記ベースVRモデル内にスティッチして拡張ベースVRモデルを生成し、
    前記拡張ベースVRモデルを、複数の拡張ベースVRモデルを含むライブラリデータストアに記憶し、
    前記複数の拡張ベースVRモデルのうちの1つまたは複数を用いて、ゲームアプリケーションの仮想環境を定義し、
    前記第1のオブジェクトの拡張では、
    前記現実世界環境内の前記第1の現実世界オブジェクトの第1のサーフェスモデルが前記ベースVRモデル内で不完全であると判断し、前記ベースVRモデルが、複数のサーフェスモデルを含み、各サーフェスモデルは、対応する現実世界オブジェクトに関連付けられるものであり、
    オブジェクトデータストアから前記第1の現実世界オブジェクトの複数の画像にアクセスし、
    前記第1のオブジェクトの前記複数の画像から構築されるサーフェスセグメントで不完全な前記第1のサーフェスモデルを拡張して、拡張された第1のサーフェスモデルを生成し、
    前記スティッチを実行するときに、前記不完全な第1のサーフェスモデルのために前記拡張された第1のサーフェスモデルを使用する、方法
  6. 前記第1のオブジェクトの拡張では、
    前記現実世界環境内の前記第1の現実世界オブジェクトの第1のサーフェスモデルが前記ベースVRモデル内で不完全であると判断し、前記ベースVRモデルが、複数のサーフェスモデルを含み、各サーフェスモデルは、対応する現実世界オブジェクトに関連付けられるものであり、
    オブジェクトデータストアから以前生成された完全な第1のサーフェスモデルにアクセスし、
    前記以前生成された完全な第1のサーフェスモデルを使用して、前記スティッチを実行するときに前記第1の現実世界オブジェクトを表す、請求項1に記載の方法。
  7. 前記第1のオブジェクトの拡張では、
    前記現実世界環境内の前記第1の現実世界オブジェクトの第1のサーフェスモデルが前記ベースVRモデル内で不完全であると判断し、前記ベースVRモデルが、複数のサーフェスモデルを含み、各サーフェスモデルは、対応する現実世界オブジェクトに関連付けられるものであり、
    オブジェクトデータストアから前記第1の現実世界オブジェクトの複数の画像にアクセスし、
    前記複数の画像を用いて前記第1の現実世界オブジェクトの完全な第1のサーフェスモデルを生成し、
    前記完全な第1のサーフェスモデルを使用して、前記スティッチを実行するときに前記第1の現実世界オブジェクトを表す、請求項1に記載の方法。
  8. 前記ベースVRモデル内のギャップ領域を判断し、前記ギャップ領域には、少なくとも1つのオブジェクトが欠けており、
    前記ギャップ領域を充填するためにフィラーオブジェクトにアクセスし、
    前記拡張ベースVRモデルを生成するために、前記フィラーオブジェクトを前記ベースVRモデル内にスティッチする、請求項1に記載の方法。
  9. 前記現実世界環境が、ライブイベント、博物館、及び都市のうちの1つを含む、請求項1に記載の方法。
  10. ゲーム環境を構築するためのコンピュータプログラムを記憶するコンピュータ可読媒体であって、
    サードパーティマッピングデータストアから現実世界環境のベースVRモデルにアクセスするためのプログラム命令を有し、前記現実世界環境は、複数の現実世界オブジェクトを含むものであり、
    前記現実世界環境内の第1の現実世界オブジェクトに対応する前記ベースVRモデル内の第1のオブジェクトを拡張するためのプログラム命令を有し、
    拡張ベースVRモデルを生成するために、拡張される前記第1のオブジェクトを前記ベースVRモデル内にスティッチするためのプログラム命令を有し、
    前記拡張ベースVRモデルを、複数の拡張ベースVRモデルを含むライブラリデータストアに記憶するためのプログラム命令を有し、
    前記複数の拡張ベースVRモデルのうちの1つまたは複数を用いて、ゲームアプリケーションの仮想環境を定義するためのプログラム命令を有し、
    前記拡張ベースVRモデルとインタフェース接続されるように構成されるゲームアプリケーションのゲームロジックの開発に使用するために、前記ライブラリデータストアからソフトウェア開発キット(SDK)を通してリモートデバイスに前記拡張ベースVRモデルを利用可能にするためのプログラム命令を有し、前記ゲームアプリケーションは、前記現実世界環境に基づくゲーム環境を有するものである、コンピュータ可読媒体。
  11. 前記複数の拡張ベースVRモデルのうちの前記1つまたは複数についてのリクエストをリモートデバイスから受信するためのプログラム命令を有し、
    第1のゲームアプリケーションのゲームロジックとインタフェース接続するために、前記複数の拡張ベースVRモデルのうちの前記1つまたは複数を前記リモートデバイスに送信するためのプログラム命令を有し、前記ゲームロジックは、第1のユーザのゲームプレイと連携して前記リモートデバイス上で実行されている、請求項10に記載のコンピュータ可読媒体。
  12. ゲーム環境を構築するためのコンピュータプログラムを記憶するコンピュータ可読媒体であって、
    サードパーティマッピングデータストアから現実世界環境のベースVRモデルにアクセスするためのプログラム命令を有し、前記現実世界環境は、複数の現実世界オブジェクトを含むものであり、
    前記現実世界環境内の第1の現実世界オブジェクトに対応する前記ベースVRモデル内の第1のオブジェクトを拡張するためのプログラム命令を有し、
    拡張ベースVRモデルを生成するために、拡張される前記第1のオブジェクトを前記ベースVRモデル内にスティッチするためのプログラム命令を有し、
    前記拡張ベースVRモデルを、複数の拡張ベースVRモデルを含むライブラリデータストアに記憶するためのプログラム命令を有し、
    前記複数の拡張ベースVRモデルのうちの1つまたは複数を用いて、ゲームアプリケーションの仮想環境を定義するためのプログラム命令を有し、
    前記第1のオブジェクトを拡張するための前記プログラム命令が、
    前記現実世界環境内の前記第1の現実世界オブジェクトの第1のサーフェスモデルが前記ベースVRモデル内で不完全であると判断するためのプログラム命令を有し、前記ベースVRモデルは、複数のサーフェスモデルを含み、各サーフェスモデルは、対応する現実世界オブジェクトに関連付けられるものであり、
    オブジェクトデータストアから前記第1の現実世界オブジェクトの複数の画像にアクセスし、
    前記第1のオブジェクトの前記複数の画像から構築されるサーフェスセグメントで不完全な前記第1のサーフェスモデルを拡張して、拡張された第1のサーフェスモデルを生成し、
    前記スティッチを実行するときに、前記不完全な第1のサーフェスモデルのために前記拡張された第1のサーフェスモデルを使用する、コンピュータ可読媒体。
  13. 前記ベースVRモデル内のギャップ領域を判断するためのプログラム命令を有し、前記ギャップ領域には、少なくとも1つのオブジェクトが欠けているものであり、
    前記ギャップ領域を充填するためにフィラーオブジェクトにアクセスするためのプログラム命令を有し、
    前記拡張ベースVRモデルを生成するために、前記フィラーオブジェクトを前記ベースVRモデル内にスティッチするためのプログラム命令を有する、請求項10に記載のコンピュータ可読媒体。
  14. プロセッサと、
    前記プロセッサに連結され、コンピュータシステムによって実行されると、ゲーム環境を構築する方法を前記コンピュータシステムに実行させる命令を記憶しているメモリと、を有し、前記方法は、
    サードパーティマッピングデータストアから現実世界環境のベースVRモデルにアクセスし、前記現実世界環境は、複数の現実世界オブジェクトを含むものであり、
    前記現実世界環境内の第1の現実世界オブジェクトに対応する前記ベースVRモデル内の第1のオブジェクトの拡張を行い、
    拡張ベースVRモデルを生成するために、拡張される前記第1のオブジェクトを前記ベースVRモデル内にスティッチし、
    前記拡張ベースVRモデルを、複数の拡張ベースVRモデルを含むライブラリデータストアに記憶し、
    前記複数の拡張ベースVRモデルのうちの1つまたは複数を用いて、ゲームアプリケーションの仮想環境を定義するものであり、
    前記拡張ベースVRモデルとインタフェース接続されるように構成されるゲームアプリケーションのゲームロジックの開発に使用するために、前記ライブラリデータストアからソフトウェア開発キット(SDK)を通してリモートデバイスに前記拡張ベースVRモデルを利用可能にし、前記ゲームアプリケーションは、前記現実世界環境に基づくゲーム環境を有するものである、コンピュータシステム。
  15. 前記方法では、
    前記複数の拡張ベースVRモデルのうちの前記1つまたは複数についてのリクエストをリモートデバイスから受信し、
    第1のゲームアプリケーションのゲームロジックとインタフェース接続するために、前記複数の拡張ベースVRモデルのうちの前記1つまたは複数を前記リモートデバイスに送信し、前記ゲームロジックは、第1のユーザのゲームプレイと連携して前記リモートデバイス上で実行しているものである、請求項14に記載のコンピュータシステム。
  16. プロセッサと、
    前記プロセッサに連結され、コンピュータシステムによって実行されると、ゲーム環境を構築する方法を前記コンピュータシステムに実行させる命令を記憶しているメモリと、を有し、前記方法は、
    サードパーティマッピングデータストアから現実世界環境のベースVRモデルにアクセスし、前記現実世界環境は、複数の現実世界オブジェクトを含むものであり、
    前記現実世界環境内の第1の現実世界オブジェクトに対応する前記ベースVRモデル内の第1のオブジェクトの拡張を行い、
    拡張ベースVRモデルを生成するために、拡張される前記第1のオブジェクトを前記ベースVRモデル内にスティッチし、
    前記拡張ベースVRモデルを、複数の拡張ベースVRモデルを含むライブラリデータストアに記憶し、
    前記複数の拡張ベースVRモデルのうちの1つまたは複数を用いて、ゲームアプリケーションの仮想環境を定義するものであり、
    前記方法において前記第1のオブジェクトの拡張では、
    前記現実世界環境内の前記第1の現実世界オブジェクトの第1のサーフェスモデルが前記ベースVRモデル内で不完全であると判断し、前記ベースVRモデルが、複数のサーフェスモデルを含み、各サーフェスモデルが、対応する現実世界オブジェクトに関連付けられる、前記判断し、
    オブジェクトデータストアから前記第1の現実世界オブジェクトの複数の画像にアクセスし、
    前記第1のオブジェクトの前記複数の画像から構築されるサーフェスセグメントで不完全な前記第1のサーフェスモデルを拡張して、拡張された第1のサーフェスモデルを生成し、
    前記スティッチを実行するときに、前記不完全な第1のサーフェスモデルのために前記拡張された第1のサーフェスモデルを使用する、コンピュータシステム。
  17. 前記方法では、
    前記ベースVRモデル内のギャップ領域を判断し、前記ギャップ領域には、少なくとも1つのオブジェクトが欠けており、
    前記ギャップ領域を充填するためにフィラーオブジェクトにアクセスし、
    前記拡張ベースVRモデルを生成するために、前記フィラーオブジェクトを前記ベースVRモデル内にスティッチする、請求項14に記載のコンピュータシステム。
JP2020546091A 2018-03-05 2019-01-22 現実世界の仮想現実マップを用いた仮想現実(vr)ゲーム環境の構築 Active JP7125992B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/911,780 2018-03-05
US15/911,780 US11014001B2 (en) 2018-03-05 2018-03-05 Building virtual reality (VR) gaming environments using real-world virtual reality maps
PCT/US2019/014624 WO2019172999A1 (en) 2018-03-05 2019-01-22 Building virtual reality (vr) gaming environments using real-world models

Publications (2)

Publication Number Publication Date
JP2021514775A JP2021514775A (ja) 2021-06-17
JP7125992B2 true JP7125992B2 (ja) 2022-08-25

Family

ID=65352174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020546091A Active JP7125992B2 (ja) 2018-03-05 2019-01-22 現実世界の仮想現実マップを用いた仮想現実(vr)ゲーム環境の構築

Country Status (5)

Country Link
US (2) US11014001B2 (ja)
EP (1) EP3762114A1 (ja)
JP (1) JP7125992B2 (ja)
CN (1) CN110227266B (ja)
WO (1) WO2019172999A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10888788B2 (en) * 2016-06-30 2021-01-12 Sony Interactive Entertainment Inc. Automated artificial intelligence (AI) control mode for playing specific tasks during gaming applications
US11014001B2 (en) * 2018-03-05 2021-05-25 Sony Interactive Entertainment LLC Building virtual reality (VR) gaming environments using real-world virtual reality maps
US10888777B2 (en) * 2018-10-01 2021-01-12 International Business Machines Corporation Deep learning from real world and digital exemplars
US11625806B2 (en) * 2019-01-23 2023-04-11 Qualcomm Incorporated Methods and apparatus for standardized APIs for split rendering
US11167214B1 (en) * 2019-04-15 2021-11-09 Exponential Corp. Dynamic game management platform that utilizes predictive analytics to modify game parameters in real-time
US11049072B1 (en) * 2019-04-26 2021-06-29 State Farm Mutual Automobile Insurance Company Asynchronous virtual collaboration environments
JP2022505002A (ja) * 2019-10-15 2022-01-14 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 拡張現実データの表示方法、装置、機器、記憶媒体及びプログラム
US11400376B2 (en) * 2019-10-23 2022-08-02 Sony Interactive Entertainment Inc. AI-generated internal environments based on external geometry
CN112057868A (zh) * 2020-09-17 2020-12-11 网易(杭州)网络有限公司 游戏模型的合批处理方法、装置及电子设备
TWI756944B (zh) * 2020-11-27 2022-03-01 國立臺北科技大學 融合混增實境及虛擬實境之教學系統及其方法
KR20230144042A (ko) 2021-02-08 2023-10-13 사이트풀 컴퓨터스 리미티드 생산성을 위한 확장 현실
EP4295314A1 (en) 2021-02-08 2023-12-27 Sightful Computers Ltd Content sharing in extended reality
US20220327773A1 (en) * 2021-04-09 2022-10-13 Georgetown University Facial recognition using 3d model
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user
US20230334795A1 (en) 2022-01-25 2023-10-19 Multinarity Ltd Dual mode presentation of user interface elements
US20230290072A1 (en) * 2022-03-10 2023-09-14 Matterport, Inc. System and method of object detection and interactive 3d models

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006503379A (ja) 2002-10-15 2006-01-26 ユニバーシティ・オブ・サザン・カリフォルニア 拡張仮想環境

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6768486B1 (en) * 2001-05-18 2004-07-27 Autodesk, Inc. Modifying subobjects of geometry objects based on per-subobject objects
KR100475247B1 (ko) * 2001-12-28 2005-03-10 한국전자통신연구원 증강현실 기술을 이용한 게임 장치 및 방법
US9576330B2 (en) * 2008-03-07 2017-02-21 Virtually Live (Switzerland) Gmbh Media system and method
GB0804274D0 (en) * 2008-03-07 2008-04-16 Virtually Live Ltd A media sysyem and method
AU2012348348B2 (en) * 2011-10-28 2017-03-30 Magic Leap, Inc. System and method for augmented and virtual reality
JP5891125B2 (ja) 2012-06-29 2016-03-22 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
US9436410B2 (en) * 2013-12-13 2016-09-06 Netapp, Inc. Replication of volumes on demands using absent allocation
US9978013B2 (en) * 2014-07-16 2018-05-22 Deep Learning Analytics, LLC Systems and methods for recognizing objects in radar imagery
WO2016077798A1 (en) * 2014-11-16 2016-05-19 Eonite Perception Inc. Systems and methods for augmented reality preparation, processing, and application
US20170301079A1 (en) * 2016-04-19 2017-10-19 Incheon University Industry Academic Cooperation Foundation Method of acquiring tsom image and method of examining semiconductor device
JP6672070B2 (ja) * 2016-05-17 2020-03-25 キヤノン株式会社 圧縮センシングを用いた撮像装置、撮像方法および撮像プログラム
KR101859050B1 (ko) * 2016-06-02 2018-05-21 네이버 주식회사 내용 기반의 지도 이미지 탐색 방법 및 시스템
KR101851155B1 (ko) * 2016-10-12 2018-06-04 현대자동차주식회사 자율 주행 제어 장치, 그를 가지는 차량 및 그 제어 방법
WO2018093202A1 (en) * 2016-11-17 2018-05-24 Samsung Electronics Co., Ltd. Method and apparatus for analysing communication channel in consideration of material and contours of objects
CN107330921A (zh) * 2017-06-28 2017-11-07 京东方科技集团股份有限公司 一种排队装置及其排队控制方法
US10419728B2 (en) * 2017-08-22 2019-09-17 Chekt Llc Monitoring system having personal information protection function and method thereof
CN107596683B (zh) * 2017-09-25 2021-03-12 晋江市博感电子科技有限公司 基于增强现实的童车虚拟游乐方法、装置及系统
US11014001B2 (en) * 2018-03-05 2021-05-25 Sony Interactive Entertainment LLC Building virtual reality (VR) gaming environments using real-world virtual reality maps
US10888777B2 (en) * 2018-10-01 2021-01-12 International Business Machines Corporation Deep learning from real world and digital exemplars
US10373323B1 (en) * 2019-01-29 2019-08-06 StradVision, Inc. Method and device for merging object detection information detected by each of object detectors corresponding to each camera nearby for the purpose of collaborative driving by using V2X-enabled applications, sensor fusion via multiple vehicles
US11167214B1 (en) * 2019-04-15 2021-11-09 Exponential Corp. Dynamic game management platform that utilizes predictive analytics to modify game parameters in real-time
AU2020409014A1 (en) * 2019-12-20 2022-08-18 Niantic, Inc. Merging local maps from mapping devices
US11305195B2 (en) * 2020-05-08 2022-04-19 T-Mobile Usa, Inc. Extended environmental using real-world environment data
US11452940B2 (en) * 2020-06-09 2022-09-27 International Business Machines Corporation Real-world activity simulation augmentation with real-world data of the activity

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006503379A (ja) 2002-10-15 2006-01-26 ユニバーシティ・オブ・サザン・カリフォルニア 拡張仮想環境

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MARCO ATTENE 他,Polygon Mesh Repairing: An Application Perspective,ACM Computing Surveys, [online],Vol.45, No.2,2013年06月,1-37頁,<URL>http://saturno.ge.imati.cnr.it/ima/personal-old/attene/PersonalPage/pdf/survey_meshrepair.pdf,[2021年11月26日検索]
Wei Pengfei,An Virtual Vehicle Control Game for Online Brain Computer Interface Feedback Training,Proceedings of the 2010 IEEE,International Conference on Mechatronics and Automation, [online],2010年08月07日,1942-1944頁,<URL>https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=5589104,[2021年11月26日検索]

Also Published As

Publication number Publication date
US11014001B2 (en) 2021-05-25
WO2019172999A1 (en) 2019-09-12
US20210275923A1 (en) 2021-09-09
CN110227266B (zh) 2023-06-06
EP3762114A1 (en) 2021-01-13
US20190270015A1 (en) 2019-09-05
CN110227266A (zh) 2019-09-13
US11845008B2 (en) 2023-12-19
JP2021514775A (ja) 2021-06-17

Similar Documents

Publication Publication Date Title
JP7125992B2 (ja) 現実世界の仮想現実マップを用いた仮想現実(vr)ゲーム環境の構築
CN112104593B (zh) 融合现实现场事件管理系统和方法
JP7364809B2 (ja) レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法
US11494995B2 (en) Systems and methods for virtual and augmented reality
CN102622776B (zh) 三维环境重构
JP2016516241A (ja) 拡張現実体験の様々な環境へのマッピング
Montero et al. Designing and implementing interactive and realistic augmented reality experiences
Kersten et al. Virtual reality for cultural heritage monuments–from 3D data recording to immersive visualisation
Komianos et al. Efficient and realistic cultural heritage representation in large scale virtual environments
Soares et al. Designing a highly immersive interactive environment: The virtual mine
Di Paola et al. A gaming approach for cultural heritage knowledge and dissemination
Yang et al. A human-computer interaction system for agricultural tools museum based on virtual reality technology
Rivalcoba et al. Towards urban crowd visualization
Coppens Integrating Immersive Technologies for Algorithmic Design in Architecture
Braun et al. Crowdvis: a framework for real time crowd visualization
An Automatic 2.5 d cartoon modelling
Tistel Projecting Art into Virtual Reality. Creating artistic scenes through parametrization utilizing a modern game-engine
Peng et al. Research on Application of Key Technologies of Public Security Virtual Reality Based on Panoramic Video
Kontogiorgakis et al. Gamified VR Storytelling for Cultural Tourism Using 3D Reconstructions, Virtual Humans, and 360° Videos
Baumgartinger-Seiringer BACHELOR PAPER
Pike et al. Implementing Material Changes in Augmented Environments
Loria Virtual Paradise
Montero Montes et al. Designing and implementing interactive and realistic augmented reality experiences
Dahl Real-time Object Removal in Augmented Reality
Al Hassanat A Lightweight, Cross-Platform System for an Immersive Experience in Virtual Exploration of Remote Environments

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200903

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R150 Certificate of patent or registration of utility model

Ref document number: 7125992

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150