JP7220717B2 - レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法 - Google Patents

レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法 Download PDF

Info

Publication number
JP7220717B2
JP7220717B2 JP2020534314A JP2020534314A JP7220717B2 JP 7220717 B2 JP7220717 B2 JP 7220717B2 JP 2020534314 A JP2020534314 A JP 2020534314A JP 2020534314 A JP2020534314 A JP 2020534314A JP 7220717 B2 JP7220717 B2 JP 7220717B2
Authority
JP
Japan
Prior art keywords
data
depth
reconstruction
information
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020534314A
Other languages
English (en)
Other versions
JP2021507409A (ja
Inventor
デイビッド ジェフリー モリノー,
フランク トーマス シュタインブリュッカー,
ジョンレ ウー,
シャオリン ウェイ,
ジアンユアン ミン,
イーフー チャン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2021507409A publication Critical patent/JP2021507409A/ja
Priority to JP2023012538A priority Critical patent/JP7364809B2/ja
Application granted granted Critical
Publication of JP7220717B2 publication Critical patent/JP7220717B2/ja
Priority to JP2023173494A priority patent/JP2023175930A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • G06T15/405Hidden part removal using Z-buffer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Information Transfer Between Computers (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Description

(関連出願の相互参照)
本願は、参照することによってその全体として本明細書に組み込まれる、2017年12月22日に出願され、「VIEWPOINT DEPENDENT BRICK SELECTION FOR FAST VOLUMETRIC RECONSTRUCTION」と題された、米国仮特許出願第62/610,000号の優先権および利益を主張する。本願はまた、参照することによってその全体として本明細書に組み込まれる、2017年12月22日に出願され、「MULTI-STAGE BLOCK MESH SIMPLIFICATION FOR MULTIPLE TARGETS」と題された、米国仮特許出願第62/609,990号の優先権および利益を主張する。本願はまた、参照することによってその全体として本明細書に組み込まれる、2017年12月22日に出願され、「CACHING AND UPDATING OF DENSE 3D RECONSTRUCTION DATA ON MOBILE DEVICES」と題された、米国仮特許出願第62/609,962号の優先権および利益を主張する。本願はまた、参照することによってその全体として本明細書に組み込まれる、2017年12月22日に出願され、「METHOD OF OCCLUSION RENDERING USING RAYCAST AND LIVE DEPTH」と題された、米国仮特許出願第62/609,979号の優先権および利益を主張する。本願はまた、参照することによってその全体として本明細書に組み込まれる、2018年7月24日に出願され、「VIEWPOINT DEPENDENT BRICK SELECTION FOR FAST VOLUMETRIC RECONSTRUCTION」と題された、米国仮特許出願第62/702,761号の優先権および利益を主張する。本願はまた、参照することによってその全体として本明細書に組み込まれる、2018年7月24日に出願され、「MULTI-STAGE BLOCK MESH SIMPLIFICATION」と題された、米国仮特許出願第62/702,740号の優先権および利益を主張する。本願はまた、参照することによってその全体として本明細書に組み込まれる、2018年7月24日に出願され、「CACHING AND UPDATING OF DENSE 3D RECONSTRUCTION DATA」と題された、米国仮特許出願第62/702,749号の優先権および利益を主張する。本願はまた、参照することによってその全体として本明細書に組み込まれる、2018年7月24日に出願され、「METHOD OF OCCLUSION RENDERING USING RAYCAST AND LIVE DEPTH」と題された、米国仮特許出願第62/702,736号の優先権および利益を主張する。
本願は、概して、3D世界再構成を使用して、場面をレンダリングする、クロスリアリティシステムに関する。
コンピュータは、ヒューマンユーザインターフェースを制御し、ユーザによって知覚されるにつれて、XR環境の一部または全部がコンピュータによって生成される、Xリアリティ(XRまたはクロスリアリティ)環境を作成し得る。これらのXR環境は、XR環境の一部または全部が、部分的に、環境を説明するデータを使用して、コンピュータによって生成され得る、仮想現実(VR)、拡張現実(AR)、および複合現実(MR)環境であり得る。本データは、例えば、ユーザが、物理的世界の一部として、感知または知覚し、仮想オブジェクトと相互作用し得るようにレンダリングされ得る、仮想オブジェクトを説明し得る。ユーザは、例えば、頭部搭載型ディスプレイデバイス等のユーザインターフェースデバイスを通してレンダリングおよび提示されているデータの結果として、これらの仮想オブジェクトを体験し得る。データは、ユーザに見えるために表示され得る、またはユーザに聞こえるために再生される、オーディオを制御し得る、または触知的(または触覚的)インターフェースを制御し、ユーザが、仮想オブジェクトを感じるにつれて、ユーザが感知または知覚する、タッチ感覚を体験することを可能にし得る。
XRシステムは、科学的可視化、医療訓練、工学設計、およびプロトタイプ化、遠隔操作およびテレプレゼンス、および個人的娯楽の分野に及ぶ、多くの用途のために有用であり得る。ARおよびMRは、VRと対照的に、物理的世界の実オブジェクトと関連して、1つ以上のオブジェクトを含む。実オブジェクトと相互作用する、仮想オブジェクトの体験は、概して、XRシステムを使用する際、ユーザの享受を向上させ、また、物理的世界が改変され得る様子についての現実的かつ容易に理解可能な情報を提示する、種々の用途のための可能性を広げる。
本願の側面は、オクルージョンレンダリングのための方法および装置に関する。これらの技法は、ともに、別個に、または任意の好適な組み合わせにおいて、使用されてもよい。
いくつかの実施形態は、仮想オブジェクトを物理的オブジェクトを備える場面内にレンダリングするためにコンピューティングシステムを動作させる方法に関する。本方法は、深度情報をユーザによって装着されるセンサから捕捉することであって、深度情報は、ユーザと物理的オブジェクトとの間の距離を示す、ことと、表面情報を深度情報から生成することであって、表面情報は、ユーザの視野内の物理的オブジェクトまでの距離を示し、生成することは、場面および視野が変化するにつれて、表面情報をリアルタイムで更新することを含む、ことと、表面情報および場面内の仮想オブジェクトの場所についての情報から、レンダリングするための仮想オブジェクトの部分を算出することとを含む。
いくつかの実施形態では、深度情報は、少なくとも30フレーム/秒のフレームレートにおける深度画像のシーケンスである。
いくつかの実施形態では、表面情報を深度情報から生成することは、表面情報をステレオカメラからのステレオ深度情報から生成することを含む。ステレオ深度情報は、深度情報に基づいて選択された物理的オブジェクトの領域に対応する。
いくつかの実施形態では、表面情報を深度情報から生成することは、表面情報を物理的オブジェクトの3D再構成の低レベルデータから生成することを含む。
いくつかの実施形態では、物理的オブジェクトの3D再構成の低レベルデータは、点群のフォーマットにある。
いくつかの実施形態では、表面情報を深度情報から生成することは、表面情報を物理的オブジェクトを備える場面の3D表現の低レベルデータから生成することを含む。
いくつかの実施形態では、コンピューティングシステムは、遠隔サービスと、アプリケーションとを備える。表面情報は、遠隔サービスによって生成される。アプリケーションは、遠隔サービスから受信された表面情報に基づいて、レンダリングするための仮想オブジェクトの部分を算出する。
いくつかの実施形態では、深度情報を捕捉することは、少なくとも部分的に、深度情報に基づいて、深度マップを生産することであって、深度マップは、複数のピクセルを備え、各ピクセルは、物理的オブジェクトの点までの距離を示す、ことを含む。
いくつかの実施形態では、表面情報を生成することは、深度情報をフィルタリングし、深度マップを生成することであって、深度マップは、複数のピクセルを備え、各ピクセルは、物理的オブジェクトの点までの距離を示す、ことと、物理的オブジェクトの3D再構成の低レベルデータを選択的に入手することと、深度マップおよび物理的オブジェクトの3D再構成の選択的に入手された低レベルデータに基づいて、表面情報を生成することとを含む。
いくつかの実施形態では、深度情報をフィルタリングすることは、深度マップの領域のための品質メトリックを決定することと、品質メトリックに基づいて、深度マップ内の穴を識別することと、穴を深度マップから除去することとを含む。
いくつかの実施形態では、表面情報を生成することは、深度マップ内の穴に対応する領域を物理的オブジェクトの3D再構成の低レベルデータの少なくとも一部で充填することを含む。
いくつかの実施形態では、穴は、深度マップ内の欠測または雑音ピクセルを示す。
いくつかの実施形態では、穴を除去する行為は、閾値距離を超える仮想オブジェクトの場所から離間される深度マップ内の領域を除去することを含む。
いくつかの実施形態では、物理的オブジェクトの3D再構成の低レベルデータを選択的に入手することは、穴に基づく。
いくつかの実施形態では、物理的オブジェクトの3D再構成の低レベルデータを選択的に入手する行為は、光線を仮想カメラから物理的オブジェクトの3D再構成にキャスティングすることを含む。
いくつかの実施形態では、光線をキャスティングすることは、稠密光線を物理的オブジェクトの3D再構成の境界領域に、疎隔光線を物理的オブジェクトの3D再構成の中心領域にキャスティングすることを含む。
いくつかの実施形態では、レンダリングするための仮想オブジェクトの部分を算出することは、表面情報に基づいて、仮想オブジェクトと物理的オブジェクトの相互作用をシミュレートすることを含む。
いくつかの実施形態は、ユーザによって可搬性の電子システムに関する。電子システムは、場面内の1つ以上の物理的オブジェクトについての深度情報を捕捉するように構成されるセンサと、仮想オブジェクトを場面内にレンダリングするためのコンピュータ実行可能命令を実行するように構成される、アプリケーションとを備える。深度情報は、ユーザと1つ以上の物理的オブジェクトとの間の距離を示す。深度情報は、遠隔サービスに伝送される。アプリケーションは、遠隔サービスから、場面内の1つ以上の物理的オブジェクトの表面の深度バッファを受信し、仮想オブジェクトの部分は、表面によってオクルードされる。
いくつかの実施形態では、表面の深度バッファは、深度情報および場面の3D再構成の低レベルデータに基づいて、遠隔サービスによって生成される。
いくつかの実施形態では、場面の3D再構成の低レベルデータは、光線を仮想カメラから場面の3D再構成の一部の中に投射することによって生成される。仮想カメラは、ユーザの眼と同一位置をとる。場面の3D再構成の一部は、センサによって捕捉された深度情報に基づいて選択される。
いくつかの実施形態では、深度情報は、複数のピクセルを有する、深度画像を備える。場面の3D再構成の一部は、深度画像の正しくないおよび雑音ピクセルに対応する。
前述の概要は、例証として提供され、限定することを意図するものではない。
本発明は、例えば、以下を提供する。
(項目1)
仮想オブジェクトを物理的オブジェクトを備える場面内にレンダリングするためにコンピューティングシステムを動作させる方法であって、前記方法は、
深度情報をユーザによって装着されるセンサから捕捉することであって、前記深度情報は、前記ユーザと前記物理的オブジェクトとの間の距離を示す、ことと、
表面情報を前記深度情報から生成することであって、前記表面情報は、前記ユーザの視野内の前記物理的オブジェクトまでの距離を示し、前記生成することは、前記場面および視野が変化するにつれて、前記表面情報をリアルタイムで更新することを含む、ことと、
前記表面情報および前記場面内の前記仮想オブジェクトの場所についての情報から、レンダリングするための前記仮想オブジェクトの部分を算出することと
を含む、方法。
(項目2)
前記深度情報は、少なくとも30フレーム/秒のフレームレートにおける深度画像のシーケンスである、項目1に記載の方法。
(項目3)
前記表面情報を前記深度情報から生成することは、前記表面情報をステレオカメラからのステレオ深度情報から生成することを含み、前記ステレオ深度情報は、前記深度情報に基づいて選択された前記物理的オブジェクトの領域に対応する、項目1に記載の方法。
(項目4)
前記表面情報を前記深度情報から生成することは、前記表面情報を前記物理的オブジェクトの3D再構成の低レベルデータから生成することを含む、項目1に記載の方法。
(項目5)
前記物理的オブジェクトの3D再構成の低レベルデータは、点群のフォーマットにある、項目4に記載の方法。
(項目6)
前記表面情報を前記深度情報から生成することは、前記表面情報を前記物理的オブジェクトを備える前記場面の3D表現の低レベルデータから生成することを含む、項目1に記載の方法。
(項目7)
前記コンピューティングシステムは、遠隔サービスと、アプリケーションとを備え、
前記表面情報は、前記遠隔サービスによって生成され、
前記アプリケーションは、前記遠隔サービスから受信された表面情報に基づいて、レンダリングするための前記仮想オブジェクトの部分を算出する、項目1に記載の方法。
(項目8)
前記深度情報を捕捉することは、
少なくとも部分的に、前記深度情報に基づいて、深度マップを生産することであって、前記深度マップは、複数のピクセルを備え、各ピクセルは、前記物理的オブジェクトの点までの距離を示す、こと
を含む、項目1に記載の方法。
(項目9)
前記表面情報を生成することは、
前記深度情報をフィルタリングし、深度マップを生成することであって、前記深度マップは、複数のピクセルを備え、各ピクセルは、前記物理的オブジェクトの点までの距離を示す、ことと、
前記物理的オブジェクトの3D再構成の低レベルデータを選択的に入手することと、
前記深度マップおよび前記物理的オブジェクトの3D再構成の選択的に入手された低レベルデータに基づいて、前記表面情報を生成することと
を含む、項目1に記載の方法。
(項目10)
前記深度情報をフィルタリングすることは、
前記深度マップの領域のための品質メトリックを決定することと、
前記品質メトリックに基づいて、前記深度マップ内の穴を識別することと、
前記穴を前記深度マップから除去することと
を含む、項目9に記載の方法。
(項目11)
前記表面情報を生成することは、
前記深度マップ内の穴に対応する領域を前記物理的オブジェクトの3D再構成の低レベルデータの少なくとも一部で充填すること
を含む、項目10に記載の方法。
(項目12)
前記穴は、前記深度マップ内の欠測または雑音ピクセルを示す、項目10に記載の方法。
(項目13)
前記穴を除去する行為は、閾値距離を超える前記仮想オブジェクトの場所から離間される前記深度マップ内の領域を除去することを含む、項目10に記載の方法。
(項目14)
前記物理的オブジェクトの3D再構成の低レベルデータを選択的に入手することは、前記穴に基づく、項目10に記載の方法。
(項目15)
前記物理的オブジェクトの3D再構成の低レベルデータを選択的に入手する行為は、光線を仮想カメラから前記物理的オブジェクトの3D再構成にキャスティングすることを含む、項目9に記載の方法。
(項目16)
光線をキャスティングすることは、稠密光線を前記物理的オブジェクトの3D再構成の境界領域に、疎隔光線を前記物理的オブジェクトの3D再構成の中心領域にキャスティングすることを含む、項目15に記載の方法。
(項目17)
前記レンダリングするための仮想オブジェクトの部分を算出することは、前記表面情報に基づいて、前記仮想オブジェクトと前記物理的オブジェクトの相互作用をシミュレートすることを含む、項目1に記載の方法。
(項目18)
ユーザによって可搬性の電子システムであって、
場面内の1つ以上の物理的オブジェクトについての深度情報を捕捉するように構成される、センサであって、前記深度情報は、前記ユーザと前記1つ以上の物理的オブジェクトとの間の距離を示し、前記深度情報は、遠隔サービスに伝送される、センサと、
仮想オブジェクトを前記場面内にレンダリングするためのコンピュータ実行可能命令を実行するように構成されるアプリケーションであって、前記アプリケーションは、前記遠隔サービスから、前記場面内の前記1つ以上の物理的オブジェクトの表面の深度バッファを受信し、前記仮想オブジェクトの部分は、前記表面によってオクルードされる、アプリケーションと
を備える、電子システム。
(項目19)
前記表面の深度バッファは、前記深度情報および前記場面の3D再構成の低レベルデータに基づいて、前記遠隔サービスによって生成される、項目18に記載の電子システム。
(項目20)
前記場面の3D再構成の低レベルデータは、光線を仮想カメラから前記場面の3D再構成の一部の中に投射することによって生成され、前記仮想カメラは、前記ユーザの眼と同一位置をとり、前記場面の3D再構成の一部は、前記センサによって捕捉された深度情報に基づいて選択される、項目19に記載の電子システム。
(項目21)
前記深度情報は、複数のピクセルを有する深度画像を備え、前記場面の3D再構成の一部は、前記深度画像の正しくないおよび雑音ピクセルに対応する、項目20に記載の電子システム。
添付の図面は、縮尺通りに描かれることを意図していない。図面では、種々の図に図示される、各同じまたはほぼ同じコンポーネントは、同様の数字で表される。明確性の目的のために、全てのコンポーネントが、全ての図面において標識されているわけではない。
図1は、いくつかの実施形態による、簡略化された拡張現実(AR)場面の実施例を図示する、スケッチである。
図2は、いくつかの実施形態による、視覚的オクリュージョン、物理学的ベースの相互作用、および環境推測を含む、例示的世界再構成ユースケースを示す、例示的な簡略化されたAR場面のスケッチである。
図3は、いくつかの実施形態による、物理的世界と相互作用するARコンテンツの体験を提供するように構成される、ARシステム内のデータフローを図示する、概略図である。
図4は、いくつかの実施形態による、ARディスプレイシステムの実施例を図示する、概略図である。
図5Aは、いくつかの実施形態による、ユーザが物理的世界環境を通して移動するにつれてARコンテンツをレンダリングする、ARディスプレイシステムを装着しているユーザを図示する、概略図である。
図5Bは、いくつかの実施形態による、視認光学系アセンブリおよび付帯コンポーネントを図示する、概略図である。
図6は、いくつかの実施形態による、世界再構成システムを使用するARシステムを図示する、概略図である。
図7Aは、いくつかの実施形態による、ボクセルに離散化された3D空間を図示する、概略図である。
図7Bは、いくつかの実施形態による、単一視点に対する再構成範囲を図示する、概略図である。
図7Cは、いくつかの実施形態による、単一位置における再構成範囲に対する知覚範囲を図示する、概略図である。
図8A-Fは、いくつかの実施形態による、複数の点および視点から表面を視認する画像センサによって、物理的世界内の表面をボクセルモデルに再構成するステップを図示する、概略図である。
図9は、いくつかの実施形態による、ボクセルを含むブリックによって表される場面と、場面内の表面と、深度画像内の表面を捕捉する深度センサとを図示する、概略図である。
図10Aは、8つのブリックによって表される3D空間を図示する、概略図である。
図10Bは、図10Aのブリック内のボクセルグリッドを図示する、概略図である。
図11は、いくつかの実施形態による、立体表現階層を図示する、概略図である。
図12は、いくつかの実施形態による、コンピューティングシステムを動作させ、場面の3D再構成を生成する方法を図示する、フローチャートである。
図13は、いくつかの実施形態による、図12における深度センサのカメラ錐台に対して複数のブリックの一部を間引く方法を図示する、フローチャートである。
図14は、いくつかの実施形態による、図13におけるカメラ錐台許容試験を行う方法を図示する、フローチャートである。
図15は、いくつかの実施形態による、図12における深度画像に対して第1の複数のブリックの一部を間引く方法を図示する、フローチャートである。
図16は、いくつかの実施形態による、図15における第1の深度画像承認試験を行う方法を図示する、フローチャートである。
図17は、いくつかの実施形態による、図15における第2の深度画像承認試験を行う方法を図示する、フローチャートである。
図18は、いくつかの実施形態による、図17における最小ブリック値(bmin)および最大ブリック値(bmax)に対して矩形内の全てのピクセルをカテゴリ化する方法によって使用される、テーブルを示す。
図19A-Fは、いくつかの実施形態による、カメラ錐台に対してブリックを間引くステップを図示する、概略図である。
図20A-Bは、いくつかの実施形態による、表面を含む深度画像に対してブリックを間引くステップを図示する、概略図である。
図21は、いくつかの実施形態による、平面抽出システムを図示する、概略図である。
図22は、いくつかの実施形態による、平面抽出に関する詳細とともに、図21の平面抽出システムの一部を図示する、概略図である。
図23は、いくつかの実施形態による、ボクセルを含むブリックによって表される場面と、場面内の例示的平面データとを図示する、概略図である。
図24は、いくつかの実施形態による、図21の平面データストアを図示する、概略図である。
図25は、いくつかの実施形態による、平面クエリが図21の平面データストアに送信されるときの平面幾何学形状抽出を図示する、概略図である。
図26Aは、いくつかの実施形態による、図25の平面被覆点を生成するステップを図示する、概略図である。
図26Bは、いくつかの実施形態による、例示的ラスタ化平面マスクから抽出され得る、種々の例示的平面幾何学形状表現を図示する、概略図である。
図27は、いくつかの実施形態による、場面に関するメッシュを示す。
図28Aは、いくつかの実施形態による、外側矩形平面によって表される、図27の場面を示す。
図28Bは、いくつかの実施形態による、内側矩形平面によって表される、図27の場面を示す。
図28Cは、いくつかの実施形態による、多角形平面によって表される、図27の場面を示す。
図29は、いくつかの実施形態による、図27に示されるメッシュを平面化することによって雑音除去されたメッシュを伴う、図27の場面を示す。
図30は、いくつかの実施形態による、メッシュによって表される環境のモデルを生成する方法を図示する、フローチャートである。
図31は、いくつかの実施形態による、4つのブロックによって物理的世界の一部の2D表現を図示する、概略図である。
図32A-32Dは、いくつかの実施形態による、多段階簡略化の間の例示的メッシュブロックのメッシュ進化を図示する、概略図である。
図33Aおよび33Bは、それぞれ、三角低減を通した簡略化の有無別の同一環境の表現を示す。
図34Aおよび34Bは、それぞれ、三角低減を通した簡略化の有無別の同一環境の拡大表現を示す。
図35Aおよび35Bは、それぞれ、平面化の有無別の同一環境の表現を示す。
図36Aおよび36Bは、それぞれ、接続解除された成分の除去を通した簡略化の有無別の同一環境の表現を示す。
図37は、いくつかの実施形態による、複数のユーザのための双方向Xリアリティ環境を可能にする、電子システムを図示する、概略図である。
図38は、いくつかの実施形態による、図37における電子システムのコンポーネントの相互作用を図示する、概略図である。
図39は、いくつかの実施形態による、図37における電子システムを動作させる方法を図示する、フローチャートである。
図40は、いくつかの実施形態による、物理的世界内のオブジェクトについての3D情報を捕捉し、物理的世界を図39における3D再構成のブロックとして表す方法を図示する、フローチャートである。
図41は、いくつかの実施形態による、図39におけるブロックのサブセットを表すブロックのバージョンを選択する方法を図示する、フローチャートである。
図42は、いくつかの実施形態による、図37における電子システムを動作させる方法を図示する、フローチャートである。
図43Aは、いくつかの実施形態による、メッシュブロックによって表される物理的世界の一部内に検出されている更新を図示する、簡略化された概略図である。
図43Bは、いくつかの実施形態による、メッシュブロックを図示する、簡略化された概略図である。
図43Cは、いくつかの実施形態による、2つの隣り合ったメッシュブロックの縁における亀裂を図示する、簡略化された概略図である。
図43Dは、いくつかの実施形態による、隣接するメッシュブロックに重複するメッシュスカートを実装することによって包み隠されている、図43Cにおける亀裂を図示する、簡略化された概略図である。
図44は、いくつかの実施形態による、4つのブロックによって物理的世界の一部の2D表現を図示する、概略図である。
図45は、いくつかの実施形態による、8つのブロックによって物理的世界の一部の3D表現を図示する、概略図である。
図46は、いくつかの実施形態による、図45における3D表現を更新することによって取得される物理的世界の一部の3D表現を図示する、概略図である。
図47は、いくつかの実施形態による、ARディスプレイシステムを装着している第1および第2のユーザによって視認可能な拡張世界の実施例を図示する、概略図である。
図48は、いくつかの実施形態による、ブロックの新しいバージョンを伴う、図47の拡張世界を更新することによって取得される拡張世界の実施例を図示する、概略図である。
図49は、いくつかの実施形態による、オクルージョンレンダリングシステムを図示する、概略図である。
図50は、穴を伴う深度画像を図示する、概略図である。
図51は、いくつかの実施形態による、拡張現実環境におけるオクルージョンレンダリングの方法を図示する、フローチャートである。
図52は、いくつかの実施形態による、図51におけるユーザによって装着される深度センサによって捕捉される深度情報から表面情報を生成するステップの詳細を図示する、フローチャートである。
図53は、いくつかの実施形態による、深度情報をフィルタリングし、図52における深度マップを生成するステップの詳細を図示する、フローチャートである。
図54Aは、表面によって占有されているボクセルおよび空のボクセルを識別するために、第1の視点からの深度カメラを用いて結像されている領域のスケッチである。
図54Bは、表面によって占有されているボクセルおよび空のボクセルを識別するために、複数の視点からの深度カメラを用いて結像されており、深度カメラを用いて結像されなかった「穴」の領域内のボクセルの結果として、立体情報が利用可能ではない、「穴」を示す、領域のスケッチである。
本明細書に説明されるのは、拡張現実(AR)、複合現実(MR)、または仮想現実(VR)システムにおいて、3次元(3D)世界再構成を作成および使用するための方法および装置である。現実的AR/MR/VR体験をユーザに提供するために、AR/MR/VRシステムは、仮想オブジェクトの場所を実オブジェクトに関連して正しく相関させるために、ユーザの物理的周囲を把握しなければならない。世界再構成は、AR/MR/VRシステムの一部であるセンサを用いて収集される、それらの物理的周囲についての画像および情報深度から構築されてもよい。世界再構成は、次いで、そのようなシステムの複数のコンポーネントのいずれかによって使用されてもよい。例えば、世界再構成は、視覚的オクルージョン処理を実施する、物理学ベースの相互作用を算出する、または環境推測を実施する、コンポーネントによって使用されてもよい。
オクルージョン処理は、仮想オブジェクトがユーザによって知覚されるべき場所のユーザのそのビューを遮断する、物理的世界内のオブジェクトが存在するため、ユーザにレンダリングおよび/または表示されるべきではない、その仮想オブジェクトの部分を識別する。物理学ベースの相互作用は、仮想オブジェクトがユーザに現れる場所または方法を決定するために算出される。例えば、仮想オブジェクトは、物理的オブジェクト上に静置している、虚空を通して移動している、または物理的オブジェクトの表面と衝突しているように現れるように、レンダリングされてもよい。世界再構成は、そこから物理的世界内のオブジェクトについての情報がそのような計算のために取得され得る、モデルを提供する。
環境推測もまた、仮想オブジェクトをレンダリングする方法を算出する際に使用され得る情報を生成する過程において、世界再構成を使用してもよい。例えば、環境推測は、それらが窓ガラスまたはガラステーブルの上面であることを認識することによって、クリア表面を識別するステップを伴ってもよい。そのような識別から、物理的オブジェクトを含有する領域は、仮想オブジェクトをオクルードしないと分類され得るが、仮想オブジェクトと相互作用すると分類され得る。環境推測はまた、ユーザの視野に対して追跡され得る、定常オブジェクトを識別し、ユーザの視野の運動を算出する等、他の方法において使用される情報を生成してもよい。
しかしながら、そのようなシステムを提供する際、有意な課題が存在する。実質的処理が、世界再構成を算出するために要求され得る。さらに、AR/MR/VRシステムは、仮想オブジェクトをユーザの頭部、身体等に関連して位置付ける方法を正しく把握しなければならない。物理的環境に関連するユーザの位置が、変化するにつれて、物理的世界の関連部分もまた、変化し得、これは、さらなる処理を要求し得る。さらに、3D再構成データは、多くの場合、オブジェクトが物理的世界内で移動する(例えば、カップがテーブル上で移動する)につれて、更新されることが要求される。ユーザが体験している環境を表す、データへの更新は、世界再構成を実施しながら、他の機能を実施することが不可能であるため、AR/MR/VR環境を生成するコンピュータのコンピューティングリソースのあまり多くを使用せずに、迅速に実施されなければならない。さらに、そのデータを「消費」するコンポーネントによる再構成データの処理は、コンピュータリソースに関する需要を悪化させ得る。
公知のAR/MR/VRシステムは、事前に定義された再構成ボリューム(例えば、所定のボクセルグリッド)内のみのリアルタイム世界再構成を起動するために、高算出コンピューティングパワー(例えば、GPU)を要求する。本発明者らは、算出パワー(例えば、単一ARMコア)、メモリ(例えば、1GB未満)、およびネットワーク帯域幅(例えば、100Mbps未満)等、小使用量の算出リソースを用いて、正確な3D再構成データをリアルタイムで提供するように、AR/MR/VRシステムを動作させるための技法を認識および理解している。これらの技法は、世界再構成を生成および維持するために要求される、処理を低減させるステップと、低算出オーバーヘッドを用いて、データを提供および消費するステップとに関する。
これらの技法は、随時利用可能なセンサデータの部分を識別し、世界再構成を作成または更新する際に使用すること等によって、世界再構成を更新するときに処理されたデータの量を低減させるステップを含んでもよい。センサデータは、例えば、世界再構成内に表されるべきオブジェクトの表面の近傍にある可能性が高い、物理的世界の一部を表すかどうかに基づいて、選択されてもよい。
いくつかの実施形態では、算出リソースは、世界再構成を表すデータを簡略化することによって、低減され得る。より単純である表現は、そのデータの処理、記憶、および/または管理およびその使用のためのリソースを低減させ得る。
いくつかの実施形態では、算出リソースの使用は、別個に記憶され、読み出されるが、物理的世界の現実的表現を提供するように組み合わせられ得る、ブロック単位で、物理的世界を表すことによって、低減され得る。ブロックは、メモリ内で管理され、算出リソースを限定してもよく、いくつかの実施形態では、各AR/MR/VRシステムが、世界再構成を構築するために殆ど処理を行わないように、同一物理的空間で動作するAR/MR/VRシステムを横断して、ブロックの共有を可能にしてもよい。
いくつかの実施形態では、算出リソースの使用は、物理的世界についての情報にアクセスするとき、物理的世界の異なる表現の中から選択することによって、低減され得る。世界再構成は、例えば、異なるセンサから捕捉され、および/または異なるフォーマットで記憶される、物理的世界についての情報を含み得る。消費または提供することが最も単純なデータが、仮想オブジェクトをレンダリングするために世界再構成を使用する、コンポーネントに供給されてもよい。より単純であるデータが、利用不可能である場合、より高い算出負荷を生成し得る、異なるセンサを用いて入手されたデータが、アクセスされてもよい。実施例として、世界再構成は、深度センサを用いて収集された深度マップと、画像情報から算出されたメッシュとして記憶され得るような3D世界のより総合的表現とを含み得る。物理的世界についての情報は、利用可能である場合、深度マップに基づいてオクルージョン処理を行う、コンポーネントに供給されてもよい。深度マップ内に穴が存在する場合、それらの穴を充填するための情報が、メッシュから抽出されてもよい。いくつかの実施形態では、深度マップは、データがアクセスされる時間に深度センサによって捕捉されるにつれて物理的世界を表す、「ライブ」であってもよい。
本明細書に説明されるような技法は、拡張現実場面を提供する、限定された算出リソースを伴う、ウェアラブルまたはポータブルデバイスを含む、多くのタイプのデバイスとともにまたは別個に、かつ多くのタイプの場面のために使用されてもよい。
ARシステム概要
図1-2は、そのような場面を図示する。例証目的のために、ARシステムは、XRシステムの実施例として使用される。図3-8は、本明細書に説明される技法に従って動作し得る、1つ以上のプロセッサ、メモリ、センサ、およびユーザインターフェースを含む、例示的ARシステムを図示する。
図1を参照すると、AR場面4が、描写され、AR技術のユーザには、人々、木々、背景における建物、およびコンクリートプラットフォーム8を特徴とする、物理的世界公園状設定6が見える。これらのアイテムに加え、AR技術のユーザはまた、物理的世界のコンクリートプラットフォーム8上に立っているロボット像10と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ2とが「見える」と知覚するが、これらの要素(例えば、アバタキャラクタ2およびロボット像10)は、物理的世界内には存在しない。ヒト視知覚および神経系の極端な複雑性に起因して、他の仮想または物理的世界画像要素の中における仮想画像要素の快適で、自然のように感じる、豊かな提示を促進する、AR技術を生産することは、困難である。
そのようなAR場面は、ユーザの周囲の物理的世界表面の表現を構築および更新し得る、世界再構成コンポーネントを含む、システムを用いて達成され得る。本表現は、レンダリングをオクルードするため、仮想オブジェクトを物理学ベースの相互作用状態に設置するため、および仮想キャラクタ経路計画およびナビゲーションのため、または物理的世界についての情報が使用される、他の動作のために、使用されてもよい。図2は、いくつかの実施形態による、視覚的オクルージョン202と、物理学ベースの相互作用204と、環境推測206とを含む、例示的世界再構成ユースケースを示す、AR場面200の別の実施例を描写する。
例示的場面200は、壁、壁の片側上の書籍棚、部屋の角におけるフロアランプ、床、ソファ、および床上のコーヒーテーブルを有する、居間である。これらの物理的アイテムに加え、AR技術のユーザはまた、ソファの背後の壁上の画像、ドアを通して飛んで来た鳥、書籍棚から覗いているシカ、およびコーヒーテーブル上に設置された風車の形態における置物等の仮想オブジェクトを知覚する。壁上の画像に関して、AR技術は、壁の表面だけではなく、また、ランプ形状等の部屋内のオブジェクトおよび表面についての情報を要求し、これは、画像をオクルードし、仮想オブジェクトを正しくレンダリングしている。飛んで来た鳥に関して、AR技術は、現実的物理学を伴って鳥をレンダリングし、オブジェクトおよび表面または鳥が衝突する場合のそれらからの跳ね返りを回避するために、部屋の周囲の全てのオブジェクトおよび表面についての情報を要求する。シカに関して、AR技術は、床またはコーヒーテーブル等の表面についての情報を要求し、シカを設置すべき場所を算出する。風車に関して、システムは、テーブルと別個のオブジェクトであることを識別し得、移動可能であることを推測し得る一方、棚の角または壁の角は、定常であると推測され得る。そのような特異性は、種々の動作のそれぞれにおいて使用または更新される場面の部分に関する推測において使用され得る。
場面は、視覚、音、および/またはタッチを含む、1つ以上のユーザ感覚を刺激し得る、ユーザインターフェースを含む、複数のコンポーネントを含む、システムを介して、ユーザに提示されてもよい。加えて、システムは、場面の物理的部分内のユーザの位置および/または運動を含む、場面の物理的部分のパラメータを測定し得る、1つ以上のセンサを含んでもよい。さらに、システムは、メモリ等の関連付けられたコンピュータハードウェアを伴う、1つ以上のコンピューティングデバイスを含んでもよい。これらのコンポーネントは、単一デバイスの中に統合されてもよい、または複数の相互接続されるデバイスを横断して分散されてもよい。いくつかの実施形態では、これらのコンポーネントの一部または全部は、ウェアラブルデバイスの中に統合されてもよい。
図3は、いくつかの実施形態による、物理的世界306と相互作用するARコンテンツの体験を提供するように構成される、ARシステム302を描写する。ARシステム302は、ディスプレイ308を含んでもよい。図示される実施形態では、ディスプレイ308は、ユーザがディスプレイを一対のゴーグルまたは眼鏡のようにその眼にわたって装着し得るように、ヘッドセットの一部としてユーザによって装着されてもよい。ディスプレイの少なくとも一部は、ユーザがシースルー現実310を観察し得るように、透明であってもよい。シースルー現実310は、ユーザが、ARシステムのディスプレイおよびセンサの両方を組み込み、物理的世界についての情報を入手する、ヘッドセットを装着している場合、ユーザの視点に対応し得る、ARシステム302の現在の視点内の物理的世界306の一部に対応してもよい。
ARコンテンツはまた、シースルー現実310上にオーバーレイされる、ディスプレイ308上に提示されてもよい。ARコンテンツとシースルー現実310との間の正確な相互作用をディスプレイ308上に提供するために、ARシステム302は、物理的世界306についての情報を捕捉するように構成される、センサ322を含んでもよい。
センサ322は、深度マップ312を出力する、1つ以上の深度センサを含んでもよい。各深度マップ312は、複数のピクセルを有してもよく、それぞれ、深度センサに対する特定の方向における物理的世界306内の表面までの距離を表してもよい。未加工深度データは、深度センサから生じ、深度マップを作成し得る。そのような深度マップは、深度センサが新しい画像を形成し得る速度と同速で更新され得、これは、数百または数千回/秒であり得る。しかしながら、そのデータは、雑音があり、不完全であり、図示される深度マップ上に黒色ピクセルとして示される穴を有し得る。
システムは、画像センサ等の他のセンサを含んでもよい。画像センサは、物理的世界を他の方法において表すように処理され得る、情報を入手してもよい。例えば、画像は、世界再構成コンポーネント316において処理され、物理的世界内のオブジェクトの接続される部分を表す、メッシュを作成してもよい。例えば、色および表面テクスチャを含む、そのようなオブジェクトについてのメタデータも同様に、センサを用いて入手され、世界再構成の一部として記憶されてもよい。
システムはまた、物理的世界に対するユーザの頭部姿勢についての情報を入手してもよい。いくつかの実施形態では、センサ310は、頭部姿勢314を算出および/または決定するために使用され得る、慣性測定ユニットを含んでもよい。深度マップのための頭部姿勢314は、例えば、6自由度(6DoF)を伴う、深度マップを捕捉するセンサの現在の視点を示し得るが、頭部姿勢314は、画像情報を物理的世界の特定の部分に関連させる、またはユーザの頭部上に装着されるディスプレイの位置を物理的世界に関連させるため等、他の目的のために使用されてもよい。いくつかの実施形態では、頭部姿勢情報は、画像内のオブジェクトを分析することから等、IMUから以外の方法において導出されてもよい。
世界再構成コンポーネント316は、深度マップ312および頭部姿勢314および任意の他のデータをセンサから受信し、そのデータを再構成318の中に統合してもよく、これは、少なくとも、単一の組み合わせられた再構成であるように現れ得る。再構成318は、センサデータより完全かつ雑音が少なくあり得る。世界再構成コンポーネント316は、複数の視点からのセンサデータの経時的な空間および時間的平均を使用して、再構成318を更新してもよい。
再構成318は、例えば、ボクセル、メッシュ、平面等を含む、1つ以上のデータフォーマットにおける、物理的世界の表現を含んでもよい。異なるフォーマットは、物理的世界の同一部分の代替表現を表してもよい、または物理的世界の異なる部分を表してもよい。図示される実施例では、再構成318の左側において、物理的世界の一部は、グローバル表面として提示され、再構成318の右側において、物理的世界の一部は、メッシュとして提示される。
再構成318は、オクルージョン処理または物理学ベースの処理のために、物理的世界の表面表現を生産する等、AR機能のために使用されてもよい。本表面表現は、ユーザが移動する、または物理的世界内のオブジェクトが変化するにつれて、変化し得る。再構成318の側面は、例えば、世界座標内の変化するグローバル表面表現を生産する、コンポーネント320によって使用されてもよく、これは、他のコンポーネントによって使用されてもよい。
ARコンテンツは、本情報に基づいて、ARアプリケーション304等によって、生成されてもよい。ARアプリケーション304は、例えば、そのような視覚的オクルージョン、物理学ベースの相互作用、および環境推測等、物理的世界についての情報に基づいて、1つ以上の機能を実施する、ゲームプログラムであってもよい。異なるフォーマットにおけるデータを世界再構成コンポーネント316によって生産された再構成318からクエリすることによって、これらの機能を実施してもよい。いくつかの実施形態では、コンポーネント320は、物理的世界の着目領域内の表現が変化すると、更新を出力するように構成されてもよい。その着目領域は、例えば、ユーザの視野内の部分等のシステムのユーザの近傍における物理的世界の一部に近似するように設定されてもよい、またはユーザの視野内に生じるように投影(予測/決定)される。
ARアプリケーション304は、本情報を使用して、ARコンテンツを生成および更新する。ARコンテンツの仮想部分は、シースルー現実310と組み合わせて、ディスプレイ308上に提示され、現実的ユーザ体験を作成してもよい。
いくつかの実施形態では、AR体験は、ウェアラブルディスプレイシステムを通して、ユーザに提供されてもよい。図4は、ウェアラブルディスプレイシステム80(以降、「システム80」と称される)の実施例を図示する。システム80は、頭部搭載型ディスプレイデバイス62(以降、「ディスプレイデバイス62」と称される)と、ディスプレイデバイス62の機能をサポートするための種々の機械的および電子的モジュールおよびシステムとを含む。ディスプレイデバイス62は、フレーム64に結合されてもよく、これは、ディスプレイシステムユーザまたは視認者60(以降、「ユーザ60」と称される)によって装着可能であって、ディスプレイデバイス62をユーザ60の眼の正面に位置付けるように構成される。種々の実施形態によると、ディスプレイデバイス62は、シーケンシャルディスプレイであってもよい。ディスプレイデバイス62は、単眼または双眼であってもよい。いくつかの実施形態では、ディスプレイデバイス62は、図3におけるディスプレイ308の実施例であってもよい。
いくつかの実施形態では、スピーカ66が、フレーム64に結合され、ユーザ60の外耳道に近接して位置付けられる。いくつかの実施形態では、示されない、別のスピーカが、ユーザ60の別の外耳道に隣接して位置付けられ、ステレオ/調節可能音制御を提供する。ディスプレイデバイス62は、有線導線または無線コネクティビティ68等によって、ローカルデータ処理モジュール70に動作可能に結合され、これは、フレーム64に固定して取り付けられる、ユーザ60によって装着されるヘルメットまたは帽子に固定して取り付けられる、ヘッドホンに内蔵される、または別様に、ユーザ60に除去可能に取り付けられる(例えば、リュック式構成において、ベルト結合式構成において)等、種々の構成において搭載されてもよい。
ローカルデータ処理モジュール70は、プロセッサと、不揮発性メモリ(例えば、フラッシュメモリ)等のデジタルメモリとを含んでもよく、両方とも、データの処理、キャッシュ、および記憶を補助するために利用されてもよい。データは、a)画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロスコープ等のセンサから捕捉された(例えば、フレーム64に動作可能に結合される、または別様にユーザ60に取り付けられ得る)データ、および/またはb)可能性として、処理または読出後、ディスプレイデバイス62への通過のために、遠隔処理モジュール72および/または遠隔データリポジトリ74を使用して入手および/または処理された、データを含む。ローカルデータ処理モジュール70は、これらの遠隔モジュール72、74が、相互に動作可能に結合され、ローカル処理およびデータモジュール70へのリソースとして利用可能であるように、通信リンク76、78によって、有線または無線通信リンク等を介して、それぞれ、遠隔処理モジュール72および遠隔データリポジトリ74に動作可能に結合されてもよい。いくつかの実施形態では、図3における世界再構成コンポーネント316は、少なくとも部分的に、ローカルデータ処理モジュール70内に実装されてもよい。例えば、ローカルデータ処理モジュール70は、コンピュータ実行可能命令を実行し、少なくとも部分的に、データの少なくとも一部に基づいて、物理的世界表現を生成するように構成されてもよい。
いくつかの実施形態では、ローカルデータ処理モジュール70は、データおよび/または画像情報を分析および処理するように構成される、1つ以上のプロセッサ(例えば、グラフィック処理ユニット(GPU))を含んでもよい。いくつかの実施形態では、ローカルデータ処理モジュール70は、単一プロセッサ(例えば、シングルコアまたはマルチコアARMプロセッサ)を含んでもよく、これは、モジュール70の算出予算を限定するが、より小型のデバイスを可能にするであろう。いくつかの実施形態では、世界再構成コンポーネント316は、単一ARMコアの残りの算出予算が、例えば、メッシュを抽出する等の他の使用のためにアクセスされ得るように、単一ARMコア未満の算出予算を使用して、物理的世界表現をリアルタイムで非所定の空間上に生成し得る。
いくつかの実施形態では、遠隔データリポジトリ74は、デジタルデータ記憶設備を含んでもよく、これは、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であってもよい。いくつかの実施形態では、全てのデータは、記憶され、全ての算出は、ローカルデータ処理モジュール70内で実施され、遠隔モジュールからの完全に自律的使用を可能にする。世界再構成は、例えば、本リポジトリ74内に全体または部分的に記憶されてもよい。
いくつかの実施形態では、ローカルデータ処理モジュール70は、バッテリ82に動作可能に結合される。いくつかの実施形態では、バッテリ82は、市販のバッテリ等、リムーバブル電源である。他の実施形態では、バッテリ82は、リチウムイオンバッテリである。いくつかの実施形態では、バッテリ82は、電源に繋ぎ、リチウムイオンバッテリを充電する必要なく、またはシステム80をシャットオフし、バッテリを交換する必要なく、ユーザ60がより長い期間にわたってシステム80を動作させ得るように、システム80の非動作時間の間にユーザ60によって充電可能な内部リチウムイオンバッテリと、リムーバブルバッテリとの両方を含む。
図5Aは、ユーザ30が物理的世界環境32(以降、「環境32と称される」)を通して移動するにつれてARコンテンツをレンダリングする、ARディスプレイシステムを装着している、ユーザ30を図示する。ユーザ30は、ARディスプレイシステムを位置34に位置付け、ARディスプレイシステムは、マッピングされた特徴に対する姿勢関係または指向性オーディオ入力等の位置34に対するパス可能世界(例えば、物理的世界内の実オブジェクトへの変化に伴って記憶および更新され得る、物理的世界内の実オブジェクトのデジタル表現)の周囲情報を記録する。位置34は、データ入力36に集約され、少なくとも、例えば、図3の遠隔処理モジュール72上での処理によって実装され得る、パス可能世界モジュール38によって処理される。いくつかの実施形態では、パス可能世界モジュール38は、世界再構成コンポーネント316を含んでもよい。
パス可能世界モジュール38は、ARコンテンツ40がデータ入力36から決定されるような物理的世界内に配置され得る場所および方法を決定する。ARコンテンツは、ユーザインターフェースを介して、物理的世界およびARコンテンツの表現の両方を提示することによって、物理的世界内に「設置」され、ARコンテンツは、物理的世界内のオブジェクトと相互作用しているかのようにレンダリングされ、物理的世界内のオブジェクトは、ARコンテンツが、適切であるとき、それらのオブジェクトのユーザのビューを曖昧にしているかのように提示される。いくつかの実施形態では、ARコンテンツは、固定要素42(例えば、テーブル)の一部を再構成(例えば、再構成318)から適切に選択し、ARコンテンツ40の形状および位置を決定することによって、設置されてもよい。実施例として、固定要素は、テーブルであってもよく、仮想コンテンツは、そのテーブル上にあるように現れるように位置付けられてもよい。いくつかの実施形態では、ARコンテンツは、視野44内の構造の中に設置されてもよく、これは、現在の視野または推定される将来的視野であってもよい。いくつかの実施形態では、ARコンテンツは、物理的世界のマッピングされたメッシュモデル46に対して設置されてもよい。
描写されるように、固定要素42は、物理的世界内の任意の固定要素のための代用品としての役割を果たし、これは、ユーザ30が、システムがユーザ30にそれが見える度に固定要素42にマッピングする必要なく、固定要素42上のコンテンツを知覚し得るように、パス可能世界モジュール38内に記憶されてもよい。固定要素42は、したがって、前のモデル化セッションからのマッピングされたメッシュモデルである、または別個のユーザから決定されるが、但し、複数のユーザによる将来的参照のために、パス可能世界モジュール38上に記憶されてもよい。したがって、パス可能世界モジュール38は、ユーザ30のデバイスが、最初に、環境32をマッピングすることなく、以前にマッピングされた環境およびディスプレイARコンテンツから環境32を認識し、算出プロセスおよびサイクルを節約し、任意のレンダリングされたARコンテンツの待ち時間を回避し得る。
物理的世界のマッピングされたメッシュモデル46は、ARディスプレイシステムによって作成されてもよく、ARコンテンツ40と相互作用し、それを表示するための適切な表面およびメトリックは、再マッピングまたはモデル化する必要なく、ユーザ30または他のユーザによる将来的読出のために、パス可能世界モジュール38内にマッピングおよび記憶されることができる。いくつかの実施形態では、データ入力36は、地理的場所、ユーザ識別、および現在のアクティビティ等の入力であって、パス可能世界モジュール38に、利用可能な1つ以上の固定要素の固定要素42、固定要素42上に最後に設置されたARコンテンツ40、およびその同一コンテンツを表示すべきかどうか(そのようなARコンテンツは、ユーザが特定のパス可能世界モデルを視認しているかどうかにかかわらず、「持続的」コンテンツである)を示す。
図5Bは、視認光学系アセンブリ48および付帯コンポーネントの概略を図示する。ユーザの眼49に配向されると、いくつかの実施形態では、2つの眼追跡カメラ50は、眼形状、眼瞼オクルージョン、瞳孔方向およびユーザの眼49上の閃光等のユーザの眼49のメトリックを検出する。いくつかの実施形態では、飛行時間センサ等の深度センサ51が、中継信号を世界に放出し、所与のオブジェクトまでの距離を決定する。いくつかの実施形態では、世界カメラ52が、周辺を上回るビューを記録し、環境32をマッピングし、ARコンテンツに影響を及ぼし得る入力を検出する。カメラ53はさらに、ユーザの視野内の物理的世界画像の具体的タイムスタンプを捕捉してもよい。世界カメラ52、カメラ53、および深度センサ51はそれぞれ、54、55、および56の個別の視野を有し、図3Aに描写される物理的世界環境32等の物理的世界場面からデータを収集し、記録する。
慣性測定ユニット57は、視認光学系アセンブリ48の移動および配向を決定してもよい。いくつかの実施形態では、各コンポーネントは、少なくとも1つの他のコンポーネントに動作可能に結合される。例えば、深度センサ51は、ユーザの眼49が見ている実際の距離に対して測定された遠近調節の確認として、眼追跡カメラ50に動作可能に結合される。
視認光学系アセンブリ48内のこれらのセンサからの情報は、システム内のプロセッサのうちの1つ以上のものに結合されてもよい。プロセッサは、ユーザに物理的世界内のオブジェクトと相互作用する仮想コンテンツを知覚させるようにレンダリングされ得る、データを生成してもよい。そのレンダリングは、物理的および仮想の両方のオブジェクトを描写する画像データを生成することを含む、任意の好適な方法で実装されてもよい。他の実施形態では、物理的および仮想コンテンツは、ユーザが物理的世界を通して見る、ディスプレイデバイスの不透明度を変調させることによって、1つの場面に描写されてもよい。不透明度は、仮想オブジェクトの外観を作成し、また、ユーザに仮想オブジェクトによってオクルードされる物理的世界内のオブジェクトが見えないように遮断するように、制御されてもよい。コンテンツがユーザに提示される方法にかかわらず、物理的世界のモデルは、仮想オブジェクトの形状、位置、運動、および可視性を含む、物理的オブジェクトによって影響され得る仮想オブジェクトの特性が、正しく算出され得るように要求される。いくつかの実施形態では、モデルは、物理的世界の再構成、例えば、再構成318を含んでもよい。
そのモデルは、ユーザのウェアラブルデバイス上のセンサから収集されたデータから作成されてもよい。但し、いくつかの実施形態では、モデルは、複数のユーザによって収集されたデータから作成されてもよく、これは、全てのユーザから遠隔のコンピューティングデバイス内に集約されてもよい(かつ「クラウド内」にあってもよい)。
モデルは、少なくとも部分的に、世界再構成システム、例えば、図6にさらに詳細に描写される図3の世界再構成コンポーネント316によって作成されてもよい。世界再構成コンポーネント316は、物理的世界の一部のための表現を生成、更新、および記憶し得る、知覚モジュール160を含んでもよい。いくつかの実施形態では、知覚モジュール160は、センサの再構成範囲内の物理的世界の一部を複数のボクセルとして表してもよい。各ボクセルは、物理的世界内の所定のボリュームの3D立方体に対応し、ボクセルによって表されるボリューム内に表面が存在するかどうかを示す、表面情報を含んでもよい。ボクセルは、その対応するボリュームが、物理的オブジェクトの表面を含むと決定されたか、空であると決定されたか、またはセンサを用いてまだ測定されておらず、したがって、その値が未知であるかを示す、値を割り当てられてもよい。値は、空または未知であると決定されたボクセルが、明示的に記憶される必要がないことを示し、ボクセルの値は、空または未知であると決定されたボクセルに関する情報を記憶しないことを含む、任意の好適な方法でコンピュータメモリ内に記憶され得ることを理解されたい。
図7Aは、ボクセル102に離散化される、3D空間100の実施例を描写する。いくつかの実施形態では、知覚モジュール160は、着目オブジェクトを決定し、着目オブジェクトの特徴を捕捉し、冗長情報を回避するために、ボクセルのボリュームを設定してもよい。例えば、知覚モジュール160は、壁、天井、床、および大家具等のより大きいオブジェクトおよび表面を識別するように構成されてもよい。故に、ボクセルのボリュームは、比較的に大サイズ、例えば、4cmの立方体に設定されてもよい。
ボクセルを含む、物理的世界の再構成は、立体モデルと称され得る。立体モデルを作成するための情報は、センサが物理的世界を中心として移動するにつれて、経時的に作成されてもよい。そのような運動は、センサを含む、ウェアラブルデバイスのユーザが動き回るにつれて、発生し得る。図8A-Fは、物理的世界を立体モデルの中に再構成する実施例を描写する。図示される実施例では、物理的世界は、表面の一部180を含み、これは、図8Aに示される。図8Aでは、第1の場所におけるセンサ182は、視野184を有し得、その中で、表面の一部180は、可視である。
センサ182は、深度センサ等の任意の好適なタイプであってもよい。しかしながら、深度データは、画像センサから、または他の方法において、導出されてもよい。知覚モジュール160は、データをセンサ182から受信し、次いで、図8Bに図示されるように、複数のボクセル186の値を設定し、視野184内のセンサ182によって可視の表面の一部180を表してもよい。
図8Cでは、センサ182は、第2の場所に移動し、視野188を有し得る。図8Dに示されるように、ボクセルのさらなるグループが、可視となり、これらのボクセルの値は、センサ182の視野188に進入した表面の一部の場所を示すように設定されてもよい。これらのボクセルの値は、表面のための立体モデルに追加されてもよい。
図8Eでは、センサ182はさらに、第3の場所に移動し、視野190を有し得る。図示される実施例では、表面の付加的部分が、視野190内で可視となる。図8Fに示されるように、ボクセルのさらなるグループが、可視となり得、これらのボクセルの値は、センサ182の視野190に進入した表面の一部の場所を示すように設定されてもよい。これらのボクセルの値は、表面のための立体モデルに追加されてもよい。図6に示されるように、本情報は、存続される世界の一部として、立体情報162aとして記憶されてもよい。色またはテクスチャ等の表面についての情報もまた、記憶されてもよい。そのような情報は、例えば、立体メタデータ162bとして記憶されてもよい。
存続される世界表現のための情報を生成することに加え、知覚モジュール160は、ARシステムのユーザの周囲の領域の変化のインジケーションを識別および出力してもよい。そのような変化のインジケーションは、存続される世界の一部として記憶される立体データへの更新をトリガする、またはARコンテンツを生成し、ARコンテンツを更新する、コンポーネント304をトリガする等の他の機能をトリガしてもよい。
いくつかの実施形態では、知覚モジュール160は、符号付き距離関数(SDF)モデルに基づいて、変化を識別してもよい。知覚モジュール160は、例えば、深度マップ160aおよび頭部姿勢160b等のセンサデータを受信し、次いで、センサデータをSDFモデル160cの中に融合させるように構成されてもよい。深度マップ160aは、直接、SDF情報を提供してもよく、画像は、SDF情報になるように処理されてもよい。SDF情報は、その情報を捕捉するために使用されるセンサからの距離を表す。それらのセンサは、ウェアラブルユニットの一部であってもよいため、SDF情報は、ウェアラブルユニットの目線、したがって、ユーザの目線から物理的世界を表し得る。頭部姿勢160bは、SDF情報が物理的世界内のボクセルに関連することを可能にし得る。
図6に戻って参照すると、いくつかの実施形態では、知覚モジュール160は、知覚範囲内の物理的世界の一部のための表現を生成、更新、および記憶してもよい。知覚範囲は、少なくとも部分的に、センサの再構成範囲に基づいて決定され得、これは、少なくとも部分的に、センサの観察範囲の限界に基づいて決定され得る。具体的実施例として、アクティブIRパルスを使用して動作する、アクティブ深度センサは、ある距離の範囲にわたって確実に動作し、センサの観察範囲を作成し得、これは、数センチメートルまたは数十センチメートル~数メートルであってもよい。
図7Bは、視点106を有するセンサ104に対する、再構成範囲を描写する。視点106内の3D空間の再構成は、センサ104によって捕捉されたデータに基づいて構築されてもよい。図示される実施例では、センサ104は、40cm~5mの観察範囲を有する。いくつかの実施形態では、センサの再構成範囲は、その観察限界に近いセンサ出力が、より雑音が多く、不完全で、かつ不正確であり得るため、センサの観察範囲より小さくなるように決定され得る。例えば、40cm~5mの図示される実施例では、対応する再構成範囲は、1~3mに設定されてもよく、本範囲外の表面を示す、センサを用いて収集されたデータは、使用されなくてもよい。
いくつかの実施形態では、知覚範囲は、センサの再構成範囲より大きくてもよい。物理的世界についてのデータを使用する、コンポーネント164が、現在の再構成範囲内の物理的世界の一部外の知覚範囲内の領域についてのデータを要求する場合、その情報は、存続される世界162から提供されてもよい。故に、物理的世界についての情報は、クエリによって容易にアクセス可能であってもよい。いくつかの実施形態では、APIが、そのようなクエリに応答し、ユーザの現在の知覚範囲についての情報を提供するように提供されてもよい。そのような技法は、既存の再構成にアクセスするために必要とされる時間を低減させ、改良されたユーザ体験を提供し得る。
いくつかの実施形態では、知覚範囲は、ユーザ場所を中心とする境界ボックスに対応する、3D空間であってもよい。ユーザが、移動するにつれて、コンポーネント164によってクエリ可能であり得る、知覚範囲内の物理的世界の一部も、ユーザに伴って移動し得る。図7Cは、場所112を中心とする境界ボックス110を描写する。境界ボックス110のサイズは、ユーザが非合理的速度で移動し得ないため、合理的拡大を伴ってセンサの観察範囲を封入するように設定され得ることを理解されたい。図示される実施例では、ユーザによって装着されるセンサは、5mの観察限界を有する。境界ボックス110は、20mの立方体として設定される。
図6に戻って参照すると、世界再構成コンポーネント316は、知覚モジュール160と相互作用し得る、付加的モジュールを含んでもよい。いくつかの実施形態では、存続される世界モジュール162は、知覚モジュール160によって入手されたデータに基づいて、物理的世界のための表現を受信してもよい。存続される世界モジュール162はまた、物理的世界の表現の種々のフォーマットを含んでもよい。例えば、ボクセル等の立体メタデータ162bが、メッシュ162cおよび平面162dとともに記憶されてもよい。いくつかの実施形態では、深度マップ等の他の情報も、保存され得る。
いくつかの実施形態では、知覚モジュール160は、例えば、メッシュ160d、平面、および意味論160eを含む、種々のフォーマットにおいて、物理的世界のための表現を生成する、モジュールを含んでもよい。これらのモジュールは、表現が生成された時間における1つ以上のセンサの知覚範囲内のデータおよび以前の時間において捕捉されたデータおよび存続される世界162内の情報に基づいて、表現を生成してもよい。いくつかの実施形態では、これらのコンポーネントは、深度センサを用いて捕捉された深度情報に作用してもよい。しかしながら、ARシステムは、視覚センサを含んでもよく、単眼または双眼視覚情報を分析することによって、そのような表現を生成してもよい。
いくつかの実施形態では、これらのモジュールは、下記に説明されるように、ブロックまたはタイルによって表される領域等の物理的世界の領域に作用してもよい。それらのモジュールは、ブロックまたはタイルまたは物理的世界の他のサブ領域を、知覚モジュール160がそのサブ領域内の物理的世界の変化を検出すると、更新するようにトリガされてもよい。そのような変化は、例えば、SDFモデル160c内の新しい表面を検出すること、またはサブ領域を表す十分な数のボクセルの値を変化させる等の他の基準によって検出されてもよい。
世界再構成コンポーネント316は、物理的世界の表現を知覚モジュール160から受信し得る、コンポーネント164を含んでもよい。物理的世界についての情報は、例えば、アプリケーションからの使用要求に従って、これらのコンポーネントによってプル配信されてもよい。いくつかの実施形態では、情報は、事前に識別された領域の変化または知覚範囲内の物理的世界表現の変化のインジケーション等を介して、使用コンポーネントにプッシュ配信されてもよい。コンポーネント164は、例えば、ゲームプログラム、および視覚的オクルージョン、物理学ベースの相互作用、および環境推測のための処理を実施する、他のコンポーネントを含んでもよい。
コンポーネント164からのクエリに応答して、知覚モジュール160は、物理的世界のための表現を1つ以上のフォーマットにおいて送信してもよい。例えば、コンポーネント164が、使用が視覚的オクルージョンまたは物理学ベースの相互作用のためであることを示すとき、知覚モジュール160は、表面の表現を送信してもよい。コンポーネント164が、使用が環境推測のためであることを示すとき、知覚モジュール160は、物理的世界のメッシュ、平面、および意味論を送信してもよい。
いくつかの実施形態では、知覚モジュール160は、情報をフォーマットし、コンポーネント164を提供する、コンポーネントを含んでもよい。そのようなコンポーネントの実施例は、レイキャスティングコンポーネント160fであってもよい。使用コンポーネント(例えば、コンポーネント164)は、例えば、特定の視点からの物理的世界についての情報をクエリしてもよい。レイキャスティングコンポーネント160fは、その視点からの視野内の物理的世界データの1つ以上の表現から選択してもよい。
高速立体再構成のための視点依存ブリック選択
前述の説明から理解されるはずであるように、知覚モジュール160またはARシステムの別のコンポーネントは、データを処理し、物理的世界の一部の3D表現を作成してもよい。処理されるべきデータは、少なくとも部分的に、カメラ錐台および/または深度画像に基づいて、3D再構成ボリュームの一部を間引き、平面データを抽出および存続させ、近傍一貫性を維持しながらローカル更新を可能にする、ブロック単位で、3D再構成データを捕捉、存続、および更新し、オクルージョンデータをアプリケーションに提供し、オクルージョンデータが1つ以上の深度データソースの組み合わせから導出される、そのような場面を生成し、および/または多段階メッシュ簡略化を実施することによって低減され得る。
世界再構成システムは、物理的世界の複数の視点からのセンサデータを経時的に統合してもよい。センサの姿勢(例えば、位置および配向)が、センサを含むデバイスが移動されるにつれて追跡されてもよい。センサのフレーム姿勢およびそれが他の姿勢にどのように関連するかが、把握されるにつれて、物理的世界のこれらの複数の視点はそれぞれ、単一の組み合わせられた再構成の中にともに融合されてもよい。再構成は、空間および時間的平均化(すなわち、複数の視点からのデータを経時的に平均化する)を使用することによって、オリジナルセンサデータより完全かつ雑音が少なくなり得る。
再構成は、例えば、ライブ深度データ等の未加工データ、ボクセル等の融合された立体データ、およびメッシュ等の算出されたデータを含む、異なるレベルの精巧さのデータを含有してもよい。
いくつかの実施形態では、ARおよびMRシステムは、規則的ボクセルグリッドを伴う、3D場面を表し、各ボクセルは、符号付き距離フィールド(SDF)値を含有してもよい。SDF値は、ボクセルが再構築されるべき場面内の表面の内側または外側にあるかどうかと、ボクセルから表面までの距離とを説明する。場面の所望のボリュームを表す、3D再構成データを算出することは、大量のメモリおよび処理電力を要求する。これらの要件は、3D再構成のために要求される変数の数が、処理される深度画像の数に伴って3乗で成長するため、より大きい空間を表す場面に関して増加する。
本明細書に説明されるのは、処理を低減させる効率的方法である。いくつかの実施形態によると、場面は、1つ以上のブリックによって表されてもよい。各ブリックは、複数のボクセルを含んでもよい。場面の3D再構成を生成するように処理されたブリックは、画像センサの視野(FOV)から導出された錐台および/または深度センサを用いて作成された場面の深度画像(または「深度マップ」)に基づいて、場面を表すブリックのセットを間引くことによって選択されてもよい。
深度画像は、それぞれ、場面内の表面までの距離を表す、1つ以上のピクセルを有してもよい。これらの距離は、画像センサから出力されたデータが、選択的に処理され得るように、画像センサに対する位置に関連し得る。画像データは、画像センサの視点(または「視野点」)から可視であろう表面を含有する3D場面の一部を表す、それらのブリックのために処理されてもよい。残りのブリックの一部または全部の処理は、省略されてもよい。そのようなアプローチを用いることで、選択されたブリックは、それについて画像センサの出力が有用な情報を提供する可能性が低いブリックを間引くことによって達成され得る、新しい情報を含有する可能性が高いものとなり得る。画像センサから出力されたデータは、それらのブリックが、虚空または表面の背後のいずれかにあって、したがって、画像センサからの画像に描写されないため、深度マップによって示される表面より画像センサに近い、またはそこから遠いかのいずれかである、ブリックについての有用な情報を提供する可能性が低い。
いくつかの実施形態では、1つ以上の基準が、処理するためブリックのセットを効率的に選択するために適用されてもよい。ブリックの初期セットは、画像センサの錐台内のものに限定されてもよい。錐台の外側の多数のブリックは、次いで、間引かれてもよい。3D再構成を更新するためのよりコンピュータリソース集約的処理が、次いで、間引くことに続いて処理するために承認されたブリックのサブセット上で実施されてもよい。故に、更新されるべき場面の3D表現は、低減された数のボクセル上での処理を使用してより効率的に算出される。
処理におけるさらにより多くの低減は、深度画像に基づいてブリックを間引くことによって達成され得る。いくつかの実施形態によると、ブリックの間引および/または承認は、初期セット内の各ブリックのシルエットを深度画像の中に投影することによって実施されてもよい。そのような間引は、ブリックが、深度画像が表面の近傍に示す、場面の一部に対応するかどうかに基づいてもよい。単に、全体的に表面の正面または全体的にその背後にあると識別され得る、ブリックは、間引かれてもよい。いくつかの実施形態では、そのような決定は、効率的に行われ得る。例えば、深度マップの中へのブリックの投影の周囲の境界ボックスが、深度画像の2D平面と略垂直であり得る、z-座標方向に沿った最大ブリック値および最小ブリック値を決定するために使用されてもよい。深度マップ内のピクセルによって表される距離に対するこれらの最大および最小ブリック値を比較することによって、ブリックは、間引かれ、および/またはさらなる処理のために承認されてもよい。そのような処理は、深度画像内に反映されるように、表面と交差し、および/または深度画像内に反映されるように、表面の正面にある、初期処理のためのブリックの選択をもたらし得る。いくつかの実施形態では、そのような処理は、中実表面の正面にあるブリックと穴のあいた表面の正面にあるブリック(すなわち、それに対して深度センサが表面までの距離を確実に測定することが不可能であった領域を表す、ブリック)とを区別し得る。
いくつかの実施形態では、間引/承認基準は、算出上の立体再構成のための処理アルゴリズムがブリックの特性のために調整され得るように、さらなる処理のために承認されるブリックの一部または全部の分類をもたらし得る。いくつかの実施形態では、異なる処理が、ブリックが、表面と交差するか、中実表面の正面にあるか、または穴のあいた表面の正面にあると分類されるかに基づいて、選択されてもよい。
図9は、y-座標およびz-座標と平行な平面に沿った場面400の断面図を示す。XRシステムは、ボクセル504のグリッドによって、場面400を表し得る。従来のXRシステムは、ボクセルのグリッドから生成された3D再構成が、場面の変化を反映させ得るように、画像センサまたは深度センサであり得る、センサ406によって捕捉された全ての新しい深度画像に基づいて、ボクセルのグリッドの各ボクセルを更新し得る。本方式における更新は、有意な算出リソースを消費し、また、例えば、算出が重くなることによって生じる待ち時間に起因して、アーチファクトをXRシステムの出力に生じさせ得る。
本明細書に説明されるのは、例えば、少なくとも部分的に、画像センサ406のカメラ錐台404および/または画像センサによって捕捉された深度画像に基づいて、ボクセル504のグリッドの一部を間引くことによって、小使用量の算出リソースを用いて、正確な3D再構築データを提供する技法である。
図示される実施例では、画像センサ406は、場面400の表面402を含む、深度画像(図示せず)を捕捉する。深度画像は、場面400内のある参照点と表面との間の距離を捕捉する、任意の便宜的方法において、コンピュータメモリ内に記憶されてもよい。いくつかの実施形態では、深度画像は、図9に図示されるように、x-軸およびy-軸と平行な平面内の値として表され得、参照点は、座標系の原点である。X-Y平面内の場所は、参照点に対する方向に対応し得、それらのピクセル場所における値は、参照点から平面内の座標によって示される方向における表面の最近傍までの距離を示し得る。そのような深度画像は、x-軸およびy-軸と平行な平面におけるピクセルのグリッド(図示せず)を含んでもよい。各ピクセルは、画像センサ406から表面402までの特定の方向における距離を示してもよい。いくつかの実施形態では、深度センサは、特定の方向における表面までの距離を測定することが不可能であり得る。そのような条件は、例えば、表面が画像センサ406の範囲外にある場合に生じ得る。いくつかの実施形態では、深度センサは、反射されたエネルギーに基づいて距離を測定する、アクティブ深度センサであってもよいが、表面は、正確な測定のために、十分なエネルギーを反射させない場合がある。故に、いくつかの実施形態では、深度画像は、「穴」を有し得、それに対して値が割り当てられない、ピクセルが存在する。
いくつかの実施形態では、深度画像の参照点は、変化してもよい。そのような構成は、深度画像が、3D場面全体を通して表面を表すことを可能にし、特定の基準点に対して所定かつ限定された角度の範囲を有する、部分に限定され得ない。そのような実施形態では、深度画像は、画像センサ406が6自由度(6DOF)を通して移動するにつれて、表面までの距離を示し得る。これらの実施形態では、深度画像は、複数の参照点毎に、ピクセルのセットを含んでもよい。これらの実施形態では、深度画像の一部は、画像データが捕捉された時間に画像センサ406が向いている、方向および/または配向を表す、「カメラ姿勢」に基づいて選択されてもよい。
画像センサ406は、カメラ錐台404によって表され得る、視野(FOV)を有してもよい。いくつかの実施形態では、描写される無限カメラ錐台は、画像センサ406が提供し得る最大深度410および/または画像センサ406が提供し得る最小深度412を仮定することによって、有限3D台形プリズム408に低減され得る。3D台形プリズム408は、6つの平面によって区切られた凸面多面体であってもよい。
いくつかの実施形態では、1つ以上のボクセル504は、ブリック502にグループ化されてもよい。図10Aは、8つのブリック502を含む、場面400の一部500を図示する。図10Bは、8ボクセル504を含む、例示的ブリック502を図示する。図9に戻って参照すると、場面400は、1つ以上のブリックを含んでもよく、そのうちの16個が、図4に描写される図に図示される。各ブリックは、ブリック識別、例えば、[0000]-[0015]によって識別可能であり得る。
図11は、いくつかの実施形態において実装される、立体表現階層を描写する。いくつかの実施形態では、そのような立体表現階層は、データ転送のための待ち時間を低減させ得る。いくつかの実施形態では、物理的世界のボクセルグリッドは、その上でコンポーネント304が実行される、プロセッサ等、ARコンテンツを算出するプロセッサのための記憶アーキテクチャの構造に準拠するようにマッピングされてもよい。1つ以上のボクセルは、「ブリック」にグループ化されてもよい。1つ以上のブリックは、「タイル」にグループ化されてもよい。タイルのサイズは、プロセッサにローカルの記憶媒体のメモリページに対応してもよい。タイルは、メモリ管理アルゴリズムに従って、使用量または予期される使用量に基づいて、無線接続等を経由して、ローカルメモリと遠隔メモリとの間で移動されてもよい。
いくつかの実施形態では、知覚モジュール160と存続される世界モジュール162との間のアップロードおよび/またはダウンロードは、1つの動作において、複数のタイル上で実施されてもよい。1つ以上のタイルは、「RAMタイルセット」にグループ化されてもよい。RAMタイルセットのサイズは、ユーザによって装着されるセンサの範囲の再構成内の領域に対応してもよい。1つ以上のRAMタイルセットは、「グローバルタイルセット」にグループ化されてもよい。グローバルタイルセットのサイズは、世界再構成システムの知覚範囲(例えば、知覚モジュール160のための知覚範囲)に対応してもよい。
図12は、いくつかの実施形態による、コンピューティングシステムを動作させ、場面の3D再構成を生成する方法600を図示する、フローチャートである。方法600は、1つ以上のブリック(例えば、ブリック502)を伴う場面(例えば、場面400)を表すステップから開始してもよく、各ブリックは、1つ以上のボクセル(例えば、ボクセル504)を含む。各ブリックは、場面の一部を表してもよい。ブリックは、画像センサ(例えば、画像センサ406)の姿勢が変化する場合でも、同一ブリックが場面内の同一ボリュームを表すように、持続的座標系に対して識別可能であってもよい。
行為604では、方法600は、深度画像(例えば、表面402を含む、深度画像)を深度センサ(例えば、深度センサ406)から捕捉してもよい。深度センサは、例えば、IR放射を伝送し、反射のための飛行時間を測定する、アクティブ深度センサであってもよい。各そのような測定は、特定の方向における深度センサから表面までの距離を表す。その深度情報は、ブリックによって表されるものと同一ボリュームを表し得る。
行為606では、方法600は、1つ以上のブリックからのブリックの低減されたセットである、第1の1つ以上のブリックを生産するように、カメラ錐台(例えば、カメラ錐台404から導出される有限3D台形プリズム408)に対して1つ以上のブリックの一部を間引いてもよい。そのような間引は、処理されている画像データが入手された時間における画像センサの視野外の場面の部分を表す、ブリックを排除し得る。その画像データは、したがって、ブリックを作成または更新する際に有用な情報を含有する可能性が低い。
行為608では、方法600は、第1の1つ以上のブリックからのブリックの低減されたセットである、第2の1つ以上のブリックを生産するように、深度画像に対して第1の1つ以上のブリックの一部を間引いてもよい。行為610では、方法600は、第2の1つ以上のブリックに基づいて、場面の3D再構成を生成してもよい。
図9に戻って参照すると、深度画像によって捕捉された表面402および対応するカメラ姿勢を前提として、画像センサ406と表面402との間のボクセルが、空である場合がある。ボクセルが、画像センサ406からより遠く表面402の背後にあるほど、ボクセルがオブジェクトの内側または虚空を表す確実性が低くなり得る。確実性の程度は、加重関数によって表されてもよく、これは、表面402までの距離に基づいて、ボクセル更新を加重する。表面402の背後にある(画像センサ402からより遠く離れた)ボクセルが、閾値を上回る加重関数を有するとき、ボクセルは、無更新またはゼロ更新(例えば、ゼロ変化に伴う更新)となり得る。また、カメラ錐台404の中にない、全てのボクセルは、本深度画像のために更新または調査されなくてもよい。
方法600は、立体深度画像融合の処理速度のみを改良するだけではなく、また、メモリ記憶を殆ど消費し得ず、これは、方法600がウェアラブルハードウェア上で起動することを可能にする。例えば、1cmボクセルサイズおよびボクセルあたり8バイト(距離値のための4バイトおよび加重値のための4バイト)を伴う、5m×5m×3mの小再構成ボリュームは、すでに、約600MBを要求するであろう。方法600は、切り捨て閾値に対する表面までのその距離によって、ブリックをカテゴリ化することができる。例えば、方法600は、空ブリックのためにメモリ空間を配分しないように、空ブリック(例えば、間引かれるブリックまたは切り捨て閾値を超える表面から離れたブリック)を識別することができる。方法600はまた、負の切り捨て閾値および加重1の一定距離値によって、これらのブリックを記憶するように、切り捨て閾値によって、表面から離れたブリックを識別することができる。方法600はまた、正の切り捨て閾値の一定SDF値であるが、可変加重を伴う、これらのブリックを記憶するように、ゼロと切り捨て閾値との間の表面までの距離を有する、ブリックを識別することができる。単一値を伴うブリックに関して一定である、距離または加重値を記憶することは、ゼロエントロピフィールドのためのエントロピベースの圧縮であり得る。
方法600は、ボクセル更新の間、「表面の任意の部分を含有しない」とブリックにフラグを付けることを可能にし得、これは、ブリックの処理を有意に加速させることができる。その処理は、例えば、ブリックによって表される場面の一部の画像をメッシュに変換することを含んでもよい。
図13は、いくつかの実施形態による、画像センサ406のカメラ錐台404に対して1つ以上のブリックの一部を間引く例示的方法606を示す。方法606は、立方体軸整合境界ボックス(AABB)を見出し、カメラ錐台404を含有するステップから開始してもよい。AABBは、1つ以上のブリックを場面内に含有してもよい。方法606は、AABBを1つ以上のサブAABBに分割するステップ(行為704)と、カメラ錐台承認試験を行うステップ(行為706)とを含んでもよい。方法606が、行為708において、サブAABBがブリックのサイズに達することを決定する場合、方法606は、第1の1つ以上のブリックを生産してもよい(行為710)。方法606が、行為708において、サブAABBがブリックのサイズより大きいことを決定する場合、方法606は、サブAABBがブリックのサイズに達するまで、行為704-708を繰り返してもよい。
例えば、カメラ錐台404に対応する3D台形プリズム408を前提として、AABBは、3D台形プリズム408を含有する辺長の2乗を用いて、一定時間内に見出され得る。AABBは、8つのサブAABBに分割されてもよい。8つのサブAABBはそれぞれ、カメラ錐台404との交点に関して試験されてもよい。サブAABBが、カメラ錐台404と交差しないと決定されると、本サブAABBに対応するブリックは、間引かれてもよい。間引かれたブリックは、さらなる処理のために否認されてもよい。サブAABBが、カメラ錐台404と交差すると決定されると、サブAABBは、サブAABBの8つのサブAABBにさらに分割されてもよい。次いで、サブAABBの8つのサブAABBはそれぞれ、カメラ錐台404との交点に関して試験されてもよい。分割および試験の反復は、サブAABBが単一ブリックに対応するまで継続する。カメラ錐台404がAABBと交差するかどうかを決定するために、2ステップ試験が、行われてもよい。第1に、AABBの少なくとも1つの角点が、カメラ錐台404を区切る平面のそれぞれの内側にあるかどうか試験されてもよい。第2に、カメラ錐台404と交差しないが、部分的に内側にあると正しくなく分類される(例えば、錐台の縁上の1つのみの角点を有する)、AABBのいくつかの場合が、捕捉され得るように、カメラ錐台404の全ての角点がAABBの内側にあるかどうか試験されてもよい。
本2ステップ試験の望ましい副産物は、カメラ錐台404と交差するブリック毎に、完全または部分的にのみ、カメラ錐台404の内側にあるかどうかが把握され得ることである。完全にカメラ錐台404の内側にあるブリックに関して、後の個々のボクセル更新において、カメラ錐台404の内側にあるかどうかのボクセル毎の試験は、スキップされ得る。
図14は、いくつかの実施形態による、カメラ錐台承認試験を行う例示的方法706を示す。方法706は、カメラ錐台404を区切る平面のそれぞれに対して1つ以上のサブAABBのそれぞれを試験することによって開始してもよい(行為802)。行為804では、方法706は、試験されるサブAABBが完全にカメラ錐台404の外側にあるかどうかを決定してもよい。行為806では、試験されるサブAABBが完全にカメラ錐台404の外側にあることが決定される場合、方法706は、本試験されるサブAABBによって含有される全てのブリックを間引いてもよい。行為808では、試験されるサブAABBが完全にカメラ錐台404の外側にないことが決定される場合、方法706は、試験されるサブAABBが完全にカメラ錐台404の内側にあるかどうかを決定してもよい。
行為810では、試験されるサブAABBが完全にカメラ錐台404の内側にあることが決定される場合、方法706は、試験されるサブAABBによって含有される全てのブリックを第1の1つ以上のブリックに追加してもよい。行為708では、試験されるサブAABBが完全にカメラ錐台404の内側にないことが決定される(試験されるサブAABBがカメラ錐台404と交差することを示し得る)場合、方法706は、試験されるサブAABBがブリックのサイズに達するかどうかを決定してもよい。
行為814では、試験されるサブAABBがブリックのサイズと等しいことが決定される場合、方法706はさらに、カメラ錐台404の全ての角点が試験されるサブAABBの内側にあるかどうかを決定してもよい。カメラ錐台404の全ての角点が試験されるサブAABBの内側にあることが決定される場合、方法706は、試験されるサブAABBのブリックを間引いてもよい(行為806)。カメラ錐台の全ての角点が試験されるサブAABBのブリックの内側にあるわけではないことが決定される場合、方法706は、試験されるサブAABBのブリックを第1の1つ以上のブリックに追加してもよい(行為810)。
図15は、いくつかの実施形態による、深度画像に対する第1の1つ以上のブリックの一部を間引く例示的方法608を示す。方法608は、第1の1つ以上のブリック毎に、第1の深度画像承認試験を行うことによって開始してもよい(行為902)。行為904では、方法808は、試験されるブリックが第1の深度画像承認試験によって承認されるかどうかを決定してもよい。試験されるブリックが第1の深度画像承認試験によって承認されることが決定される(試験されるブリックが場面内の表面と交差することを示し得る)場合、方法608は、可変インクリメントを選択されたボクセルに適用し(行為906)、試験されるブリックを第2の1つ以上のブリックに追加してもよい(行為914)。
行為908では、試験されるブリックが第1の深度画像承認試験によって承認されないことが決定される場合、方法608は、試験されるブリックに関する第2の深度画像承認試験を行ってもよい(行為908)。行為910では、試験されるブリックが第2の深度画像承認試験によって承認されるかどうか決定される。試験されるブリックが第2の深度画像承認試験によって承認されることが決定される(試験されるブリックが、場面内の中実または穴のあいた背景の正面にあることを示し得る)場合、方法608は、一定インクリメントを全てまたは選択されたボクセルに適用し(行為912)、試験されるブリックを第2の1つ以上のブリックに追加してもよい(行為914)。試験されるブリックが第2の深度画像承認試験によっても承認されないことが決定される場合、方法608は、試験されるブリックを間引いてもよい(行為916)。
図16は、いくつかの実施形態による、第1の深度画像承認試験を行う例示的方法902を示す。試験されるべきブリック毎に、方法902は、z-座標と平行方向に沿った最小ブリック値(bmin)および最大ブリック値(bmax)を決定することによって開始してもよい(行為1002)。bmin値およびbmax値は、パティングされ、積分閾値を考慮してもよく、それを超える深度値は、ブリック内のボクセルに対する一定更新を示す。行為1004では、方法902は、ブリックの角を深度画像の中に投影することによって、試験されるブリックの角の2Dピクセル位置を算出してもよい。行為1006では、方法902は、ブリックの角の2Dピクセル位置の凸包を構築することによって、矩形を算出してもよい。行為1008では、方法902は、矩形内の各ピクセルをbmin値およびbmax値に対して試験してもよい。行為1010では、方法902は、矩形内の全てのピクセルがbmin値とbmax値との間の深度値を有するかどうかを決定してもよい。矩形内の全てのピクセルがbmin値とbmax値との間の深度値を有することが決定される場合、方法902は、ブリックを承認してもよい(行為1012)。矩形内の全てのピクセルがbmin値とbmax値との間の深度値を有してはいないことが決定される場合、方法902は、ブリックのための第2の深度画像承認試験を行ってもよい(行為908)。
図17は、いくつかの実施形態による、第2の深度画像承認試験を行う例示的方法908を示す。方法908は、行為1102において、矩形内の全てのピクセルをbmin値およびbmax値に対してカテゴリ化することによって開始してもよい。行為1104では、方法908は、例えば、図18に示されるテーブルを使用することによって、試験されるブリックが中実または穴のあいた背景の正面にあるかどうかを決定してもよい。試験されるブリックが中実または穴のあいた背景の正面にあることが決定される場合、方法908は、ブリックを承認してもよい(行為1106)。試験されるブリックが中実または穴のあいた背景の正面にないことが決定される場合、行為916において、方法908は、ブリックを間引いてもよい。
図19A-Fは、カメラ錐台192に対して場面190を表すブリックを間引く実施例を描写する。図19Aでは、場面190は、図示される実施例では、単一AABB194aによって表され、これは、16×16ブリックを含む。図19Bでは、単一AABB194aは、それぞれ、8×8ブリックを含む、4つのサブAABB194bに分割される。カメラ錐台承認試験(例えば、方法706)を行った後、4つのサブAABB194bのうちの1つが、カメラ錐台承認試験に不合格になり、したがって、不合格になったサブAABB194b内の8×8ブリックは、間引かれ、白色ブリックとして図示される。図19Cでは、カメラ錐台承認試験に合格した3つのサブAABB194はそれぞれさらに、それぞれ、4×4ブリックを含む、4つのサブAABB194cに分割される。カメラ錐台承認試験(例えば、方法706)を行った後、16のサブAABB194cのうちの8つが、カメラ錐台承認試験に不合格になり、したがって、不合格になったサブAABB194c内のブリックは、間引かれ、白色ブリックとして図示される。同様に、図19Dでは、サブAABB194dは、2×2ブリックを含む。図19Eでは、サブAABB194eは、単一ブリックを含み、したがって、カメラ錐台試験に合格したサブAABB194eおよび個別のブリックは、第1の複数のブリックとして生産され、図19Fでは、灰色ブリック196fとして図示される。図示される実施例では、間引が実施されない場合、世界再構成コンポーネントは、256ブリックの全てを算出するであろう。カメラ錐台に対するブリック間引を用いることで、世界再構成コンポーネントは、第1の複数のブリック、すなわち、34ブリックのみを算出する必要があり、したがって、結果をはるかに高速でレンダリングするであろう。
図20Aは、例えば、方法608を行うことによって、表面220を含む深度画像に対して34ブリック196fをさらに間引く、実施例を描写する。図20Bは、深度画像に対する間引の結果を描写し、34ブリック196fのうち12ブリック222aが第1の深度画像承認試験(例えば、方法904)に合格し、34ブリック196fのうち9ブリック222bが第2の深度画像承認試験(例えば、方法910)に合格し、最後に、表面220を備える深度画像に対する間引後、34ブリック196fのうち13ブリック222cが間引かれたことを示す。その結果、図示される実施例では、深度画像に対するブリック間引を用いることで、世界再構成コンポーネントによって算出されるブリックの数はさらに、21ブリックまで低減される。また、世界再構成コンポーネントの算出速度も、ブリックの低減された数によってだけではなく、また、第1および第2の深度画像承認試験の結果としてのブリックの分類によっても加速され得ることを理解されたい。例えば、図15に関して議論されるように、一定インクリメントが、第1の深度画像承認試験に不合格であったが、第2の深度画像承認試験に合格した、9ブリック222bに適用されてもよい。一定インクリメントを一括して適用することもさらに、可変インクリメントを各ボクセルに適用することと比較して、算出速度を改良し得る。場面内の幾何学形状(例えば、平面)、例えば、仮想画面を設置するための壁および/または仮想ロボットをナビゲートするための床が、アプリケーションをサポートするために、XRシステムにおいて取得され得る。場面の幾何学形状の一般的表現は、メッシュであって、これは、頂点および縁を有する、接続された三角形のグループを備え得る。従来、場面内の幾何学形状は、場面のためのメッシュを生成し、メッシュ内の幾何学形状を検索することによって取得されており、これは、処理のための時間、例えば、数秒を要し、異なるクエリによって要求される幾何学形状間の関係を示さない。例えば、第1のクエリは、テーブル平面に関するものであり得る。第1のクエリに応答して、システムは、テーブル平面を見出し、腕時計をテーブル平面上に残し得る。次いで、第2のクエリは、腕時計に関するものであり得る。第2のクエリに応答して、システムは、第1のクエリに対する応答から、テーブル平面がテーブル平面であるかどうかのインジケーションが存在しないため、全ての可能性として考えられるテーブル平面を見出し、腕時計を見出すまで、腕時計が各テーブル平面上に存在するかどうかをチェックし得る。
本明細書に説明されるのは、幾何学形状抽出システムである。いくつかの実施形態では、幾何学形状抽出システムは、カメラおよび/またはセンサを用いて、場面を走査しながら、幾何学形状を抽出してもよく、これは、高速の効率的抽出を可能にし、動的環境変化に適応することができる。いくつかの実施形態では、幾何学形状抽出システムは、抽出された幾何学形状をローカルおよび/または遠隔メモリ内に存続させてもよい。存続される幾何学形状は、例えば、異なるタイムスタンプにおける、および/または異なるアプリケーションからからの、異なるクエリが、存続される幾何学形状を共有し得るように、一意の識別を伴ってもよい。いくつかの実施形態では、幾何学形状抽出システムは、個々のクエリに従って、幾何学形状の異なる表現をサポートしてもよい。平面は、以下の図21-29の説明では、例示的幾何学形状として使用される。幾何学形状抽出システムは、平面の代わりに、またはそれに加え、例えば、円筒形、立方体、線、角、またはガラス表面または穴等の意味論を含む、他の幾何学形状を検出し、後続処理において使用してもよいことを理解されたい。いくつかの実施形態では、幾何学形状抽出に関して本明細書に説明される原理は、オブジェクト抽出および同等物に適用可能であってもよい。
図21は、いくつかの実施形態による、平面抽出システム1300を示す。平面抽出システム1300は、深度融合1304を含んでもよく、これは、複数の深度マップ1302を受信してもよい。複数の深度マップ1302は、深度センサを装着している1人以上のユーザによって作成され、および/またはローカル/遠隔メモリからダウンロードされてもよい。複数の深度マップ1302は、同一表面の複数視点を表してもよい。複数の深度マップ間には、差異が存在し得、これは、深度融合1304によって解消されてもよい。
いくつかの実施形態では、深度融合1304は、少なくとも部分的に、方法600に基づいて、SDF1306を生成してもよい。メッシュブリック1308は、例えば、マーチングキューブアルゴリズムを対応するブリック(例えば、図23におけるブリック[0000]-[0015])にわたって適用することによって、SDF1306から抽出されてもよい。平面抽出1310は、メッシュブリック1308内の平面表面を検出し、少なくとも部分的に、メッシュブリック1308に基づいて、平面を抽出してもよい。平面抽出1310はまた、少なくとも部分的に、対応するメッシュブリックに基づいて、ブリック毎に、サーフェルを抽出してもよい。サーフェルは、サーフェルを記憶することがメッシュよりメモリ空間を消費しないように、メッシュ内の頂点を含み得るが、近傍頂点を接続する縁を含まない。平面データ記憶1312は、抽出された平面およびサーフェルを存続させ得る。
いくつかの実施形態では、XRアプリケーションは、アプリケーションプログラミングインターフェース(API)によって送信され得る、平面クエリ1314によって、平面データ記憶1312から平面を要求および取得し得る。例えば、アプリケーションは、平面抽出システム1300に、その位置についての情報を送信し、その近傍(例えば、5メートル半径内)の全ての平面について尋ね得る。平面抽出システム1300は、次いで、その平面データ記憶1312を検索し、選択された平面をアプリケーションに送信し得る。平面クエリ1314は、アプリケーションが平面を必要とする場所、アプリケーションが必要とする平面の種類、および/または平面が見えるべき様子(例えば、水平または垂直または角度付けられるかどうかであって、これは、平面データ記憶内の平面のプリミティブ法線をチェックすることによって決定され得る)等の情報を含んでもよい。
図22は、いくつかの実施形態による、平面抽出1310に関する詳細を図示する、平面抽出システム1300の部分1400を示す。平面抽出1310は、メッシュブリック1308のそれぞれをサブブリック1402に分割することを含んでもよい。平面検出1404は、サブブリック1402毎に行われてもよい。例えば、平面検出1404は、サブブリック内の各メッシュ三角形のプリミティブ法線を比較して、所定の閾値より小さいプリミティブ正常差を伴うそれらのメッシュ三角形を1つのメッシュ三角形にマージし、所定の面積値より大きい面積を伴うメッシュ三角形を平面として識別してもよい。
図23は、いくつかの実施形態による、ボクセルを含む、ブリック[0000]-[0015]によって表される、場面1500と、場面内のブリック平面1502、グローバル平面1504、およびサーフェル1506を含む、例示的平面データとを図示する、概略図である。図23は、4つのサブブリック1508に分割されている、ブリック[0011]を図示する。メッシュブリックは、任意の好適な数のサブブリックに分割されてもよいことを理解されたい。平面検出1404によって検出された平面の粒度は、サブブリックのサイズによって決定され得る一方、ブリックのサイズは、立体3D再構成データを記憶する、ローカル/遠隔メモリの粒度によって決定され得る。
図22に戻って参照すると、平面検出1404は、少なくとも部分的に、メッシュブリック内のサブブリック毎に検出された平面に基づいて、メッシュブリック毎にブリック平面(例えば、ブリック平面1502)を決定してもよい。平面検出1404はまた、1つを上回るブリックに延在する、グローバル平面(例えば、グローバル平面1504)を決定してもよい。
いくつかの実施形態では、平面抽出1310は、少なくとも部分的に、平面検出1404によって検出された平面に基づいて、平面データ記憶1312内に記憶される、既存のブリック平面および/またはグローバル平面を更新し得る、平面更新1406を含んでもよい。平面更新1406は、場面のリアルタイム変化が平面データ記憶1312内に存続されるように、付加的ブリック平面を追加し、既存のブリック平面のうちのいくつかを除去し、および/または既存のブリック平面のうちのいくつかを、平面検出1404によって検出され、同一ブリックに対応する、ブリック平面と置換することを含んでもよい。平面更新1406はまた、例えば、ブリック平面が既存のグローバル平面に隣接して検出されるとき、平面検出1404によって検出されたブリック平面を既存のグローバル平面に集約することを含んでもよい。
いくつかの実施形態では、平面抽出1310はさらに、平面マージおよび分割1408を含んでもよい。平面マージは、例えば、ブリック平面が、追加され、2つのグローバル平面を接続するとき、複数のグローバル平面を1つの大きいグローバル平面にマージしてもよい。平面分割は、例えば、グローバル平面の中央におけるブリック平面が除去されるとき、1つのグローバル平面を複数のグローバル平面に分割してもよい。
図24は、いくつかの実施形態による、平面データ記憶1312内のデータ構造を示す。平面ID1612によってインデックス化されたグローバル平面1614は、データ構造の最高レベルにあり得る。各グローバル平面1614は、1つのブリック平面がブリック毎に存続され得る一方、グローバル平面の縁が対応するブリックのためのブリック平面として認定されないとき、グローバル平面が正確に提示され得るように、複数のブリック平面および対応するグローバル平面に隣接するブリックのサーフェルを含んでもよい。いくつかの実施形態では、グローバル平面に隣接するブリックのサーフェルが、グローバル平面を正確に提示するために十分であろうため、場面内の全てのブリックのサーフェルの代わりに存続される。例えば、図23に図示されるように、グローバル平面1504は、ブリック[0008]-[0010]および[0006]を横断して延在する。ブリック[0006]は、グローバル平面1504の一部ではない、ブリック平面1502を有する。平面データ記憶1312内のデータ構造を用いることで、平面クエリがグローバル平面1504を要求するとき、ブリック[0006]および[0012]のサーフェルが、グローバル平面1504がブリック[0006]および[0012]の中に延在するかどうかを決定するためにチェックされる。図示される実施例では、サーフェル1506は、グローバル平面1504がブリック[0006]の中に延在することを示す。
図24に戻って参照すると、グローバル平面1614は、対応するブリック平面1610と双方向に関連付けられてもよい。ブリックは、ブリックID1602によって識別可能であり得る。ブリックは、少なくとも1つの平面を含む、平面ブリック1604と、平面を含まない、非平面ブリック1606とに分割されてもよい。平面ブリックおよび非平面ブリックの両方に関するサーフェルは、ブリックが平面を含むかどうかではなく、ブリックがグローバル平面に隣接するかどうかに応じて、存続されてもよい。平面は、平面クエリ1314が存在するかどうかにかかわらず、XRシステムが場面を観察する間、平面データ記憶1312内に継続的に存続され得ることを理解されたい。
図25は、いくつかの実施形態による、アプリケーションが平面クエリ1314を平面データ記憶1312に送信するとき、アプリケーションの使用のための平面を抽出し得る、平面幾何学形状抽出1702を示す。平面幾何学形状抽出1702は、APIとして実装されてもよい。平面クエリ1314は、要求される平面幾何学形状表現、例えば、外側矩形平面、内側矩形平面、または多角形平面を示してもよい。平面クエリ1314に従って、平面検索1704は、平面データ記憶1312内の平面データを検索および取得し得る。
いくつかの実施形態では、平面被覆点1706からのラスタ化が、平面被覆点を生成し得る。実施例は、図26Aに図示される。それぞれ、ブリック平面1802を有する、4つのブリック[0000]-[0003]が存在する。平面被覆点1806(または「ラスタ化点」)は、ブリック平面の境界点をグローバル平面1804上に投影することによって生成される。
図25に戻って参照すると、平面被覆点1706からのラスタ化はまた、平面被覆点からラスタ化平面マスクを生成し得る。平面クエリ1314によって要求される平面幾何学形状表現に従って、内側矩形平面表現、外側矩形平面表現、および多角形平面表現が、それぞれ、内側矩形抽出1708、外側矩形抽出1710、および多角形抽出1712によって抽出され得る。いくつかの実施形態では、アプリケーションは、平面クエリの送信から数ミリ秒以内に要求される平面幾何学形状表現を受信することができる。
例示的ラスタ化平面マスク1814は、図26Bに図示される。ラスタ化平面マスクから、種々の平面幾何学形状表現が、生成され得る。図示される実施例では、多角形1812が、マスク内の平面被覆点のいずれも多角形の外側にないように、ラスタ化平面マスクの平面被覆点のうちのいくつかを接続することによって生成される。外側矩形1808は、外側矩形1808がラスタ化平面マスク1814を囲繞する最小矩形であるように生成される。内側矩形1810は、内側矩形が個別のグループを囲繞する最小矩形であるように、「1」を2つの平面被覆点を伴うブリックに、「0」を2つの平面被覆点を伴わないブリックに割り当て、ラスタ化グリッドを形成し、「1」としてマークされ、ブリックの縁と平行な線内に整合される、ブリックのグループを決定し(例えば、ブリック[0001]、[0005]、[0009]、および[00013]をグループとして、ブリック[0013]-[0015]をグループとして)、決定されたグループ毎に、1つの内側矩形を生成することによって生成される。
図27は、いくつかの実施形態による、場面1900に関するメッシュを示す。図28A-Cは、いくつかの実施形態による、それぞれ、外側矩形平面、内側矩形平面、および多角形平面によって表される、場面1900を示す。
図29は、場面1900のあまり雑音がない3D表現を図示し、これは、抽出された平面データ、例えば、図28A-Cに図示される平面に基づいて、図27に示されるメッシュを平面化することによって取得される。
多段階ブロックメッシュ簡略化
いくつかの実施形態では、表現が、オクルージョン処理またはXR環境内のオブジェクト間の相互作用の物理学の算出等のレンダリング機能において記憶または使用される前に、処理が、XR環境の表現の複雑性を低減させるために採用されてもよい。例えば、メッシュ化コンポーネント160dは、存続される世界162内にメッシュ162cとして記憶する前に、メッシュまたは部分メッシュの一部を簡略化し得る。
そのような処理は、XR環境の表現上で動作を段階的に実施することを伴い得る。それらの段階は、領域ベースの動作に先行する、およびそれに続く、簡略化動作を含んでもよい。領域ベースの動作は、簡略化動作のように、XR環境の表現の複雑性を低減させ得る。動作を本方式において段階化することによって、XR環境の簡略化された表現を生産するための総処理は、XR環境の表現の品質を維持しながら、低減され得る。その結果、XR環境が、頻繁に更新され、より現実的環境をユーザに提示すること等によって、XRシステムの性能を改良し得るように、簡略化された高品質表現が、頻繁に更新され得る。
XR環境は、物理的世界を表してもよく、XR環境を表すデータは、1つ以上のセンサによって捕捉されてもよい。しかしながら、本明細書に説明されるような技法は、環境を表すデータのソースにかかわらず、XR環境に適用されてもよい。いくつかの実施形態では、XR環境は、1つ以上の点および点のサブセットによって定義された三角形等の多角形を含む、メッシュによって表されてもよい。領域ベースの動作に先行する、第1の簡略化動作は、環境の表現の複雑性を低減させ得る。メッシュは、例えば、メッシュ内のそのような多角形の数を低減させることによって簡略化され得る。具体的実施例として、第1の簡略化動作は、三角形低減アルゴリズムを採用してもよく、これは、XR環境を表すために使用される三角形の数を低減させ得る。
領域ベースの動作は、1つ以上の形状を検出し得る、形状検出動作であってもよい。一般的形状検出動作は、検出された形状が平面である、平面化動作である。検出された平面は、オブジェクトまたはオブジェクトの一部を表し得る。平面の検出は、XR環境をレンダリングするための処理を簡略化し得る。XR環境内にレンダリングされている移動オブジェクトは、例えば、平面と衝突する際、容易に算出可能な方法において移動し得る。故に、平面を識別することは、環境の同一部分を表す複数の多角形に基づいて算出を実施することと比較して、移動オブジェクトの後続レンダリングを簡略化し得る。円筒形、立方体、線、角、またはガラス表面または穴等の意味論を含む、他の形状も、平面の代わりに、またはそれに加え、後続処理において検出および使用されてもよい。そのような動作は、検出された形状の表面を表す、多角形をグループ化し得る。
領域ベースの動作に続く、第2の簡略化動作もさらに、表現内の多角形の数をさらに低減させること等によって、環境の表現を簡略化し得る。第2の簡略化動作は、領域ベースの動作によって検出された各領域内の多角形の数を低減させることに焦点を当て得る。
そのような処理は、物理的環境内で収集されたセンサデータを処理し、メッシュをコンテンツを生成するアプリケーションに提供する、メッシュ化サービスを可能にし得る。いくつかの実施形態では、処理は、仮想環境内の仮想オブジェクトの簡略化された表現を提供してもよい。
仮想現実(VR)、拡張現実(AR)、および複合現実(MR)システム等のXRシステムでは、3次元(3D)メッシュデータは、多くの場合、例えば、環境内の物理的オブジェクトに基づいて、グラフィック/ゲームエンジン内の仮想コンテンツをオクルードする、またはゲームエンジンの物理学エンジン内の仮想オブジェクトのための有効剛体衝突を算出することを含む、複数の目的のために使用される。いくつかの実施形態では、メッシュのための要件は、メッシュの異なる使用に関して異なる場合があり、簡略化されたメッシュは、多くのそのような使用のために好適であり得、いくつかの簡略化技法は、いくつかの使用にとって、その他より好適である。
故に、本明細書に説明されるような処理は、複数の簡略化技法および/または簡略化されたメッシュの意図される使用に基づいて構成され得る簡略化技法のいずれかを用いて実装されてもよい。簡略化されたメッシュを、異なる方法においてメッシュを使用し得る、複数のクライアントアプリケーションに提供する、メッシュ化サービスの有用性は、本明細書に説明されるような処理を使用して改良され得る。各クライアントアプリケーションは、異なるレベルの簡略化を伴うメッシュを要求し得る。いくつかの実施形態では、メッシュ化サービスにアクセスするアプリケーションは、標的簡略化またはそれに提供されるためのメッシュを規定してもよい。本明細書に説明されるようなメッシュ簡略化方法は、例えば、仮想コンテンツオクルージョン、物理学シミュレーション、または環境幾何学形状可視化を実施するものを含む、複数のクライアントアプリケーションのために役立ち得る。本明細書に説明されるメッシュ処理は、短待ち時間を有し得、異なる使用(例えば、平坦化された表面、可変三角形数)のための動作を最適化/バイアスし得るという点で柔軟であり得る。
本明細書に説明されるようなメッシュ簡略化方法は、リアルタイム性能(例えば、オンザフライ(リアルタイム)で環境変化をサポートするための短待ち時間)、ローカル更新能力(例えば、最後の更新以降変化したメッシュの部分を刷新する)、および平面化された表面(例えば、ロバストな物理学シミュレーションをサポートするために平坦化された平面表面)を提供し得る。
いくつかの実施形態では、XR環境の表現は、複数のブロックにセグメント化されてもよく、その一部または全部は、並行して処理されてもよい。いくつかの実施形態では、結果として生じるブロックは、次いで、再組み合わせされてもよい。いくつかの実施形態では、ブロックは、隣接するブロックに重複する、「スカート」を用いて定義されてもよい。スカートは、組み立て直されるブロックの界面により少ないおよび/またはあまり顕著ではない途絶を伴って、ブロックの組み合わせ直しを可能にする。
故に、いくつかの実施形態では、メッシュ簡略化方法は、メッシュブロックセグメント化、事前簡略化、メッシュ平面化、および事後簡略化を含んでもよい。プロセスを加速するために、グローバルメッシュは、最初に、メッシュブロックが並行してハンドリング(例えば、処理)され得るように、成分メッシュのブロックにセグメント化されてもよい。次いで、メッシュブロックは、隣接するブロック間の境界にわたるスカートを用いて、延在されてもよい。スカート付きメッシュブロックを用いることで、簡略化が、個々のメッシュブロック上で行われ得る一方、グローバルメッシュは、トポロジ的に接続解除されるが、視覚的にシームレスであり得る。
いくつかの実施形態では、メッシュ簡略化方法は、簡略化処理平面認識を行うこと等によって、XR環境内のオブジェクトの相互作用を表すために簡略化されたメッシュを使用する、アプリケーションによる使用のために好適となり得る。メッシュを簡略化するために、3ステップ簡略化プロセスが、実装されてもよい。メッシュは、最初に、比較的に多標的三角形数を使用して、中程度に事前簡略化され得る。次いで、平面面積が、領域成長アルゴリズムによって検出され得る。メッシュは、対応する三角形を検出された平面に投影することによって平面化され得る。いくつかの実施形態では、メッシュは、平面(またはプリミティブ)法線を検出された平面と略垂直および平行に調節することによって正則化されてもよい。その後、事後簡略化プロセスが、平面化されたメッシュにわたって起動され得る。事後簡略化処理は、検出された平面面積により焦点を当て、例えば、各検出された平面面積のメッシュを簡略化し、1つ以上のメトリックの標的値によって示され得るような所望のレベルの複雑性(例えば、複雑性のメトリック)に達し得る。
図30は、いくつかの実施形態による、メッシュによって表される環境のモデルを生成する方法3000を図示する。いくつかの実施形態では、方法3000は、XRプラットフォーム上のメッシュ化サービス上で実施されてもよい。方法3000は、行為3002において、環境を表す入力メッシュから開始してもよい。いくつかの実施形態では、入力メッシュは、三角形の数によって示され得る、高分解能を有し得る。入力メッシュは、再構成システム(例えば、立体3D再構成システム)によって生成されてもよく、入力メッシュは、3D再構成データを含んでもよい。
いくつかの実施形態では、再構成システムは、1つ以上のセンサによって捕捉された環境の3D情報のデータ階層を作成し得る、環境の立体3D表現を生成してもよい。例えば、センサは、深度カメラであってもよく、これは、深度カメラの個別の姿勢(すなわち、カメラ姿勢)を用いて、環境の3D情報、例えば、深度画像のストリームを捕捉し得る。環境の3D情報は、ボクセルグリッドの中に処理されてもよい。各ボクセルは、ボクセルが環境内のオブジェクトの幾何学形状の内側または外側にあるかどうかを説明する、1つ以上の符号付き距離関数(SDF)を含有してもよい。ボクセルは、「ブリック」にグループ化されてもよい。各ブリックは、例えば、8ボクセル等、立方体ボリューム内に複数のボクセルを含んでもよい。ブリックは、「タイル」にさらにグループ化されてもよい。各タイルは、複数のブリックを含んでもよい。
タイルのサイズは、コンピューティングデバイス内のメモリ動作を促進するように選択されてもよい。サイズは、例えば、そのようなデータを処理するデバイスのアクティブメモリ内に維持される、環境についての情報の量に基づいて選択されてもよい。システムは、例えば、通常、デバイスのローカルにある、アクティブメモリと、不揮発性メモリまたはクラウド内の遠隔メモリ等のより多くの待ち時間を有する、他のメモリとの間でタイルをやりとりしてもよい。1つ以上の全体または部分的タイルは、「ブロック」をメッシュまたは環境の他の表現において表す、情報を含有し得る。
いくつかの実施形態では、立体3D再構成システムは、入力メッシュ3002を、トポロジ的に接続されたグローバルメッシュとして生成してもよい。いくつかの実施形態では、立体3D再構成システムは、入力メッシュ3002を、視覚的にシームレスであるが、トポロジ的に接続解除される、グローバルメッシュとして生成してもよい。例えば、トポロジ的に接続解除されたグローバルメッシュは、それぞれ、ブロックから生成される、複数のメッシュブロックから成ってもよい。
再構成システムは、環境の実質的詳細を捕捉するように構成されてもよく、これは、システムが、その特性に比較的に小差異を有する、表現の隣接する部分を区別することを可能にする。異なる性質の隣接する領域は、異なる表面として識別され、システムが環境内の多数の表面を識別する結果をもたらし得る。しかしながら、そのようなシステムは、多くのアプリケーションのために不必要であるが、それにかかわらず処理される、詳細を捕捉し得る。例えば、再構成システムは、矩形を成す2つの三角形が、メッシュをメッシュ化サービスから要求するクライアントアプリケーションのための壁の十分な表現であろうとき、多くの三角形を伴う凹凸を壁上に不必要に提示し得る。いくつかの実施形態では、アプリケーションは、メッシュをメッシュ化サービスから要求するとき、要求されるメッシュの標的簡略化レベルを規定してもよい。その標的簡略化レベルは、圧縮の程度、単位面積あたりの三角形の数、または任意の他の好適な方法において表され得る。
方法3000は、入力メッシュから、クライアントアプリケーションにとって十分である、環境のモデルを効率的に生成し得る。行為3004では、入力メッシュは、それぞれ、環境の立体3D表現のデータ階層内のブロックに対応し得る、1つ以上の第1のメッシュブロックにセグメント化されてもよい。
各第1のメッシュブロックは、環境の一部を表し得、複雑性のメトリック(例えば、メッシュ分解能)の第1の値を有し得る。いくつかの実施形態では、メッシュブロックの複雑性のメトリックは、メッシュブロック内の三角形の数を示す。いくつかの実施形態では、処理は、順次および/または並行して、メッシュブロック上で実施されてもよい。しかしながら、本明細書に説明されるような簡略化処理は、メッシュ全体または任意の好適な部分(例えば、1つ以上のメッシュブロック)に適用されてもよい。
行為3006は、複数のメッシュブロックのそれぞれ上で実施される、サブプロセスを表す。サブ処理は、処理がメッシュブロックの一部または全部のために並行して容易に実施され得るように、独立して、複数のメッシュブロック上で実施されてもよい。サブプロセスは、全てのメッシュブロックまたはさらなる処理のために選択されたメッシュブロックのサブセット上で実施されてもよい。メッシュブロックのサブセットは、少なくとも部分的に、その上で簡略化されたメッシュを要求するアプリケーションが実行される、デバイスの視野に基づいて、選択されてもよい。
行為3006では、第1のメッシュブロックのうちのいくつかが、例えば、第1のメッシュブロック内に説明されるオブジェクトまたは第1のメッシュブロックの場所に基づいて、選択されてもよい。選択された第1のメッシュブロック毎に、多段階簡略化が、実施されてもよい。いくつかの実施形態では、選択された第1のメッシュブロック上の多段階簡略化は、並行して実施されてもよく、その結果、選択された第1のメッシュブロック上の簡略化は、ほぼ同一時点で完了され得るが、これは、選択された第1のメッシュブロックの各メッシュブロックの複雑性のメトリックに依存し得る。
多段階簡略化は、事前簡略化動作、領域ベースの動作(例えば、平面化動作)、および事後簡略化動作を含んでもよい。いくつかの実施形態では、多段階簡略化は、クライアントアプリケーションからの入力値に基づいて実施されてもよい。入力値は、クライアントアプリケーションによって要求されるメッシュ複雑性(例えば、メッシュ分解能)を示し得る。クライアントアプリケーションからの入力値は、選択された第1のメッシュブロック毎に同一または異なってもよい。
行為3012では、事前簡略化動作は、選択された第1のメッシュブロック上で実施され、第2のメッシュブロックを生成してもよい。事前簡略化動作は、ブロックの複雑性を低減させ得る。メッシュブロックのために、事前簡略化は、メッシュブロック内の多角形の数を低減させ得る。いくつかの実施形態では、行為3012における事前簡略化の量は、構成可能であってもよい。標的値が、例えば、行為3012において、例えば、クライアントアプリケーションによって、処理への入力として提供されてもよい。標的値は、1つ以上の規定または所定のメトリックの単一値または複数の値であってもよい。1つ以上のメトリックは、例えば、絶対三角形数、初期三角形数のパーセンテージ、および/または簡略化されたメッシュとオリジナルメッシュ(例えば、入力メッシュ3002)との間の平均二乗距離を測定し得る、二次誤差メトリックを含んでもよい。
標的値は、任意の好適な方法で提供されてもよい。方法3000のインスタンスは、例えば、標的値とともに事前に構成されてもよい。いくつかの実施形態では、標的値は、方法3000を実施する、メッシュをメッシュ化サービスから要求するアプリケーションによって、APIを通して、供給されてもよい。例えば、行為3012のための標的値は、レンダリング機能(例えば、要求側アプリケーション)によって要求される最終標的であってもよい。いくつかの実施形態では、入力として提供される標的値は、調節または上書きされ、十分なデータが後続処理のためにメッシュ内に残っていることを確実にしてもよい。例えば、行為3014における処理は、最小数の三角形を要求し得、アプリケーションによって提供される標的値は、標的値が最小数の三角形を下回る場合、その最小値によって置換されてもよい。
そのような実施形態では、事前簡略化されたメッシュは、依然として、オリジナルブロックのセグメント化入力メッシュの領域の全部または大部分を含有したまま、領域ベースの動作の間、オリジナルブロックのセグメント化された入力メッシュより高速で、事前簡略化されたメッシュが処理され得るように、1つ以上のメトリックの値を有してもよい。
1つ以上のメトリックの値を制御しない場合、簡略化されたメッシュは、あまりに粗雑であって、非均一に分散され、および/または続く領域ベースの動作において要求される、オリジナルブロックのセグメント化された入力メッシュの多くの領域を喪失し得る。
行為3012において生産された第2のメッシュブロックは、複雑性のメトリックの第2の値を有してもよく、これは、複雑性のメトリックの第1の値未満であってもよい。いくつかの実施形態では、行為3012の事前簡略化動作は、三角形低減アルゴリズムを使用して実施されてもよい。
行為3014では、形状検出動作は、第2のメッシュブロック上で実施され、第3のメッシュブロックを生成してもよい。平面化動作は、実施例として図示される。第3のメッシュブロックは、複雑性のメトリックの第3の値を有してもよい。いくつかの実施形態では、複雑性のメトリックの第3の値は、複雑性のメトリックの第2の値と同一であってもよい。いくつかの実施形態では、複雑性のメトリックの第3の値は、複雑性のメトリックの第2の値未満であってもよい。平面化動作は、例えば、領域成長アルゴリズムを使用して、第2のメッシュブロック内の平面面積を検出し、検出された平面面積のメッシュを対応する平面に投影し、検出された平面面積の平面法線を対応する平面と略垂直であるように調節し、例えば、標的三角形数に基づいて、対応する平面のそれぞれ上の投影されたメッシュを簡略化することを含んでもよい。いくつかの実施形態では、検出された平面面積の平面法線は、検出された平面面積のメッシュを対応する平面に投影する前に調節されてもよい。
行為3016では、事後簡略化動作が、第3のメッシュブロック上で実施され、第4のメッシュブロックを生成してもよい。いくつかの実施形態では、行為3014における処理は、望ましくは、方法3000から出力されることになる簡略化されたメッシュ内で要求されるものを上回る分解能を伴うメッシュ上で実施され得る。いくつかの実施形態では、行為3016における処理は、行為3012に供給されたものと同一または異なる標的であり得る、1つ以上のメトリックの標的値によって示され得るような所望のレベルの複雑性(例えば、複雑性のメトリック)に達するように、メッシュブロック全体を簡略化してもよい。いくつかの実施形態では、行為3016における事後簡略化動作は、行為3014における平面化動作によって検出された各平面内の多角形の数を低減させることに焦点を当て得る。
第4のメッシュブロックは、複雑性のメトリックの第4の値を有してもよく、これは、複雑性のメトリックの第3の値未満であってもよい。いくつかの実施形態では、複雑性のメトリックの第3の値と複雑性のメトリックの第4の値との間のパーセンテージ低減は、複雑性のメトリックの第1の値と複雑性のメトリック第2の値のとの間のパーセンテージ低減を上回ってもよい。いくつかの実施形態では、複雑性のメトリックの第3の値と複雑性のメトリックの第4の値との間のパーセンテージ低減は、複雑性のメトリックの第1の値と複雑性のメトリックの第2の値との間のパーセンテージ低減を少なくとも2倍上回ってもよい。いくつかの実施形態では、行為3016の事後簡略化動作は、三角形低減アルゴリズムを使用して実施されてもよい。いくつかの実施形態では、行為3016の事後簡略化動作は、行為3012の事前簡略化動作と同一簡略化アルゴリズムを使用して実施されてもよい。
行為3008では、簡略化された選択ブロックは、行為3006におけるように同様に処理された他の選択メッシュブロックと組み合わせられてもよく、および/または未選択ブロックとともに環境の新しいメッシュの中に組み合わせられてもよい。行為3010では、環境の新しいメッシュが、クライアントアプリケーションに提供されてもよい。いくつかの実施形態では、環境の新しいメッシュは、簡略化されたメッシュと称され得る。
いくつかの実施形態では、行為3008は、スキップされてもよい。簡略化されたメッシュブロックは、直接、クライアントアプリケーションに送信されてもよく、そこでは、メッシュブロックは、視覚的にシームレスであるが、トポロジ的に接続解除され得る。
図31は、いくつかの実施形態による、環境のメッシュ表現3100をメッシュブロックにセグメント化する実施例を図示する。メッシュ表現3100は、4つのメッシュブロック、すなわち、メッシュブロックA-Dにセグメント化されてもよい。いくつかの実施形態では、メッシュブロックは、環境に属する物理的世界内の同一ボリュームを伴う、領域に対応してもよい。いくつかの実施形態では、メッシュブロックは、環境に属する物理的世界内の異なるボリュームを伴う、領域に対応してもよい。例えば、物理的世界が、オフィスの部屋であるとき、オフィスの部屋は、それぞれ、1立方フィートであり得る、領域に分割されてもよい。1つのブロックは、オフィスの部屋の1つの領域の3D表現を含んでもよい。
環境のメッシュ表現3100は、2次元(2D)で図示されるが、環境は、3Dメッシュ表現によって対応して表される、3次元であってもよいことを理解されたい。環境のメッシュ表現3100は、4つのメッシュブロックの組み合わせとして図示されるが、環境は、例えば、2つ、3つ、5つ、6つ、またはそれを上回る、任意の好適な数のメッシュブロックによって表されてもよいことを理解されたい。
表現3100は、例えば、実線3110によって図示される、4つの部分、すなわち、部分3102、3104、3106、および3108にセグメント化されてもよい。いくつかの実施形態では、部分3102、3104、3106、および3108は、それぞれ、メッシュブロックA-Dとして指定されてもよい。
メッシュブロックは、更新されたとき、更新されなかった隣接するブロックと界面接触し続け得る。その結果、メッシュブロック間の境界における途絶が、生じ得る。隣接するブロックによって表される領域が、途絶を有する場合、融合されたメッシュは、後続処理では、隣接するブロック間に亀裂が存在することを示すと解釈され得る。いくつかの実施形態では、物理的世界空間の表現内のそのような亀裂は、無限深度を伴う空間として解釈され得る。したがって、空間は、実際には、特徴ではなく、物理的世界の表現のアーチファクトとなり得る。そのような融合されたメッシュを使用して、物理的世界内のオブジェクトの表現を生成する、任意のアプリケーションは、出力を正しく生成し得ない。例えば、仮想キャラクタを物理的世界内の表面上にレンダリングする、アプリケーションは、そのキャラクタが亀裂を通して落下するかのように現れるようにレンダリングし得、これは、オブジェクトの所望の外観を作成しないであろう。
そのような亀裂の外観を低減させるために、いくつかの実施形態では、隣接するブロックの一部は、物理的世界の同一領域を表してもよい。例えば、隣接するブロック間の界面領域は、隣接するブロックのそれぞれの一部によって表されてもよく、これは、詳細のレベルを考慮する(LOD)(例えば、その部分がユーザの視野から外に移動するにつれて、物理的世界の一部の3D再構成の複雑性を減少させる)、容易な独立更新および/またはレンダリングを可能にし得る。1つのブロックが、更新され、その隣接するブロックが、更新されない場合でも、融合されたメッシュは、ブロックの両方から界面領域を表すデータを組み合わせることによって表されてもよい。具体的実施例として、更新されたブロックと隣接するブロックを融合させるとき、物理学エンジンは、例えば、その重複領域内で観察可能であるべき隣接するブロックのうちの1つに基づいて、隣接するブロックの重複領域を決定してもよい。ブロックベースのデータ構造が、ブロックが更新されると、更新されなかった隣接するブロックと界面接触し続けるであろうように、スカート、ジッパ、または隣接するブロック間の界面領域を表すための任意の他の好適な方法とともに採用されてもよい。そのようなアプローチは、隣接するブロック間の亀裂を「包み隠す」外観を有し得る。したがって、ブロックは、隣接するブロックから独立して更新されてもよい。
図31に図示される実施例では、部分3102、3104、3106、および3108の境界における領域は、破線3112によって図示されるスカートとして指定されてもよい。いくつかの実施形態では、メッシュブロックA-Dはそれぞれ、部分3102、3104、3106、および3108のうちの1つと、対応するスカートとを含んでもよい。例えば、メッシュブロックBは、部分3104と、ブロックが単一メッシュの中に接続されるとき、メッシュブロック間の亀裂が包み隠され得るように、メッシュブロックA、C、およびDの近傍のメッシュブロックBの境界部分と重複する、スカート3114とを含んでもよい。メッシュブロックA、C、およびDもまた、対応するスカートを含んでもよい。故に、単一の接続された3Dメッシュ表現をアプリケーションに返す前に、プロセッサは、メッシュブロック間の任意の亀裂を包み隠し得る。
いくつかの実施形態では、スカートを含む、ブロックメッシュが、グローバルメッシュにトポロジ的に接続されるように組み合わせられずに、直接、アプリケーションに送信されてもよい。アプリケーションは、ブロックメッシュから成る、グローバルメッシュを有してもよく、これは、視覚的にシームレスであるが、トポロジ的に接続解除され得る。
図32A-32Dは、いくつかの実施形態による、多段階簡略化の間の例示的メッシュブロック3201のメッシュ進化を図示する。メッシュブロック3201は、頂点3206と、縁3208と、面3210とを含んでもよい。各面は、法線を有し得、これは、例えば、図32Aでは、x、y、zとして示される、複数の座標によって表されてもよい。
事前簡略化動作が、メッシュブロック3201上で実施され、メッシュブロック3202を生成してもよい。縁圧潰変換が、使用されてもよい。図示される実施例では、メッシュブロック3202は、メッシュブロック3201の面の数を10から8に低減させる。メッシュブロック3202の結果として生じる面はそれぞれ、対応する法線のセット(例えば、x1、y1、z1;x2、y2、z2;…x8、y8、z8)を有し得る。
平面化動作が、メッシュブロック3202上で実施され、メッシュブロック3203を生成してもよい。平面化動作は、例えば、面の平面(またはプリミティブ)法線に基づいて、メッシュ3202内の平面面積を検出することを含んでもよい。第1の面3212の平面法線x1、y1、z1および第2の面3214の平面法線x2、y2、z2の値が、比較されてもよい。第1および第2の面の平面法線の比較結果は、平面法線間の角度(例えば、x1とx2との間の角度)を示し得る。比較結果が、閾値内であるとき、第1および第2の平面が同一平面面積上にあることが決定され得る。図示される実施例では、平面3212、3214、3216、および3218は、平面3228に対応する第1の平面面積上にあるものとして決定され得、平面3220、3222、3224、および3226は、平面3230に対応する第2の同一平面面積上にあるものとして決定され得る。
平面化動作はまた、平面3212、3214、3216、および3218の縁によって形成される三角形を破線3232によって図示されるような平面3228に投影し、平面3220、3222、3224、および3226の縁によって形成される三角形を破線3234によって図示されるような平面3230に投影することを含んでもよい。平面化動作はまた、平面3212、3214、3216、および3218のための平面法線を平面3228のための平面法線(x_a、y_a、z_a)と同一であるように調節し、平面3220、3222、3224、および3226のための平面法線が平面3230のための平面法線(x_b、y_b、z_b)と同一であるように調節することを含んでもよい。
事後簡略化動作が、メッシュブロック3203上で実施され、メッシュブロック3204を生成してもよい。図示される実施例では、メッシュブロック3204は、メッシュブロック3203の面の数を8から4に低減させる。
図33Aおよび33B-36Aおよび36Bは、簡略化の効果を図示し、簡略化の適用の有無別の物理的世界の同一部分を並べて示す。これらの図は、簡略化が、処理される必要があるより少ないデータを提供しながら、ARシステムを動作させるための使用可能情報を提供することが可能であることのグラフィカル例証を提供する。
図33Aおよび33Bは、それぞれ、三角形低減を通した簡略化の有無別の同一環境の表現を示す。そのような処理は、図30における事前簡略化および事後簡略化ブロック3012および3016において実施され得る、処理の実施例である。
図34Aおよび34Bは、それぞれ、三角形低減を通した簡略化の有無別の同一環境の拡大表現を示す。
35Aおよび35Bは、それぞれ、平面化の有無別の同一環境の表現を示す。そのような処理は、図30における平面化ブロック3014において実施され得る、処理の実施例である。
36Aおよび36Bは、それぞれ、接続解除された成分の除去を通した簡略化の有無別の同一環境の表現を示す。そのような処理は、図30におけるブロック3014において実施され得る、領域ベースの動作の代替実施形態の実施例である。
稠密3D再構成データのキャッシュおよび更新
いくつかの実施形態では、3D再構成データは、ブロック単位で、捕捉、存続、および更新され得、これは、近傍一貫性を維持しながら、ローカル更新を可能にし得る。ブロックベースの3D再構成データ表現は、単一デバイスおよびマルチデバイスアプリケーションの両方を含む、ARおよびMRアプリケーションのために、効率的に、3Dデータを読み出し、事前にフェッチし、記憶する、多層キャッシュ機構と併用されてもよい。例えば、立体情報162aおよび/またはメッシュ162c(図6)が、ブロック単位で記憶され得る。使用コンポーネント164は、本ブロックベースの表現を使用して、物理的世界についての情報を受信してもよい。同様に、知覚コンポーネント160が、そのような情報をブロック単位で記憶し、読み出してもよい。
これらの技法は、限定された算出リソースを伴う、ポータブルデバイスの能力を拡張させ、ARおよびMRコンテンツを高現実性を伴って提示する。そのような技法は、例えば、限定されたリソースと、インターネットへの接続(連続または非連続)とを有する、モバイルデバイス内における、リアルタイムまたはオフライン再構成および走査の出力を効率的に更新および管理するために使用されてもよい。本技法は、同一3D再構成データを共有および更新する、単一デバイスアプリケーションまたはマルチデバイスアプリケーションのいずれかにおいて、様々なモバイルARおよびMRアプリケーションに、最新、正確、そして包括的な3D再構成データを利用可能にする。これらの3D再構成データは、メッシュ、点群、ボクセル、および同等物を含む、任意の好適なフォーマットにあってもよい。
いくつかのARおよびMRシステムは、随時、処理されている3D再構成データの量を限定することによって、MRおよびAR場面の提示を簡略化することを試みている。3D情報を捕捉するために使用されるセンサは、センサの視野の周囲の境界ボリュームを限定し得る、最大再構成範囲を有し得る。3D再構成データの量を低減させるために、いくつかの再構成システムは、センサの視野の近傍の面積のみをアクティブ作業メモリ内に保持し、他のデータを二次記憶装置内に記憶する。例えば、センサの視野の近傍の面積は、CPUメモリ内に記憶される一方、他のデータは、ローカルキャッシュ(例えば、ディスク)またはネットワークを経由して遠隔記憶装置(例えば、クラウド内)に存続される。
CPUメモリ内に記憶される情報を生成する算出コストは、限定される場合でも、依然として、比較的に高くあり得る。いくつかのARおよびMRシステムは、CPUメモリ内に記憶するための情報を選択するために、再構成システムにそれまでに見えていた環境のグローバル表現を継続的に再算出し、これは、双方向用途のために法外に高価となり得る。いくつかのアプローチを使用して、接続された表現に対するローカル更新のみを算出する、他のARおよびMRシステムも同様に、既存のメッシュを分解し、同じ境界を伴う別のメッシュを計算し、メッシュ部分を再接続することを要求するため、特に、簡略化されたメッシュに関して、高価であり得る。
いくつかの実施形態では、3D再構成データは、ブロックにセグメント化されてもよい。3D再構成データは、ブロックに基づいて、記憶媒体間で伝送されてもよい。例えば、ブロックは、アクティブメモリからページングされ、ローカルまたは遠隔キャッシュに存続されてもよい。システムは、ウェアラブルデバイス(例えば、頭部搭載型ディスプレイデバイス)と関連付けられたアクティブメモリが、ウェアラブルデバイスのユーザの視野内の物理的世界の3D再構成の一部を表すブロックを記憶する、ページングアルゴリズムを実装してもよい。ウェアラブルデバイスは、ウェアラブルデバイスのユーザの視野と連動して、物理的世界の一部についてのデータを捕捉してもよい。物理的世界が、ユーザの視野内で変化するにつれて、物理的世界のその領域を表すブロックは、アクティブメモリ内にあり得、そこから、それらは、容易に更新されることができる。ユーザの視野が、変化するにつれて、ユーザの視野から外に移動する、物理的世界の領域を表す、ブロックは、ユーザの視野の中に入って来た物理的世界の領域を表すブロックがアクティブメモリの中にロードされ得るように、キャッシュに移動されてもよい。
いくつかの実施形態では、座標フレームが、3D再構築されるべき物理的世界の一部のために作成されてもよい。物理的世界の一部の3D表現内の各ブロックは、座標フレームを使用して識別可能な物理的世界の異なる領域に対応してもよい。
いくつかの実施形態では、ブロックが、更新されると、更新されたブロックは、更新されない可能性がある、隣接するブロックと界面接触し続け得る。隣接するブロックによって表される領域が、重複しない場合、隣接するブロックの融合されたメッシュ内に亀裂が存在し得る。いくつかの実施形態では、物理的世界空間の表現内のそのような亀裂は、無限深度を伴う空間として解釈され得る。したがって、空間は、実際には、特徴ではなく、物理的世界の表現のアーチファクトとなり得る。そのような融合されたメッシュを使用して、物理的世界内のオブジェクトの表現を生成する、任意のアプリケーションは、出力を正しく生成しない場合がある。例えば、仮想キャラクタを物理的世界内の表面上にレンダリングするアプリケーションは、そのキャラクタが亀裂を通して落下するかのように現れるようにレンダリングし得、これは、オブジェクトの所望の外観を作成しないであろう。したがって、いくつかの実施形態では、隣接するブロックの一部は、物理的世界の同一領域、例えば、隣接するブロック間の界面を表してもよく、これは、詳細のレベル(LOD)を考慮する(例えば、その部分がユーザの視野から外に移動するにつれて、物理的世界の一部の3D再構成の複雑性を減少させる)、容易な独立更新および/またはレンダリングを可能にし得る。例えば、ブロックが、更新されるとき、その隣接するブロックが、更新されない場合がある。更新されたブロックと隣接するブロックを融合させるとき、物理学エンジンは、例えば、その重複領域内で観察可能であるべき隣接するブロックのうちの1つに基づいて、隣接するブロックの重複領域を決定してもよい。ブロックベースのデータ構造が、ブロックが更新されると、更新されなかった隣接するブロックと界面接触し続けるであろうように、スカート、ジッパ、または隣接するブロック間の界面を表すための任意の他の好適な方法とともに採用されてもよい。そのようなアプローチは、隣接するブロック間の亀裂を「包み隠す」外観を有し得る。したがって、変化したブロックは、隣接するブロックから独立して更新されてもよい。
いくつかの実施形態では、これらの技法は、ARおよび/またはMR「プラットフォーム」内で使用されてもよく、これは、1人以上のユーザによって装着されるセンサからデータを受信し、処理する。本センサデータは、3D再構成データを作成および更新し、ユーザによって遭遇される物理的世界の一部を表すために使用されてもよい。再構成サービスは、センサが、データを捕捉および更新すると、物理的世界の3D表現を継続的に再構築し得る。1つ以上の技法が、物理的世界の変化によって影響されるブロックを決定するために使用されてもよく、それらのブロックは、更新されてもよい。本3D再構成データは、次いで、3D再構成データを使用して、場面をレンダリングし、物理的世界内に位置付けられる、またはその中のオブジェクトと相互作用する、仮想現実オブジェクトを描写する、アプリケーションに提供されてもよい。本データは、アプリケーションプログラミングインターフェース(API)を通して、アプリケーションに提供されてもよい。APIは、関連部分が変化するとき、データをアプリケーションにプッシュ配信するか、または最新情報に関するアプリケーションからの要求に応答してかのいずれかである、プッシュ配信またはプル配信インターフェースであってもよい。
プル配信インターフェースの実施例では、アプリケーションが、物理的世界の3D再構成データを要求すると、再構成サービスは、アプリケーションに提供される必要がある、各ブロックの適切なバージョンを決定し、再構成サービスが、最新ブロックから開始することを可能にし得る。再構成サービスは、例えば、以前に存続されていたブロックを検索してもよい。単一デバイスシステムは、単一デバイスが、物理的世界についての3D再構成データに寄与することを可能にし得る。単一デバイスシステムでは、要求される物理的世界の領域が、アクティブ面積(例えば、デバイスの現在の視野内の面積)外にある、または延在する場合、存続されるブロックが、その面積がデバイスの視野外に移動するとき、存続されるブロックが存続されて以降、更新されていないであろうため、直接、最新ブロックとして使用されてもよい。他方では、マルチデバイスシステムは、複数のデバイスが、ブロックのクラウド存続またはピアツーピアローカルキャッシュ共有等を用いて、物理的世界についての3D再構成データに寄与することを可能にしてもよい。各デバイスは、存続され得る、そのアクティブ面積内の領域を更新してもよい。マルチデバイスシステムは、異なるデバイスによって生成されたブロックが座標フレームを使用して識別可能であるように、座標フレームを作成してもよい。したがって、第1のデバイスのためのデータを生成するアプリケーションによって要求されるブロックは、それらの更新が第1のデバイスによって行われた任意のバージョン後に行われた場合、他のデバイスからの更新に基づいてもよい。第1のデバイスおよび他のデバイスからのデータを使用して構築されるブロックは、座標フレームを使用することによって、マージされてもよい。
選択されたブロックは、任意の好適なフォーマットにおける、物理的世界についての3D再構成データを提供するために使用されてもよいが、メッシュが、本明細書の好適な表現の実施例として使用される。メッシュは、画像データを処理し、オブジェクトの縁等の環境内の着目点を識別することによって作成されてもよい。これらの点は、接続され、メッシュを形成してもよい。同一オブジェクトまたはその一部と関連付けられたメッシュ内の点、従来的には、3つの点のグループは、オブジェクトまたはその一部の表面を定義する。点のグループと併せて記憶される情報は、環境内の表面を説明する。本情報は、次いで、環境に対して情報をレンダリングおよび/または表示するために、様々な方法で使用されてもよい。選択されたブロックは、任意の好適な方法において、3D再構成データを提供するために使用されてもよい。いくつかの実施形態では、最新ブロックが、供給されてもよい。いくつかの実施形態では、最新ブロックは、ブロックの更新が要求されるかどうかを決定するために使用されてもよい。
例えば、いくつかの実施形態では、マルチデバイスシステムにおいて、アプリケーションによって要求されるブロックが、識別されると、再構成サービスは、他のデバイスによって存続されるブロックをチェックし、任意の有意な更新が存在するかどうかを決定し(例えば、幾何学形状変化の大きさの閾値またはタイムスタンプを介して)、メッシュ化を変化したブロック上で再起動し、次いで、これらの更新されたメッシュブロックを存続させてもよい。
いくつかの実施形態では、アプリケーションによって要求されるブロックのセットが、識別されるとき、アプリケーションが、接続されたメッシュを要求する場合、ブロックのセットは、スカートおよびジッパ等の任意の好適な技法を使用して、トポロジ的に接続される、または視覚的にシームレスであるが、トポロジ的に接続解除され得る、グローバルメッシュの中に処理されてもよい。
いくつかの実施形態では、アプリケーション(例えば、グラフィック/ゲームエンジン)は、ブロック変化が生じると、その内部ブロック(例えば、アクティブメモリおよび/またはローカルキャッシュ内に記憶されるブロック)を更新してもよい。再構成サービスは、アプリケーションが有するブロックを把握し得、したがって、視野内ブロック更新として、スカート/ジッパとの正しい重複を維持するためにエンジン内で更新される必要がある、他の(例えば、近傍)ブロックを計算することができる。
いくつかの実施形態では、ARおよび/またはMRプラットフォームが、例えば、モバイルデバイス上に、ARおよび/またはMRアプリケーションの実行をサポートするために実装されてもよい。ユーザインターフェース上で実行される、またはそれを通した提示のためのデータを生成する、アプリケーションは、物理的世界を表す3D再構成データを要求し得る。その3D再構成データは、ユーザがその視野を変化させるにつれたデバイスの視野内の物理的世界を表す3D再構成データで更新され得る、デバイス上のアクティブメモリから供給されてもよい。アクティブメモリ内の3D再構成データは、モバイルデバイスのためのアクティブ面積を表し得る。いくつかの実施形態では、デバイスのアクティブ面積外の3D再構成データは、デバイス上の、または短待ち時間接続を伴うデバイスに結合される、ローカルキャッシュ内等、他のメモリ内に記憶されてもよい。いくつかの実施形態では、デバイスのアクティブ面積外の3D再構成データもまた、より長い待ち時間接続を経由してデバイスにアクセス可能である、クラウド内等の遠隔キャッシュ内に記憶されてもよい。ユーザが、その視野を変化させるにつれて、プラットフォームは、キャッシュから3D再構成データにアクセス/それをロードし、アクティブメモリに追加し、ユーザの視野の中に移動した領域を表してもよい。プラットフォームは、ユーザの視野外に移動した領域を表す他のデータをキャッシュに移動させてもよい。
デバイスの視野の中に移動する領域と、デバイスの視野外に移動する他の領域とをもたらし得る、デバイスの移動の予測が、アクティブメモリとキャッシュとの間の3D再構成データの転送を開始するために使用されてもよい。移動の予測は、例えば、アクティブメモリの中および/またはそこから外への転送のための3D再構成データを選択するために使用されてもよい。いくつかの実施形態では、予測される移動は、3D再構成データを遠隔キャッシュから読み出す、またはそこに転送することによって、3D再構成データをローカルキャッシュの中および/またはそこから外に転送するために使用されてもよい。ユーザの予測される移動に基づく、ローカルキャッシュと遠隔キャッシュとの間の3D再構成データの交換は、3D再構成データが、アクティブメモリの中に移動するための短待ち時間を伴って利用可能になることを確実にし得る。
物理的世界の領域がブロックを用いて表される、実施形態では、ブロックの転送の開始は、ユーザの視野の中に入ることが予測される面積を表すブロックを事前に要求することを伴い得る。例えば、プラットフォームが、センサまたは他のデータに基づいて、ユーザが特定の方向に特定の速度で歩いていることを決定する場合、ユーザの視野の中に入る可能性が高い領域を識別し、これらの面積を表すブロックをモバイルデバイス上のローカルキャッシュに転送してもよい。モバイルデバイスが、眼鏡のセット等のウェアラブルデバイスである場合、運動を予測することは、ユーザの頭部の場所、方向、および/または回転を示す、センサデータを受信することを伴い得る。
図37は、いくつかの実施形態による、複数のユーザのための双方向X現実環境を可能にする、システム3700を図示する。システム3700は、1つ以上の高帯域幅インターフェース3715を通して接続される、1つ以上のコンピュータサーバ3710から成る、コンピューティングネットワーク3705を含んでもよい。コンピューティングネットワーク内のサーバは、共同設置される必要はない。1つ以上のサーバ3710はそれぞれ、プログラム命令を実行するための1つ以上のプロセッサを含んでもよい。サーバはまた、プログラム命令と、プログラム命令の指示下でサーバによって行われているプロセスによって使用および/または生成される、データとを記憶するために、メモリを含む。システム3700は、例えば、ARディスプレイシステム80(例えば、図3Bにおける視認光学系アセンブリ48)を含む、1つ以上のデバイス3720を含んでもよい。
コンピューティングネットワーク3705は、1つ以上のデータネットワーク接続3730を経由して、データをサーバ3710間およびサーバとデバイス3720との間で通信する。そのようなデータネットワークの実施例は、限定ではないが、例えば、一般に、インターネットと称される、そのようなネットワークの多くの相互接続を含む、モバイルおよび有線の両方の、あらゆるタイプのパブリックおよびプライベートデータネットワークを含む。特定の媒体、トポロジ、またはプロトコルが、図によって含意されるように意図されていない。
いくつかの実施形態では、デバイスは、直接、コンピューティングネットワーク3705またはサーバ3710のいずれかと通信するために構成されてもよい。いくつかの実施形態では、デバイス3720は、データを処理するために、および/またはデータをネットワーク3705と1つ以上のデバイス3720との間で通信するために、ローカルゲートウェイ3740を通して、遠隔サーバ3710と、随意に、他のデバイスおよびARディスプレイシステムとローカルで通信してもよい。
図示されるように、ゲートウェイ3740は、別個のハードウェアコンポーネントとして実装され、これは、ソフトウェア命令を実行するためのプロセッサと、ソフトウェア命令およびデータを記憶するためのメモリとを含む。ゲートウェイは、コンピューティングネットワーク3705を備えるサーバ3710と通信するために、データネットワークとのその独自の有線および/または無線接続を有する。いくつかの実施形態では、ゲートウェイ3740は、ユーザによって装着または搬送される、デバイス3720と統合されることができる。例えば、ゲートウェイ3740は、インストールされ、デバイス3720内に含まれるプロセッサ上で起動する、ダウンロード可能ソフトウェアアプリケーションとして実装されてもよい。ゲートウェイ3740は、一実施形態では、1人以上のユーザに、データネットワーク3730を介して、コンピューティングネットワーク3705へのアクセスを提供する。いくつかの実施形態では、ゲートウェイ3740は、通信リンク76および78を含んでもよい。
サーバ3710はそれぞれ、例えば、データおよびソフトウェアプログラムを記憶するための作業メモリおよび記憶装置と、プログラム命令を実行するためのマイクロプロセッサと、グラフィックプロセッサと、グラフィック、画像、ビデオ、オーディオ、およびマルチメディアファイルをレンダリングおよび生成するための他の特殊プロセッサとを含む。コンピューティングネットワーク3705はまた、サーバ3710によってアクセス、使用、または作成される、データを記憶するためのデバイスを含んでもよい。いくつかの実施形態では、コンピューティングネットワーク3705は、遠隔処理モジュール72と、遠隔データリポジトリ74とを含んでもよい。
サーバ上、随意に、デバイス3720およびゲートウェイ3740上で起動する、ソフトウェアプログラムが、デジタル世界(本明細書では、仮想世界とも称される)を生成するために使用され、それを用いて、ユーザは、デバイス3720と相互作用する。デジタル世界は、ユーザが体験および相互作用するために、デバイス3720を通してユーザに提示され得る、仮想の非存在エンティティ、環境、および条件を説明および/または定義する、データおよびプロセスによって表される。例えば、ユーザによって視認または体験されている場面内でインスタンス化されると、物理的に存在するように現れるであろう、いくつかのタイプのオブジェクト、エンティティ、またはアイテムは、その外観、その挙動、ユーザがそれと相互作用することが許可される方法、および他の特性の説明を含んでもよい。仮想世界(仮想オブジェクトを含む)の環境を作成するために使用されるデータは、例えば、仮想環境を定義および/または説明するために使用される、大気データ、地形データ、天候データ、温度データ、場所データ、および他のデータを含んでもよい。加えて、仮想世界の動作を統制する、種々の条件を定義する、データは、例えば、仮想世界(仮想オブジェクトを含む)の動作を統制する、種々の条件を定義および/または作成するために使用され得る、物理法則、時間、空間関係、および他のデータを含んでもよい。
デジタル世界のエンティティ、オブジェクト、条件、特性、挙動、または他の特徴は、一般的に、本明細書では、文脈によって別様に示されない限り、オブジェクト(例えば、デジタルオブジェクト、仮想オブジェクト、レンダリングされた物理的オブジェクト等)と称されるであろう。オブジェクトは、限定ではないが、建物、植物、車両、人々、動物、生物、機械、データ、ビデオ、テキスト、写真、および他のユーザを含む、任意のタイプの生物または無生物オブジェクトであってもよい。オブジェクトはまた、物理的世界内に実際に存在する、アイテム、挙動、または条件についての情報を記憶するために、デジタル世界内に定義されてもよい。エンティティ、オブジェクト、またはアイテムを説明または定義する、またはその現在の状態を記憶する、データは、概して、本明細書では、オブジェクトデータと称される。本データは、サーバ3710によって、または実装に応じて、ゲートウェイ3740またはデバイス3720によって処理され、オブジェクトのインスタンスをインスタンス化し、ユーザがデバイス3720を通して体験するための適切な様式において、オブジェクトをレンダリングする。
デジタル世界を開発および/またはキュレートする、プログラマは、オブジェクトおよびそれらがインスタンス化される条件を作成または定義する。しかしながら、デジタル世界は、他者が、オブジェクトを作成または修正することを可能にすることができる。いったんオブジェクトが、インスタンス化されると、オブジェクトの状態は、デジタル世界を体験している1人以上のユーザによって、改変、制御、または操作されることが許可されてもよい。
例えば、一実施形態では、デジタル世界の開発、制作、および管理は、概して、1人以上のシステム管理プログラマによって提供される。いくつかの実施形態では、これは、デジタル世界内の筋書、テーマ、およびイベントの開発、設計、および/または実行、および、例えば、映画、デジタル、ネットワーク、モバイル、拡張現実、およびライブエンターテインメント等の種々の形態のイベントおよびメディアを通したストーリー性の分布を含んでもよい。システム管理プログラマはまた、デジタル世界およびそれと関連付けられたユーザコミュニティの技術的管理、調整、およびキュレーション、およびネットワーク管理人によって典型的に実施される、他のタスクをハンドリングし得る。
ユーザは、概して、デバイス3720として指定される、あるタイプのローカルコンピューティングデバイスを使用して、1つ以上のデジタル世界と相互作用する。そのようなデバイスの実施例として、限定ではないが、スマートフォン、タブレットデバイス、ヘッドアップディスプレイ(HUD)、ゲーム用コンソール、またはデータを通信し、インターフェースまたはディスプレイをユーザに提供することが可能な任意の他のデバイス、およびそのようなデバイスの組み合わせが挙げられる。いくつかの実施形態では、デバイス3720は、例えば、キーボード、マウス、ジョイスティック、ゲーム用コントローラ、触覚的インターフェースデバイス、運動捕捉コントローラ、オーディオ機器、音声機器、プロジェクタシステム、3Dディスプレイ、およびホログラフィック3Dコンタクトレンズ等のローカル周辺または入力/出力コンポーネントを含む、またはそれと通信してもよい。
図38は、いくつかの実施形態による、電子システム3800を図示する、概略図である。いくつかの実施形態では、システム3800は、図37のシステム3700の一部であってもよい。システム3800は、第1のデバイス3810(例えば、第1のユーザの第1のポータブルデバイス)と、第2のデバイス3820(例えば、第2のユーザの第2のポータブルデバイス)とを含んでもよい。デバイス3810および3820は、例えば、図37のデバイス3720およびARディスプレイシステム80であってもよい。デバイス3810および3820は、それぞれ、ネットワーク3804aおよび3804bを通して、クラウドキャッシュ3802と通信してもよい。いくつかの実施形態では、クラウドキャッシュ3802は、図37の1つ以上のサーバ3710のメモリ内に実装されてもよい。ネットワーク3804aおよび3804bは、図37のデータネットワーク3730および/またはローカルゲートウェイ3740の実施例であってもよい。
デバイス3810および3820は、個々のARシステム(例えば、デバイス3720)であってもよい。いくつかの実施形態では、デバイス3810および3820は、その個別のユーザによって装着される、ARディスプレイシステムを含んでもよい。いくつかの実施形態では、デバイス3810および3820のうちの一方は、ユーザによって装着されるARディスプレイシステムであってもよく、他方は、ユーザによって保持されるスマートフォンであってもよい。2つのデバイス3810および3820が、実施例に図示されるが、システム3800は、1つ以上のデバイスを含んでもよく、1つ以上のデバイスが、同一タイプのARシステムまたは異なるタイプのARシステムを動作させてもよいことを理解されたい。
デバイス3810および3820は、ポータブルコンピューティングデバイスであってもよい。第1のデバイス3810は、例えば、プロセッサ3812と、ローカルキャッシュ3814と、1つ以上のARアプリケーション3816とを含んでもよい。プロセッサ3812は、コンピュータ実行可能命令を実行し、少なくとも部分的に、1つ以上のセンサ(例えば、図3Bの深度センサ51、世界カメラ52、および/または慣性測定ユニット57)を用いて収集されたデータに基づいて、物理的世界の一部の3D表現(例えば、3D再構成データ)を提供するように構成される、コンピューティング部分3812aを含んでもよい。
コンピューティング部分3812aは、物理的世界を1つ以上のブロックとして表してもよい。各ブロックは、オブジェクトを物理的世界の異なる領域内に表してもよい。各領域は、対応するボリュームを有してもよい。いくつかの実施形態では、ブロックは、同一ボリュームを伴う領域を表してもよい。いくつかの実施形態では、ブロックは、異なるボリュームを伴う領域を表してもよい。例えば、物理的世界が、オフィスの部屋であるとき、オフィスの部屋は、各々が1立方フィートであり得る、立方体に分割されてもよい。1つのブロックは、オフィスの部屋の1立方フィートの3D表現(例えば、3D再構成データ)を含んでもよい。いくつかの実施形態では、オフィスの部屋は、種々のボリュームを伴う領域に分割されてもよく、各ボリュームは、各領域の3D表現のデータサイズが類似し得るように、類似量の3D情報(例えば、3D再構成データ)を含んでもよい。その表現は、仮想オブジェクトが物理的オブジェクトによってオクルードされるかどうかを決定するためのオクルージョン処理、または物理的世界内の物理的オブジェクトと相互作用するとき、仮想オブジェクトが移動または変形すべき方法を決定するための物理学処理等のさらなる処理を促進するようにフォーマットされてもよい。ブロックは、例えば、角等の物理的世界内のオブジェクトの特徴が、メッシュブロック内の点になる、またはメッシュブロックを作成するための点として使用される、メッシュブロックとしてフォーマットされてもよい。メッシュ内の点間の接続は、物理的オブジェクトの同一表面上の点のグループを示し得る。
各ブロックは、1つ以上のバージョンを有してもよく、各バージョンは、ある時点からのデータに基づいてその対応する領域を表す、データ(例えば、ボクセル等の立体3D再構成データ、および/または個別のブロックによって表される領域内の表面を表し得るメッシュ)を含有する。コンピューティング部分3812aは、物理的世界内のオブジェクトが変化したことを示すデータまたはそこから物理的世界のより正確な表現が作成され得る付加的データ等の付加的データが利用可能になるにつれて、ブロックの新しいバージョンを作成してもよい。付加的データは、デバイス(例えば、デバイス3810および/または3820)上のセンサから生じてもよい。いくつかの実施形態では、付加的データは、遠隔センサから生じてもよく、例えば、ネットワーク接続を経由して、取得されてもよい。
プロセッサ3812はまた、デバイスの視野内のブロックを記憶するように構成され得る、アクティブメモリ3812bを含んでもよい。いくつかの実施形態では、アクティブメモリ3812bは、デバイスの視野外のブロックを記憶してもよい。いくつかの実施形態では、アクティブメモリ3812bは、デバイスの視野内のブロックに隣接する、ブロックを記憶してもよい。いくつかの実施形態では、アクティブメモリ3812bは、デバイスの視野内にあることが予測される、ブロックを記憶してもよい。いくつかの実施形態では、プロセッサ3812は、その時間にデバイスの視野内にある場合、ブロックをアクティブメモリ3812b内に維持する。視野は、センサのうちの1つ以上のものの面積を結像することによって決定されてもよい。いくつかの実施形態では、視野は、デバイスのユーザに提示されている、またはARシステムを使用せずに平均的ユーザが知覚し得る、物理的世界の量によって決定されてもよい。視野は、したがって、物理的世界内のユーザの場所およびデバイスのウェアラブルコンポーネントの配向に依存し得る。
プロセッサ3812は、ユーザが移動するにつれて、ブロックがデバイス3810の視野外になる場合、ブロックを非アクティブとして処理してもよい。非アクティブブロックは、アクティブメモリからキャッシュにページングされてもよい。キャッシュは、ローカルキャッシュまたは遠隔キャッシュであってもよい。図38の実施形態では、ブロックは、最初に、ローカルゲートウェイ3818bを通して、ローカルキャッシュ3814にページングされる。いくつかの実施形態では、ローカルキャッシュ3814は、唯一の利用可能なキャッシュであってもよい。
いくつかの実施形態では、ネットワークを経由してアクセス可能な遠隔キャッシュが存在してもよい。図示される実施形態では、ネットワーク3804aを通してアクセスされる、クラウドキャッシュ(例えば、遠隔キャッシュ)3802は、遠隔キャッシュの実施例である。プロセッサ3812は、ブロックがローカルキャッシュ3814とクラウドキャッシュ3802との間で移動されるときを管理してもよい。例えば、ローカルキャッシュ3814が、満杯であるとき、プロセッサ3812は、ネットワーク3804aを通して、ブロックをクラウドキャッシュ3802にページングしてもよい。ローカルキャッシュ3814内のブロックは、クラウドキャッシュ内のブロックより短い待ち時間を伴って、場面をレンダリングするためにアクセス可能であるため、プロセッサ3812は、ローカルキャッシュ3814内にアクティブになる可能性が最も高いブロックを保つように意図される、アルゴリズムを使用して、ローカルキャッシュ3814の外部にページングされるべきブロックを選択してもよい。そのようなアルゴリズムは、アクセスの時間に基づいてもよい。いくつかの実施形態では、アルゴリズムは、デバイスの視野を変化させるであろう、デバイスの運動の予測に基づいてもよい。
場面をレンダリングする、アプリケーション(例えば、コンピュータゲーム)は、レンダリングされるべき場面に影響を及ぼす、物理的世界の一部を表す情報を取得してもよい。アプリケーション3816は、ローカルゲートウェイ3818aを通して、アクティブブロックをアクティブメモリ3812bから取得してもよい。いくつかの実施形態では、ローカルゲートウェイ3818aは、プロセッサ3812がアプリケーション3816のための「サービス」を実装するように、アプリケーションプログラミングインターフェース(API)として実装されてもよい。物理的世界のデータがメッシュとして表される、実施形態では、そのサービスは、「メッシュ化サービス」であってもよい。APIは、プッシュ配信またはプル配信インターフェースとして実装されてもよい、または両方の属性を有してもよい。プル配信インターフェースでは、例えば、アプリケーション3816は、それに関してデータを要求する、物理的世界の一部を示してもよく、サービスは、それらの部分のデータを供給してもよい。プッシュ配信システムでは、例えば、サービスは、そのようなデータが変化する、または利用可能になるとき、物理的世界の一部についてのデータを供給してもよい。
それについてのデータが供給される、物理的世界の一部は、デバイスの視野内のデータまたはデバイスの視野の閾値距離内の物理的世界の一部を表すデータ等、アプリケーション3816が関連することを示した部分に限定されてもよい。プル配信/プッシュ配信システムでは、アプリケーション3816は、物理的世界の一部に関するデータを要求してもよく、サービスは、要求される部分に関するデータに加え、データが変化した任意の隣接する部分を供給してもよい。情報を変化したものに限定するために、サービスは、物理的世界を説明するブロックを維持することに加え、アプリケーション3816のそれぞれに提供されたブロックのバージョンを追跡してもよい。物理的世界の表現が更新される部分およびその更新が生じた場所を決定するための動作は、任意の好適な方法において、アプリケーション3816とサービスとの間にパーティション化されてもよい。同様に、更新されたデータが物理的世界の表現の中に組み込まれる場所も、任意の好適な方法において、パーティション化されることができる。
いくつかの実施形態では、再構成サービスは、センサがデータを捕捉および更新すると、物理的世界の3D表現を継続的に再構築してもよい。本データは、次いで、3D再構成データを使用して、場面をレンダリングし、物理的世界と、物理的世界内のオブジェクト内に位置付けられる、またはそれと相互作用する、仮想現実オブジェクトとの両方を描写する、アプリケーション3816に提供されてもよい。本データは、関連部分が変化すると、データをアプリケーション3816にプッシュ配信する、プッシュ配信インターフェースとして、または最新情報のためのアプリケーション3816からの要求に応答するプル配信インターフェースとして、または両方として実装され得る、APIを通して、アプリケーション3816に提供されてもよい。
例えば、アプリケーション3816は、デバイスの現在の場所およびその中にデバイスが面している方向によって定義された原点に対して10メートルの距離にわたって45度視認角度を構成する物理的世界の一部のメッシュ表現に作用してもよい。本領域が、変化する、または本領域内の物理的変化を示すデータが、利用可能になるにつれて、メッシュが、本面積を表すように算出されてもよい。そのメッシュは、サービスによって供給されるデータに基づいて、アプリケーション3816内で算出されてもよい、またはサービス内で算出され、アプリケーション3816に提供されてもよい。いずれの場合も、サービスは、メッシュの算出を簡略化する、物理的世界内の情報を記憶してもよい。本明細書に説明されるように、ジッパ、スカートを伴う、または隣接するブロック間の亀裂の「包み隠し」を促進するための他の技法を用いて実装される、ブロックが、物理的世界の表現の変化した部分のみの処理を可能にするように、使用されてもよい。物理的世界の表現の変化した部分は、次いで、物理的世界の前の表現内の対応する部分に取って代わり得る。
場面をユーザにレンダリングするためにアプリケーション3816によって使用されるべきメッシュを生成するために使用される、物理的世界の一部の表現に効率的にアクセスすることは、コンピュータリソースを低減させ、XRシステムを、限定されたコンピューティングリソースを伴うポータブルデバイスまたは他のデバイス上に容易に実装され得るようにし、XR場面が物理的世界により良好に合致するため、より現実的ユーザ体験をもたらし得る。故に、本明細書のいずれかに説明されるように、ブロック間の亀裂の包み隠しを促進するためのスカート、ジッパ、または他の技法を用いて、ブロックを使用する代わりに、またはそれに加え、ブロックをアクティブメモリおよび/またはローカルキャッシュ内外にページングするために使用される、アルゴリズムが、任意の所与の時間にメッシュを算出するために必要とされるブロックへのアクセス時間を低減させるように選択されてもよい。
図38の例示的実施形態では、ゲートウェイ3818aは、プル配信インターフェースである。ARアプリケーション3816が、物理的世界の領域についての情報を要求するが、領域を表すブロックが、アクティブメモリ3812b内にないとき、プロセッサ3812は、ローカルキャッシュ3814内に存続されるブロックを検索してもよい。プロセッサ3812が、アクティブメモリ3812bおよびローカルキャッシュ3814の両方内にブロックを見出すことができない場合、プロセッサ3812は、クラウドキャッシュ3802内に存続されるブロックを検索してもよい。アクティブメモリ3812bへのアクセスは、ローカルキャッシュ3814内のデータへのアクセス(クラウドキャッシュ3802内のデータへのアクセスより短い待ち時間である)より短い待ち時間であるため、メッシュを生成する際の全体的速度は、ブロックをそれらが要求される前にアクティブメモリにロードする、またはそれらが要求される前にクラウドキャッシュ3802からローカルキャッシュ3814に移動させる、ページングアルゴリズムを実装するサービスによって増加され得る。
第1のデバイス3810と同様に、第2のデバイス3820は、コンピューティング部分3822aおよびアクティブメモリ3822bを有する、プロセッサ3822と、ローカルキャッシュ3824と、1つ以上のARアプリケーション3826とを含んでもよい。ARアプリケーション3826は、ローカルゲートウェイ3828aを通して、プロセッサ3822と通信してもよい。ローカルキャッシュ3824は、ローカルゲートウェイ3828bを通して、プロセッサ3822と通信してもよい。
故に、クラウドキャッシュ3802は、デバイス3810および3820の両方から伝送されるブロックを存続させてもよい。第1のデバイス3810は、第2のデバイス3820から捕捉および伝送されたクラウドキャッシュ3802内のブロックにアクセスしてもよい。同様に、第2のデバイス3820は、第1のデバイス3810から捕捉および伝送されたクラウドキャッシュ3802内のブロックにアクセスしてもよい。
デバイス3801および3802は、ポータブルARデバイスの実施例として提供される。任意の好適なデバイス、例えば、スマートフォンが同様に、使用および実施されてもよい。
図39は、いくつかの実施形態による、システム(例えば、システム3700)を動作させる方法3900を図示する、フローチャートである。行為3902では、デバイスは、物理的世界内のオブジェクトを含む、物理的世界についての3D情報を捕捉し、物理的世界を3D再構成データを含むブロックとして表してもよい。いくつかの実施形態では、3D再構成データは、単一システムによって捕捉され、そのシステムに関する情報のみをレンダリングするために使用されてもよい。いくつかの実施形態では、3D再構成データは、複数のシステムによって捕捉され、複数のシステムうちの任意の1つまたは任意の他のシステムに関する情報をレンダリングするために使用されてもよい。これらの実施形態では、複数のシステムからの3D再構成データは、組み合わせられ、複数のシステムまたは任意の他のシステムにアクセス可能にされてもよい。
例えば、それぞれ、ARシステムを装着している、何人かのユーザが、倉庫を活用する間、そのデバイスを拡張モードに設定してもよい。各デバイスのセンサは、倉庫内のオブジェクト(例えば、テーブル、窓、ドア、床、天井、壁)を含む、センサの視野内の倉庫の3D情報(例えば、深度マップ、画像、および同等物を含む、3D再構成データ)を捕捉してもよい。各デバイスは、倉庫を対応するボリュームを有する領域にセグメント化し、個々の領域をブロックとして表してもよい。ブロックは、バージョンを有してもよい。ブロックの各バージョンは、ある時点における物理的世界のある領域内のオブジェクトを表す、値を有してもよい。
アプリケーションが、物理的世界についての情報を要求すると、物理的世界のその部分を表すためのブロックのバージョンが、選択され、その情報を生成するために使用されてもよい。そのような選択処理は、任意の好適なプロセッサによって実施される、または任意の好適なプロセッサを横断して分散されてもよいが、いくつかの実施形態によると、その処理は、その上でデータを要求するアプリケーションが実行されている、デバイスにおいてローカルで行われてもよい。
故に、行為3904では、プロセッサ(例えば、プロセッサ3812または3822)が、3D再構成データに関するアプリケーション(例えば、ARアプリケーション3816または3826)からの要求に応答してもよい。いくつかの実施形態では、アプリケーションが、3D再構成データを要求するかどうかにかかわらず、デバイスは、物理的世界についての3D再構成データを含む、3D情報を捕捉し続け、物理的世界を3D再構成データのブロックとして表してもよい。その3D再構成データは、ブロックの新しいバージョンを作成するために使用されてもよい。
アプリケーションが、3D再構成データを要求する場合、処理は、行為3906に進んでもよく、そこで、プロセッサは、要求に従って3D再構成データを送達するために要求される、物理的世界の一部に対応するブロックのサブセットを識別してもよい。ブロックの識別は、例えば、センサ(例えば、深度センサ51、世界カメラ52、慣性測定ユニット57、全地球測位システム、および/または同等物)によって収集されたデータに基づいてもよい。マルチデバイスシステムは、物理的世界の対応する部分と関連付けられる、異なるデバイスによって生成されたブロックが、どのデバイスがそのブロックによって表される物理的世界の一部を再構築するための3D再構成データを提供したかどうかにかかわらず、共通座標フレームを使用して作成され得るように、共通座標フレームを作成してもよい。共通座標フレームが作成され得る方法の一実施例として、同一の一般的近傍内のデバイスからのデータが、処理するために、同一サーバまたは1つ以上のサーバにルーティングされてもよい。そこで、各デバイスからのデータは、最初に、デバイス特有の座標フレーム内に表されてもよい。いったんデバイスのそれぞれからの十分なデータが、物理的世界の共通部分内の特徴を識別するために集められると、それらの特徴は、相関され、1つのデバイス特有の座標フレームから他の座標フレームへの変換を提供してもよい。これらのデバイス特有の座標フレームのうちの1つは、共通座標フレームおよび他の座標フレーム間の変換として指定され得、その座標フレームは、データをデバイス特有の座標フレームから共通座標フレームとして指定される座標フレームに変換するために使用されてもよい。それによって共通座標フレームが作成される、具体的機構にかかわらず、いったん作成されると、第1のデバイスのためのデータを生成する、アプリケーションによって要求される3D再構成データは、それらの更新が第1のデバイスによって行われる任意のバージョン後に行われた場合、他のデバイスからの更新に基づいてもよい。第1のデバイスおよび他のデバイスの両方からのブロックは、例えば、共通座標フレームを使用することによって、マージされてもよい。
行為3906における具体的処理は、要求の性質に依存し得る。いくつかの実施形態では、3D再構成データを要求する、アプリケーションが、ブロックについてのその独自の情報を維持し、具体的ブロックを要求する場合、行為3904における3D再構成データのための要求は、ブロックの具体的サブセットへの参照を含んでもよく、行為3906におけるブロックのサブセットを識別するステップは、ブロックの具体的サブセットに対応する、ブロックのサブセットを決定するステップを含んでもよい。いくつかの実施形態では、行為3904における3D再構成データのための要求は、アプリケーションがその上で実行されているデバイスの視野への参照を含んでもよく、行為3906におけるブロックのサブセットを識別するステップは、デバイスの参照される視野に対応する、ブロックのサブセットを決定するステップを含んでもよい。
ブロックが識別/決定される様式にかかわらず、行為3908では、プロセッサは、ブロックのサブセットのブロックのバージョンを選択してもよい。本選択は、1つ以上の基準に基づいてもよい。基準は、例えば、利用可能なソースからのブロックの直近のバージョンに基づいてもよい。図示される実施形態では、ブロックのバージョンは、アクティブメモリ、ローカルキャッシュ、または遠隔キャッシュ内に記憶されてもよい。行為3908は、例えば、利用可能である場合、アクティブメモリ内のバージョンを選択する、またはそうではない場合、利用可能である場合、ローカルキャッシュ内のバージョンを選択するステップ、または利用可能である場合、遠隔キャッシュからのバージョンを選択するステップを含んでもよい。ブロックのいずれのバージョンも、利用可能ではない場合、選択は、例えば、センサ(例えば、深度センサ51、世界カメラ52、および/または慣性測定ユニット57)を用いて収集されたデータ(例えば、3D再構成データ)等から、ブロックを生成するステップを伴ってもよい。ブロック選択のためのアルゴリズムが、背景プロセス、可能性として考えられる場所のそれぞれ内に記憶されるブロックバージョン等を管理するように、システム内で使用されてもよい。例示的管理プロセスは、図41に関連して下記に説明される。
行為3910では、プロセッサは、アプリケーションに、選択されたブロックのバージョンに基づいて、情報を提供してもよい。行為3910における処理は、単に、ブロックをアプリケーションに提供するステップを伴ってもよく、これは、アプリケーションがブロックを直接使用するとき、適切であり得る。アプリケーションが、メッシュを受信する場合、行為3910における処理は、メッシュをブロックおよび/またはブロックのサブセットから生成し、メッシュまたはメッシュの任意の好適な部分をアプリケーションに提供するステップを伴ってもよい。
図40は、いくつかの実施形態による、物理的世界内のオブジェクトについての3D情報を捕捉し、物理的世界を3D再構成データのブロックとして表す、詳細を図示する、フローチャートである。いくつかの実施形態では、図40は、図39の行為3902の詳細を図示する、フローチャートである。行為4002では、システム(例えば、システム3700)の1つ以上のセンサ(例えば、深度センサ51、世界カメラ52、慣性測定ユニット57、および/または同等物)が、物理的世界内のオブジェクトを含む、物理的世界内のオブジェクトについての3D情報を捕捉する。
行為4004では、システムのプロセッサ(例えば、プロセッサ3812または3822)が、1つ以上のセンサによって捕捉された3D情報に基づいて、物理的世界の3D再構成データを含む、ブロックのバージョンを作成してもよい。いくつかの実施形態では、各ブロックは、メッシュの1つ以上の部分としてフォーマットされてもよい。いくつかの実施形態では、物理的世界の他の表現が、使用されてもよい。
ブロックは、物理的世界の領域についての情報が任意のデバイスによって捕捉される度、ブロックの新しいバージョンが記憶され得るように、バージョンを有してもよい。ブロックの各バージョンは、ある時点における物理的世界のある領域内のオブジェクトを表す値を含む、3D再構成データを有してもよい。いくつかの実施形態では、そのような処理は、デバイス上でローカルで実施され、ブロックの新しいバージョンがアクティブメモリ内に記憶される結果をもたらしてもよい。いくつかの実施形態では、マルチデバイスシステムにおいて、類似処理が、その遠隔キャッシュ内で利用可能な各ブロックの直近のバージョンが、任意のデバイスによって要求されるときに供給されるように、ブロックのバージョンを管理し得る、サーバ(例えば、図37のサーバ3710)内で実施されてもよい。
ブロックは、その多くが不変であろう、物理的世界を表すため、物理的世界の対応する領域を表す新しい3D再構成データが利用可能となるとき、ブロックの新しいバージョンが、必ずしも作成されるとは限らない。むしろ、ブロックのバージョンを管理するステップは、それらの物理的世界の領域を表すブロックの最後のバージョン以降、変化を正当とするための十分な変化が存在するかどうかを決定するために、物理的世界を表す3D再構成データの処理を伴い得る。いくつかの実施形態では、十分な変化は、最後のバージョンが記憶されて以降、ブロックメトリックの大きさが閾値を上回ることによって示されてもよい。
いくつかの実施形態では、他の基準が、ブロックが要求されるとき、ブロック内のデータの完全性または正確度を示す、メトリックの最低値を有する、バージョン等、現在のバージョンとして供給されるブロックのバージョンを決定するために適用されてもよい。類似処理は、各デバイス上で実施され、ブロックのバージョンがデバイス上のローカルキャッシュ内に記憶される結果をもたらしてもよい。
1つ以上の技法が、各デバイス上のサービスに利用可能なブロックのバージョンを管理するために使用されてもよい。例えば、すでに算出されたブロックの容認可能バージョンが存在する場合、センサデータからブロックの新しいバージョンを作成するのではなく、プロセッサは、以前に記憶されたブロックにアクセスしてもよい。そのようなアクセスは、ブロックのバージョンの記憶を効率的に管理することによって実施されてもよい。行為4006では、デバイスのプロセッサは、物理的世界の3D再構成データのブロックのバージョンをアクティブメモリ(例えば、アクティブメモリ3812bまたは3822b)からページングしてもよい。ページングは、例えば、そのデバイスの視野の関数として、アクティブメモリ/ローカルキャッシュ/クラウドキャッシュ内のブロックを継続的に更新するように、プロセッサがセンサデータにアクセスするステップを含んでもよい。デバイスの視野が、変化すると、新しい視野に対応するブロックが、ローカルキャッシュおよび/またはクラウドキャッシュからアクティブメモリの中に転送(例えば、ページング)されてもよく、新しい視野のすぐ外の面積に対応するブロック(例えば、新しい視野内のブロックに隣接するブロック)は、アクティブメモリおよび/またはクラウドキャッシュからローカルキャッシュに転送(例えば、ページング)されてもよい。例えば、行為4008では、プロセッサによって外部にページングされるブロックのバージョンは、ローカルメモリ(例えば、ローカルキャッシュ3814または3824)および/または遠隔メモリ(例えば、クラウドキャッシュ3802)内に存続されてもよい。いくつかの実施形態では、ブロックの各新しいバージョンが、例えば、デバイス上に作成されるにつれて、そのバージョンは、他のユーザがそれにアクセスし得るように、遠隔メモリに送信されてもよい。
図41は、いくつかの実施形態による、ブロックのサブセットを表す、ブロックのバージョンの選択を実施するための例示的プロセスを図示する、フローチャートである。いくつかの実施形態では、図41は、図39の行為3908の詳細を図示する、フローチャートである。ブロックのサブセット内の各ブロックのバージョンを選択するために、行為4102では、プロセッサ(例えば、プロセッサ3812または3822)は、最新バージョンがアクティブメモリ(例えば、アクティブメモリ3812bまたは3822b)内に記憶されているかどうかをクエリしてもよい。いくつかの実施形態では、バージョンが最新であるかどうかは、バージョンに結び付けられた値(例えば、幾何学形状変化の大きさ、タイムスタンプ、および同等物)とセンサ(例えば、深度センサ51、世界カメラ52、および/または慣性測定ユニット57)を用いて収集されたデータを比較することによって決定されてもよい。いくつかの実施形態では、現在のセンサデータとアクティブメモリ内に記憶されるブロックのバージョンとの間の比較が、行われてもよい。例えば、物理的世界の変化またはアクティブメモリ内のバージョンの品質を表し得る、差異の程度に基づいて、アクティブメモリ内のバージョンは、最新と見なされ得る。
最新バージョンが、アクティブメモリ内に記憶されている場合、処理は、行為4104に進み、そこで、最新バージョンが、選択される。最新バージョンが、アクティブメモリ内に記憶されていない場合、処理は、行為4106に進み、そこで、プロセッサは、最新バージョンがローカルメモリ(例えば、ローカルキャッシュ3814または3824)内に記憶されているかどうかクエリしてもよい。そのクエリは、行為4102と関連して説明される上記に説明される基準または任意の他の好適な基準を使用して実施されてもよい。最新バージョンが、ローカルメモリ内に記憶されている場合、行為4108において、最新バージョンが、選択される。
最新バージョンが、ローカルメモリ内に記憶されていない場合、行為4110において、プロセッサは、最新バージョンが遠隔メモリ(例えば、クラウドキャッシュ3802)内に記憶されているかどうかクエリしてもよい。そのクエリはまた、行為4102に関連して上記に説明される基準または任意の他の好適な基準を使用して実施されてもよい。最新バージョンが、遠隔メモリ内に記憶されている場合、行為4112において、最新バージョンが、選択される。
最新バージョンが、遠隔メモリ内に記憶されていない場合、処理は、行為4114に進んでもよく、そこで、デバイスのプロセッサは、センサによって捕捉された3D情報(例えば、3D再構成データ)に基づいて、ブロックの新しいバージョンを生成してもよい。いくつかの実施形態では、行為4116において、プロセッサは、新しいバージョンを伴うブロックの近傍ブロックを識別し、ブロックの新しいバージョンに従って、識別された近傍ブロックを更新してもよい。
図42は、いくつかの実施形態による、システムを動作させる方法4200を図示する、フローチャートである。方法4200では、デバイスがそれらのブロックを要求すると、ブロックをアクティブメモリおよび/またはローカルキャッシュの中にプル配信するのではなく、ページングが、デバイス運動に基づくデバイスの視野の投影に基づいて、管理されてもよい。
行為3902と同様に、行為4202では、デバイス上のセンサが、物理的世界内のオブジェクトを含む、物理的世界についての3D情報を捕捉し、物理的世界を3D再構成データを含むブロックとして表してもよい。
行為4204では、プロセッサ(例えば、プロセッサ3812または3822)が、少なくとも部分的に、センサの出力に基づいて、ポータブルポインティング可能コンポーネント(例えば、深度センサ51、世界カメラ52、および/または慣性測定ユニット57)が将来的時間に向けられているであろう、物理的世界の領域を算出してもよい。いくつかの実施形態では、プロセッサは、慣性センサからの運動データまたは捕捉された画像の分析結果に基づいて、算出してもよい。単純計算では、例えば、高速結果を得るために、プロセッサは、ユーザの頭部の平行移動および回転に基づいて、算出してもよい。より包括的アルゴリズムを適用する際、プロセッサは、場面内のオブジェクトに基づいて、算出してもよい。例えば、アルゴリズムは、壁またはテーブルに向かって歩いているユーザが、壁またはテーブルを通して歩いて行く可能性が低いことを考慮してもよい。
行為4206では、プロセッサは、算出された領域に基づいて、ブロックを選択してもよい。行為4208では、プロセッサは、アクティブメモリ(例えば、アクティブメモリ3812bまたは3822b)を選択されたブロックで更新してもよい。いくつかの実施形態では、プロセッサは、図41のフローチャートに基づいて、ブロックを選択してもよい。行為4210では、プロセッサは、ブロックのバージョンがアプリケーションに最後に供給されて以降のブロックのそれぞれへの変化に基づいて、アクティブメモリからブロックを選択し、例えば、APIを通して、アプリケーション(例えば、アプリケーション3816または3826)に供給してもよい。
いくつかの実施形態では、行為4206において、プロセッサは、選択されたブロックを遠隔メモリ(例えば、クラウドキャッシュ3802)から要求し、ローカルキャッシュが選択されたブロックを記憶するように、ローカルキャッシュ(例えば、3814または3824)内に記憶される情報を更新してもよい。行為4206は、図39に説明される行為3908に類似してもよい。
上記に説明されるようなブロックベースの処理は、3D表現の一部が別個に処理され、次いで、他のブロックと組み合わせられることを可能にする、ブロックに基づいてもよい。いくつかの実施形態によると、ブロックは、ブロックが変化されると、変化された表現が、大部分にわたって、または全体的に、他のブロックへの界面におけるブロックの値を維持するように、フォーマットされてもよい。そのような処理は、変化および不変ブロックに基づいて、容認不可能なアーチファクトをレンダリングされた場面内に作成せずに、ブロックの変化されたバージョンが変化されなかった隣接するブロックのバージョンと併用されることを可能にする。図43A-48は、そのようなブロックを図示する。
物理的世界の3D表現は、センサによって捕捉された物理的世界の3D情報の3D再構成データ階層を作成し得る、立体3D再構成によって提供されてもよい。例えば、センサは、深度カメラであってもよく、これは、物理的世界の3D情報、例えば、深度カメラの個別の姿勢(すなわち、カメラ姿勢)を伴う深度画像のストリームを捕捉してもよい。物理的世界の3D情報は、ボクセルグリッドの中に処理されてもよい。各ボクセルは、ボクセルが物理的世界内のオブジェクトの幾何学形状の内側または外側にあるかどうかを説明する、1つ以上の符号付き距離関数(SDF)を含有してもよい。ボクセルは、「ブリック」にグループ化されてもよい。各ブリックは、例えば、8ボクセル等、立方体ボリューム内に複数のボクセルを含んでもよい。ブリックは、「タイル」にさらにグループ化されてもよい。各タイルは、複数のブリックを含んでもよい。
いくつかの実施形態では、ボクセルグリッドは、メモリ構造に準拠するようにマッピングされてもよい。タイルは、記憶媒体のメモリページに対応してもよい。タイルのサイズは、例えば、使用中の記憶媒体のメモリページのサイズに応じて、可変であってもよい。故に、3D再構成データは、タイルに基づいて、記憶媒体(例えば、デバイスのアクティブメモリおよび/またはローカルメモリおよび/またはクラウド内の遠隔メモリ)間で伝送されてもよい。いくつかの実施形態では、1つ以上のタイルは、ブロックを生成するように処理されてもよい。ブロックは、例えば、1つ以上のタイル内の少なくとも1つのボクセルが変化すると、更新されてもよい。
ブロックは、必ずしも、タイルに対応するように限定されるとは限らない。いくつかの実施形態では、ブロックは、1つ以上のブリック、1つ以上のボクセル、または1つ以上のSDFサンプル、および同等物から生成されてもよい。ブロックは、物理的世界の任意の好適なパーティションであってもよい。ブロックは、必ずしも、メッシュのフォーマットに限定されるとは限らない。ブロックは、3D再構成データの任意の好適なフォーマットにあってもよい。
図43A-Dは、メッシュブロック4302によって表される例示的物理的世界4300を図示する。各メッシュブロック4302は、メッシュブロックの所定のボリュームに対応する、ボクセル4304から抽出されてもよい。図示される実施例では、各ブロックは、低レベル再構成モデル内のボクセルの立方体領域(例えば、1m)の出力であってもよい。各メッシュブロック4302は、世界メッシュの一部を含有してもよく、独立して処理されてもよい。これは、環境内で移動される新しい面積またはモノを探索するときに変化されるいくつかのブロックの結果としての高速ローカル更新に伴う、スケーラビリティを可能にし得る。図示される実施例では、既存の表面4310の正面に設置された新しいオブジェクト4308を有する、メッシュブロック4306を除き、メッシュブロックに対する変化は存在しない。この場合、ARシステムは、メッシュブロック4306のみを更新する必要があり、これは、世界のためのメッシュ全体を恣意的に更新することと比較して、有意な算出パワーをセーブし得る。
図43Bは、いくつかの実施形態による、メッシュブロックを図示する、簡略化された概略図である。図示される実施例では、メッシュブロックは、内部から見て、全結合メッシュを有し得、これは、頂点が複数の三角形によって共有されることを意味する。
他方では、個々のメッシュブロックは、接続されない、独立メッシュであってもよい。図43Cは、いくつかの実施形態による、2つの隣接するメッシュブロックの縁に存在し得る、亀裂を図示する、簡略化された概略図である。図44Dは、いくつかの実施形態による、隣接するメッシュブロックに重複するメッシュスカートを実装することによって包み隠されている、図43Cにおける亀裂を図示する、簡略化された概略図である。
図44は、いくつかの実施形態による、2Dセグメント化において、物理的世界の一部の表現4400を図示する、概略図である。2D表現4400は、4つのブロックのセット、すなわち、ブロックA-Dを接続することによって取得されてもよい。表現4400は、例えば、実線4410によって図示される、4つのブロック、すなわち、ブロック4402、4404、4406、および4408にセグメント化されてもよい。いくつかの実施形態では、ブロック4402、4404、4406、および4408は、それぞれ、ブロックA-Dとして指定されてもよい。アプリケーションは、オクルージョン試験および物理的エンジン内における物理的効果の生成等のさらなる処理のために、メッシュのフォーマットにおける3D再構成データを所望し得る。いくつかの実施形態では、ブロックのセットは、メッシュのフォーマットにあってもよく、これは、デバイス(例えば、デバイス3810、3820)、ネットワーク(例えば、クラウドキャッシュ3802を含む、クラウド)、または離散アプリケーション(例えば、アプリケーション3816、3826)によって生成されてもよい。
いくつかの実施形態では、ブロック4402、4404、4406、および4408の境界における領域は、例えば、破線4412によって図示されるスカートであってもよい。いくつかの実施形態では、ブロックA-Dはそれぞれ、ブロックと、対応するスカートとを含んでもよい。例えば、ブロックBは、ブロック4404と、ブロックがグローバルメッシュの中に接続されるとき、ブロック間の亀裂が包み隠され得るように、ブロックBの近傍ブロックA、C、およびDの境界部分と重複する、スカート4414とを含んでもよい。ブロックA、C、およびDはまた、対応するスカートを含んでもよい。故に、3D再構成データを含むブロックをアプリケーションに返す前に、プロセッサは、ブロック間の任意の亀裂を包み隠してもよい。
いくつかの実施形態では、グローバルメッシュは、トポロジ的に接続されたグローバルメッシュであってもよい。例えば、ブロックのセット内の隣接するブロックは、線4410等のブロック境界内のメッシュ頂点を共有してもよい。いくつかの実施形態では、グローバルメッシュは、スカートおよびジッパ等の任意の好適な技法を使用して、視覚的にシームレスであり得るが、トポロジ的に接続解除される。
スカートを採用する方法が、図示されるが、ジッパ等の他の方法も、変化されたブロックが不変の隣接するブロックと組み合わせられることを可能にするために使用されてもよい。図示される実施例では、物理的世界の一部は、4つの2Dブロックによって表されるが、物理的世界の一部は、任意の好適な数の2Dおよび/または3Dブロック、例えば、2つ、3つ、5つ、6つまたはそれよりも多くものによって表されてもよいことを理解されたい。各ブロックは、物理的世界内の空間に対応してもよい。いくつかの実施形態では、物理的世界の一部の2Dおよび/または3D表現内のブロックは、物理的世界内の同一サイズ(例えば、面積/ボリューム)の空間に対応してもよい。いくつかの実施形態では、物理的世界の一部の2Dおよび/または3D表現内のブロックは、物理的世界内の異なるサイズの空間に対応してもよい。
図45は、いくつかの実施形態による、物理的世界の一部の3D表現4500を図示する、概略図である。2D表現4400と同様に、3D表現4500は、8つのブロック、すなわち、ブロックA-Hを接続することによって取得されてもよい。いくつかの実施形態では、ブロックA-Hは、相互に排他的である、例えば、重複される領域を有していなくてもよい。いくつかの実施形態では、ブロックA-Hは、近傍ブロックに重複する領域(例えば、スカート4516)を有してもよい。いくつかの実施形態では、ブロックA-Hはそれぞれ、バージョンを有してもよい。ブロックの各バージョンは、ある時点における物理的世界のある領域内のオブジェクトを表す、値を有してもよい。図示される実施例では、3D表現4500は、ブロックA-Hのバージョン、すなわち、ブロックAのバージョン4502、ブロックBのバージョン4504、ブロックCのバージョン4514、ブロックDのバージョン4512、ブロックEのバージョン4534、ブロックFのバージョン4506、ブロックGのバージョン4508、およびブロックHのバージョン4510を含む。ブロックAのバージョン4502は、値4518を含んでもよく、ブロックBのバージョン4504は、値4522を含んでもよく、ブロックCのバージョン4514は、値4528を含んでもよく、ブロックDのバージョン4512は、値4532を含んでもよく、ブロックEのバージョン4534は、値4520を含んでもよく、バージョン4506は、値4524を含んでもよく、バージョン4508は、値4526を含んでもよく、バージョン4510は、値4530を含んでもよい。
図46は、いくつかの実施形態による、3D表現4500を更新することによって取得される物理的世界の一部の3D表現4600を図示する、概略図である。3D表現4500と比較して、3D表現4600は、情報4630を含む、ブロックHの新しいバージョン4610を有し得る。情報4630は、情報4530と異なり得る。例えば、第1のデバイスは、ブロックHのバージョン4510を遠隔メモリ内に存続させてもよい。ブロックHのバージョン4510は、空表面を伴うテーブルに対応する、情報4530を含んでもよい。第1のデバイスが、面積から離れた後(例えば、第1のデバイスの視野が、もはやブロックHを含まない)、第2のデバイスは、仮想および/または物理的ボックスをテーブルの表面上に設置し、ブロックHのバージョン4610を遠隔メモリ内に存続させてもよい。ブロックHのバージョン4610は、仮想および/または物理的ボックスを伴うテーブルに対応する、情報4630を含んでもよい。第1のデバイスが、戻る場合、第1のデバイスは、ブロックHのバージョン4610およびバージョン4510を含む、ブロックHの利用可能なバージョンから、視認するためのブロックHのバージョン4610を選択することが可能であり得る。
図47は、第1のデバイス4702(例えば、デバイス3810)および第2のデバイス4712(例えば、デバイス3820)によって視認可能な拡張世界4700を図示する、概略図である。第1および第2のデバイスは、拡張モードで動作するARディスプレイシステム4704および4714(例えば、ARディスプレイシステム80)を含んでもよい。拡張世界4700は、4つのブロック、すなわち、ブロックA-Dを接続することによって取得されてもよい。図示される実施例では、拡張世界4700は、ブロックA-Dのバージョン、すなわち、ブロックAのバージョン4702A、ブロックBのバージョン4702B、ブロックCのバージョン4702C、およびブロックDのバージョン4702Dを含む。第1のデバイス4702は、第1の方向4706を見ており、第1の視野(FOV)4708を有し得る。図示される実施例では、第1のFOVは、ブロックBのバージョン4702BおよびブロックDのバージョン4702Dを含む。第2のデバイス4704のプロセッサ(例えば、3812)は、第1のFOVに対応するブロックBおよびDを識別し、ブロックBのバージョン4702BおよびブロックDのバージョン4702Dを選択するためのコンピュータ実行可能命令を含んでもよい。第2のデバイス4714は、第2の方向4716を見ており、第2のFOV4718を有し得る。図示される実施例では、第2のFOVは、ブロックCのバージョン4702CおよびブロックDのバージョン4702Dを含む。第2のデバイス4714のプロセッサ(例えば、3822)は、第2のFOVに対応するブロックCおよびDを識別し、ブロックCのバージョン4702CおよびブロックDのバージョン4702Dを選択するためのコンピュータ実行可能命令を含んでもよい。
図48は、いくつかの実施形態による、拡張世界4700をブロックの新しいバージョンで更新することによって取得される拡張世界4800を図示する、概略図である。拡張世界4700と比較して、拡張世界4800は、バージョン4702Cと異なるブロックCのバージョン4802Cおよびバージョン4702Dと異なるブロックDのバージョン4802Dを含んでもよい。第1のデバイス4702は、第3の方向4806を見ており、第3のFOV4808を有し得る。図示される実施例では、第3のFOVは、ブロックCのバージョン4802CおよびブロックDのバージョン4802Dを含む。第1のデバイス4702のプロセッサは、例えば、FOVの変化および/または第1のデバイス4702のセンサを用いて収集された情報に基づいて、アプリケーションを提供するためのバージョン4702C、4802C、4702D、および4802Dを決定するためのコンピュータ実行可能命令を含んでもよい。いくつかの実施形態では、第1のデバイス4702のプロセッサは、ブロックCおよびDの対応する最新バージョンがローカルメモリ(例えば、ローカルキャッシュ3814、3824)または遠隔メモリ(例えば、クラウドキャッシュ3802)内に存在しないとき、ブロックCのバージョン4802CおよびブロックDのバージョン4802Dを生成するためのコンピュータ実行可能命令を含んでもよい。いくつかの実施形態では、第1のデバイス4702は、そのFOVの変化(例えば、第1のFOV4708から第3のFOV4808)を推定し、推定に基づいて、ブロックCを選択し、ブロックCのバージョンをプロセッサにより近いメモリに記憶する(例えば、ブロックCのバージョンを遠隔メモリからローカルキャッシュまたはローカルキャッシュからアクティブメモリに移動させる)ことが可能であり得る。
レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法
ARおよびMR場面がユーザに提示される、現実性は、オクルージョンデータを、そのような場面を生成するアプリケーションに提供することによって、向上され得、オクルージョンデータは、1つ以上の深度データソースの組み合わせから導出される。オクルージョンデータは、場面内の物理的オブジェクトの表面を表し得、そこから場面がレンダリングされるべき視点からの距離および表面を示す、深度データ等による、任意の好適な方法においてフォーマットされてもよい。例えば、使用コンポーネント164は、オクルージョンデータを知覚モジュール160(図6)から受信してもよい。
しかしながら、いくつかの実施形態では、1つのデータソースは、直接、深度カメラと物理的世界内の実オブジェクトとの間の位置を感知および捕捉する、1つ以上の深度カメラであってもよい。深度カメラからのデータは、直接、使用コンポーネント164に提供されてもよい、または間接的に、知覚モジュール160等を通して提供されてもよい。1つ以上の深度カメラは、物理的世界の変化を捕捉するために十分に高いが、処理に負担をかけないように十分に低い、フレームレートにおいて、物理的世界の即時ビューを提供してもよい。いくつかの実施形態では、フレームレートは、5フレーム/秒、10フレーム/秒、12フレーム/秒、15フレーム/秒、20フレーム/秒、24フレーム/秒、30フレーム/秒、および同等物であってもよい。いくつかの実施形態では、フレームレートは、5フレーム/秒未満であってもよい。いくつかの実施形態では、フレームレートは、30フレーム/秒を上回ってもよい。故に、いくつかの実施形態では、フレームレートは、1~5フレーム/秒、5~10フレーム/秒、10~15フレーム/秒、15~20フレーム/秒、または20~30フレーム/秒、および同等物の範囲内であってもよい。
データの第2のソースは、物理的世界の視覚的表現を捕捉し得る、立体視的カメラであってもよい。深度カメラからの深度データおよび/または視覚的カメラからの画像データは、物理的世界内の実オブジェクトを表す点を抽出するように処理されてもよい。立体視カメラ等の視覚的カメラからの画像は、物理的世界の3次元(3D)再構成を算出するために処理されてもよい。いくつかの実施形態では、深度データは、例えば、深層学習技法を使用して、視覚的カメラからの画像から生成されてもよい。3D再構成の一部または全部は、オクルージョンデータ前に算出されてもよく、メモリ内に記憶されてもよい。いくつかの実施形態では、3D再構成は、必要に応じて、記憶された3D再構成にアクセスし得る、オクルージョン処理のための深度情報を生成する、任意のプロセスから独立して、プロセスによって、コンピュータメモリ内に維持されてもよい。いくつかの実施形態では、3D再構成は、メモリ内に維持されてもよく、その一部は、例えば、3D再構成の一部に対応する物理的世界の変化が存在する、深度情報に基づいて算出されたインジケーションに応答して、更新されてもよい。いくつかの実施形態では、第2のデータソースは、物理的世界の3D再構成の中へのレイキャスティングによって実装され、低レベル3D再構成データ(例えば、レイキャスティング点群)を取得してもよい。レイキャスティングを用いることで、第2のデータソースからのデータは、オクルージョンデータ内の任意の穴を充填し、2つ(以上の)ソースからのデータが統合されたことを可能にするように選択されてもよい。
いくつかの実施形態によると、深度データおよび/または画像データおよび/または3D再構成の低レベルデータは、ARまたはMRシステムのユーザに対して配向されてもよい。そのような配向は、例えば、ユーザによって装着されるセンサからのデータを使用することによって、達成されてもよい。センサは、例えば、頭部搭載型ディスプレイデバイス/ユニット上に装着されてもよい。
オクルージョンデータが1つを上回る深度データソースから生成され得る、システムでは、システムは、複数の深度データソースのそれぞれからのデータによって表される、3D領域の部分を識別する、フィルタを含んでもよい。フィルタは、1つ以上の基準を適用し、第2のデータソースからのデータが収集されるべき領域の部分を識別してもよい。これらの基準は、深度データの信頼性のインジケーションであり得る。別の基準は、深度データが収集されて以降の領域の一部内で検出された変化であってもよい。
3D領域の表現の異なる部分のためのデータを提供するための複数の深度データソース間の選択は、処理時間を低減させ得る。例えば、第2のデータソースを用いた場合より少ない処理が、オクルージョンデータを第1のデータソースを用いて収集されたデータから導出するために要求されるとき、選択は、第1のデータソースからのデータに有利に働くが、第1のソースからのデータが利用不可能または容認不可能であるとき、第2のソースからのデータを使用してもよい。具体的実施例として、第1のデータソースは、深度カメラであってもよく、第2のデータソースは、立体視的カメラであってもよい。立体視カメラからのデータは、物理的世界の3D再構成としてフォーマットされてもよい。いくつかの実施形態では、3D再構成は、オクルージョンデータが要求される前に算出されてもよい。代替として、または加えて、3D再構成は、オクルージョンデータが要求されるとき、再算出されてもよい。いくつかの実施形態では、基準が、3D再構成が再算出されるべきであるかどうかを決定するために適用されてもよい。
いくつかの実施形態では、本オクルージョンデータは、アプリケーションプログラミングインターフェース(API)を通して、XR場面をレンダリングするであろうコンピューティングデバイス上で実行されるアプリケーションに、オクルージョンデータを提供する、サービスによって算出される。サービスは、アプリケーションと同一コンピューティングデバイス上で実行されてもよい、または遠隔コンピュータ上で実行されてもよい。サービスは、第1のデータソースからのデータのためのフィルタ、および/または第1のデータソースからの、フィルタリングされたデータに基づいて、第2のデータソースからのデータを選択的にフェッチするためのエンジン等、本明細書で議論されるコンポーネントのうちの1つ以上のものを含んでもよい。サービスはまた、第1のデータソースからのフィルタリングされたデータおよび第2のデータソースからの選択されたデータを組み合わせ、オクルージョンデータを生成するためのコンポーネントを含んでもよい。
オクルージョンデータは、物理的世界内の表面を表す、任意の好適な方法においてフォーマットされてもよい。例えば、オクルージョンデータは、表面の深度バッファとしてフォーマットされ、物理的世界内の表面の場所を識別するデータを記憶してもよい。本オクルージョンデータは、次いで、任意の好適な方法において使用されてもよい。いくつかの実施形態では、オクルージョンデータは、実オブジェクトによってオクルードされる仮想オブジェクトを有することを所望する、1つ以上のアプリケーションに提供されてもよい。いくつかの実施形態では、オクルージョンデータは、仮想オブジェクトを1つ以上の場所にレンダリングするためにオクルージョンデータのためのオクルージョンサービスを要求する、アプリケーションのためのシステムによって作成された深度フィルタとしてフォーマットされてもよい。深度フィルタは、それらの場所における仮想オブジェクトが物理的世界内の表面によってオクルードされるであろうため、アプリケーションが仮想オブジェクトのための画像情報をレンダリングすべきではない場所を識別してもよい。「オクルージョンデータ」は、物理的世界内の表面についての情報を提供するための好適なフォーマットにあってもよく、オクルージョン処理のために使用される必要はないことを理解されたい。いくつかの実施形態では、オクルージョンデータは、物理的世界の場面内の表面の表現に基づいて処理を実施する、任意のアプリケーションにおいて使用されてもよい。
本明細書に説明されるようなアプローチは、アプリケーションが、メッシュデータを使用し、オクルージョン処理を実施する、従来のARおよびMRシステムより短い待ち時間を伴って、および/またはより少ないコンピューティングリソースを使用して、オクルージョンデータを提供する。メッシュデータは、複数回、またはマーチングキューブアルゴリズム、メッシュ簡略化、および三角形数限界の適用を含む、コスト集約的ステップを用いて、画像センサによって抽出された幾何学的データを処理することによって取得されてもよい。メッシュデータは、計算するために数百ミリ秒~数秒かかり得、最新メッシュを有することの遅延は、環境が、動的に変化しており、アプリケーションが、古くなったメッシュを使用して、場面をレンダリングするとき、可視アーチファクトにつながり得る。これらのアーチファクトは、例えば、仮想コンテンツが、仮想コンテンツが実オブジェクトの背後にレンダリングされることが想定される実オブジェクトの上部に重畳されて現れる際に明らかになり、これは、そのようなアプリケーションのユーザにとっての知覚/没入感を破壊し、ユーザに3D深度知覚のための正しくないキューを提供する。
オクルージョン処理のためにメッシュを使用するアプリケーションが、最新メッシュを有するために、アプリケーションは、メッシュに関して継続的にクエリする(有意な連続処理を生じさせる)、または変化が存在するかどうかを決定し、次いで、新しいメッシュに関してクエリするための機構を利用するか(全体的処理を低減させるが、依然として、物理的世界の変化とそれらの変化を反映させるメッシュがアプリケーションに到着する時間との間に長い待ち時間を有するであろう)のいずれかを行う必要がある。
オクルージョンのために、メッシュの代わりに、直接、3D再構成データの低レベルデータ(例えば、点群)およびライブ深度データを利用することによって、環境内で生じる変化とオクルージョンデータ内に反映される時間との間の待ち時間を減少させ、物理的世界とのより近い同期、故に、より高い知覚される視覚的品質を維持することが可能である。
いくつかの実施形態では、物理的環境のリアルタイム深度マップが、深度センサ(例えば、深度カメラ)から取得されてもよい。深度マップ内の各ピクセルは、環境内の3D点から捕捉された離散距離測定に対応してもよい。いくつかの実施形態では、これらの深度カメラは、リアルタイムレートで、点のセットを含む、深度マップを提供し得る。しかしながら、深度マップは、深度カメラが、ある領域を表すセンサデータを入手することが不可能である、またはある領域を表す正しくないまたは信頼性がないデータを入手することから生じ得る、穴を有し得る。いくつかの実施形態では、深度センサが、赤外線(IR)光を使用する場合、穴は、例えば、IR光をあまり良好にまたは全く反射させない、物理的環境内の材料または構造から生じ得る。いくつかの実施形態では、穴は、例えば、光を深度センサに向かって反射させない、斜入射角における非常に薄い構造または表面から生じ得る。深度センサはまた、高速で移動するとき、モーションブラーを被り得、これはまた、欠測データにつながり得る。さらに、深度マップ内の「穴」は、任意の他の理由から、オクルージョン処理において使用するために好適ではない、深度マップの領域を表す。そのような穴は、深度マップを処理して、深度マップ内の点または領域間の接続性の欠如を検出する等、任意の好適な処理を使用して、検出されてもよい。別の実施例として、穴は、深度マップの領域に関する品質メトリックを算出し、低品質メトリックを伴う領域を穴として処理する、処理を使用して、検出されてもよい。1つのそのようなメトリックは、物理的世界内の同一場所を表す深度マップ内のピクセルに関する画像毎変動であってもよい。閾値を超える、そのような変動を伴うピクセルは、穴として分類されてもよい。いくつかの実施形態では、穴は、品質メトリックが閾値を下回るピクセルのクラスタに関する所定の統計的基準を満たす、ピクセルによって識別されてもよい。
いくつかの実施形態では、深度マップは、最初に、「フィルタリング」され、穴を識別してもよい。次いで、そこから場面が穴にレンダリングされるであろう、視点からの光線が、決定されてもよい。それらの光線は、深度センサだけではなく、それ以外のセンサも使用して作成される、物理的世界の3D表現の中に「キャスティング」され、穴の領域を表すデータを識別してもよい。物理的世界の3D表現は、例えば、立体視的カメラからのデータから作成された3D再構成であってもよい。そのようなレイキャスティングによって識別される、3D再構成からのデータは、深度マップに追加され、それによって、穴を充填してもよい。
3D再構成は、穴が識別されると、画像センサデータから算出されてもよい。代替として、3D再構成の一部または全部は、事前に算出され、メモリ内に記憶されてもよい。3D再構成は、必要に応じて、その記憶される3D再構成にアクセスし得る、オクルージョン処理のための深度情報を生成する、任意のプロセスから独立して、プロセスによって、例えば、コンピュータメモリ内に維持されてもよい。さらなる代替として、3D再構成は、メモリ内に維持されてもよいが、その一部は、3D再構成の一部に対応する物理的世界の変化が存在することの深度情報に基づいて算出されたインジケーションに応答して、更新されてもよい。
XRシステムでは、光線は、ユーザの眼視線と同一姿勢を有してもよい。下記に説明されるような例示的システムでは、深度マップも同様に、深度センサが、ユーザによって装着され得、眼の近傍のユーザの頭部上に搭載され得るため、ユーザの同一眼視線を用いて入手されてもよい。3D再構成データを形成するために使用される視覚的カメラも同様に、画像およびそれらの画像から導出されるデータが、深度マップに対して定義された光線が視覚的画像から算出された3D再構成の中にキャスティングされることを可能にする、座標系に関連し得るように、ユーザによって装着されてもよい。同様に、ユーザによって装着され、および/またはセンサと関連付けられる、慣性測定ユニットおよび/または他のセンサは、視覚的カメラの姿勢にかかわらず、データを提供し、座標変換を実施し、データを3D表現に追加し、深度マップに対して定義された光線を3D再構成に関連させてもよい。
いくつかの実施形態では、ユーザの焦点または関連仮想コンテンツ設置情報は、レイキャスティングを誘導し、高品質オクルージョンをオブジェクト境界において取得するために、より稠密光線を深度途絶場所に、処理要件を減少させるために、疎隔光線をビュー内のオブジェクトの中心にキャスティングすることによって、それを画像空間内に適応させ得る。レイキャスティングは、加えて、法線および位置等のローカル3D表面情報を与え得、これは、深度情報を用いて、改良された時間ワーピング処理を可能にし、典型的レンダリングエンジンにおいてレンダリングまたは光線トレースされる必要がある、欠測可視ピクセルを緩和させるために使用され得る。時間ワーピングは、ディスプレイに送信する前に、レンダリングされた画像を修正し、レンダリングと表示との間で生じるように算出される、頭部移動を補正する、XRにおける技法である。いくつかの実施形態では、時間ワーピングは、深度マップからのデータと、深度マップ内の穴を充填するためのデータを生成するために使用され得る、物理的世界の3D表現とを同期させるために使用されてもよい。両データソースからのデータは、表示時に算出された姿勢を表すように時間ワーピングされてもよい。いくつかの実施形態では、3D表現からのデータは、データが深度マップを用いて捕捉された時間において算出された姿勢を表すために時間ワーピングされてもよい。
いくつかの実施形態では、時間ワーピング等の高度な特徴は、レイキャスティングからの3Dローカル表面情報を利用してもよい。コンテンツフレームが、物理的世界オクルージョンを伴わずに、または浸食された深度結像を伴ってレンダリングされるとき、時間ワーピングは、以前にオクルードされた全ての欠測可視ピクセルを充填し得る。したがって、レンダリングエンジンがピクセルを充填する必要がなく、より厳密ではなく切り離されたレンダリングアプリケーション(またはより独立した時間ワーピング)を可能にし得る。
上記に説明されるような処理は、多くの好適な形態のハードウェアプロセッサ内において、多くの好適なセンサを用いて入手され、多くの好適なインターフェース上に提示される、データ上で実施されてもよい。センサ、処理、およびユーザインターフェースを含む、好適なシステムの実施例は、下記に提示される。図示される実施形態では、「サービス」が、コンピュータ実行可能命令を用いて、XRシステムの一部として実装されてもよい。それらの命令の実行は、1つ以上のプロセッサを制御し、センサデータにアクセスし、次いで、深度情報を生成し、XRシステム上で実行されるアプリケーションに供給してもよい。それらの命令は、XR場面をユーザに提示するアプリケーションを実行する、同一プロセッサまたは同一デバイス上、またはコンピュータネットワークを経由してユーザデバイスによってアクセスされる、遠隔デバイス上で実行されてもよい。
図49は、いくつかの実施形態による、オクルージョンレンダリングシステム4900を図示する。オクルージョンレンダリングシステム4900は、再構成フィルタ4902を含んでもよい。再構成フィルタ4902は、深度情報4904を受信してもよい。いくつかの実施形態では、深度情報4904は、深度カメラによって捕捉された深度画像のシーケンスであってもよい。いくつかの実施形態では、深度情報4904は、例えば、単一カメラに基づく運動からの構造を使用して、および/または2つのカメラに基づく立体算出を使用して、視覚的カメラによって捕捉された画像のシーケンスから導出されてもよい。図50は、いくつかの実施形態による、深度画像5000を図示する。いくつかの実施形態では、表面情報は、深度情報から生成されてもよい。表面情報は、深度カメラおよび/または視覚的カメラを備える、頭部搭載型ディスプレイデバイスの視野(FOV)内の物理的オブジェクトまでの距離を示してもよい。表面情報は、場面およびFOVが変化するにつれて、リアルタイムで更新されてもよい。
深度情報の第2のソースは、3D再構成4908として図示される。3D再構成4908は、物理的世界の3D表現を含んでもよい。物理的世界の3D表現は、コンピュータメモリ内に作成および/または維持されてもよい。いくつかの実施形態では、3D表現は、例えば、単一カメラに基づく運動からの構図を使用して、および/または2つのカメラに基づく立体算出を使用して、視覚的カメラによって捕捉された画像から生成されてもよい。いくつかの実施形態では、3D表現は、深度カメラによって捕捉された深度画像から生成されてもよい。例えば、3D再構成4908は、世界原点に対する深度カメラの姿勢と組み合わせて、深度情報4904を使用して、作成および/または更新されてもよい。その表現は、例えば、カメラを装着しているユーザが物理的世界を見回すにつれて、経時的に構築および修正され得る。いくつかの実施形態では、深度情報4904はまた、物理的世界の3D表現を生成するために使用されてもよい。3D再構成4908は、3Dボクセルを含む、立体再構成であってもよい。いくつかの実施形態では、各3Dボクセルは、空間の立方体(例えば、0.5メートル×0.5メートル×0.5メートル)を表してもよく、各3Dボクセルは、空間のその立方体の中の実世界内の表面に関連し、および/またはそれを説明する、データを含んでもよい。
世界の3D再構成4908は、任意の好適な方法において記憶されてもよい。いくつかの実施形態では、3D再構成4908は、物理的世界内のオブジェクトの特徴を表す、点「群」として記憶されてもよい。いくつかの実施形態では、3D再構成408は、メッシュとして記憶されてもよく、点のグループは、表面を表す、三角形の頂点を定義する。いくつかの実施形態では、3D再構成4908は、部屋レイアウト検出システムおよび/またはオブジェクト検出等の他の技法を使用して生成されてもよい。いくつかの実施形態では、いくつかの技法は、3D再構成4908を生成するために、ともに使用されてもよい。例えば、オブジェクト検出が、物理的世界内の既知の物理的オブジェクトのために使用されてもよく、3Dモデル化が、物理的世界内の未知の物理的オブジェクトのために使用されてもよく、部屋レイアウト検出システムもまた、壁および床等の物理的世界内の境界を識別するために使用されてもよい。
再構成フィルタ4902は、深度情報4904に基づいて深度マップを生産するための、コンピュータ実行可能命令を含んでもよい。深度マップは、1つ以上のピクセルを含んでもよい。各ピクセルは、物理的世界内の表面の点までの距離を示してもよい。いくつかの実施形態では、再構成フィルタ4902は、深度情報4904およびレイキャスティングエンジン4906からのデータを合成してもよい。いくつかの実施形態では、再構成フィルタ4902は、少なくとも部分的に、レイキャスティングエンジン4902からのデータに基づく、深度情報4904から、および/または深度情報4904およびレイキャスティングエンジン4906からのデータの合成から、雑音を低減または除去してもよい。いくつかの実施形態では、再構成フィルタ4902は、深層学習技法を使用して、深度情報4904をアップアンプリングしてもよい。
再構成フィルタ4902は、品質メトリックに基づいて、深度マップの領域を識別してもよい。例えば、ピクセルの品質メトリックが、閾値を上回るとき、ピクセルは、正しくないまたは雑音として決定され得る。正しくないまたは雑音ピクセルを含有する、深度マップの領域は、穴(例えば、穴5002)と称され得る。
図54Aおよび54Bは、深度マップが複数の深度画像から構築される、実施形態における、穴が深度マップにもたらされ得る方法の代替実施例を提供する。図54Aは、表面によって占有されるボクセルおよび空のボクセルを識別するために、深度カメラを用いて第1の視点から結像される、領域のスケッチである。図54Bは、表面によって占有されるボクセルおよび空のボクセルを識別するために、深度カメラを用いて複数の視点から結像される、領域のスケッチである。図54Bは、複数のカメラ画像からのデータを融合させることによって、表面によって占有される、または空であると決定された複数のボクセルを図示する。しかしながら、領域5420内のボクセルは、結像されていない。領域5420は、位置5422における深度カメラを用いて結像され得るが、カメラは、その場所に移動していない。故に、領域5420は、立体情報が利用可能ではない、観察空間である。ARシステムは、それを装着しているユーザを誘導し、観察空間を走査させ得る。
図49に戻って参照すると、再構成フィルタ4902は、レイキャスティングエンジン4906に、穴の場所について知らせ得る。レイキャスティングエンジン4906は、ユーザの姿勢を前提として、物理的世界のビューを生成してもよく、穴を深度マップから除去し得る。データは、現在の時間における、物理的世界のユーザの現在のビューの部分、または時間ワーピングが、それまでにデータが時間ワーピングされるべき時間において使用される場所を表し得る。レイキャスティングエンジン4906は、1つ以上の2D画像、例えば、眼あたり1つの画像を生成してもよい。いくつかの実施形態では、再構成フィルタ4902は、閾値距離を超える仮想オブジェクトの場所から離間される深度マップの領域を、これらの領域が仮想オブジェクトのためのオクルージョン試験に関連し得ないため、除去してもよい。
ユーザの姿勢を前提として、物理的世界のビューを生成する、レイキャスティングエンジン4906は、任意の好適な技法によって実装されてもよい。いくつかの実施形態では、レイキャスティングエンジン4906は、レイキャスティングアルゴリズムを3D再構成4908上で実装し、それからデータを抽出してもよい。レイキャスティングアルゴリズムは、ユーザの姿勢を入力としてとってもよい。レイキャスティングエンジン4906は、光線を仮想カメラから物理的世界の3D再構成4908にキャスティングし、深度マップから欠測する表面情報(例えば、穴)を取得してもよい。レイキャスティングエンジン4906は、オブジェクト境界における高品質オクルージョンを取得するために、稠密光線を物理的世界内の物理的オブジェクトの境界に、処理要件を減少させるために、疎隔光線を物理的オブジェクトの中心領域にキャスティングしてもよい。レイキャスティングエンジン4906は、次いで、レイキャスティング点群を再構成フィルタ4902に提供してもよい。レイキャスティングエンジン4906は、実施例として図示される。いくつかの実施形態では、レイキャスティングエンジン4906は、メッシュ化エンジンであってもよい。メッシュ化エンジンは、メッシュ化アルゴリズムを3D再構成4908上で実装し、例えば、三角形および三角形の接続性を含む、それからのデータを抽出してもよい。メッシュ化アルゴリズムは、ユーザの姿勢を入力としてとってもよい。
再構成フィルタ4902は、深度情報4904およびレイキャスティングエンジン4906からのデータを合成し、レイキャスティングエンジン4906からのレイキャスティング点群からのデータを用いて、深度情報4904からの深度マップ内の穴を補償してもよい。いくつかの実施形態では、深度マップの分解能は、改良され得る。本方法は、高分解能深度画像を疎隔または低分解能深度画像から生成するために使用されてもよい。
再構成フィルタ4902は、更新された深度マップをオクルージョンサービス4910に提供してもよい。オクルージョンサービス4910は、更新された深度マップおよび場面内の仮想オブジェクトの場所についての情報に基づいて、オクルージョンデータを算出してもよい。オクルージョンデータは、物理的世界内の表面の深度バッファであってもよい。深度バッファは、ピクセルの深度を記憶してもよい。いくつかの実施形態では、オクルージョンサービス4910は、アプリケーション4912とインターフェースをとってもよい。いくつかの実施形態では、オクルージョンサービス4910は、グラフィックシステムとインターフェースをとってもよい。これらの実施形態では、グラフィックシステムは、深度バッファをアプリケーションに4912にエクスポーズしてもよく、深度バッファは、オクルージョンデータで事前に充填される。
オクルージョンサービス4910は、オクルージョンデータを1つ以上のアプリケーション4912に提供してもよい。いくつかの実施形態では、オクルージョンデータは、ユーザの姿勢に対応してもよい。いくつかの実施形態では、オクルージョンデータは、ピクセル毎表現であってもよい。いくつかの実施形態では、オクルージョンデータは、メッシュ表現であってもよい。アプリケーション4912は、コンピュータ実行可能命令を実行し、オクルージョンデータに基づいて、仮想オブジェクトを場面内にレンダリングするように構成されてもよい。いくつかの実施形態では、オクルージョンレンダリングは、アプリケーション4912の代わりに、別個のグラフィックシステムによって行われてもよい。別個のグラフィックシステムは、時間ワーピング技法を使用してもよい。
いくつかの実施形態では、再構成フィルタ4902、レイキャスティングエンジン4906、およびオクルージョンサービス4910は、遠隔サービス、例えば、遠隔処理モジュール72であってもよく、3D再構成4908は、遠隔メモリ、例えば、遠隔データリポジトリ74内に記憶されてもよく、アプリケーション4912は、ARディスプレイシステム80上にあってもよい。
図51は、いくつかの実施形態による、拡張現実(AR)環境内のオクルージョンレンダリングの方法5100を図示する。行為5102では、深度情報が、例えば、頭部搭載型ディスプレイデバイス上の深度センサ(例えば、深度センサ51)から捕捉されてもよい。深度情報は、頭部搭載型ディスプレイデバイスと物理的オブジェクトとの間の距離を示してもよい。行為5104では、表面情報が、深度情報から生成されてもよい。表面情報は、頭部搭載型ディスプレイデバイスおよび/または頭部搭載型ディスプレイデバイスのユーザの視野(FOV)内の物理的オブジェクトまでの距離を示してもよい。表面情報は、場面およびFOVが変化するにつれて、リアルタイムで更新されてもよい。行為5106では、レンダリングするための仮想オブジェクトの部分は、場面内の仮想オブジェクトの表面情報および場所についての情報から算出されてもよい。
図52は、いくつかの実施形態による、行為5104の詳細を図示する。行為5202では、深度情報が、フィルタリングされ、深度マップを生成してもよい。深度マップは、1つ以上のピクセルを含んでもよい。各ピクセルは、物理的オブジェクトの点までの距離を示してもよい。行為5204では、物理的オブジェクトの3D再構成の低レベルデータが、例えば、3D再構成4908から選択的に入手されてもよい。行為5206では、表面情報は、深度マップおよび物理的オブジェクトの3D再構成の選択的に入手された低レベルデータに基づいて生成されてもよい。
図53は、いくつかの実施形態による、行為5202の詳細を図示する。行為5302では、深度マップの領域のための品質メトリックが、決定されてもよい。品質メトリックは、深度マップの領域が正しくないまたは雑音が多いかどうかを示してもよい。行為5304では、深度マップ内の穴は、例えば、閾値と比較することによって、品質メトリックに基づいて識別されてもよい。行為5306では、識別された穴が、深度マップから除去されてもよい。
結論
いくつかの実施形態のいくつかの側面がこれまで説明されたが、種々の改変、修正、および改良が、当業者に容易に想起されるであろうことを理解されたい。
一実施例として、実施形態は、拡張(AR)環境に関連して説明される。本明細書に説明される技法の一部または全部は、MR環境、またはより一般的には、他のXR環境およびVR環境内に適用されてもよいことを理解されたい。
別の実施例として、実施形態は、ウェアラブルデバイス等のデバイスに関連して説明される。本明細書に説明される技法の一部または全部は、ネットワーク(クラウド等)、離散アプリケーション、および/またはデバイス、ネットワーク、および離散アプリケーションの任意の好適な組み合わせを介して実装されてもよいことを理解されたい。
そのような改変、修正、および改良は、本開示の一部であることが意図され、本開示の精神および範囲内であると意図される。さらに、本開示の利点が示されるが、本開示の全ての実施形態が、全ての説明される利点を含むわけではないことを理解されたい。いくつかの実施形態は、本明細書およびいくつかの事例において有利として説明される任意の特徴を実装しなくてもよい。故に、前述の説明および図面は、一例にすぎない。
本開示の前述の実施形態は、多数の方法のいずれかにおいて実装されることができる。例えば、実施形態は、ハードウェア、ソフトウェア、またはそれらの組み合わせを使用して実装されてもよい。ソフトウェア内に実装されるとき、ソフトウェアコードが、単一コンピュータ内に提供される、または複数のコンピュータ間に分散されるかどうかにかかわらず、任意の好適なプロセッサまたはプロセッサの集合上で実行されることができる。そのようなプロセッサは、いくつか挙げると、CPUチップ、GPUチップ、マイクロプロセッサ、マイクロコントローラ、またはコプロセッサ等、当技術分野において公知の市販の集積回路コンポーネントを含む、集積回路コンポーネント内の1つ以上のプロセッサとともに、集積回路として実装されてもよい。いくつかの実施形態では、プロセッサは、ASIC等のカスタム回路内に、またはプログラマブル論理デバイスを構成することから生じる半カスタム回路内に実装されてもよい。さらなる代替として、プロセッサは、市販、半カスタム、またはカスタムかどうかにかかわらず、より大きい回路または半導体デバイスの一部であってもよい。具体的実施例として、いくつかの市販のマイクロプロセッサは、1つまたはそれらのコアのサブセットがプロセッサを構成し得るように、複数のコアを有する。但し、プロセッサは、任意の好適なフォーマットにおける回路を使用して実装されてもよい。
さらに、コンピュータは、ラックマウント式コンピュータ、デスクトップコンピュータ、ラップトップコンピュータ、またはタブレットコンピュータ等のいくつかの形態のうちのいずれかで具現化され得ることを理解されたい。加えて、コンピュータは、携帯情報端末(PDA)、スマートフォン、または任意の好適な携帯用または固定電子デバイスを含む、概してコンピュータと見なされないが好適な処理能力を伴う、デバイスで具現化されてもよい。
また、コンピュータは、1つ以上の入力および出力デバイスを有してもよい。これらのデバイスは、とりわけ、ユーザインターフェースを提示するために使用されることができる。ユーザインターフェースを提供するために使用され得る、出力デバイスの実施例は、出力の視覚的提示のためのプリンタまたはディスプレイ画面、または出力の可聴提示のためのスピーカまたは他の音生成デバイスを含む。ユーザインターフェースのために使用され得る、入力デバイスの実施例は、キーボード、およびマウス、タッチパッド、およびデジタル化タブレット等のポインティングデバイスを含む。別の実施例として、コンピュータは、発話認識を通して、または他の可聴フォーマットにおいて、入力情報を受信してもよい。図示される実施形態では、入力/出力デバイスは、コンピューティングデバイスと物理的に別個として図示される。しかしながら、いくつかの実施形態では、入力および/または出力デバイスは、プロセッサと同一ユニットまたはコンピューティングデバイスの他の要素の中に物理的に統合されてもよい。例えば、キーボードは、タッチスクリーン上のソフトキーボードとして実装され得る。いくつかの実施形態では、入力/出力デバイスは、コンピューティングデバイスから完全に接続解除され、無線接続を通して機能的に統合されてもよい。
そのようなコンピュータは、企業ネットワークまたはインターネット等、ローカルエリアネットワークまたは広域ネットワークとしての形態を含む、任意の好適な形態の1つ以上のネットワークによって相互接続されてもよい。そのようなネットワークは、任意の好適な技術に基づいてもよく、任意の好適なプロトコルに従って動作してもよく、無線ネットワーク、有線ネットワーク、または光ファイバネットワークを含んでもよい。
また、本明細書で概説される種々の方法およびプロセスは、種々のオペレーティングシステムまたはプラットフォームのうちのいずれか1つを採用する、1つ以上のプロセッサ上で実行可能である、ソフトウェアとしてコード化されてもよい。加えて、そのようなソフトウェアは、いくつかの好適なプログラミング言語および/またはプログラミングまたはスクリプト作成ツールのうちのいずれかを使用して、書き込まれてもよく、また、フレームワークまたは仮想マシン上で実行される実行可能機械言語コードまたは中間コードとしてコンパイルされてもよい。
本側面では、本開示は、1つ以上のコンピュータまたは他のプロセッサ上で実行されるときに、上記で議論される種々の実施形態を実装する方法を行う、1つ以上のプログラムで符号化される、コンピュータ可読記憶媒体(または複数のコンピュータ可読媒体)(例えば、コンピュータメモリ、1つ以上のフロッピー(登録商標)ディスク、コンパクトディスク(CD)、光学ディスク、デジタルビデオディスク(DVD)、磁気テープ、フラッシュメモリ、フィールドプログラマブルゲートアレイまたは他の半導体デバイス内の回路構成、または他の有形コンピュータ記憶媒体)として具現化されてもよい。前述の実施例から明白なように、コンピュータ可読記憶媒体は、非一過性形態においてコンピュータ実行可能命令を提供するために十分な時間の間、情報を留保し得る。そのようなコンピュータ可読記憶媒体または複数の媒体は、前述のように、その上に記憶される1つまたは複数のプログラムが、本開示の種々の側面を実装するように1つ以上の異なるコンピュータまたは他のプロセッサ上にロードされ得るように、トランスポータブルであることができる。本明細書で使用されるように、用語「コンピュータ可読記憶媒体」は、製造(すなわち、製造品)または機械と見なされ得るコンピュータ可読媒体のみを包含する。いくつかの実施形態では、本開示は、伝搬信号等のコンピュータ可読記憶媒体以外のコンピュータ可読媒体として具現化されてもよい。
用語「プログラム」または「ソフトウェア」は、前述のように、本開示の種々の側面を実装するようにコンピュータまたは他のプロセッサをプログラムするために採用され得る、任意のタイプのコンピュータコードまたはコンピュータ実行可能命令のセットを指すために、一般的意味において本明細書で使用される。加えて、本実施形態の一側面によると、実行されると、本開示の方法を行う、1つ以上のコンピュータプログラムは、単一のコンピュータまたはプロセッサ上に常駐する必要はないが、本開示の種々の側面を実装するように、いくつかの異なるコンピュータまたはプロセッサの間でモジュール様式において分散され得ることを理解されたい。
コンピュータ実行可能命令は、1つ以上のコンピュータまたは他のデバイスによって実行される、プログラムモジュール等の多くの形態であってもよい。概して、プログラムモジュールは、特定のタスクを行う、または特定の抽象データタイプを実装する、ルーチン、プログラム、オブジェクト、構成要素、データ構造等を含む。典型的には、プログラムモジュールの機能性は、種々の実施形態では、所望に応じて、組み合わせられる、または分散されてもよい。
また、データ構造は、任意の好適な形態でコンピュータ可読媒体に記憶されてもよい。例証を簡単にするために、データ構造は、データ構造内の場所を通して関係付けられるフィールドを有することが示されてもよい。そのような関係は、同様に、フィールド間の関係を伝えるコンピュータ可読媒体内の場所を伴うフィールドのために記憶装置を割り当てることによって、達成されてもよい。しかしながら、ポインタ、タグ、またはデータ要素間の関係を確立する他の機構の使用を通すことを含む、任意の好適な機構が、データ構造のフィールド内の情報の間の関係を確立するために使用されてもよい。
本開示の種々の側面は、単独で、組み合わせて、または前述の実施形態に具体的に議論されない種々の配列において使用されてもよく、したがって、その用途は、前述の説明に記載される、または図面に図示されるコンポーネントの詳細および配列に限定されない。例えば、一実施形態に説明される側面は、他の実施形態に説明される側面と任意の様式で組み合わせられてもよい。
また、本開示は、その実施例が提供されている、方法として具現化されてもよい。方法の一部として行われる作用は、任意の好適な方法で順序付けられてもよい。故に、例証的実施形態では、連続作用として示されるが、いくつかの作用を同時に行うことを含み得る、作用が図示されるものと異なる順序で行われる、実施形態が構築されてもよい。
請求項要素を修飾するための請求項における「第1の」、「第2の」、「第3の」等の順序の用語の使用は、単独では、別の要素と比べた1つの請求項要素のいかなる優先順位、先行、または順序、または方法の行為が行われる時間順序も含意しないが、順序の用語は、請求項要素を区別するために、(順序の用語の使用のためであるが)ある名前を有する1つの請求項要素と、同一の名前を有する別の要素を区別する標識としてのみ使用される。
また、本明細書で使用される語句および専門用語は、説明目的のためのものであって、限定と見なされるべきではない。本明細書の「~を含む」、「~を備える」、または「~を有する」、「~を含有する」、「~を伴う」、およびその変形の使用は、その後列挙されたアイテムおよびその均等物および付加的アイテムを包含することを意味する。

Claims (18)

  1. 仮想オブジェクトを物理的オブジェクトを備える場面内にレンダリングするためにコンピューティングシステムを動作させる方法であって、前記方法は、
    ユーザによって装着されるセンサからの深度情報を決定することであって、前記深度情報は、前記ユーザと環境内の前記センサの視野内の物理的オブジェクトの表面の一部との間の距離を示し、前記深度情報を決定することは、
    前記環境のための立体モデルの3D(3次元)再構成の中へのレイキャスティングを使用することを少なくとも行うことによって、前記3D再構成のためのデータを決定することと、
    前記3D再構成のために決定された前記データに少なくとも部分的に基づいて、深度データを決定することと、
    前記深度情報に少なくとも部分的に基づいて、深度マップを生成することと、
    前記深度データと前記深度マップとに少なくとも部分的に基づいて、オクルージョンデータの生成の前に、前記環境のための前記3D再構成を決定することと、
    前記表面の前記一部を走査することを少なくとも行うことによって、前記3D再構成のための前記データの一部を選択し、前記オクルージョンデータ内の穴を充填することと
    を含む、ことと、
    前記深度マップにおいて前記表面の前記一部に関する表面情報を維持することであって、前記深度マップは、前記深度情報に少なくとも部分的に基づいて生成され、複数の値を備え、各値は、前記物理的オブジェクトの点までのそれぞれの距離を示し、前記表面情報は、前記距離を含み、その結果、前記表面情報は、前記深度情報が変化するにつれて更新される、ことと、
    前記表面の前記一部に関する前記表面情報に少なくとも部分的に基づいて、前記環境のための前記立体モデルを増分修正することであって、前記立体モデルは、前記表面の前記一部を表す3D形状を備え、前記3D形状は、3Dメッシュまたは3Dボリュームを備え、立体モデルを増分修正することは、
    錐台に少なくとも部分的に基づいて、複数のブリックの初期セットを間引いて1つ以上のブリックのセットにすることを少なくとも行うことによって、前記環境の一部を前記1つ以上のブリックのセットとして表すことであって、ブリックは、複数の要素を含み、前記錐台は、少なくとも前記視野から決定される、ことを含む、ことと、
    前記1つ以上のブリックのセットから第1のインターフェースを有する第1のブリックおよび第2のインターフェースを有する第2のブリックを識別することであって、前記第1のインターフェースは、前記第2のインターフェースに隣接する、ことと、
    前記第1のブリックおよび前記第2のブリックをそれぞれ表す要素の第1のセットおよび要素の第2のセットを識別することと、
    前記第1のインターフェースにおいて第1のインターフェース領域を構成し、前記第2のインターフェースにおいて第2のインターフェース領域を構成することと、
    前記環境の一部を表す1つ以上の3D形状についての情報を前記深度マップに投影することを少なくとも行うことによって、3D形状のセットを間引いて、前記環境を表すための間引かれた3D形状のセットにすることと、
    前記表面情報、場面内の前記仮想オブジェクトの場所、前記環境のための前記立体モデル、および前記間引かれた3D形状のセットに少なくとも部分的に基づいて、前記環境の前記立体モデルの少なくとも一部をレンダリングすることと
    を含む、方法。
  2. 前記環境のための前記立体モデルを増分修正することは、
    前記物理的オブジェクトの前記表面の前記一部をモデル化する要素の第1のセットを決定することであって、前記ユーザは、前記表面の前記一部が前記センサの視野内に現れるとき、第1のユーザ場所に位置する、ことと、
    前記要素の第1のセットを前記環境のための前記立体モデルに追加することと、
    前記物理的オブジェクトの前記表面の付加的部分をモデル化する要素の第2のセットを決定することであって、前記ユーザは、前記表面の前記付加的部分が前記センサの視野内に現れるとき、第2のユーザ場所に位置する、ことと、
    前記要素の第2のセットを前記環境のための前記立体モデルに追加することを少なくとも行うことによって、前記環境のための前記立体モデルを修正することと
    を含む、請求項1に記載の方法。
  3. 前記深度マップとして前記表面情報を維持することは、ステレオカメラからのステレオ深度情報に基づいて前記深度マップの一部を生成することを含み、前記ステレオ深度情報は、前記深度情報に基づいて選択された前記物理的オブジェクトの領域に対応し、前記深度情報は、少なくとも30フレーム/秒のフレームレートにおける深度画像のシーケンスである、請求項1に記載の方法。
  4. 前記深度マップとして前記表面情報を維持することは、前記物理的オブジェクトの3D再構成の低レベルデータに少なくとも部分的に基づいて前記深度マップを生成することを含み、前記物理的オブジェクトの前記3D再構成の前記低レベルデータは、レイキャスティング点群を含む、請求項1に記載の方法。
  5. 前記環境のための前記立体モデルを増分修正することは、
    前記コンピューティングシステムによって捕捉された画像を処理することまたは前記深度情報を処理することを少なくとも行うことによって、前記センサの周囲の前記環境内の領域の変化を検出することと、
    前記領域の変化のインジケーションを生成することと、
    前記変化の検出に応答して、前記環境のための前記立体モデルの増分修正をトリガすることと
    を含む、請求項1に記載の方法。
  6. 前記深度マップとして前記表面情報を維持することは、前記物理的オブジェクトを備える前記場面の3D再構成の低レベルデータに少なくとも部分的に基づいて前記深度マップを生成することを含む、請求項1に記載の方法。
  7. 前記コンピューティングシステムは、遠隔サービスと、アプリケーションとを備え、前記遠隔サービスは、前記コンピューティングシステムの外部にあり、
    前記表面情報は、前記遠隔サービスによって生成され、
    前記アプリケーションは、前記遠隔サービスから受信された前記表面情報に少なくとも部分的に基づいて、レンダリングするための前記仮想オブジェクトの1つ以上の部分を算出する、請求項1に記載の方法。
  8. 前記表面情報を維持することは、
    前記深度情報を処理し、第1の深度マップを生成することであって、前記第1の深度マップは、複数のピクセルを備え、各ピクセルは、前記物理的オブジェクトの点までの距離を示す、ことと、
    前記物理的オブジェクトの3D再構成の低レベルデータを選択的に入手することと、
    前記第1の深度マップと、前記物理的オブジェクトの前記3D再構成の前記選択的に入手された低レベルデータとに少なくとも部分的に基づいて、前記深度マップを生成することであって、前記物理的オブジェクトの前記3D再構成の前記低レベルデータを選択的に入手することは、光線を仮想カメラから前記物理的オブジェクトの前記3D再構成にキャスティングすることを含む、ことと
    を含む、請求項1に記載の方法。
  9. 前記深度情報を処理し、前記深度マップを生成することは、
    前記第1の深度マップの領域に関する品質メトリックを決定すること、
    前記品質メトリックに基づいて、前記第1の深度マップ内の穴を識別することと、
    前記穴を前記第1の深度マップから除去することと
    を含む、請求項8に記載の方法。
  10. 前記環境の一部を前記1つ以上のブリックのセットとして表すことは、
    前記環境のための前記複数のブリックの初期セットを識別することと、
    前記コンピューティングシステムの画像センサの前記錐台に少なくとも部分的に基づいて、前記複数のブリックの初期セットを間引いて前記1つ以上のブリックのセットにすることと、
    前記表面の前記一部に対する前記ブリックの場所に少なくとも部分的に基づいて、前記複数のブリックの初期セット内のブリックのシルエットを前記深度情報の中に投影することを少なくとも行うことによって、前記複数のブリックの初期セットを間引いて前記1つ以上のブリックのセットにすることと
    を含む、請求項1に記載の方法。
  11. 前記穴を前記第1の深度マップから除去することは、閾値距離を超える前記仮想オブジェクトの場所から離間される前記第1の深度マップ内の1つ以上の領域を除去することを含む、請求項9に記載の方法。
  12. 前記第1のインターフェース領域のための1つ以上の第1の融合された要素および前記第2のインターフェース領域のための1つ以上の第2の融合された要素を決定することと、
    前記第2のブリックを修正することなく、前記要素の第1のセットを要素の第1の修正されたセットに変化させることを少なくとも行うことによって、前記第1のブリックを修正することと、
    前記第1のブリックまたは前記第1のインターフェース領域のための第1のデータの少なくともいくつかを前記第2のブリックまたは前記第2のインターフェース領域のための第2のデータの少なくともいくつかと組み合わせることを少なくとも行うことによって、前記第2のインターフェース領域のための前記1つ以上の第2の融合された要素を表すことと
    をさらに含む、請求項1に記載の方法。
  13. 光線をキャスティングすることは、前記ユーザの視線に少なくとも部分的に基づいて、前記物理的オブジェクトの前記3D再構成の1つ以上の境界領域に第1の複数の光線をキャスティングし、前記物理的オブジェクトの前記3D再構成の1つ以上の中心領域に第2の複数の光線をキャスティングすることを含み、前記第1の複数の光線は、前記第2の複数の光線より稠密である、請求項12に記載の方法。
  14. 前記レンダリングするための前記仮想オブジェクトの部分を算出することは、前記表面情報に少なくとも部分的に基づいて、前記仮想オブジェクトと前記物理的オブジェクトの相互作用をシミュレートすることを含み、前記3D形状に関する前記3Dメッシュまたは前記3Dボリュームは、前記3Dメッシュの第1の部分に関するトポロジ的に接続されたメッシュおよび前記3Dメッシュの第2の部分に関するトポロジ的に接続解除されたメッシュを含む、請求項1に記載の方法。
  15. ユーザによって可搬性の電子システムであって、
    ユーザによって装着されたセンサからの、場面内の1つ以上の物理的オブジェクトについての深度情報を決定するように構成されるプロセッサであって、前記深度情報は、前記ユーザと環境内の前記センサの視野内の物理的オブジェクトの表面の一部との間の距離を示し、前記深度情報は、サービスに伝送され、前記深度情報を決定するように構成される前記プロセッサは、
    前記環境のための立体モデルの3D(3次元)再構成の中へのレイキャスティングを使用することを少なくとも行うことによって、前記3D再構成のためのデータを決定することと、
    前記3D再構成のために決定された前記データに少なくとも部分的に基づいて、深度データを決定することと、
    前記深度情報に少なくとも部分的に基づいて、深度マップを生成することと、
    前記深度データと前記深度マップとに少なくとも部分的に基づいて、オクルージョンデータの生成の前に、前記環境のための前記3D再構成を決定することと、
    前記表面の前記一部を走査することを少なくとも行うことによって、前記3D再構成のための前記データの一部を選択し、前記オクルージョンデータ内の穴を充填することと
    を行うようにさらに構成され、前記プロセッサは、
    前記深度マップにおいて前記表面の前記一部に関する表面情報を維持することであって、前記深度マップは、前記深度情報に少なくとも部分的に基づいて生成され、複数の値を備え、各値は、前記物理的オブジェクトの点までのそれぞれの距離を示し、前記表面情報は、前記距離を含み、その結果、前記表面情報は、前記深度情報が変化するにつれて更新される、ことと、
    前記表面の前記一部に関する前記表面情報に少なくとも部分的に基づいて、前記環境のための前記立体モデルを増分修正することであって、前記立体モデルは、前記表面の前記一部を表す3D形状を備え、前記3D形状は、3Dメッシュまたは3Dボリュームを備える、ことと、
    錐台に少なくとも部分的に基づいて、複数のブリックの初期セットを間引いて1つ以上のブリックのセットにすることを少なくとも行うことによって、前記環境の一部を前記1つ以上のブリックのセットとして表すことであって、ブリックは、複数の要素を含み、前記錐台は、少なくとも前記視野から決定される、ことと、
    前記1つ以上のブリックのセットから第1のインターフェースを有する第1のブリックおよび第2のインターフェースを有する第2のブリックを識別することであって、前記第1のインターフェースは、前記第2のインターフェースに隣接する、ことと、
    前記第1のブリックおよび前記第2のブリックをそれぞれ表す要素の第1のセットおよび要素の第2のセットを識別することと、
    前記第1のインターフェースにおいて第1のインターフェース領域を構成し、前記第2のインターフェースにおいて第2のインターフェース領域を構成することと、
    前記環境の一部を表す1つ以上の3D形状についての情報を前記深度マップに投影することを少なくとも行うことによって、3D形状のセットを間引いて、前記環境を表すための間引かれた3D形状のセットにすることと
    を行うようにさらに構成される、プロセッサと、
    仮想オブジェクトを前記場面内にレンダリングするための第1のコンピュータ実行可能命令を実行するように構成されるアプリケーションであって、前記アプリケーションは、前記サービスから、前記表面情報の深度バッファを受信し、前記アプリケーションは、前記表面情報、場面内の前記仮想オブジェクトの場所、前記環境のための前記立体モデル、および前記間引かれた3D形状のセットに少なくとも部分的に基づいて、前記仮想オブジェクトをレンダリングする、アプリケーションと
    を備える、電子システム。
  16. 前記環境のための前記立体モデルを増分修正するように構成される前記プロセッサは、
    前記物理的オブジェクトの前記表面の前記一部をモデル化する要素の第1のセットを決定することであって、前記ユーザは、前記表面の前記一部が前記センサの視野内に現れるとき、第1のユーザ場所に位置する、ことと、
    前記要素の第1のセットを前記環境のための前記立体モデルに追加することと、
    前記物理的オブジェクトの前記表面の付加的部分をモデル化する要素の第2のセットを決定することであって、前記ユーザは、前記表面の前記付加的部分が前記センサの視野内に現れるとき、第2のユーザ場所に位置する、ことと、
    前記要素の第2のセットを前記環境のための前記立体モデルに追加することを少なくとも行うことによって、前記環境のための前記立体モデルを修正することと
    を行うようにさらに構成される、請求項15に記載の電子システム。
  17. 前記環境のための前記立体モデルを増分修正するように構成される前記プロセッサは、
    前記電子システムによって捕捉された画像を処理することまたは前記深度情報を処理することを少なくとも行うことによって、前記センサの周囲の前記環境内の領域の変化を検出することと、
    前記領域の変化のインジケーションを生成することと、
    前記変化の検出に応答して、前記環境のための前記立体モデルの増分修正をトリガすることと
    を行うようにさらに構成される、請求項15に記載の電子システム。
  18. 前記プロセッサは、
    前記第1のインターフェース領域のための1つ以上の第1の融合された要素および前記第2のインターフェース領域のための1つ以上の第2の融合された要素を決定することと、
    前記第2のブリックを修正することなく、前記要素の第1のセットを要素の第1の修正されたセットに変化させることを少なくとも行うことによって、前記第1のブリックを修正することと、
    前記第1のブリックまたは前記第1のインターフェース領域のための第1のデータの少なくともいくつかを前記第2のブリックまたは前記第2のインターフェース領域のための第2のデータの少なくともいくつかと組み合わせることを少なくとも行うことによって、前記第2のインターフェース領域のための前記1つ以上の第2の融合された要素を表すことと
    を行うようにさらに構成される、請求項15に記載の電子システム。
JP2020534314A 2017-12-22 2018-12-21 レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法 Active JP7220717B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023012538A JP7364809B2 (ja) 2017-12-22 2023-01-31 レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法
JP2023173494A JP2023175930A (ja) 2017-12-22 2023-10-05 レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法

Applications Claiming Priority (17)

Application Number Priority Date Filing Date Title
US201762609962P 2017-12-22 2017-12-22
US201762610000P 2017-12-22 2017-12-22
US201762609979P 2017-12-22 2017-12-22
US201762609990P 2017-12-22 2017-12-22
US62/609,990 2017-12-22
US62/610,000 2017-12-22
US62/609,979 2017-12-22
US62/609,962 2017-12-22
US201862702749P 2018-07-24 2018-07-24
US201862702736P 2018-07-24 2018-07-24
US201862702761P 2018-07-24 2018-07-24
US201862702740P 2018-07-24 2018-07-24
US62/702,740 2018-07-24
US62/702,761 2018-07-24
US62/702,736 2018-07-24
US62/702,749 2018-07-24
PCT/US2018/067156 WO2019126680A1 (en) 2017-12-22 2018-12-21 Method of occlusion rendering using raycast and live depth

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023012538A Division JP7364809B2 (ja) 2017-12-22 2023-01-31 レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法

Publications (2)

Publication Number Publication Date
JP2021507409A JP2021507409A (ja) 2021-02-22
JP7220717B2 true JP7220717B2 (ja) 2023-02-10

Family

ID=66950474

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2020534314A Active JP7220717B2 (ja) 2017-12-22 2018-12-21 レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法
JP2020534228A Active JP7145220B2 (ja) 2017-12-22 2018-12-21 多段階ブロックメッシュ簡略化
JP2020534239A Active JP7145221B2 (ja) 2017-12-22 2018-12-21 稠密3d再構成データのキャッシュおよび更新
JP2020534240A Active JP7169358B2 (ja) 2017-12-22 2018-12-21 高速立体再構成のための視点依存ブリック選択
JP2023012538A Active JP7364809B2 (ja) 2017-12-22 2023-01-31 レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法
JP2023173494A Pending JP2023175930A (ja) 2017-12-22 2023-10-05 レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法

Family Applications After (5)

Application Number Title Priority Date Filing Date
JP2020534228A Active JP7145220B2 (ja) 2017-12-22 2018-12-21 多段階ブロックメッシュ簡略化
JP2020534239A Active JP7145221B2 (ja) 2017-12-22 2018-12-21 稠密3d再構成データのキャッシュおよび更新
JP2020534240A Active JP7169358B2 (ja) 2017-12-22 2018-12-21 高速立体再構成のための視点依存ブリック選択
JP2023012538A Active JP7364809B2 (ja) 2017-12-22 2023-01-31 レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法
JP2023173494A Pending JP2023175930A (ja) 2017-12-22 2023-10-05 レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法

Country Status (5)

Country Link
US (9) US10937246B2 (ja)
EP (4) EP3729379B1 (ja)
JP (6) JP7220717B2 (ja)
CN (6) CN111788610B (ja)
WO (4) WO2019126671A1 (ja)

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9919217B2 (en) 2016-03-08 2018-03-20 Electronic Arts Inc. Dynamic difficulty adjustment
JP6818471B2 (ja) * 2016-08-31 2021-01-20 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10384133B1 (en) 2016-12-30 2019-08-20 Electronic Arts Inc. Systems and methods for automatically measuring a video game difficulty
US10357718B2 (en) 2017-02-28 2019-07-23 Electronic Arts Inc. Realtime dynamic modification and optimization of gameplay parameters within a video game application
EP3591623A4 (en) * 2017-03-29 2020-11-04 Rakuten, Inc. DISPLAY CONTROL DEVICE, DISPLAY CONTROL PROCESS AND PROGRAM
GB2565301A (en) * 2017-08-08 2019-02-13 Nokia Technologies Oy Three-dimensional video processing
US10825244B1 (en) * 2017-11-07 2020-11-03 Arvizio, Inc. Automated LOD construction for point cloud
US10810427B1 (en) * 2017-12-15 2020-10-20 AI Incorporated Methods for an autonomous robotic device to identify locations captured in an image
WO2019126671A1 (en) 2017-12-22 2019-06-27 Magic Leap, Inc. Caching and updating of dense 3d reconstruction data
CN108211354A (zh) * 2017-12-29 2018-06-29 网易(杭州)网络有限公司 3d游戏场景中虚拟资源的生成方法及装置
CN108434739B (zh) * 2018-01-30 2019-03-19 网易(杭州)网络有限公司 游戏场景中虚拟资源的处理方法及装置
US11537139B2 (en) 2018-03-15 2022-12-27 Nvidia Corporation Determining drivable free-space for autonomous vehicles
US10977856B2 (en) * 2018-03-29 2021-04-13 Microsoft Technology Licensing, Llc Using a low-detail representation of surfaces to influence a high-detail representation of the surfaces
US11651555B2 (en) * 2018-05-31 2023-05-16 Microsoft Technology Licensing, Llc Re-creation of virtual environment through a video call
US10713543B1 (en) 2018-06-13 2020-07-14 Electronic Arts Inc. Enhanced training of machine learning systems based on automatically generated realistic gameplay information
CN110852134A (zh) * 2018-07-27 2020-02-28 北京市商汤科技开发有限公司 活体检测方法、装置及系统、电子设备和存储介质
JP7355743B2 (ja) * 2018-08-29 2023-10-03 フォルシアクラリオン・エレクトロニクス株式会社 更新地域決定方法、情報処理装置、及びプログラム
US11403822B2 (en) * 2018-09-21 2022-08-02 Augmntr, Inc. System and methods for data transmission and rendering of virtual objects for display
US11985440B2 (en) 2018-11-12 2024-05-14 Magic Leap, Inc. Depth based dynamic vision sensor
WO2020101892A1 (en) 2018-11-12 2020-05-22 Magic Leap, Inc. Patch tracking image sensor
WO2020101895A1 (en) 2018-11-12 2020-05-22 Magic Leap, Inc. Event-based camera with high-resolution frame output
US10818028B2 (en) * 2018-12-17 2020-10-27 Microsoft Technology Licensing, Llc Detecting objects in crowds using geometric context
EP3899874A4 (en) * 2018-12-20 2022-09-07 Packsize, LLC SYSTEMS AND METHODS FOR SIZING OBJECTS BASED ON PARTIAL VISUAL INFORMATION
US11889209B2 (en) 2019-02-07 2024-01-30 Magic Leap, Inc. Lightweight cross reality device with passive depth extraction
US11648945B2 (en) 2019-03-11 2023-05-16 Nvidia Corporation Intersection detection and classification in autonomous machine applications
IT201900003809A1 (it) * 2019-03-15 2020-09-15 Witapp S R L Sistema e metodo, attuato mediante calcolatore, di elaborazione 3D di esame tomografico
US10953334B2 (en) 2019-03-27 2021-03-23 Electronic Arts Inc. Virtual character generation from image or video data
US11276216B2 (en) 2019-03-27 2022-03-15 Electronic Arts Inc. Virtual animal character generation from image or video data
US11815651B2 (en) * 2019-05-21 2023-11-14 Schlumberger Technology Corporation Geologic model and property visualization system
WO2020237089A1 (en) 2019-05-21 2020-11-26 Magic Leap, Inc. Caching and updating of dense 3d reconstruction data
CN114008685A (zh) * 2019-06-25 2022-02-01 辉达公司 用于自主机器应用的路口区域检测和分类
US11238659B2 (en) 2019-06-26 2022-02-01 Magic Leap, Inc. Caching and updating of dense 3D reconstruction data
JP2022537817A (ja) 2019-06-28 2022-08-30 マジック リープ, インコーポレイテッド 動的オクルージョンのための高速の手のメッシュ化
US11508141B2 (en) * 2019-07-03 2022-11-22 Magic Leap, Inc. Simple environment solver using planar extraction
US11110353B2 (en) 2019-07-10 2021-09-07 Electronic Arts Inc. Distributed training for machine learning of AI controlled virtual entities on video game clients
CN113096234B (zh) * 2019-12-23 2022-09-06 复旦大学 利用多张彩色图片生成三维网格模型的方法及装置
CN110458939B (zh) * 2019-07-24 2022-11-18 大连理工大学 基于视角生成的室内场景建模方法
US10818071B1 (en) * 2019-07-26 2020-10-27 Google Llc Image-based geometric fusion of multiple depth images using ray casting
CN114245908A (zh) 2019-08-07 2022-03-25 奇跃公司 用深度信息快速3d重建
WO2021042051A1 (en) 2019-08-31 2021-03-04 Nvidia Corporation Map creation and localization for autonomous driving applications
US11726560B2 (en) 2019-09-18 2023-08-15 Apple Inc. Eye tracking using eye odometers
US11532093B2 (en) 2019-10-10 2022-12-20 Intermap Technologies, Inc. First floor height estimation from optical images
US11741055B2 (en) * 2019-10-24 2023-08-29 Docscorp Group Pty Ltd Managing file revisions from multiple reviewers
US11645756B2 (en) * 2019-11-14 2023-05-09 Samsung Electronics Co., Ltd. Image processing apparatus and method
CN111028336B (zh) * 2019-11-30 2021-04-23 北京城市网邻信息技术有限公司 场景切换方法及装置、存储介质
US11816757B1 (en) * 2019-12-11 2023-11-14 Meta Platforms Technologies, Llc Device-side capture of data representative of an artificial reality environment
US11544903B2 (en) 2019-12-13 2023-01-03 Sony Group Corporation Reducing volumetric data while retaining visual fidelity
US11410387B1 (en) * 2020-01-17 2022-08-09 Facebook Technologies, Llc. Systems, methods, and media for generating visualization of physical environment in artificial reality
CN111314446B (zh) * 2020-01-21 2021-05-25 北京达佳互联信息技术有限公司 一种资源更新方法、装置、服务器及存储介质
JP2023511407A (ja) * 2020-01-22 2023-03-17 フォトニック メディカル インク. 開放視野マルチモード深度検知校正デジタルルーペ
US11200745B2 (en) 2020-01-27 2021-12-14 Facebook Technologies, Llc. Systems, methods, and media for automatically triggering real-time visualization of physical environment in artificial reality
US11113891B2 (en) 2020-01-27 2021-09-07 Facebook Technologies, Llc Systems, methods, and media for displaying real-time visualization of physical environment in artificial reality
US10950034B1 (en) * 2020-01-27 2021-03-16 Facebook Technologies, Llc Systems, methods, and media for generating visualization of physical environment in artificial reality
US11210860B2 (en) 2020-01-27 2021-12-28 Facebook Technologies, Llc. Systems, methods, and media for visualizing occluded physical objects reconstructed in artificial reality
JP2021124784A (ja) * 2020-01-31 2021-08-30 富士フイルムビジネスイノベーション株式会社 情報処理装置、及び情報処理プログラム
US11451758B1 (en) 2020-02-12 2022-09-20 Meta Platforms Technologies, Llc Systems, methods, and media for colorizing grayscale images
EP4115392A4 (en) * 2020-03-04 2023-08-23 Magic Leap, Inc. SYSTEMS AND PROCESSES FOR EFFICIENT GENERATION OF FLOOR PLANS FROM 3D SCANS OF INTERIOR SCENES
US11295468B2 (en) 2020-03-23 2022-04-05 Biosense Webster (Israel) Ltd. Determining an enclosing wall surface of a cavity of an organ
CN111459269B (zh) * 2020-03-24 2020-12-01 视辰信息科技(上海)有限公司 一种增强现实显示方法、系统及计算机可读存储介质
JP7463796B2 (ja) * 2020-03-25 2024-04-09 ヤマハ株式会社 デバイスシステム、音質制御方法および音質制御プログラム
US11468629B2 (en) 2020-04-03 2022-10-11 Qualcomm Incorporated Methods and apparatus for handling occlusions in split rendering
US20210327119A1 (en) * 2020-04-17 2021-10-21 Occipital, Inc. System for Generating a Three-Dimensional Scene Reconstructions
US11270459B2 (en) * 2020-04-22 2022-03-08 Dell Products L.P. Enterprise system augmented reality detection
CN113743155A (zh) * 2020-05-28 2021-12-03 华为技术有限公司 一种构建物体的多细节层次模型的方法及计算机设备
AU2020449562A1 (en) * 2020-05-29 2022-12-15 Google Llc Geometry-aware augmented reality effects with a real-time depth map
US20230147244A1 (en) * 2020-06-01 2023-05-11 Qualcomm Incorporated Methods and apparatus for occlusion handling techniques
DE102020114964A1 (de) 2020-06-05 2021-12-09 Connaught Electronics Ltd. Modellieren einer Oberfläche eines Objekts
US11210862B1 (en) * 2020-06-25 2021-12-28 Microsoft Technology Licensing, Llc Data selection for spatial reconstruction
EP3944192A1 (en) * 2020-07-22 2022-01-26 Dassault Systèmes Method for 3d scanning of a real object
WO2022024195A1 (ja) * 2020-07-27 2022-02-03 株式会社Vrc サーバ及び情報処理方法
US11176755B1 (en) 2020-08-31 2021-11-16 Facebook Technologies, Llc Artificial reality augments and surfaces
WO2022087014A1 (en) * 2020-10-20 2022-04-28 Brain Corporation Systems and methods for producing occupancy maps for robotic devices
US11978266B2 (en) 2020-10-21 2024-05-07 Nvidia Corporation Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications
US20220183761A1 (en) * 2020-12-16 2022-06-16 Biosense Webster (Israel) Ltd. Regional resolution in fast anatomical mapping
WO2022133683A1 (zh) * 2020-12-21 2022-06-30 京东方科技集团股份有限公司 一种混合现实显示的方法、混合现实设备及存储介质
US11409405B1 (en) * 2020-12-22 2022-08-09 Facebook Technologies, Llc Augment orchestration in an artificial reality environment
US11893675B1 (en) 2021-02-18 2024-02-06 Splunk Inc. Processing updated sensor data for remote collaboration
US11915377B1 (en) 2021-02-18 2024-02-27 Splunk Inc. Collaboration spaces in networked remote collaboration sessions
US11551366B2 (en) * 2021-03-05 2023-01-10 Intermap Technologies, Inc. System and methods for correcting terrain elevations under forest canopy
US11334215B1 (en) 2021-04-09 2022-05-17 Htc Corporation Method of generating user-interactive object, multimedia system, and non-transitory computer-readable medium
US11853100B2 (en) * 2021-04-12 2023-12-26 EMC IP Holding Company LLC Automated delivery of cloud native application updates using one or more user-connection gateways
US11443404B1 (en) * 2021-05-28 2022-09-13 Bidstack Group PLC Viewability testing in a computer-generated environment
US11562529B2 (en) * 2021-06-23 2023-01-24 Meta Platforms Technologies, Llc Generating and modifying an artificial reality environment using occlusion surfaces at predetermined distances
US20220410002A1 (en) * 2021-06-29 2022-12-29 Bidstack Group PLC Mesh processing for viewability testing
CN113268558B (zh) * 2021-07-19 2021-09-24 智广海联(天津)大数据技术有限公司 基于二维码与地理空间坐标的公共设施治理系统及方法
US11823319B2 (en) 2021-09-02 2023-11-21 Nvidia Corporation Techniques for rendering signed distance functions
CN113724331B (zh) * 2021-09-02 2022-07-19 北京城市网邻信息技术有限公司 视频处理方法、视频处理装置和非瞬时性存储介质
WO2023038820A1 (en) * 2021-09-10 2023-03-16 Chinook Labs Llc Environment capture and rendering
US11684848B2 (en) * 2021-09-28 2023-06-27 Sony Group Corporation Method to improve user understanding of XR spaces based in part on mesh analysis of physical surfaces
US11798247B2 (en) 2021-10-27 2023-10-24 Meta Platforms Technologies, Llc Virtual object structures and interrelationships
US11908080B2 (en) * 2022-04-04 2024-02-20 Tencent America LLC Generating surfaces with arbitrary topologies using signed distance fields
WO2023224627A1 (en) * 2022-05-19 2023-11-23 Google Llc Face-oriented geometry streaming
US20240029363A1 (en) * 2022-07-20 2024-01-25 Qualcomm Incorporated Late stage occlusion based rendering for extended reality (xr)
CN115100286B (zh) * 2022-07-25 2022-11-11 深圳大学 无人机采集视点确定方法、装置、计算机设备和存储介质
CN115270032B (zh) * 2022-08-10 2023-04-25 上海图客科技有限公司 一种基于WebGL的动态高清文字显示方法及系统
CN115049791B (zh) * 2022-08-12 2022-11-04 山东鲁晟精工机械有限公司 结合图像处理的数控车床工件三维建模方法
WO2024039885A1 (en) * 2022-08-19 2024-02-22 Mobeus Industries, Inc. Interactive reality computing experience using optical lenticular multi-perspective simulation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000230809A (ja) 1998-12-09 2000-08-22 Matsushita Electric Ind Co Ltd 距離データの補間方法,カラー画像階層化方法およびカラー画像階層化装置
JP2006503379A (ja) 2002-10-15 2006-01-26 ユニバーシティ・オブ・サザン・カリフォルニア 拡張仮想環境
JP2014507723A (ja) 2011-01-31 2014-03-27 マイクロソフト コーポレーション 三次元環境の再現
JP2014511591A (ja) 2011-01-31 2014-05-15 マイクロソフト コーポレーション 奥行きマップを使用したモバイルカメラの自己位置推定

Family Cites Families (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5886702A (en) 1996-10-16 1999-03-23 Real-Time Geometry Corporation System and method for computer modeling of 3D objects or surfaces by mesh constructions having optimal quality characteristics and dynamic resolution capabilities
WO1999006956A1 (en) 1997-07-29 1999-02-11 Koninklijke Philips Electronics N.V. Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system
US6026189A (en) 1997-11-13 2000-02-15 National Research Council Of Canada Method of recognizing objects within two-dimensional and three-dimensional images
US6879324B1 (en) 1998-07-14 2005-04-12 Microsoft Corporation Regional progressive meshes
JP3059138B2 (ja) 1998-07-27 2000-07-04 ミツビシ・エレクトリック・インフォメイション・テクノロジー・センター・アメリカ・インコーポレイテッド 3次元仮想現実環境作成、編集及び配布システム
FR2781907B1 (fr) * 1998-08-03 2000-09-29 France Telecom Procede de codage d'un maillage source tenant compte des discontinuites, et applications correspondantes
GB9929957D0 (en) * 1999-12-17 2000-02-09 Canon Kk Image processing apparatus
US6603473B1 (en) 2000-04-12 2003-08-05 California Institute Of Technology Detail data pertaining to the shape of an object surface and related methods and systems
US7330528B2 (en) * 2003-08-19 2008-02-12 Agilent Technologies, Inc. System and method for parallel image reconstruction of multiple depth layers of an object under inspection from radiographic images
JP4463597B2 (ja) * 2004-03-24 2010-05-19 富士通株式会社 3次元描画モデル生成方法及びそのプログラム
US7961186B2 (en) * 2005-09-26 2011-06-14 Siemens Medical Solutions Usa, Inc. Brick-based fusion renderer
JP4568843B2 (ja) * 2006-02-13 2010-10-27 国立大学法人北海道大学 解析曲面セグメンテーション装置、方法、プログラム及び記録媒体
FR2897455A1 (fr) * 2006-02-13 2007-08-17 Univ Hokkaido Nat Univ Corp Dispositif, procede et programme de segmentation de donnees de modele en treillis
US20070262988A1 (en) * 2006-05-09 2007-11-15 Pixar Animation Studios Method and apparatus for using voxel mip maps and brick maps as geometric primitives in image rendering process
JP4845761B2 (ja) * 2007-02-09 2011-12-28 富士通株式会社 3次元モデルの形状簡略化装置及び3次元モデルの形状簡略化プログラム
US20100274375A1 (en) 2007-02-21 2010-10-28 Team-At-Work, Inc. Method and system for making reliefs and sculptures
JP5120926B2 (ja) 2007-07-27 2013-01-16 有限会社テクノドリーム二十一 画像処理装置、画像処理方法およびプログラム
DE102007045834B4 (de) 2007-09-25 2012-01-26 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
US8497861B2 (en) 2008-05-30 2013-07-30 Siemens Aktiengesellschaft Method for direct volumetric rendering of deformable bricked volumes
US8774512B2 (en) 2009-02-11 2014-07-08 Thomson Licensing Filling holes in depth maps
US8325186B2 (en) * 2009-05-21 2012-12-04 Sony Computer Entertainment America Llc Method and apparatus for rendering shadows
US8933925B2 (en) * 2009-06-15 2015-01-13 Microsoft Corporation Piecewise planar reconstruction of three-dimensional scenes
US8542247B1 (en) * 2009-07-17 2013-09-24 Nvidia Corporation Cull before vertex attribute fetch and vertex lighting
US9110194B2 (en) 2009-09-14 2015-08-18 Exxonmobil Upstream Research Company System and method for providing a time-based representation of data
KR101096392B1 (ko) * 2010-01-29 2011-12-22 주식회사 팬택 증강 현실 제공 시스템 및 방법
US8405680B1 (en) * 2010-04-19 2013-03-26 YDreams S.A., A Public Limited Liability Company Various methods and apparatuses for achieving augmented reality
US9122053B2 (en) * 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US20120154400A1 (en) 2010-12-20 2012-06-21 General Electric Company Method of reducing noise in a volume-rendered image
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
US8879828B2 (en) 2011-06-29 2014-11-04 Matterport, Inc. Capturing and aligning multiple 3-dimensional scenes
WO2013022804A1 (en) * 2011-08-05 2013-02-14 Caustic Graphics, Inc. Systems and methods for 3-d scene acceleration structure creation and updatting
US9255813B2 (en) 2011-10-14 2016-02-09 Microsoft Technology Licensing, Llc User controlled real object disappearance in a mixed reality display
CN103472909B (zh) * 2012-04-10 2017-04-12 微软技术许可有限责任公司 用于头戴式、增强现实显示器的逼真遮挡
US9183664B2 (en) * 2012-05-03 2015-11-10 Apple Inc. Tiled forward shading with improved depth filtering
US8884955B1 (en) * 2012-05-04 2014-11-11 Google Inc. Surface simplification based on offset tiles
US9621869B2 (en) * 2012-05-24 2017-04-11 Sony Corporation System and method for rendering affected pixels
US9645394B2 (en) 2012-06-25 2017-05-09 Microsoft Technology Licensing, Llc Configured virtual environments
WO2014020364A1 (en) 2012-07-30 2014-02-06 Zinemath Zrt. System and method for generating a dynamic three-dimensional model
US9083960B2 (en) 2013-01-30 2015-07-14 Qualcomm Incorporated Real-time 3D reconstruction with power efficient depth sensor usage
KR102077305B1 (ko) * 2013-05-09 2020-02-14 삼성전자 주식회사 증강 현실 정보를 포함하는 콘텐츠 제공 방법 및 장치
US20140368504A1 (en) * 2013-06-12 2014-12-18 Microsoft Corporation Scalable volumetric 3d reconstruction
US9984498B2 (en) * 2013-07-17 2018-05-29 Microsoft Technology Licensing, Llc Sparse GPU voxelization for 3D surface reconstruction
US9363501B2 (en) * 2013-07-18 2016-06-07 A. Tron3D Gmbh Combining depth-maps from different acquisition methods
US9996974B2 (en) 2013-08-30 2018-06-12 Qualcomm Incorporated Method and apparatus for representing a physical scene
KR102184766B1 (ko) 2013-10-17 2020-11-30 삼성전자주식회사 3차원 모델 복원 시스템 및 방법
CN106105192B (zh) * 2014-01-03 2021-05-18 英特尔公司 通过深度相机的实时3d重建
US9171403B2 (en) * 2014-02-13 2015-10-27 Microsoft Technology Licensing, Llc Contour completion for augmenting surface reconstructions
US9986225B2 (en) * 2014-02-14 2018-05-29 Autodesk, Inc. Techniques for cut-away stereo content in a stereoscopic display
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
KR102204919B1 (ko) * 2014-06-14 2021-01-18 매직 립, 인코포레이티드 가상 및 증강 현실을 생성하기 위한 방법들 및 시스템들
KR101632992B1 (ko) * 2014-07-03 2016-06-30 성균관대학교산학협력단 깊이 와핑에 기반한 폐색 컬링을 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
US9865089B2 (en) * 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
US20160133230A1 (en) * 2014-11-11 2016-05-12 Bent Image Lab, Llc Real-time shared augmented reality experience
WO2016077798A1 (en) * 2014-11-16 2016-05-19 Eonite Perception Inc. Systems and methods for augmented reality preparation, processing, and application
EP3035291B1 (en) * 2014-12-19 2017-11-15 Donya Labs AB Rendering based generation of occlusion culling models
GB2536061B (en) * 2015-03-06 2017-10-25 Sony Interactive Entertainment Inc System, device and method of 3D printing
US10366534B2 (en) * 2015-06-10 2019-07-30 Microsoft Technology Licensing, Llc Selective surface mesh regeneration for 3-dimensional renderings
WO2017029279A2 (en) * 2015-08-17 2017-02-23 Lego A/S Method of creating a virtual game environment and interactive game system employing the method
US10043309B2 (en) * 2015-12-14 2018-08-07 Microsoft Technology Licensing, Llc Maintaining consistent boundaries in parallel mesh simplification
EP3382648A4 (en) 2016-02-16 2019-05-22 Rakuten, Inc. SYSTEM FOR GENERATING A THREE-DIMENSIONAL MODEL, METHOD FOR GENERATING A THREE-DIMENSIONAL MODEL AND PROGRAM
US10026230B2 (en) * 2016-03-30 2018-07-17 Daqri, Llc Augmented point cloud for a visualization system and method
US10061655B2 (en) * 2016-05-11 2018-08-28 Seagate Technology Llc Volatile cache reconstruction after power failure
US10026220B2 (en) 2016-05-18 2018-07-17 Siemens Healthcare Gmbh Layered lightfields for occlusion handling
TWI595771B (zh) * 2016-10-20 2017-08-11 聚晶半導體股份有限公司 影像深度資訊的優化方法與影像處理裝置
US10410406B2 (en) * 2017-02-27 2019-09-10 Trimble Ab Enhanced three-dimensional point cloud rendering
US10251011B2 (en) * 2017-04-24 2019-04-02 Intel Corporation Augmented reality virtual reality ray tracing sensory enhancement system, apparatus and method
CN107358645B (zh) * 2017-06-08 2020-08-11 上海交通大学 产品三维模型重建方法及其系统
US9990761B1 (en) * 2017-08-30 2018-06-05 Go Ghost, LLC Method of image compositing directly from ray tracing samples
PT3684422T (pt) 2017-09-20 2024-03-27 Univ California Terapia génica de conexina-43 para restabelecer a função elétrica e cardíaca, e a estrutura cardíaca, na cardiomiopatia arritmogénica ventricular direita
WO2019126671A1 (en) 2017-12-22 2019-06-27 Magic Leap, Inc. Caching and updating of dense 3d reconstruction data
US20210213973A1 (en) 2018-08-29 2021-07-15 Movidius Ltd. Computer vision system
US10867430B2 (en) 2018-11-19 2020-12-15 Intel Corporation Method and system of 3D reconstruction with volume-based filtering for image processing
DE102019102484A1 (de) 2019-01-31 2020-08-06 Carl Zeiss Smt Gmbh Verarbeitung von dreidimensionalen Bilddatensätzen
US11004255B2 (en) * 2019-04-24 2021-05-11 Microsoft Technology Licensing, Llc Efficient rendering of high-density meshes

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000230809A (ja) 1998-12-09 2000-08-22 Matsushita Electric Ind Co Ltd 距離データの補間方法,カラー画像階層化方法およびカラー画像階層化装置
JP2006503379A (ja) 2002-10-15 2006-01-26 ユニバーシティ・オブ・サザン・カリフォルニア 拡張仮想環境
JP2014507723A (ja) 2011-01-31 2014-03-27 マイクロソフト コーポレーション 三次元環境の再現
JP2014511591A (ja) 2011-01-31 2014-05-15 マイクロソフト コーポレーション 奥行きマップを使用したモバイルカメラの自己位置推定

Also Published As

Publication number Publication date
US11024095B2 (en) 2021-06-01
US20210056763A1 (en) 2021-02-25
CN114332332A (zh) 2022-04-12
JP2021507403A (ja) 2021-02-22
CN114332332B (zh) 2023-08-18
EP3729381B1 (en) 2023-01-18
US20190197774A1 (en) 2019-06-27
WO2019126665A1 (en) 2019-06-27
JP2023175930A (ja) 2023-12-12
CN111801708A (zh) 2020-10-20
CN111788611B (zh) 2021-12-03
US20190197765A1 (en) 2019-06-27
CN111771230A (zh) 2020-10-13
US11321924B2 (en) 2022-05-03
WO2019126671A1 (en) 2019-06-27
JP7145220B2 (ja) 2022-09-30
WO2019126680A1 (en) 2019-06-27
EP3729379A4 (en) 2021-03-10
JP2021507409A (ja) 2021-02-22
US20210248829A1 (en) 2021-08-12
EP3729381A1 (en) 2020-10-28
WO2019126653A1 (en) 2019-06-27
US20200202633A1 (en) 2020-06-25
CN111788610A (zh) 2020-10-16
JP7145221B2 (ja) 2022-09-30
WO2019126680A9 (en) 2019-09-19
US10937246B2 (en) 2021-03-02
US10636219B2 (en) 2020-04-28
CN111788611A (zh) 2020-10-16
US11580705B2 (en) 2023-02-14
EP3727622A4 (en) 2021-02-24
JP2021507404A (ja) 2021-02-22
US20190197777A1 (en) 2019-06-27
US11398081B2 (en) 2022-07-26
EP3729379A1 (en) 2020-10-28
US10902679B2 (en) 2021-01-26
JP2021508869A (ja) 2021-03-11
JP2023055822A (ja) 2023-04-18
US20200342677A1 (en) 2020-10-29
CN111801708B (zh) 2022-04-29
EP3729376A1 (en) 2020-10-28
EP3729376A4 (en) 2021-01-20
US20210142581A1 (en) 2021-05-13
EP3729379B1 (en) 2023-11-01
US11263820B2 (en) 2022-03-01
CN111788610B (zh) 2021-11-26
US10713852B2 (en) 2020-07-14
EP3727622B1 (en) 2023-09-06
EP3727622A1 (en) 2020-10-28
US20190197786A1 (en) 2019-06-27
EP3729381A4 (en) 2021-03-10
CN115019015A (zh) 2022-09-06
JP7169358B2 (ja) 2022-11-10
JP7364809B2 (ja) 2023-10-18

Similar Documents

Publication Publication Date Title
JP7220717B2 (ja) レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法
JP2022539314A (ja) 稠密3d再構築データのキャッシュおよび更新
US11587298B2 (en) Caching and updating of dense 3D reconstruction data
US20230147759A1 (en) Viewpoint dependent brick selection for fast volumetric reconstruction

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211220

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230131

R150 Certificate of patent or registration of utility model

Ref document number: 7220717

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150