JP7220717B2 - レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法 - Google Patents
レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法 Download PDFInfo
- Publication number
- JP7220717B2 JP7220717B2 JP2020534314A JP2020534314A JP7220717B2 JP 7220717 B2 JP7220717 B2 JP 7220717B2 JP 2020534314 A JP2020534314 A JP 2020534314A JP 2020534314 A JP2020534314 A JP 2020534314A JP 7220717 B2 JP7220717 B2 JP 7220717B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- depth
- reconstruction
- information
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000009877 rendering Methods 0.000 title claims description 32
- 239000011449 brick Substances 0.000 claims description 272
- 238000000034 method Methods 0.000 claims description 200
- 238000012545 processing Methods 0.000 claims description 124
- 239000007787 solid Substances 0.000 claims description 32
- 230000008859 change Effects 0.000 claims description 22
- 238000005266 casting Methods 0.000 claims description 20
- 230000003993 interaction Effects 0.000 claims description 15
- 238000013442 quality metrics Methods 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 8
- 238000012986 modification Methods 0.000 claims description 4
- 230000004048 modification Effects 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims 1
- 230000015654 memory Effects 0.000 description 100
- 238000010586 diagram Methods 0.000 description 49
- 230000000875 corresponding effect Effects 0.000 description 43
- 238000012360 testing method Methods 0.000 description 37
- 238000000605 extraction Methods 0.000 description 28
- 230000008447 perception Effects 0.000 description 27
- 230000008569 process Effects 0.000 description 27
- 238000004422 calculation algorithm Methods 0.000 description 23
- 230000000007 visual effect Effects 0.000 description 20
- 230000003190 augmentative effect Effects 0.000 description 19
- 238000003860 storage Methods 0.000 description 19
- 230000033001 locomotion Effects 0.000 description 17
- 238000001514 detection method Methods 0.000 description 16
- 210000003128 head Anatomy 0.000 description 13
- 238000005259 measurement Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 230000009467 reduction Effects 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 7
- 238000012384 transportation and delivery Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 230000001976 improved effect Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 210000000887 face Anatomy 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 241000282994 Cervidae Species 0.000 description 3
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 229910001416 lithium ion Inorganic materials 0.000 description 3
- 230000002085 persistent effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 239000011800 void material Substances 0.000 description 3
- 241000699670 Mus sp. Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- 241000256837 Apidae Species 0.000 description 1
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 206010011878 Deafness Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000006227 byproduct Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- VJYFKVYYMZPMAB-UHFFFAOYSA-N ethoprophos Chemical compound CCCSP(=O)(OCC)SCCC VJYFKVYYMZPMAB-UHFFFAOYSA-N 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000009304 pastoral farming Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000008093 supporting effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/60—Memory management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
- G06T15/405—Hidden part removal using Z-buffer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
- G06T17/205—Re-meshing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/004—Annotating, labelling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computing Systems (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Information Transfer Between Computers (AREA)
Description
本願は、参照することによってその全体として本明細書に組み込まれる、2017年12月22日に出願され、「VIEWPOINT DEPENDENT BRICK SELECTION FOR FAST VOLUMETRIC RECONSTRUCTION」と題された、米国仮特許出願第62/610,000号の優先権および利益を主張する。本願はまた、参照することによってその全体として本明細書に組み込まれる、2017年12月22日に出願され、「MULTI-STAGE BLOCK MESH SIMPLIFICATION FOR MULTIPLE TARGETS」と題された、米国仮特許出願第62/609,990号の優先権および利益を主張する。本願はまた、参照することによってその全体として本明細書に組み込まれる、2017年12月22日に出願され、「CACHING AND UPDATING OF DENSE 3D RECONSTRUCTION DATA ON MOBILE DEVICES」と題された、米国仮特許出願第62/609,962号の優先権および利益を主張する。本願はまた、参照することによってその全体として本明細書に組み込まれる、2017年12月22日に出願され、「METHOD OF OCCLUSION RENDERING USING RAYCAST AND LIVE DEPTH」と題された、米国仮特許出願第62/609,979号の優先権および利益を主張する。本願はまた、参照することによってその全体として本明細書に組み込まれる、2018年7月24日に出願され、「VIEWPOINT DEPENDENT BRICK SELECTION FOR FAST VOLUMETRIC RECONSTRUCTION」と題された、米国仮特許出願第62/702,761号の優先権および利益を主張する。本願はまた、参照することによってその全体として本明細書に組み込まれる、2018年7月24日に出願され、「MULTI-STAGE BLOCK MESH SIMPLIFICATION」と題された、米国仮特許出願第62/702,740号の優先権および利益を主張する。本願はまた、参照することによってその全体として本明細書に組み込まれる、2018年7月24日に出願され、「CACHING AND UPDATING OF DENSE 3D RECONSTRUCTION DATA」と題された、米国仮特許出願第62/702,749号の優先権および利益を主張する。本願はまた、参照することによってその全体として本明細書に組み込まれる、2018年7月24日に出願され、「METHOD OF OCCLUSION RENDERING USING RAYCAST AND LIVE DEPTH」と題された、米国仮特許出願第62/702,736号の優先権および利益を主張する。
本発明は、例えば、以下を提供する。
(項目1)
仮想オブジェクトを物理的オブジェクトを備える場面内にレンダリングするためにコンピューティングシステムを動作させる方法であって、前記方法は、
深度情報をユーザによって装着されるセンサから捕捉することであって、前記深度情報は、前記ユーザと前記物理的オブジェクトとの間の距離を示す、ことと、
表面情報を前記深度情報から生成することであって、前記表面情報は、前記ユーザの視野内の前記物理的オブジェクトまでの距離を示し、前記生成することは、前記場面および視野が変化するにつれて、前記表面情報をリアルタイムで更新することを含む、ことと、
前記表面情報および前記場面内の前記仮想オブジェクトの場所についての情報から、レンダリングするための前記仮想オブジェクトの部分を算出することと
を含む、方法。
(項目2)
前記深度情報は、少なくとも30フレーム/秒のフレームレートにおける深度画像のシーケンスである、項目1に記載の方法。
(項目3)
前記表面情報を前記深度情報から生成することは、前記表面情報をステレオカメラからのステレオ深度情報から生成することを含み、前記ステレオ深度情報は、前記深度情報に基づいて選択された前記物理的オブジェクトの領域に対応する、項目1に記載の方法。
(項目4)
前記表面情報を前記深度情報から生成することは、前記表面情報を前記物理的オブジェクトの3D再構成の低レベルデータから生成することを含む、項目1に記載の方法。
(項目5)
前記物理的オブジェクトの3D再構成の低レベルデータは、点群のフォーマットにある、項目4に記載の方法。
(項目6)
前記表面情報を前記深度情報から生成することは、前記表面情報を前記物理的オブジェクトを備える前記場面の3D表現の低レベルデータから生成することを含む、項目1に記載の方法。
(項目7)
前記コンピューティングシステムは、遠隔サービスと、アプリケーションとを備え、
前記表面情報は、前記遠隔サービスによって生成され、
前記アプリケーションは、前記遠隔サービスから受信された表面情報に基づいて、レンダリングするための前記仮想オブジェクトの部分を算出する、項目1に記載の方法。
(項目8)
前記深度情報を捕捉することは、
少なくとも部分的に、前記深度情報に基づいて、深度マップを生産することであって、前記深度マップは、複数のピクセルを備え、各ピクセルは、前記物理的オブジェクトの点までの距離を示す、こと
を含む、項目1に記載の方法。
(項目9)
前記表面情報を生成することは、
前記深度情報をフィルタリングし、深度マップを生成することであって、前記深度マップは、複数のピクセルを備え、各ピクセルは、前記物理的オブジェクトの点までの距離を示す、ことと、
前記物理的オブジェクトの3D再構成の低レベルデータを選択的に入手することと、
前記深度マップおよび前記物理的オブジェクトの3D再構成の選択的に入手された低レベルデータに基づいて、前記表面情報を生成することと
を含む、項目1に記載の方法。
(項目10)
前記深度情報をフィルタリングすることは、
前記深度マップの領域のための品質メトリックを決定することと、
前記品質メトリックに基づいて、前記深度マップ内の穴を識別することと、
前記穴を前記深度マップから除去することと
を含む、項目9に記載の方法。
(項目11)
前記表面情報を生成することは、
前記深度マップ内の穴に対応する領域を前記物理的オブジェクトの3D再構成の低レベルデータの少なくとも一部で充填すること
を含む、項目10に記載の方法。
(項目12)
前記穴は、前記深度マップ内の欠測または雑音ピクセルを示す、項目10に記載の方法。
(項目13)
前記穴を除去する行為は、閾値距離を超える前記仮想オブジェクトの場所から離間される前記深度マップ内の領域を除去することを含む、項目10に記載の方法。
(項目14)
前記物理的オブジェクトの3D再構成の低レベルデータを選択的に入手することは、前記穴に基づく、項目10に記載の方法。
(項目15)
前記物理的オブジェクトの3D再構成の低レベルデータを選択的に入手する行為は、光線を仮想カメラから前記物理的オブジェクトの3D再構成にキャスティングすることを含む、項目9に記載の方法。
(項目16)
光線をキャスティングすることは、稠密光線を前記物理的オブジェクトの3D再構成の境界領域に、疎隔光線を前記物理的オブジェクトの3D再構成の中心領域にキャスティングすることを含む、項目15に記載の方法。
(項目17)
前記レンダリングするための仮想オブジェクトの部分を算出することは、前記表面情報に基づいて、前記仮想オブジェクトと前記物理的オブジェクトの相互作用をシミュレートすることを含む、項目1に記載の方法。
(項目18)
ユーザによって可搬性の電子システムであって、
場面内の1つ以上の物理的オブジェクトについての深度情報を捕捉するように構成される、センサであって、前記深度情報は、前記ユーザと前記1つ以上の物理的オブジェクトとの間の距離を示し、前記深度情報は、遠隔サービスに伝送される、センサと、
仮想オブジェクトを前記場面内にレンダリングするためのコンピュータ実行可能命令を実行するように構成されるアプリケーションであって、前記アプリケーションは、前記遠隔サービスから、前記場面内の前記1つ以上の物理的オブジェクトの表面の深度バッファを受信し、前記仮想オブジェクトの部分は、前記表面によってオクルードされる、アプリケーションと
を備える、電子システム。
(項目19)
前記表面の深度バッファは、前記深度情報および前記場面の3D再構成の低レベルデータに基づいて、前記遠隔サービスによって生成される、項目18に記載の電子システム。
(項目20)
前記場面の3D再構成の低レベルデータは、光線を仮想カメラから前記場面の3D再構成の一部の中に投射することによって生成され、前記仮想カメラは、前記ユーザの眼と同一位置をとり、前記場面の3D再構成の一部は、前記センサによって捕捉された深度情報に基づいて選択される、項目19に記載の電子システム。
(項目21)
前記深度情報は、複数のピクセルを有する深度画像を備え、前記場面の3D再構成の一部は、前記深度画像の正しくないおよび雑音ピクセルに対応する、項目20に記載の電子システム。
Claims (18)
- 仮想オブジェクトを物理的オブジェクトを備える場面内にレンダリングするためにコンピューティングシステムを動作させる方法であって、前記方法は、
ユーザによって装着されるセンサからの深度情報を決定することであって、前記深度情報は、前記ユーザと環境内の前記センサの視野内の物理的オブジェクトの表面の一部との間の距離を示し、前記深度情報を決定することは、
前記環境のための立体モデルの3D(3次元)再構成の中へのレイキャスティングを使用することを少なくとも行うことによって、前記3D再構成のためのデータを決定することと、
前記3D再構成のために決定された前記データに少なくとも部分的に基づいて、深度データを決定することと、
前記深度情報に少なくとも部分的に基づいて、深度マップを生成することと、
前記深度データと前記深度マップとに少なくとも部分的に基づいて、オクルージョンデータの生成の前に、前記環境のための前記3D再構成を決定することと、
前記表面の前記一部を走査することを少なくとも行うことによって、前記3D再構成のための前記データの一部を選択し、前記オクルージョンデータ内の穴を充填することと
を含む、ことと、
前記深度マップにおいて前記表面の前記一部に関する表面情報を維持することであって、前記深度マップは、前記深度情報に少なくとも部分的に基づいて生成され、複数の値を備え、各値は、前記物理的オブジェクトの点までのそれぞれの距離を示し、前記表面情報は、前記距離を含み、その結果、前記表面情報は、前記深度情報が変化するにつれて更新される、ことと、
前記表面の前記一部に関する前記表面情報に少なくとも部分的に基づいて、前記環境のための前記立体モデルを増分修正することであって、前記立体モデルは、前記表面の前記一部を表す3D形状を備え、前記3D形状は、3Dメッシュまたは3Dボリュームを備え、立体モデルを増分修正することは、
錐台に少なくとも部分的に基づいて、複数のブリックの初期セットを間引いて1つ以上のブリックのセットにすることを少なくとも行うことによって、前記環境の一部を前記1つ以上のブリックのセットとして表すことであって、ブリックは、複数の要素を含み、前記錐台は、少なくとも前記視野から決定される、ことを含む、ことと、
前記1つ以上のブリックのセットから第1のインターフェースを有する第1のブリックおよび第2のインターフェースを有する第2のブリックを識別することであって、前記第1のインターフェースは、前記第2のインターフェースに隣接する、ことと、
前記第1のブリックおよび前記第2のブリックをそれぞれ表す要素の第1のセットおよび要素の第2のセットを識別することと、
前記第1のインターフェースにおいて第1のインターフェース領域を構成し、前記第2のインターフェースにおいて第2のインターフェース領域を構成することと、
前記環境の一部を表す1つ以上の3D形状についての情報を前記深度マップに投影することを少なくとも行うことによって、3D形状のセットを間引いて、前記環境を表すための間引かれた3D形状のセットにすることと、
前記表面情報、場面内の前記仮想オブジェクトの場所、前記環境のための前記立体モデル、および前記間引かれた3D形状のセットに少なくとも部分的に基づいて、前記環境の前記立体モデルの少なくとも一部をレンダリングすることと
を含む、方法。 - 前記環境のための前記立体モデルを増分修正することは、
前記物理的オブジェクトの前記表面の前記一部をモデル化する要素の第1のセットを決定することであって、前記ユーザは、前記表面の前記一部が前記センサの視野内に現れるとき、第1のユーザ場所に位置する、ことと、
前記要素の第1のセットを前記環境のための前記立体モデルに追加することと、
前記物理的オブジェクトの前記表面の付加的部分をモデル化する要素の第2のセットを決定することであって、前記ユーザは、前記表面の前記付加的部分が前記センサの視野内に現れるとき、第2のユーザ場所に位置する、ことと、
前記要素の第2のセットを前記環境のための前記立体モデルに追加することを少なくとも行うことによって、前記環境のための前記立体モデルを修正することと
を含む、請求項1に記載の方法。 - 前記深度マップとして前記表面情報を維持することは、ステレオカメラからのステレオ深度情報に基づいて前記深度マップの一部を生成することを含み、前記ステレオ深度情報は、前記深度情報に基づいて選択された前記物理的オブジェクトの領域に対応し、前記深度情報は、少なくとも30フレーム/秒のフレームレートにおける深度画像のシーケンスである、請求項1に記載の方法。
- 前記深度マップとして前記表面情報を維持することは、前記物理的オブジェクトの3D再構成の低レベルデータに少なくとも部分的に基づいて前記深度マップを生成することを含み、前記物理的オブジェクトの前記3D再構成の前記低レベルデータは、レイキャスティング点群を含む、請求項1に記載の方法。
- 前記環境のための前記立体モデルを増分修正することは、
前記コンピューティングシステムによって捕捉された画像を処理することまたは前記深度情報を処理することを少なくとも行うことによって、前記センサの周囲の前記環境内の領域の変化を検出することと、
前記領域の変化のインジケーションを生成することと、
前記変化の検出に応答して、前記環境のための前記立体モデルの増分修正をトリガすることと
を含む、請求項1に記載の方法。 - 前記深度マップとして前記表面情報を維持することは、前記物理的オブジェクトを備える前記場面の3D再構成の低レベルデータに少なくとも部分的に基づいて前記深度マップを生成することを含む、請求項1に記載の方法。
- 前記コンピューティングシステムは、遠隔サービスと、アプリケーションとを備え、前記遠隔サービスは、前記コンピューティングシステムの外部にあり、
前記表面情報は、前記遠隔サービスによって生成され、
前記アプリケーションは、前記遠隔サービスから受信された前記表面情報に少なくとも部分的に基づいて、レンダリングするための前記仮想オブジェクトの1つ以上の部分を算出する、請求項1に記載の方法。 - 前記表面情報を維持することは、
前記深度情報を処理し、第1の深度マップを生成することであって、前記第1の深度マップは、複数のピクセルを備え、各ピクセルは、前記物理的オブジェクトの点までの距離を示す、ことと、
前記物理的オブジェクトの3D再構成の低レベルデータを選択的に入手することと、
前記第1の深度マップと、前記物理的オブジェクトの前記3D再構成の前記選択的に入手された低レベルデータとに少なくとも部分的に基づいて、前記深度マップを生成することであって、前記物理的オブジェクトの前記3D再構成の前記低レベルデータを選択的に入手することは、光線を仮想カメラから前記物理的オブジェクトの前記3D再構成にキャスティングすることを含む、ことと
を含む、請求項1に記載の方法。 - 前記深度情報を処理し、前記深度マップを生成することは、
前記第1の深度マップの領域に関する品質メトリックを決定すること、
前記品質メトリックに基づいて、前記第1の深度マップ内の穴を識別することと、
前記穴を前記第1の深度マップから除去することと
を含む、請求項8に記載の方法。 - 前記環境の一部を前記1つ以上のブリックのセットとして表すことは、
前記環境のための前記複数のブリックの初期セットを識別することと、
前記コンピューティングシステムの画像センサの前記錐台に少なくとも部分的に基づいて、前記複数のブリックの初期セットを間引いて前記1つ以上のブリックのセットにすることと、
前記表面の前記一部に対する前記ブリックの場所に少なくとも部分的に基づいて、前記複数のブリックの初期セット内のブリックのシルエットを前記深度情報の中に投影することを少なくとも行うことによって、前記複数のブリックの初期セットを間引いて前記1つ以上のブリックのセットにすることと
を含む、請求項1に記載の方法。 - 前記穴を前記第1の深度マップから除去することは、閾値距離を超える前記仮想オブジェクトの場所から離間される前記第1の深度マップ内の1つ以上の領域を除去することを含む、請求項9に記載の方法。
- 前記第1のインターフェース領域のための1つ以上の第1の融合された要素および前記第2のインターフェース領域のための1つ以上の第2の融合された要素を決定することと、
前記第2のブリックを修正することなく、前記要素の第1のセットを要素の第1の修正されたセットに変化させることを少なくとも行うことによって、前記第1のブリックを修正することと、
前記第1のブリックまたは前記第1のインターフェース領域のための第1のデータの少なくともいくつかを前記第2のブリックまたは前記第2のインターフェース領域のための第2のデータの少なくともいくつかと組み合わせることを少なくとも行うことによって、前記第2のインターフェース領域のための前記1つ以上の第2の融合された要素を表すことと
をさらに含む、請求項1に記載の方法。 - 光線をキャスティングすることは、前記ユーザの視線に少なくとも部分的に基づいて、前記物理的オブジェクトの前記3D再構成の1つ以上の境界領域に第1の複数の光線をキャスティングし、前記物理的オブジェクトの前記3D再構成の1つ以上の中心領域に第2の複数の光線をキャスティングすることを含み、前記第1の複数の光線は、前記第2の複数の光線より稠密である、請求項12に記載の方法。
- 前記レンダリングするための前記仮想オブジェクトの部分を算出することは、前記表面情報に少なくとも部分的に基づいて、前記仮想オブジェクトと前記物理的オブジェクトの相互作用をシミュレートすることを含み、前記3D形状に関する前記3Dメッシュまたは前記3Dボリュームは、前記3Dメッシュの第1の部分に関するトポロジ的に接続されたメッシュおよび前記3Dメッシュの第2の部分に関するトポロジ的に接続解除されたメッシュを含む、請求項1に記載の方法。
- ユーザによって可搬性の電子システムであって、
ユーザによって装着されたセンサからの、場面内の1つ以上の物理的オブジェクトについての深度情報を決定するように構成されるプロセッサであって、前記深度情報は、前記ユーザと環境内の前記センサの視野内の物理的オブジェクトの表面の一部との間の距離を示し、前記深度情報は、サービスに伝送され、前記深度情報を決定するように構成される前記プロセッサは、
前記環境のための立体モデルの3D(3次元)再構成の中へのレイキャスティングを使用することを少なくとも行うことによって、前記3D再構成のためのデータを決定することと、
前記3D再構成のために決定された前記データに少なくとも部分的に基づいて、深度データを決定することと、
前記深度情報に少なくとも部分的に基づいて、深度マップを生成することと、
前記深度データと前記深度マップとに少なくとも部分的に基づいて、オクルージョンデータの生成の前に、前記環境のための前記3D再構成を決定することと、
前記表面の前記一部を走査することを少なくとも行うことによって、前記3D再構成のための前記データの一部を選択し、前記オクルージョンデータ内の穴を充填することと
を行うようにさらに構成され、前記プロセッサは、
前記深度マップにおいて前記表面の前記一部に関する表面情報を維持することであって、前記深度マップは、前記深度情報に少なくとも部分的に基づいて生成され、複数の値を備え、各値は、前記物理的オブジェクトの点までのそれぞれの距離を示し、前記表面情報は、前記距離を含み、その結果、前記表面情報は、前記深度情報が変化するにつれて更新される、ことと、
前記表面の前記一部に関する前記表面情報に少なくとも部分的に基づいて、前記環境のための前記立体モデルを増分修正することであって、前記立体モデルは、前記表面の前記一部を表す3D形状を備え、前記3D形状は、3Dメッシュまたは3Dボリュームを備える、ことと、
錐台に少なくとも部分的に基づいて、複数のブリックの初期セットを間引いて1つ以上のブリックのセットにすることを少なくとも行うことによって、前記環境の一部を前記1つ以上のブリックのセットとして表すことであって、ブリックは、複数の要素を含み、前記錐台は、少なくとも前記視野から決定される、ことと、
前記1つ以上のブリックのセットから第1のインターフェースを有する第1のブリックおよび第2のインターフェースを有する第2のブリックを識別することであって、前記第1のインターフェースは、前記第2のインターフェースに隣接する、ことと、
前記第1のブリックおよび前記第2のブリックをそれぞれ表す要素の第1のセットおよび要素の第2のセットを識別することと、
前記第1のインターフェースにおいて第1のインターフェース領域を構成し、前記第2のインターフェースにおいて第2のインターフェース領域を構成することと、
前記環境の一部を表す1つ以上の3D形状についての情報を前記深度マップに投影することを少なくとも行うことによって、3D形状のセットを間引いて、前記環境を表すための間引かれた3D形状のセットにすることと
を行うようにさらに構成される、プロセッサと、
仮想オブジェクトを前記場面内にレンダリングするための第1のコンピュータ実行可能命令を実行するように構成されるアプリケーションであって、前記アプリケーションは、前記サービスから、前記表面情報の深度バッファを受信し、前記アプリケーションは、前記表面情報、場面内の前記仮想オブジェクトの場所、前記環境のための前記立体モデル、および前記間引かれた3D形状のセットに少なくとも部分的に基づいて、前記仮想オブジェクトをレンダリングする、アプリケーションと
を備える、電子システム。 - 前記環境のための前記立体モデルを増分修正するように構成される前記プロセッサは、
前記物理的オブジェクトの前記表面の前記一部をモデル化する要素の第1のセットを決定することであって、前記ユーザは、前記表面の前記一部が前記センサの視野内に現れるとき、第1のユーザ場所に位置する、ことと、
前記要素の第1のセットを前記環境のための前記立体モデルに追加することと、
前記物理的オブジェクトの前記表面の付加的部分をモデル化する要素の第2のセットを決定することであって、前記ユーザは、前記表面の前記付加的部分が前記センサの視野内に現れるとき、第2のユーザ場所に位置する、ことと、
前記要素の第2のセットを前記環境のための前記立体モデルに追加することを少なくとも行うことによって、前記環境のための前記立体モデルを修正することと
を行うようにさらに構成される、請求項15に記載の電子システム。 - 前記環境のための前記立体モデルを増分修正するように構成される前記プロセッサは、
前記電子システムによって捕捉された画像を処理することまたは前記深度情報を処理することを少なくとも行うことによって、前記センサの周囲の前記環境内の領域の変化を検出することと、
前記領域の変化のインジケーションを生成することと、
前記変化の検出に応答して、前記環境のための前記立体モデルの増分修正をトリガすることと
を行うようにさらに構成される、請求項15に記載の電子システム。 - 前記プロセッサは、
前記第1のインターフェース領域のための1つ以上の第1の融合された要素および前記第2のインターフェース領域のための1つ以上の第2の融合された要素を決定することと、
前記第2のブリックを修正することなく、前記要素の第1のセットを要素の第1の修正されたセットに変化させることを少なくとも行うことによって、前記第1のブリックを修正することと、
前記第1のブリックまたは前記第1のインターフェース領域のための第1のデータの少なくともいくつかを前記第2のブリックまたは前記第2のインターフェース領域のための第2のデータの少なくともいくつかと組み合わせることを少なくとも行うことによって、前記第2のインターフェース領域のための前記1つ以上の第2の融合された要素を表すことと
を行うようにさらに構成される、請求項15に記載の電子システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023012538A JP7364809B2 (ja) | 2017-12-22 | 2023-01-31 | レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法 |
JP2023173494A JP7561254B2 (ja) | 2017-12-22 | 2023-10-05 | レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法 |
Applications Claiming Priority (17)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762610000P | 2017-12-22 | 2017-12-22 | |
US201762609990P | 2017-12-22 | 2017-12-22 | |
US201762609979P | 2017-12-22 | 2017-12-22 | |
US201762609962P | 2017-12-22 | 2017-12-22 | |
US62/609,990 | 2017-12-22 | ||
US62/610,000 | 2017-12-22 | ||
US62/609,962 | 2017-12-22 | ||
US62/609,979 | 2017-12-22 | ||
US201862702740P | 2018-07-24 | 2018-07-24 | |
US201862702761P | 2018-07-24 | 2018-07-24 | |
US201862702736P | 2018-07-24 | 2018-07-24 | |
US201862702749P | 2018-07-24 | 2018-07-24 | |
US62/702,761 | 2018-07-24 | ||
US62/702,736 | 2018-07-24 | ||
US62/702,740 | 2018-07-24 | ||
US62/702,749 | 2018-07-24 | ||
PCT/US2018/067156 WO2019126680A1 (en) | 2017-12-22 | 2018-12-21 | Method of occlusion rendering using raycast and live depth |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023012538A Division JP7364809B2 (ja) | 2017-12-22 | 2023-01-31 | レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021507409A JP2021507409A (ja) | 2021-02-22 |
JP7220717B2 true JP7220717B2 (ja) | 2023-02-10 |
Family
ID=66950474
Family Applications (6)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020534239A Active JP7145221B2 (ja) | 2017-12-22 | 2018-12-21 | 稠密3d再構成データのキャッシュおよび更新 |
JP2020534314A Active JP7220717B2 (ja) | 2017-12-22 | 2018-12-21 | レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法 |
JP2020534240A Active JP7169358B2 (ja) | 2017-12-22 | 2018-12-21 | 高速立体再構成のための視点依存ブリック選択 |
JP2020534228A Active JP7145220B2 (ja) | 2017-12-22 | 2018-12-21 | 多段階ブロックメッシュ簡略化 |
JP2023012538A Active JP7364809B2 (ja) | 2017-12-22 | 2023-01-31 | レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法 |
JP2023173494A Active JP7561254B2 (ja) | 2017-12-22 | 2023-10-05 | レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020534239A Active JP7145221B2 (ja) | 2017-12-22 | 2018-12-21 | 稠密3d再構成データのキャッシュおよび更新 |
Family Applications After (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020534240A Active JP7169358B2 (ja) | 2017-12-22 | 2018-12-21 | 高速立体再構成のための視点依存ブリック選択 |
JP2020534228A Active JP7145220B2 (ja) | 2017-12-22 | 2018-12-21 | 多段階ブロックメッシュ簡略化 |
JP2023012538A Active JP7364809B2 (ja) | 2017-12-22 | 2023-01-31 | レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法 |
JP2023173494A Active JP7561254B2 (ja) | 2017-12-22 | 2023-10-05 | レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法 |
Country Status (5)
Country | Link |
---|---|
US (9) | US10636219B2 (ja) |
EP (4) | EP3729379B1 (ja) |
JP (6) | JP7145221B2 (ja) |
CN (6) | CN111788611B (ja) |
WO (4) | WO2019126665A1 (ja) |
Families Citing this family (122)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9919217B2 (en) | 2016-03-08 | 2018-03-20 | Electronic Arts Inc. | Dynamic difficulty adjustment |
JP6818471B2 (ja) * | 2016-08-31 | 2021-01-20 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US10384133B1 (en) | 2016-12-30 | 2019-08-20 | Electronic Arts Inc. | Systems and methods for automatically measuring a video game difficulty |
US10357718B2 (en) | 2017-02-28 | 2019-07-23 | Electronic Arts Inc. | Realtime dynamic modification and optimization of gameplay parameters within a video game application |
EP3591623A4 (en) * | 2017-03-29 | 2020-11-04 | Rakuten, Inc. | DISPLAY CONTROL DEVICE, DISPLAY CONTROL PROCESS AND PROGRAM |
GB2565301A (en) * | 2017-08-08 | 2019-02-13 | Nokia Technologies Oy | Three-dimensional video processing |
US10825244B1 (en) * | 2017-11-07 | 2020-11-03 | Arvizio, Inc. | Automated LOD construction for point cloud |
US10810427B1 (en) * | 2017-12-15 | 2020-10-20 | AI Incorporated | Methods for an autonomous robotic device to identify locations captured in an image |
WO2019126665A1 (en) | 2017-12-22 | 2019-06-27 | Magic Leap, Inc. | Viewpoint dependent brick selection for fast volumetric reconstruction |
CN108211354A (zh) * | 2017-12-29 | 2018-06-29 | 网易(杭州)网络有限公司 | 3d游戏场景中虚拟资源的生成方法及装置 |
CN108434739B (zh) * | 2018-01-30 | 2019-03-19 | 网易(杭州)网络有限公司 | 游戏场景中虚拟资源的处理方法及装置 |
US20220371199A1 (en) * | 2018-02-21 | 2022-11-24 | Outrider Technologies, Inc. | System and method for connection of service lines to trailer fronts by automated trucks |
CN110494863B (zh) | 2018-03-15 | 2024-02-09 | 辉达公司 | 确定自主车辆的可驾驶自由空间 |
US10977856B2 (en) * | 2018-03-29 | 2021-04-13 | Microsoft Technology Licensing, Llc | Using a low-detail representation of surfaces to influence a high-detail representation of the surfaces |
US11651555B2 (en) * | 2018-05-31 | 2023-05-16 | Microsoft Technology Licensing, Llc | Re-creation of virtual environment through a video call |
US10713543B1 (en) | 2018-06-13 | 2020-07-14 | Electronic Arts Inc. | Enhanced training of machine learning systems based on automatically generated realistic gameplay information |
CN110852134A (zh) * | 2018-07-27 | 2020-02-28 | 北京市商汤科技开发有限公司 | 活体检测方法、装置及系统、电子设备和存储介质 |
WO2020044907A1 (ja) * | 2018-08-29 | 2020-03-05 | クラリオン株式会社 | 更新地域決定方法、情報処理装置、及びプログラム |
US11403822B2 (en) * | 2018-09-21 | 2022-08-02 | Augmntr, Inc. | System and methods for data transmission and rendering of virtual objects for display |
US12073513B1 (en) * | 2018-11-09 | 2024-08-27 | Ansys, Inc. | Mesh imprint in priority mesh generation for dirty models |
WO2020101892A1 (en) | 2018-11-12 | 2020-05-22 | Magic Leap, Inc. | Patch tracking image sensor |
WO2020101891A1 (en) | 2018-11-12 | 2020-05-22 | Magic Leap, Inc. | Depth based dynamic vision sensor |
WO2020101895A1 (en) | 2018-11-12 | 2020-05-22 | Magic Leap, Inc. | Event-based camera with high-resolution frame output |
US12041380B2 (en) | 2018-11-13 | 2024-07-16 | Magic Leap, Inc. | Event-based IR camera |
US10818028B2 (en) * | 2018-12-17 | 2020-10-27 | Microsoft Technology Licensing, Llc | Detecting objects in crowds using geometric context |
EP3899874A4 (en) * | 2018-12-20 | 2022-09-07 | Packsize, LLC | SYSTEMS AND METHODS FOR SIZING OBJECTS BASED ON PARTIAL VISUAL INFORMATION |
JP2022519310A (ja) | 2019-02-07 | 2022-03-22 | マジック リープ, インコーポレイテッド | 受動深度抽出を伴う軽量のクロスリアリティデバイス |
JP7538806B2 (ja) | 2019-02-07 | 2024-08-22 | マジック リープ, インコーポレイテッド | 高一時的分解能を伴う軽量かつ低電力のクロスリアリティデバイス |
CN113811886B (zh) | 2019-03-11 | 2024-03-19 | 辉达公司 | 自主机器应用中的路口检测和分类 |
IT201900003809A1 (it) * | 2019-03-15 | 2020-09-15 | Witapp S R L | Sistema e metodo, attuato mediante calcolatore, di elaborazione 3D di esame tomografico |
US11276216B2 (en) | 2019-03-27 | 2022-03-15 | Electronic Arts Inc. | Virtual animal character generation from image or video data |
US10953334B2 (en) * | 2019-03-27 | 2021-03-23 | Electronic Arts Inc. | Virtual character generation from image or video data |
EP3973140A4 (en) * | 2019-05-21 | 2023-01-25 | Services Pétroliers Schlumberger | GEOLOGICAL MODEL AND PROPERTY VISUALIZATION SYSTEM |
JP2022533207A (ja) | 2019-05-21 | 2022-07-21 | マジック リープ, インコーポレイテッド | 稠密3d再構築データのキャッシュおよび更新 |
US11436837B2 (en) * | 2019-06-25 | 2022-09-06 | Nvidia Corporation | Intersection region detection and classification for autonomous machine applications |
WO2020263471A1 (en) | 2019-06-26 | 2020-12-30 | Magic Leap, Inc. | Caching and updating of dense 3d reconstruction data |
US11238651B2 (en) | 2019-06-28 | 2022-02-01 | Magic Leap, Inc. | Fast hand meshing for dynamic occlusion |
JP2022539160A (ja) * | 2019-07-03 | 2022-09-07 | マジック リープ, インコーポレイテッド | 平面抽出を使用した単純環境ソルバ |
US11110353B2 (en) | 2019-07-10 | 2021-09-07 | Electronic Arts Inc. | Distributed training for machine learning of AI controlled virtual entities on video game clients |
CN113096234B (zh) * | 2019-12-23 | 2022-09-06 | 复旦大学 | 利用多张彩色图片生成三维网格模型的方法及装置 |
CN110458939B (zh) * | 2019-07-24 | 2022-11-18 | 大连理工大学 | 基于视角生成的室内场景建模方法 |
US10818071B1 (en) * | 2019-07-26 | 2020-10-27 | Google Llc | Image-based geometric fusion of multiple depth images using ray casting |
EP4010881A4 (en) | 2019-08-07 | 2023-08-23 | Magic Leap, Inc. | FAST 3D RECONSTRUCTION WITH DEPTH INFORMATION |
US11698272B2 (en) | 2019-08-31 | 2023-07-11 | Nvidia Corporation | Map creation and localization for autonomous driving applications |
US11307659B2 (en) * | 2019-09-18 | 2022-04-19 | Apple Inc. | Low-power eye tracking system |
US11532093B2 (en) | 2019-10-10 | 2022-12-20 | Intermap Technologies, Inc. | First floor height estimation from optical images |
US11741055B2 (en) * | 2019-10-24 | 2023-08-29 | Docscorp Group Pty Ltd | Managing file revisions from multiple reviewers |
US11645756B2 (en) * | 2019-11-14 | 2023-05-09 | Samsung Electronics Co., Ltd. | Image processing apparatus and method |
CN112967389B (zh) * | 2019-11-30 | 2021-10-15 | 北京城市网邻信息技术有限公司 | 场景切换方法及装置、存储介质 |
US11816757B1 (en) * | 2019-12-11 | 2023-11-14 | Meta Platforms Technologies, Llc | Device-side capture of data representative of an artificial reality environment |
US11544903B2 (en) * | 2019-12-13 | 2023-01-03 | Sony Group Corporation | Reducing volumetric data while retaining visual fidelity |
US11410387B1 (en) * | 2020-01-17 | 2022-08-09 | Facebook Technologies, Llc. | Systems, methods, and media for generating visualization of physical environment in artificial reality |
CN115298706A (zh) * | 2020-01-20 | 2022-11-04 | 直观外科手术操作公司 | 用于在将合成元素应用于原始图像期间掩蔽所识别的对象的系统和方法 |
CN111314446B (zh) * | 2020-01-21 | 2021-05-25 | 北京达佳互联信息技术有限公司 | 一种资源更新方法、装置、服务器及存储介质 |
US11006093B1 (en) * | 2020-01-22 | 2021-05-11 | Photonic Medical Inc. | Open view, multi-modal, calibrated digital loupe with depth sensing |
US11200745B2 (en) | 2020-01-27 | 2021-12-14 | Facebook Technologies, Llc. | Systems, methods, and media for automatically triggering real-time visualization of physical environment in artificial reality |
US11113891B2 (en) | 2020-01-27 | 2021-09-07 | Facebook Technologies, Llc | Systems, methods, and media for displaying real-time visualization of physical environment in artificial reality |
US10950034B1 (en) | 2020-01-27 | 2021-03-16 | Facebook Technologies, Llc | Systems, methods, and media for generating visualization of physical environment in artificial reality |
US11210860B2 (en) | 2020-01-27 | 2021-12-28 | Facebook Technologies, Llc. | Systems, methods, and media for visualizing occluded physical objects reconstructed in artificial reality |
JP7508785B2 (ja) * | 2020-01-31 | 2024-07-02 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、及び情報処理プログラム |
US11451758B1 (en) | 2020-02-12 | 2022-09-20 | Meta Platforms Technologies, Llc | Systems, methods, and media for colorizing grayscale images |
CN115151947B (zh) | 2020-02-20 | 2024-03-19 | 奇跃公司 | 具有基于wifi/gps的地图合并的交叉现实系统 |
US11928873B2 (en) | 2020-03-04 | 2024-03-12 | Magic Leap, Inc. | Systems and methods for efficient floorplan generation from 3D scans of indoor scenes |
US11295468B2 (en) | 2020-03-23 | 2022-04-05 | Biosense Webster (Israel) Ltd. | Determining an enclosing wall surface of a cavity of an organ |
CN111459269B (zh) * | 2020-03-24 | 2020-12-01 | 视辰信息科技(上海)有限公司 | 一种增强现实显示方法、系统及计算机可读存储介质 |
JP7463796B2 (ja) * | 2020-03-25 | 2024-04-09 | ヤマハ株式会社 | デバイスシステム、音質制御方法および音質制御プログラム |
US11468629B2 (en) | 2020-04-03 | 2022-10-11 | Qualcomm Incorporated | Methods and apparatus for handling occlusions in split rendering |
US20210327119A1 (en) * | 2020-04-17 | 2021-10-21 | Occipital, Inc. | System for Generating a Three-Dimensional Scene Reconstructions |
US11270459B2 (en) * | 2020-04-22 | 2022-03-08 | Dell Products L.P. | Enterprise system augmented reality detection |
JP2023527695A (ja) | 2020-05-11 | 2023-06-30 | マジック リープ, インコーポレイテッド | 3d環境の合成表現を算出するための算出上効率的方法 |
CN113743155A (zh) * | 2020-05-28 | 2021-12-03 | 华为技术有限公司 | 一种构建物体的多细节层次模型的方法及计算机设备 |
CN115803782A (zh) * | 2020-05-29 | 2023-03-14 | 谷歌有限责任公司 | 具有实时深度图的感受几何结构的增强现实效果 |
WO2021247171A1 (en) * | 2020-06-01 | 2021-12-09 | Qualcomm Incorporated | Methods and apparatus for occlusion handling techniques |
DE102020114964A1 (de) | 2020-06-05 | 2021-12-09 | Connaught Electronics Ltd. | Modellieren einer Oberfläche eines Objekts |
US11210862B1 (en) * | 2020-06-25 | 2021-12-28 | Microsoft Technology Licensing, Llc | Data selection for spatial reconstruction |
US20230206553A1 (en) * | 2020-07-22 | 2023-06-29 | Intel Corporation | Multi-plane mapping for indoor scene reconstruction |
EP3944192A1 (en) * | 2020-07-22 | 2022-01-26 | Dassault Systèmes | Method for 3d scanning of a real object |
US20230186555A1 (en) * | 2020-07-27 | 2023-06-15 | Vrc Inc. | Server and information processing method |
US11176755B1 (en) | 2020-08-31 | 2021-11-16 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
WO2022087014A1 (en) * | 2020-10-20 | 2022-04-28 | Brain Corporation | Systems and methods for producing occupancy maps for robotic devices |
US11978266B2 (en) | 2020-10-21 | 2024-05-07 | Nvidia Corporation | Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications |
US12070277B2 (en) * | 2020-12-16 | 2024-08-27 | Biosense Webster (Israel) Ltd. | Regional resolution in fast anatomical mapping |
WO2022133683A1 (zh) * | 2020-12-21 | 2022-06-30 | 京东方科技集团股份有限公司 | 一种混合现实显示的方法、混合现实设备及存储介质 |
US11409405B1 (en) * | 2020-12-22 | 2022-08-09 | Facebook Technologies, Llc | Augment orchestration in an artificial reality environment |
US12106419B1 (en) * | 2021-02-18 | 2024-10-01 | Splunk Inc. | Live updates in a networked remote collaboration session |
US11915377B1 (en) | 2021-02-18 | 2024-02-27 | Splunk Inc. | Collaboration spaces in networked remote collaboration sessions |
US12086920B1 (en) * | 2021-02-18 | 2024-09-10 | Splunk Inc. | Submesh-based updates in an extended reality environment |
US12112435B1 (en) | 2021-02-18 | 2024-10-08 | Splunk Inc. | Collaboration spaces in extended reality conference sessions |
US11551366B2 (en) * | 2021-03-05 | 2023-01-10 | Intermap Technologies, Inc. | System and methods for correcting terrain elevations under forest canopy |
TWI837468B (zh) * | 2021-04-09 | 2024-04-01 | 宏達國際電子股份有限公司 | 使用者可互動物件生成方法、多媒體系統與非暫態電腦可讀取媒體 |
US11334215B1 (en) | 2021-04-09 | 2022-05-17 | Htc Corporation | Method of generating user-interactive object, multimedia system, and non-transitory computer-readable medium |
US11853100B2 (en) * | 2021-04-12 | 2023-12-26 | EMC IP Holding Company LLC | Automated delivery of cloud native application updates using one or more user-connection gateways |
US12051147B1 (en) | 2021-05-18 | 2024-07-30 | Apple Inc. | Techniques for point cloud representation |
US20220392138A1 (en) * | 2021-05-28 | 2022-12-08 | Bidstack Group PLC | Viewability testing in a computer-generated environment |
US11443404B1 (en) * | 2021-05-28 | 2022-09-13 | Bidstack Group PLC | Viewability testing in a computer-generated environment |
JP2022189119A (ja) * | 2021-06-10 | 2022-12-22 | トヨタ自動車株式会社 | 車両用表示装置、表示方法及びプログラム |
US11562529B2 (en) * | 2021-06-23 | 2023-01-24 | Meta Platforms Technologies, Llc | Generating and modifying an artificial reality environment using occlusion surfaces at predetermined distances |
US20220410002A1 (en) * | 2021-06-29 | 2022-12-29 | Bidstack Group PLC | Mesh processing for viewability testing |
US11521361B1 (en) | 2021-07-01 | 2022-12-06 | Meta Platforms Technologies, Llc | Environment model with surfaces and per-surface volumes |
CN113268558B (zh) * | 2021-07-19 | 2021-09-24 | 智广海联(天津)大数据技术有限公司 | 基于二维码与地理空间坐标的公共设施治理系统及方法 |
US12056268B2 (en) | 2021-08-17 | 2024-08-06 | Meta Platforms Technologies, Llc | Platformization of mixed reality objects in virtual reality environments |
US11823319B2 (en) | 2021-09-02 | 2023-11-21 | Nvidia Corporation | Techniques for rendering signed distance functions |
CN113724331B (zh) * | 2021-09-02 | 2022-07-19 | 北京城市网邻信息技术有限公司 | 视频处理方法、视频处理装置和非瞬时性存储介质 |
US12056888B2 (en) | 2021-09-07 | 2024-08-06 | Intermap Technologies, Inc. | Methods and apparatuses for calculating building heights from mono imagery |
DE112022004369T5 (de) * | 2021-09-10 | 2024-07-18 | Apple Inc. | Erfassung und wiedergabe von umgebungen |
CN113918011B (zh) * | 2021-09-26 | 2024-09-17 | 平行空间(上海)科技有限公司 | 虚拟环境下的可视化对象、扩展现实设备以及应用方法 |
US11684848B2 (en) * | 2021-09-28 | 2023-06-27 | Sony Group Corporation | Method to improve user understanding of XR spaces based in part on mesh analysis of physical surfaces |
US12026831B2 (en) | 2021-10-27 | 2024-07-02 | Samsung Electronics Co., Ltd. | Electronic device and method for spatial mapping using the same |
US11798247B2 (en) | 2021-10-27 | 2023-10-24 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
US11748944B2 (en) | 2021-10-27 | 2023-09-05 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
US20230154102A1 (en) * | 2021-11-16 | 2023-05-18 | Samsung Electronics Co., Ltd. | Representing 3d shapes with probabilistic directed distance fields |
KR102674699B1 (ko) * | 2021-12-15 | 2024-06-14 | 주식회사 와플랩 | 딥러닝 기반 3d 모델링 객체 가시화 장치 및 방법 |
US12093447B2 (en) | 2022-01-13 | 2024-09-17 | Meta Platforms Technologies, Llc | Ephemeral artificial reality experiences |
US11908080B2 (en) * | 2022-04-04 | 2024-02-20 | Tencent America LLC | Generating surfaces with arbitrary topologies using signed distance fields |
US12026527B2 (en) | 2022-05-10 | 2024-07-02 | Meta Platforms Technologies, Llc | World-controlled and application-controlled augments in an artificial-reality environment |
WO2023224627A1 (en) * | 2022-05-19 | 2023-11-23 | Google Llc | Face-oriented geometry streaming |
US20240029363A1 (en) * | 2022-07-20 | 2024-01-25 | Qualcomm Incorporated | Late stage occlusion based rendering for extended reality (xr) |
CN115100286B (zh) * | 2022-07-25 | 2022-11-11 | 深圳大学 | 无人机采集视点确定方法、装置、计算机设备和存储介质 |
CN115270032B (zh) * | 2022-08-10 | 2023-04-25 | 上海图客科技有限公司 | 一种基于WebGL的动态高清文字显示方法及系统 |
CN115049791B (zh) * | 2022-08-12 | 2022-11-04 | 山东鲁晟精工机械有限公司 | 结合图像处理的数控车床工件三维建模方法 |
WO2024039885A1 (en) * | 2022-08-19 | 2024-02-22 | Mobeus Industries, Inc. | Interactive reality computing experience using optical lenticular multi-perspective simulation |
US20240296629A1 (en) * | 2023-02-21 | 2024-09-05 | Tencent America LLC | Low-poly mesh generation for three-dimensional models |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000230809A (ja) | 1998-12-09 | 2000-08-22 | Matsushita Electric Ind Co Ltd | 距離データの補間方法,カラー画像階層化方法およびカラー画像階層化装置 |
JP2006503379A (ja) | 2002-10-15 | 2006-01-26 | ユニバーシティ・オブ・サザン・カリフォルニア | 拡張仮想環境 |
JP2014507723A (ja) | 2011-01-31 | 2014-03-27 | マイクロソフト コーポレーション | 三次元環境の再現 |
JP2014511591A (ja) | 2011-01-31 | 2014-05-15 | マイクロソフト コーポレーション | 奥行きマップを使用したモバイルカメラの自己位置推定 |
Family Cites Families (79)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5886702A (en) | 1996-10-16 | 1999-03-23 | Real-Time Geometry Corporation | System and method for computer modeling of 3D objects or surfaces by mesh constructions having optimal quality characteristics and dynamic resolution capabilities |
EP0928460B1 (en) | 1997-07-29 | 2003-01-29 | Philips Electronics N.V. | Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system |
US6026189A (en) | 1997-11-13 | 2000-02-15 | National Research Council Of Canada | Method of recognizing objects within two-dimensional and three-dimensional images |
US6879324B1 (en) | 1998-07-14 | 2005-04-12 | Microsoft Corporation | Regional progressive meshes |
JP3059138B2 (ja) | 1998-07-27 | 2000-07-04 | ミツビシ・エレクトリック・インフォメイション・テクノロジー・センター・アメリカ・インコーポレイテッド | 3次元仮想現実環境作成、編集及び配布システム |
FR2781907B1 (fr) * | 1998-08-03 | 2000-09-29 | France Telecom | Procede de codage d'un maillage source tenant compte des discontinuites, et applications correspondantes |
GB9929957D0 (en) | 1999-12-17 | 2000-02-09 | Canon Kk | Image processing apparatus |
US6603473B1 (en) * | 2000-04-12 | 2003-08-05 | California Institute Of Technology | Detail data pertaining to the shape of an object surface and related methods and systems |
JP2002342785A (ja) * | 2001-05-15 | 2002-11-29 | Ricoh Co Ltd | 三角形メッシュ簡単化装置およびプログラム |
US7330528B2 (en) * | 2003-08-19 | 2008-02-12 | Agilent Technologies, Inc. | System and method for parallel image reconstruction of multiple depth layers of an object under inspection from radiographic images |
JP4463597B2 (ja) * | 2004-03-24 | 2010-05-19 | 富士通株式会社 | 3次元描画モデル生成方法及びそのプログラム |
US7961186B2 (en) | 2005-09-26 | 2011-06-14 | Siemens Medical Solutions Usa, Inc. | Brick-based fusion renderer |
JP4568843B2 (ja) | 2006-02-13 | 2010-10-27 | 国立大学法人北海道大学 | 解析曲面セグメンテーション装置、方法、プログラム及び記録媒体 |
FR2897455A1 (fr) | 2006-02-13 | 2007-08-17 | Univ Hokkaido Nat Univ Corp | Dispositif, procede et programme de segmentation de donnees de modele en treillis |
US20070262988A1 (en) * | 2006-05-09 | 2007-11-15 | Pixar Animation Studios | Method and apparatus for using voxel mip maps and brick maps as geometric primitives in image rendering process |
JP4845761B2 (ja) | 2007-02-09 | 2011-12-28 | 富士通株式会社 | 3次元モデルの形状簡略化装置及び3次元モデルの形状簡略化プログラム |
US20100274375A1 (en) | 2007-02-21 | 2010-10-28 | Team-At-Work, Inc. | Method and system for making reliefs and sculptures |
JP5120926B2 (ja) * | 2007-07-27 | 2013-01-16 | 有限会社テクノドリーム二十一 | 画像処理装置、画像処理方法およびプログラム |
DE102007045834B4 (de) * | 2007-09-25 | 2012-01-26 | Metaio Gmbh | Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung |
US8497861B2 (en) | 2008-05-30 | 2013-07-30 | Siemens Aktiengesellschaft | Method for direct volumetric rendering of deformable bricked volumes |
US8774512B2 (en) | 2009-02-11 | 2014-07-08 | Thomson Licensing | Filling holes in depth maps |
US8325186B2 (en) * | 2009-05-21 | 2012-12-04 | Sony Computer Entertainment America Llc | Method and apparatus for rendering shadows |
US8933925B2 (en) * | 2009-06-15 | 2015-01-13 | Microsoft Corporation | Piecewise planar reconstruction of three-dimensional scenes |
US8542247B1 (en) * | 2009-07-17 | 2013-09-24 | Nvidia Corporation | Cull before vertex attribute fetch and vertex lighting |
US9110194B2 (en) | 2009-09-14 | 2015-08-18 | Exxonmobil Upstream Research Company | System and method for providing a time-based representation of data |
KR101096392B1 (ko) * | 2010-01-29 | 2011-12-22 | 주식회사 팬택 | 증강 현실 제공 시스템 및 방법 |
US8405680B1 (en) * | 2010-04-19 | 2013-03-26 | YDreams S.A., A Public Limited Liability Company | Various methods and apparatuses for achieving augmented reality |
CN101877147B (zh) * | 2010-06-29 | 2012-10-03 | 浙江大学 | 三维三角形网格模型的简化算法 |
US9122053B2 (en) * | 2010-10-15 | 2015-09-01 | Microsoft Technology Licensing, Llc | Realistic occlusion for a head mounted augmented reality display |
US20120154400A1 (en) | 2010-12-20 | 2012-06-21 | General Electric Company | Method of reducing noise in a volume-rendered image |
US8570320B2 (en) | 2011-01-31 | 2013-10-29 | Microsoft Corporation | Using a three-dimensional environment model in gameplay |
US8840466B2 (en) | 2011-04-25 | 2014-09-23 | Aquifi, Inc. | Method and system to create three-dimensional mapping in a two-dimensional game |
US8879828B2 (en) | 2011-06-29 | 2014-11-04 | Matterport, Inc. | Capturing and aligning multiple 3-dimensional scenes |
DE112012003243T5 (de) * | 2011-08-05 | 2014-04-30 | Caustic Graphics, Inc. | Systeme und Verfahren für die Erzeugung und Aktualisierung für 3D-Szenenbeschleunigungsstrukturen |
US9255813B2 (en) | 2011-10-14 | 2016-02-09 | Microsoft Technology Licensing, Llc | User controlled real object disappearance in a mixed reality display |
CN103472909B (zh) * | 2012-04-10 | 2017-04-12 | 微软技术许可有限责任公司 | 用于头戴式、增强现实显示器的逼真遮挡 |
US9183664B2 (en) * | 2012-05-03 | 2015-11-10 | Apple Inc. | Tiled forward shading with improved depth filtering |
US8884955B1 (en) * | 2012-05-04 | 2014-11-11 | Google Inc. | Surface simplification based on offset tiles |
US9621869B2 (en) * | 2012-05-24 | 2017-04-11 | Sony Corporation | System and method for rendering affected pixels |
US9645394B2 (en) | 2012-06-25 | 2017-05-09 | Microsoft Technology Licensing, Llc | Configured virtual environments |
EP2880635B1 (en) * | 2012-07-30 | 2018-10-10 | Zinemath Zrt. | System and method for generating a dynamic three-dimensional model |
US9083960B2 (en) | 2013-01-30 | 2015-07-14 | Qualcomm Incorporated | Real-time 3D reconstruction with power efficient depth sensor usage |
KR102077305B1 (ko) * | 2013-05-09 | 2020-02-14 | 삼성전자 주식회사 | 증강 현실 정보를 포함하는 콘텐츠 제공 방법 및 장치 |
US20140368504A1 (en) | 2013-06-12 | 2014-12-18 | Microsoft Corporation | Scalable volumetric 3d reconstruction |
US9984498B2 (en) * | 2013-07-17 | 2018-05-29 | Microsoft Technology Licensing, Llc | Sparse GPU voxelization for 3D surface reconstruction |
US9363501B2 (en) * | 2013-07-18 | 2016-06-07 | A. Tron3D Gmbh | Combining depth-maps from different acquisition methods |
US9996974B2 (en) | 2013-08-30 | 2018-06-12 | Qualcomm Incorporated | Method and apparatus for representing a physical scene |
KR102184766B1 (ko) | 2013-10-17 | 2020-11-30 | 삼성전자주식회사 | 3차원 모델 복원 시스템 및 방법 |
CN106105192B (zh) * | 2014-01-03 | 2021-05-18 | 英特尔公司 | 通过深度相机的实时3d重建 |
CN103714577B (zh) * | 2014-01-23 | 2015-04-01 | 焦点科技股份有限公司 | 一种适用于带纹理模型的三维模型简化方法 |
US9171403B2 (en) * | 2014-02-13 | 2015-10-27 | Microsoft Technology Licensing, Llc | Contour completion for augmenting surface reconstructions |
US9986225B2 (en) | 2014-02-14 | 2018-05-29 | Autodesk, Inc. | Techniques for cut-away stereo content in a stereoscopic display |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
CN112651288B (zh) * | 2014-06-14 | 2022-09-20 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
KR101632992B1 (ko) * | 2014-07-03 | 2016-06-30 | 성균관대학교산학협력단 | 깊이 와핑에 기반한 폐색 컬링을 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 |
US9865089B2 (en) * | 2014-07-25 | 2018-01-09 | Microsoft Technology Licensing, Llc | Virtual reality environment with real world objects |
US20160133230A1 (en) * | 2014-11-11 | 2016-05-12 | Bent Image Lab, Llc | Real-time shared augmented reality experience |
US9754419B2 (en) * | 2014-11-16 | 2017-09-05 | Eonite Perception Inc. | Systems and methods for augmented reality preparation, processing, and application |
EP3035291B1 (en) * | 2014-12-19 | 2017-11-15 | Donya Labs AB | Rendering based generation of occlusion culling models |
GB2536061B (en) * | 2015-03-06 | 2017-10-25 | Sony Interactive Entertainment Inc | System, device and method of 3D printing |
US10366534B2 (en) * | 2015-06-10 | 2019-07-30 | Microsoft Technology Licensing, Llc | Selective surface mesh regeneration for 3-dimensional renderings |
WO2017029279A2 (en) | 2015-08-17 | 2017-02-23 | Lego A/S | Method of creating a virtual game environment and interactive game system employing the method |
EP4180893A1 (en) | 2015-11-04 | 2023-05-17 | Zoox, Inc. | Teleoperation system and method for trajectory modification of autonomous vehicles |
US9612123B1 (en) | 2015-11-04 | 2017-04-04 | Zoox, Inc. | Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes |
US10043309B2 (en) | 2015-12-14 | 2018-08-07 | Microsoft Technology Licensing, Llc | Maintaining consistent boundaries in parallel mesh simplification |
US10593106B2 (en) * | 2016-02-16 | 2020-03-17 | Rakuten, Inc. | Three-dimensional model generating system, three-dimensional model generating method, and program |
US10026230B2 (en) * | 2016-03-30 | 2018-07-17 | Daqri, Llc | Augmented point cloud for a visualization system and method |
US10061655B2 (en) * | 2016-05-11 | 2018-08-28 | Seagate Technology Llc | Volatile cache reconstruction after power failure |
US10026220B2 (en) | 2016-05-18 | 2018-07-17 | Siemens Healthcare Gmbh | Layered lightfields for occlusion handling |
TWI595771B (zh) | 2016-10-20 | 2017-08-11 | 聚晶半導體股份有限公司 | 影像深度資訊的優化方法與影像處理裝置 |
US10410406B2 (en) * | 2017-02-27 | 2019-09-10 | Trimble Ab | Enhanced three-dimensional point cloud rendering |
US10251011B2 (en) * | 2017-04-24 | 2019-04-02 | Intel Corporation | Augmented reality virtual reality ray tracing sensory enhancement system, apparatus and method |
CN107358645B (zh) * | 2017-06-08 | 2020-08-11 | 上海交通大学 | 产品三维模型重建方法及其系统 |
US9990761B1 (en) | 2017-08-30 | 2018-06-05 | Go Ghost, LLC | Method of image compositing directly from ray tracing samples |
AU2018335401A1 (en) | 2017-09-20 | 2020-04-02 | The Regents Of The University Of California | A gene therapy strategy to restore electrical and cardiac function, and cardiac structure, in arrhythmogenic right ventricular cardiomyopathy |
WO2019126665A1 (en) | 2017-12-22 | 2019-06-27 | Magic Leap, Inc. | Viewpoint dependent brick selection for fast volumetric reconstruction |
US10867430B2 (en) | 2018-11-19 | 2020-12-15 | Intel Corporation | Method and system of 3D reconstruction with volume-based filtering for image processing |
DE102019102484A1 (de) | 2019-01-31 | 2020-08-06 | Carl Zeiss Smt Gmbh | Verarbeitung von dreidimensionalen Bilddatensätzen |
US11004255B2 (en) * | 2019-04-24 | 2021-05-11 | Microsoft Technology Licensing, Llc | Efficient rendering of high-density meshes |
-
2018
- 2018-12-21 WO PCT/US2018/067134 patent/WO2019126665A1/en unknown
- 2018-12-21 JP JP2020534239A patent/JP7145221B2/ja active Active
- 2018-12-21 US US16/229,799 patent/US10636219B2/en active Active
- 2018-12-21 US US16/229,532 patent/US10937246B2/en active Active
- 2018-12-21 US US16/229,870 patent/US10902679B2/en active Active
- 2018-12-21 CN CN201880089944.7A patent/CN111788611B/zh active Active
- 2018-12-21 JP JP2020534314A patent/JP7220717B2/ja active Active
- 2018-12-21 WO PCT/US2018/067146 patent/WO2019126671A1/en unknown
- 2018-12-21 JP JP2020534240A patent/JP7169358B2/ja active Active
- 2018-12-21 EP EP18890400.7A patent/EP3729379B1/en active Active
- 2018-12-21 US US16/229,372 patent/US10713852B2/en active Active
- 2018-12-21 CN CN202111346550.5A patent/CN115019015A/zh active Pending
- 2018-12-21 CN CN202111313475.2A patent/CN114332332B/zh active Active
- 2018-12-21 CN CN201880089911.2A patent/CN111771230A/zh active Pending
- 2018-12-21 WO PCT/US2018/067105 patent/WO2019126653A1/en unknown
- 2018-12-21 CN CN201880089943.2A patent/CN111801708B/zh active Active
- 2018-12-21 EP EP18890401.5A patent/EP3729381B1/en active Active
- 2018-12-21 WO PCT/US2018/067156 patent/WO2019126680A1/en unknown
- 2018-12-21 EP EP18890579.8A patent/EP3727622B1/en active Active
- 2018-12-21 EP EP18892897.2A patent/EP3729376A4/en active Pending
- 2018-12-21 JP JP2020534228A patent/JP7145220B2/ja active Active
- 2018-12-21 CN CN201880089910.8A patent/CN111788610B/zh active Active
-
2020
- 2020-03-04 US US16/809,376 patent/US11024095B2/en active Active
- 2020-07-09 US US16/924,547 patent/US11321924B2/en active Active
- 2020-10-26 US US17/080,751 patent/US11263820B2/en active Active
- 2020-12-17 US US17/124,714 patent/US11398081B2/en active Active
-
2021
- 2021-04-26 US US17/240,301 patent/US11580705B2/en active Active
-
2023
- 2023-01-31 JP JP2023012538A patent/JP7364809B2/ja active Active
- 2023-10-05 JP JP2023173494A patent/JP7561254B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000230809A (ja) | 1998-12-09 | 2000-08-22 | Matsushita Electric Ind Co Ltd | 距離データの補間方法,カラー画像階層化方法およびカラー画像階層化装置 |
JP2006503379A (ja) | 2002-10-15 | 2006-01-26 | ユニバーシティ・オブ・サザン・カリフォルニア | 拡張仮想環境 |
JP2014507723A (ja) | 2011-01-31 | 2014-03-27 | マイクロソフト コーポレーション | 三次元環境の再現 |
JP2014511591A (ja) | 2011-01-31 | 2014-05-15 | マイクロソフト コーポレーション | 奥行きマップを使用したモバイルカメラの自己位置推定 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7220717B2 (ja) | レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法 | |
JP2022539314A (ja) | 稠密3d再構築データのキャッシュおよび更新 | |
US11587298B2 (en) | Caching and updating of dense 3D reconstruction data | |
US20230147759A1 (en) | Viewpoint dependent brick selection for fast volumetric reconstruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211220 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211220 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220518 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220816 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230131 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7220717 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |