JP7123127B2 - 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用した新しいフレームの生成 - Google Patents
前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用した新しいフレームの生成 Download PDFInfo
- Publication number
- JP7123127B2 JP7123127B2 JP2020512591A JP2020512591A JP7123127B2 JP 7123127 B2 JP7123127 B2 JP 7123127B2 JP 2020512591 A JP2020512591 A JP 2020512591A JP 2020512591 A JP2020512591 A JP 2020512591A JP 7123127 B2 JP7123127 B2 JP 7123127B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- eye
- objects
- rendered
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 48
- 230000004886 head movement Effects 0.000 claims description 44
- 238000009877 rendering Methods 0.000 claims description 43
- 230000033001 locomotion Effects 0.000 claims description 21
- 235000019580 granularity Nutrition 0.000 claims description 8
- 239000007787 solid Substances 0.000 claims description 6
- 238000013459 approach Methods 0.000 description 45
- 238000012545 processing Methods 0.000 description 18
- 210000003128 head Anatomy 0.000 description 17
- 238000010276 construction Methods 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 12
- 210000000887 face Anatomy 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000001172 regenerating effect Effects 0.000 description 9
- 238000004590 computer program Methods 0.000 description 7
- 239000000872 buffer Substances 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000000717 retained effect Effects 0.000 description 5
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000008929 regeneration Effects 0.000 description 4
- 238000011069 regeneration method Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000005338 frosted glass Substances 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/60—Memory management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/18—Image warping, e.g. rearranging pixels individually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/62—Semi-transparency
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Circuits Of Receivers In General (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Generation (AREA)
Description
本願明細書は、例えば、以下の項目も提供する。
(項目1)
前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用して、新しいフレームを構築する方法であって、前記方法は、
第1の目線からの第1のオブジェクトの組の可視表面の点をレンダリングすることと、
前記第1の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方を記憶することであって、前記レンダリングされたコンテンツは、前記第1の目線からの前記第1のオブジェクトの組の前記可視表面の点に対応し、前記レンダリングされなかったコンテンツは、前記第1の目線からの前記第1のオブジェクトの組の非可視部分に対応する、ことと、
第2の目線からの新しいフレームを表示するための要求を受信することと、
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを使用して、前記第2の目線からの前記新しいフレームを生成することと、
前記第2の目線からの前記新しいフレームを表示することと
を含む、方法。
(項目2)
ユーザの第1の姿勢を捕捉することによって、前記第1の目線を識別することをさらに含む、項目1に記載の方法。
(項目3)
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方を記憶することは、前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方をリンクリスト、アレイ構造、厳密な立体表現、ボクセル、表面定義、N-次元データ構造、およびN-次元グラフ表現のうちの少なくとも1つにおいて記憶することを含む、項目1に記載の方法。
(項目4)
前記第1の目線からの前記1つ以上のオブジェクトに関するレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方の異なる粒度を決定することをさらに含む、項目1に記載の方法。
(項目5)
前記第2の目線からの第2のオブジェクトの組の可視表面の点をレンダリングすることと、
前記第1の目線からの前記記憶されたレンダリングされたコンテンツのうちの少なくともいくつかを前記第2の目線にワーピングすることと、
をさらに含み、
前記第2の目線からの前記第2の組を生成することは、新しくレンダリングされたコンテンツとワーピングされたレンダリングされたコンテンツとを組み合わせることを含み、前記新しくレンダリングされたコンテンツは、前記第2の目線からの前記第2のオブジェクトの組の前記可視表面の点に対応し、前記ワーピングされたレンダリングされたコンテンツは、前記第1の目線から前記第2の目線にワーピングされた前記記憶されたレンダリングされたコンテンツに対応する、項目1に記載の方法。
(項目6)
前記第2の目線からの前記第2のオブジェクトの組の前記可視表面の点をレンダリングすることは、
前記第2の目線から可視の第3のオブジェクトの組を決定することと、
前記第2の目線からの前記第3のオブジェクトの組を前記第1の目線からの前記記憶されたレンダリングされたコンテンツと比較することにより、前記第2のオブジェクトの組を識別することであって、前記第2のオブジェクトの組は、前記記憶されたレンダリングされたコンテンツの中にない前記第3のオブジェクトの組からのオブジェクトを含む、ことと、
前記第2のオブジェクトの組の前記可視表面の点をレンダリングすることと
を含む、項目5に記載の方法。
(項目7)
前記第1の目線からの前記記憶されたコンテンツのうちの前記少なくともいくつかを前記第2の目線にワーピングすることは、
前記第2の目線から可視の第3のオブジェクトの組を決定することと、
前記第2の目線からの前記第3のオブジェクトの組を前記第1の目線からの前記記憶されたレンダリングされたコンテンツと比較することにより、前記第3のオブジェクトの組および前記記憶されたレンダリングされたコンテンツの両方の中にあるオブジェクトを識別することと、
前記第3のオブジェクトの組および前記記憶されたレンダリングされたコンテンツの両方の中にある前記オブジェクトをワーピングすることと
を含む、項目5に記載の方法。
(項目8)
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方を記憶することは、
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを識別することと、
前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを分析し、コンテンツが表面点に対応するか、非表面点に対応するかを決定することと、
非表面点に対応する前記コンテンツを破棄することと、
前記表面点に対応する前記コンテンツを記憶することと
を含む、項目1に記載の方法。
(項目9)
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方を記憶することは、
ユーザの頭部移動を予測することと、
少なくとも部分的に予測される方向、前記ユーザの現在の移動速度、および前記ユーザに関して予測される移動速度のうちの1つ以上に基づいて、前記ユーザの前記予測される頭部移動に関する境界を計算することであって、前記境界は、前記第2の目線に関して予測される最大頭部移動に対応する、ことと、
前記予測される頭部移動に関する前記計算された境界内のコンテンツを決定することと、
前記計算された境界内の前記コンテンツを記憶することと
を含む、項目1に記載の方法。
(項目10)
前記第1の目線からの前記1つ以上のオブジェクトに関するレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方を記憶することは、
1つ以上の不透明オブジェクトの不透明点を決定することと、
前記不透明点に対応する画像データを記憶することと、
1つ以上の半透明オブジェクトの半透明点を決定することと、
前記半透明点の画像データを記憶することと
をさらに含み、
前記第1のオブジェクトの組は、前記1つ以上の不透明オブジェクトと、前記1つ以上の半透明オブジェクトとを備えている、項目1に記載の方法。
(項目11)
前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用して、新しいフレームを構築するためのシステムであって、前記システムは、
実行可能コンピュータ命令を記憶している非一過性コンピュータ読み取り可能な記憶媒体であって、前記命令は、実行されると、
第1の目線からの第1のオブジェクトの組の可視表面の点をレンダリングすることと、
前記第1の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方を記憶することであって、前記レンダリングされたコンテンツは、前記第1の目線からの前記第1のオブジェクトの組の可視表面の点に対応し、前記レンダリングされなかったコンテンツは、前記第1の目線からの前記第1のオブジェクトの組の非可視部分に対応する、ことと、
第2の目線からの新しいフレームを表示するための要求を受信することと、
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを使用して、前記第2の目線からの前記新しいフレームを生成することと、
前記第2の目線からの前記新しいフレームを表示することと
を含むステップを実施する、非一過性コンピュータ読み取り可能な記憶媒体と、
前記コンピュータ命令を実行するように構成されたプロセッサと
を備えている、システム。
(項目12)
前記命令は、実行されると、ユーザの第1の姿勢を捕捉することによって、前記第1の目線を識別することを含むさらなるステップを実施する、項目11に記載のシステム。
(項目13)
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方を記憶することは、前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方をリンクリスト、アレイ構造、厳密な立体表現、ボクセル、表面定義、N-次元データ構造、およびN-次元グラフ表現のうちの少なくとも1つにおいて記憶することを含む、項目11に記載のシステム。
(項目14)
前記命令は、実行されると、前記第1の目線からの前記1つ以上のオブジェクトに関するレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方の異なる粒度を決定することを含むさらなるステップを実施する、項目11に記載のシステム。
(項目15)
前記命令は、実行されると、
前記第2の目線からの第2のオブジェクトの組の可視表面の点をレンダリングすることと、
前記第1の目線からの前記記憶されたレンダリングされたコンテンツのうちの少なくともいくつかを前記第2の目線にワーピングすることと
を含むさらなるステップを実施し、
前記第2の目線からの前記第2の組を生成することは、新しくレンダリングされたコンテンツとワーピングされたレンダリングされたコンテンツとを組み合わせることを含み、前記新しくレンダリングされたコンテンツは、前記第2の目線からの前記第2のオブジェクトの組の前記可視表面の点に対応し、前記ワーピングされたレンダリングされたコンテンツは、前記第1の目線から前記第2の目線にワーピングされた前記記憶されたレンダリングされたコンテンツに対応する、項目11に記載のシステム。
(項目16)
前記第2の目線からの前記第2のオブジェクトの組の前記可視表面の点をレンダリングすることは、
前記第2の目線から可視の第3のオブジェクトの組を決定することと、
前記第2の目線からの前記第3のオブジェクトの組を前記第1の目線からの前記記憶されたレンダリングされたコンテンツと比較することにより、前記第2のオブジェクトの組を識別することであって、前記第2のオブジェクトの組は、前記記憶されたレンダリングされたコンテンツの中にない前記第3のオブジェクトの組からのオブジェクトを含む、ことと、
前記第2のオブジェクトの組の前記可視表面の点をレンダリングすることと
を含む、項目15に記載のシステム。
(項目17)
前記第1の目線からの前記記憶されたコンテンツのうちの前記少なくともいくつかを前記第2の目線にワーピングすることは、
前記第2の目線から可視の第3のオブジェクトの組を決定することと、
前記第2の目線からの前記第3のオブジェクトの組を前記第1の目線からの前記記憶されたレンダリングされたコンテンツと比較することにより、前記第3のオブジェクトの組および前記記憶されたレンダリングされたコンテンツの両方の中にあるオブジェクトを識別することと、
前記第3のオブジェクトの組および前記記憶されたレンダリングされたコンテンツの両方の中にある前記オブジェクトをワーピングすることと
を含む、項目15に記載のシステム。
(項目18)
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方を記憶することは、
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを識別することと、
前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを分析し、コンテンツが表面点に対応するか、非表面点に対応するかを決定することと、
非表面点に対応する前記コンテンツを破棄することと、
前記表面点に対応する前記コンテンツを記憶することと
を含む、項目11に記載のシステム。
(項目19)
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方を記憶することは、
ユーザの頭部移動を予測することと、
少なくとも部分的に予測される方向、前記ユーザの現在の移動速度、および前記ユーザに関して予測される移動速度のうちの1つ以上に基づいて、前記ユーザの前記予測される頭部移動に関する境界を計算することであって、前記境界は、前記第2の目線に関して予測される最大頭部移動に対応する、ことと、
前記予測される頭部移動に関する前記計算された境界内のコンテンツを決定することと、
前記計算された境界内の前記コンテンツを記憶することと
を含む、項目11に記載のシステム。
(項目20)
前記第1の目線からの前記1つ以上のオブジェクトに関するレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方を記憶することは、
1つ以上の不透明オブジェクトの不透明点を決定することと、
前記不透明点に対応する画像データを記憶することと、
1つ以上の半透明オブジェクトの半透明点を決定することと、
前記半透明点の画像データを記憶することと
をさらに含み、
前記第1のオブジェクトの組は、前記1つ以上の不透明オブジェクトと、前記1つ以上の半透明オブジェクトとを備えている、項目1に記載のシステム。
(項目21)
非一過性コンピュータ読み取り可能な媒体内に具現化されたコンピュータプログラム製品であって、前記コンピュータ読み取り可能な媒体は、一続きの命令を記憶しており、前記命令は、プロセッサによって実行されると、前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用して新しいフレームを構築する方法を実行することを前記プロセッサに行わせ、前記方法は、
第1の目線からの第1のオブジェクトの組の可視表面の点をレンダリングすることと、
前記第1の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方を記憶することであって、前記レンダリングされたコンテンツは、前記第1の目線からの前記第1のオブジェクトの組の前記可視表面の点に対応し、前記レンダリングされなかったコンテンツは、前記第1の目線からの前記第1のオブジェクトの組の非可視部分に対応する、ことと、
第2の目線からの新しいフレームを表示するための要求を受信することと、
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを使用して、前記第2の目線からの前記新しいフレームを生成することと、
前記第2の目線からの前記新しいフレームを表示することと
を含む、コンピュータプログラム製品。
(項目22)
前記第2の目線からの第2のオブジェクトの組の可視表面の点をレンダリングすることと、
前記第1の目線からの前記記憶されたレンダリングされたコンテンツのうちの少なくともいくつかを前記第2の目線にワーピングすることと
をさらに含み、
前記第2の目線からの前記第2の組を生成することは、新しくレンダリングされたコンテンツとワーピングされたレンダリングされたコンテンツとを組み合わせることを含み、前記新しくレンダリングされたコンテンツは、前記第2の目線からの前記第2のオブジェクトの組の前記可視表面の点に対応し、前記ワーピングされたレンダリングされたコンテンツは、前記第1の目線から前記第2の目線にワーピングされた前記記憶されたレンダリングされたコンテンツに対応する、項目21に記載のコンピュータプログラム製品。
(項目23)
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方を記憶することは、
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを識別することと、
前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを分析し、コンテンツが表面点に対応するか、非表面点に対応するかを決定することと、
非表面点に対応する前記コンテンツを破棄することと、
前記表面点に対応する前記コンテンツを記憶することと
を含む、項目21に記載のコンピュータプログラム製品。
(項目24)
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方を記憶することは、
ユーザの頭部移動を予測することと、
少なくとも部分的に予測される方向、前記ユーザの現在の移動速度、および前記ユーザに関して予測される移動速度のうちの1つ以上に基づいて、前記ユーザの前記予測される頭部移動に関する境界を計算することであって、前記境界は、前記第2の目線に関して予測される最大頭部移動に対応する、ことと、
前記予測される頭部移動に関する前記計算された境界内のコンテンツを決定することと、
前記計算された境界内の前記コンテンツを記憶することと
を含む、項目21に記載のコンピュータプログラム製品。
(項目25)
前記第1の目線からの前記1つ以上のオブジェクトに関するレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方を記憶することは、
1つ以上の不透明オブジェクトの不透明点を決定することと、
前記不透明点に対応する画像データを記憶することと、
1つ以上の半透明オブジェクトの半透明点を決定することと、
前記半透明点の画像データを記憶することと
をさらに含み、
前記第1のオブジェクトの組は、前記1つ以上の不透明オブジェクトと、前記1つ以上の半透明オブジェクトとを備えている、項目21に記載のコンピュータプログラム製品。
(項目26)
前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用して、新しいフレームを構築する方法であって、前記方法は、
第1の目線からの1つ以上のオブジェクトをレンダリングすることと、
前記第1の目線からの前記1つ以上のオブジェクトに関するレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方を記憶することであって、前記レンダリングされなかったコンテンツは、前記第1の目線からの前記オブジェクトの非可視部分に対応する、ことと、
第2の目線からの前記1つ以上のオブジェクトを表示するための要求を受信することと、
前記1つ以上のオブジェクトに関する前記レンダリングされたコンテンツのうちの少なくともいくつかをワーピングし、前記第2の目線からのワーピングされたコンテンツを作成することと、
前記1つ以上のオブジェクトに関する前記レンダリングされなかったコンテンツのうちの少なくともいくつかをレンダリングし、前記第2の目線からの第2のレンダリングされたコンテンツを作成することと、
前記ワーピングされたコンテンツと前記第2の目線からの前記第2のレンダリングされたコンテンツとの両方を組み合わせることによって、前記第2の目線からの前記1つ以上のオブジェクトを構築することと
前記第2の目線からの前記1つ以上のオブジェクトを表示することと、
を含む、方法。
続く説明は、本開示が実践され得る例証的ARシステムに関する。しかしながら、本開示は、ARおよび仮想現実(VR)システムの他のタイプにおける用途にも適しており、したがって、本開示は、本明細書に開示される例証的システムにのみ限定されるものではないことを理解されたい。
本開示は、ここでは、前のフレームからのレンダリングされなかったコンテンツを使用することによって、新しい目線の画像を構築することについて議論するであろう。「ワーピング」が、新しい目線からのオブジェクトを再生成せずに、前の目線から生成された前のフレーム内のオブジェクトが新しい目線から生成された新しいフレームに提示される方法を変化させるために適用され得る。新しい目線からのオブジェクトは、前のフレームからのコンテンツから構築される。
図3は、再生成せずに、前の目線からの前のフレームからのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用して、新しい目線からの新しいフレームを表示するアプローチのフローチャートを示す。図3に説明されるアプローチは、先の代替実施形態に提示されるディスオクルージョン問題を解決する。
図5は、ワーピングおよび生成を用いて、前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用して、新しい目線からの新しいフレームを表示するアプローチのためのフローチャートを示す。
レンダリングされなかったコンテンツに関して記憶することを望み得る異なる組、量、粒度、タイプ、および/または特定の画像要素が、存在する。図7-8および10におけるフローチャートは、利用可能なレンダリングされなかったコンテンツのうちの記憶されるべきものを選択するための代替アプローチの詳細を説明する。アプローチの各々は、特定の状況において使用するためにより有利であり得る。繰り返すが、第1の目線からのオブジェクトの非可視表面の点に対応する画像データは、「レンダリングされなかったコンテンツ」と称される。
前述のように、ワーピングが、前のフレームからのレンダリングされたコンテンツに適用され得、ワーピングされたレンダリングされたコンテンツの任意の「穴」は、前のフレームからのレンダリングされたコンテンツおよび/またはレンダリングされなかったコンテンツを使用して、「充填」され得る。図9A-9Fは、前のフレームが半透明オブジェクトを含む場合における、前のフレームからのレンダリングされたコンテンツをワーピングし、レンダリングされなかったコンテンツを使用して、穴を充填することに関する問題を説明する。半透明オブジェクトは、半透明オブジェクトが「透けて見え」、半透明オブジェクトの背後の不透明オブジェクトがユーザに視認され得るので、追加の複雑性の層を説明された前の実施形態に追加する。さらに、不透明オブジェクトが、第1の目線からの半透明オブジェクトを通して視認されるとき、半透明オブジェクトの背後の不透明オブジェクトは、歪んでまたはぼけて見え得る。半透明オブジェクトの背後の不透明オブジェクトが、ぼけたまたは混成された方法でレンダリングされる場合、第2の目線から、古典的ワーピングを適用し、ワーピングされたフレーム内で不透明オブジェクトの現実的ビューを達成することは、困難である。
図12は、本開示の実施形態のうちの1つ以上のものを実装するために好適な例証的コンピューティングシステム1400のブロック図であるの。コンピューティングシステム1400は、情報を通信するためのバス1406または他の通信機構を含み、それは、プロセッサ1407、メインメモリ1408(例えば、RAM)、静的記憶デバイス1409(例えば、ROM)、ディスクドライブ1410(例えば、磁気または光学)、通信インターフェース1414(例えば、モデムまたはEthernet(登録商標)カード)、ディスプレイ1411(例えば、CRTまたはLCD)、入力デバイス1412(例えば、キーボード)、およびカーソル制御等のサブシステムおよびデバイスを相互接続する。
Claims (24)
- 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用して、新しいフレームを構築する方法であって、前記方法は、
第1の目線からの第1のオブジェクトの組の可視表面の点をレンダリングすることと、
前記第1の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方を記憶することであって、前記レンダリングされたコンテンツは、前記第1の目線からの前記第1のオブジェクトの組の前記可視表面の点に対応し、前記レンダリングされなかったコンテンツは、前記第1の目線からの前記第1のオブジェクトの組の非可視部分に対応し、前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方を記憶することは、前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方をリンクリスト、アレイ構造、厳密な立体表現、ボクセル、表面定義、N-次元データ構造、およびN-次元グラフ表現のうちの少なくとも1つにおいて記憶することを含む、ことと、
第2の目線からの新しいフレームを表示するための要求を受信することと、
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを使用して、前記第2の目線からの前記新しいフレームを生成することと、
前記第2の目線からの前記新しいフレームを表示することと
を含む、方法。 - ユーザの第1の姿勢を捕捉することによって、前記第1の目線を識別することをさらに含む、請求項1に記載の方法。
- 前記第1の目線からの前記1つ以上のオブジェクトに関するレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方の異なる粒度を決定することをさらに含む、請求項1に記載の方法。
- 前記第2の目線からの第2のオブジェクトの組の可視表面の点をレンダリングすることと、
前記第1の目線からの前記記憶されたレンダリングされたコンテンツのうちの少なくともいくつかを前記第2の目線にワーピングすることと、
をさらに含み、
前記第2の目線からの前記新しいフレームを生成することは、新しくレンダリングされたコンテンツとワーピングされたレンダリングされたコンテンツとを組み合わせることを含み、前記新しくレンダリングされたコンテンツは、前記第2の目線からの前記第2のオブジェクトの組の前記可視表面の点に対応し、前記ワーピングされたレンダリングされたコンテンツは、前記第1の目線から前記第2の目線にワーピングされた前記記憶されたレンダリングされたコンテンツに対応する、請求項1に記載の方法。 - 前記第2の目線からの前記第2のオブジェクトの組の前記可視表面の点をレンダリングすることは、
前記第2の目線から可視の第3のオブジェクトの組を決定することと、
前記第2の目線からの前記第3のオブジェクトの組を前記第1の目線からの前記記憶されたレンダリングされたコンテンツと比較することにより、前記第2のオブジェクトの組を識別することであって、前記第2のオブジェクトの組は、前記記憶されたレンダリングされたコンテンツの中にない前記第3のオブジェクトの組からのオブジェクトを含む、ことと、
前記第2のオブジェクトの組の前記可視表面の点をレンダリングすることと
を含む、請求項4に記載の方法。 - 前記第1の目線からの前記記憶されたコンテンツのうちの前記少なくともいくつかを前記第2の目線にワーピングすることは、
前記第2の目線から可視の第3のオブジェクトの組を決定することと、
前記第2の目線からの前記第3のオブジェクトの組を前記第1の目線からの前記記憶されたレンダリングされたコンテンツと比較することにより、前記第3のオブジェクトの組および前記記憶されたレンダリングされたコンテンツの両方の中にあるオブジェクトを識別することと、
前記第3のオブジェクトの組および前記記憶されたレンダリングされたコンテンツの両方の中にある前記オブジェクトをワーピングすることと
を含む、請求項4に記載の方法。 - 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用して、新しいフレームを構築する方法であって、前記方法は、
第1の目線からの第1のオブジェクトの組の可視表面の点をレンダリングすることと、
前記第1の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方を記憶することであって、前記レンダリングされたコンテンツは、前記第1の目線からの前記第1のオブジェクトの組の前記可視表面の点に対応し、前記レンダリングされなかったコンテンツは、前記第1の目線からの前記第1のオブジェクトの組の非可視部分に対応する、ことと、
第2の目線からの新しいフレームを表示するための要求を受信することと、
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを使用して、前記第2の目線からの前記新しいフレームを生成することと、
前記第2の目線からの前記新しいフレームを表示することと
を含み、
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方を記憶することは、
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを識別することと、
前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを分析し、コンテンツが表面点に対応するか、非表面点に対応するかを決定することと、
非表面点に対応する前記コンテンツを破棄することと、
前記表面点に対応する前記コンテンツを記憶することと
を含む、方法。 - 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用して、新しいフレームを構築する方法であって、前記方法は、
第1の目線からの第1のオブジェクトの組の可視表面の点をレンダリングすることと、
前記第1の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方を記憶することであって、前記レンダリングされたコンテンツは、前記第1の目線からの前記第1のオブジェクトの組の前記可視表面の点に対応し、前記レンダリングされなかったコンテンツは、前記第1の目線からの前記第1のオブジェクトの組の非可視部分に対応する、ことと、
第2の目線からの新しいフレームを表示するための要求を受信することと、
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを使用して、前記第2の目線からの前記新しいフレームを生成することと、
前記第2の目線からの前記新しいフレームを表示することと
を含み、
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方を記憶することは、
ユーザの頭部移動を予測することと、
少なくとも部分的に予測される方向、前記ユーザの現在の移動速度、および前記ユーザに関して予測される移動速度のうちの1つ以上に基づいて、前記ユーザの前記予測される頭部移動に関する境界を計算することであって、前記境界は、前記第2の目線に関して予測される最大頭部移動に対応する、ことと、
前記予測される頭部移動に関する前記計算された境界内のコンテンツを決定することと、
前記計算された境界内の前記コンテンツを記憶することと
を含む、方法。 - 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用して、新しいフレームを構築する方法であって、前記方法は、
第1の目線からの第1のオブジェクトの組の可視表面の点をレンダリングすることと、
前記第1の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方を記憶することであって、前記レンダリングされたコンテンツは、前記第1の目線からの前記第1のオブジェクトの組の前記可視表面の点に対応し、前記レンダリングされなかったコンテンツは、前記第1の目線からの前記第1のオブジェクトの組の非可視部分に対応する、ことと、
第2の目線からの新しいフレームを表示するための要求を受信することと、
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを使用して、前記第2の目線からの前記新しいフレームを生成することと、
前記第2の目線からの前記新しいフレームを表示することと
を含み、
前記第1の目線からの前記1つ以上のオブジェクトに関するレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方を記憶することは、
1つ以上の不透明オブジェクトの不透明点を決定することと、
前記不透明点に対応する画像データを記憶することと、
1つ以上の半透明オブジェクトの半透明点を決定することと、
前記半透明点の画像データを記憶することと
をさらに含み、
前記第1のオブジェクトの組は、前記1つ以上の不透明オブジェクトと、前記1つ以上の半透明オブジェクトとを備えている、方法。 - 前記第1の目線からの前記1つ以上のオブジェクトに関するレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方を記憶することは、
1つ以上の不透明オブジェクトの不透明点を決定することと、
前記不透明点に対応する画像データを記憶することと、
1つ以上の半透明オブジェクトの半透明点を決定することと、
前記半透明点の画像データを記憶することと
をさらに含み、
前記第1のオブジェクトの組は、前記1つ以上の不透明オブジェクトと、前記1つ以上の半透明オブジェクトとを備えている、請求項1に記載の方法。 - 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用して、新しいフレームを構築するためのシステムであって、前記システムは、
実行可能なコンピュータ命令を記憶している非一過性コンピュータ読み取り可能な記憶媒体であって、前記コンピュータ命令は、実行されると、
第1の目線からの第1のオブジェクトの組の可視表面の点をレンダリングすることと、
前記第1の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方を記憶することであって、前記レンダリングされたコンテンツは、前記第1の目線からの前記第1のオブジェクトの組の可視表面の点に対応し、前記レンダリングされなかったコンテンツは、前記第1の目線からの前記第1のオブジェクトの組の非可視部分に対応し、前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方を記憶することは、前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方をリンクリスト、アレイ構造、厳密な立体表現、ボクセル、表面定義、N-次元データ構造、およびN-次元グラフ表現のうちの少なくとも1つにおいて記憶することを含む、ことと、
第2の目線からの新しいフレームを表示するための要求を受信することと、
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを使用して、前記第2の目線からの前記新しいフレームを生成することと、
前記第2の目線からの前記新しいフレームを表示することと
を含むステップを実施する、非一過性コンピュータ読み取り可能な記憶媒体と、
前記コンピュータ命令を実行するように構成されたプロセッサと
を備えている、システム。 - 前記コンピュータ命令は、実行されると、ユーザの第1の姿勢を捕捉することによって、前記第1の目線を識別することを含むさらなるステップを実施する、請求項11に記載のシステム。
- 前記コンピュータ命令は、実行されると、前記第1の目線からの前記1つ以上のオブジェクトに関するレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方の異なる粒度を決定することを含むさらなるステップを実施する、請求項11に記載のシステム。
- 前記コンピュータ命令は、実行されると、
前記第2の目線からの第2のオブジェクトの組の可視表面の点をレンダリングすることと、
前記第1の目線からの前記記憶されたレンダリングされたコンテンツのうちの少なくともいくつかを前記第2の目線にワーピングすることと
を含むさらなるステップを実施し、
前記第2の目線からの前記新しいフレームを生成することは、新しくレンダリングされたコンテンツとワーピングされたレンダリングされたコンテンツとを組み合わせることを含み、前記新しくレンダリングされたコンテンツは、前記第2の目線からの前記第2のオブジェクトの組の前記可視表面の点に対応し、前記ワーピングされたレンダリングされたコンテンツは、前記第1の目線から前記第2の目線にワーピングされた前記記憶されたレンダリングされたコンテンツに対応する、請求項11に記載のシステム。 - 前記第2の目線からの前記第2のオブジェクトの組の前記可視表面の点をレンダリングすることは、
前記第2の目線から可視の第3のオブジェクトの組を決定することと、
前記第2の目線からの前記第3のオブジェクトの組を前記第1の目線からの前記記憶されたレンダリングされたコンテンツと比較することにより、前記第2のオブジェクトの組を識別することであって、前記第2のオブジェクトの組は、前記記憶されたレンダリングされたコンテンツの中にない前記第3のオブジェクトの組からのオブジェクトを含む、ことと、
前記第2のオブジェクトの組の前記可視表面の点をレンダリングすることと
を含む、請求項14に記載のシステム。 - 前記第1の目線からの前記記憶されたコンテンツのうちの前記少なくともいくつかを前記第2の目線にワーピングすることは、
前記第2の目線から可視の第3のオブジェクトの組を決定することと、
前記第2の目線からの前記第3のオブジェクトの組を前記第1の目線からの前記記憶されたレンダリングされたコンテンツと比較することにより、前記第3のオブジェクトの組および前記記憶されたレンダリングされたコンテンツの両方の中にあるオブジェクトを識別することと、
前記第3のオブジェクトの組および前記記憶されたレンダリングされたコンテンツの両方の中にある前記オブジェクトをワーピングすることと
を含む、請求項14に記載のシステム。 - 前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方を記憶することは、
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを識別することと、
前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを分析し、コンテンツが表面点に対応するか、非表面点に対応するかを決定することと、
非表面点に対応する前記コンテンツを破棄することと、
前記表面点に対応する前記コンテンツを記憶することと
を含む、請求項11に記載のシステム。 - 前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方を記憶することは、
ユーザの頭部移動を予測することと、
少なくとも部分的に予測される方向、前記ユーザの現在の移動速度、および前記ユーザに関して予測される移動速度のうちの1つ以上に基づいて、前記ユーザの前記予測される頭部移動に関する境界を計算することであって、前記境界は、前記第2の目線に関して予測される最大頭部移動に対応する、ことと、
前記予測される頭部移動に関する前記計算された境界内のコンテンツを決定することと、
前記計算された境界内の前記コンテンツを記憶することと
を含む、請求項11に記載のシステム。 - 非一過性コンピュータ読み取り可能な媒体であって、前記コンピュータ読み取り可能な媒体は、一続きの命令を記憶しており、前記命令は、プロセッサによって実行されると、前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用して新しいフレームを構築する方法を実行することを前記プロセッサに行わせ、前記方法は、
第1の目線からの第1のオブジェクトの組の可視表面の点をレンダリングすることと、
前記第1の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方を記憶することであって、前記レンダリングされたコンテンツは、前記第1の目線からの前記第1のオブジェクトの組の前記可視表面の点に対応し、前記レンダリングされなかったコンテンツは、前記第1の目線からの前記第1のオブジェクトの組の非可視部分に対応し、前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方を記憶することは、前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方をリンクリスト、アレイ構造、厳密な立体表現、ボクセル、表面定義、N-次元データ構造、およびN-次元グラフ表現のうちの少なくとも1つにおいて記憶することを含む、ことと、
第2の目線からの新しいフレームを表示するための要求を受信することと、
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを使用して、前記第2の目線からの前記新しいフレームを生成することと、
前記第2の目線からの前記新しいフレームを表示することと
を含む、非一過性コンピュータ読み取り可能な媒体。 - 前記方法は、
前記第2の目線からの第2のオブジェクトの組の可視表面の点をレンダリングすることと、
前記第1の目線からの前記記憶されたレンダリングされたコンテンツのうちの少なくともいくつかを前記第2の目線にワーピングすることと
をさらに含み、
前記第2の目線からの前記新しいフレームを生成することは、新しくレンダリングされたコンテンツとワーピングされたレンダリングされたコンテンツとを組み合わせることを含み、前記新しくレンダリングされたコンテンツは、前記第2の目線からの前記第2のオブジェクトの組の前記可視表面の点に対応し、前記ワーピングされたレンダリングされたコンテンツは、前記第1の目線から前記第2の目線にワーピングされた前記記憶されたレンダリングされたコンテンツに対応する、請求項19に記載の非一過性コンピュータ読み取り可能な媒体。 - 前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方を記憶することは、
前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを識別することと、
前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツを分析し、コンテンツが表面点に対応するか、非表面点に対応するかを決定することと、
非表面点に対応する前記コンテンツを破棄することと、
前記表面点に対応する前記コンテンツを記憶することと
を含む、請求項19に記載の非一過性コンピュータ読み取り可能な媒体。 - 前記第1の目線からの前記レンダリングされたコンテンツおよび前記レンダリングされなかったコンテンツの両方を記憶することは、
ユーザの頭部移動を予測することと、
少なくとも部分的に予測される方向、前記ユーザの現在の移動速度、および前記ユーザに関して予測される移動速度のうちの1つ以上に基づいて、前記ユーザの前記予測される頭部移動に関する境界を計算することであって、前記境界は、前記第2の目線に関して予測される最大頭部移動に対応する、ことと、
前記予測される頭部移動に関する前記計算された境界内のコンテンツを決定することと、
前記計算された境界内の前記コンテンツを記憶することと
を含む、請求項19に記載の非一過性コンピュータ読み取り可能な媒体。 - 前記第1の目線からの前記1つ以上のオブジェクトに関するレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方を記憶することは、
1つ以上の不透明オブジェクトの不透明点を決定することと、
前記不透明点に対応する画像データを記憶することと、
1つ以上の半透明オブジェクトの半透明点を決定することと、
前記半透明点の画像データを記憶することと
をさらに含み、
前記第1のオブジェクトの組は、前記1つ以上の不透明オブジェクトと、前記1つ以上の半透明オブジェクトとを備えている、請求項19に記載の非一過性コンピュータ読み取り可能な媒体。 - 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用して、新しいフレームを構築する方法であって、前記方法は、
第1の目線からの1つ以上のオブジェクトをレンダリングすることと、
前記第1の目線からの前記1つ以上のオブジェクトに関するレンダリングされたコンテンツおよびレンダリングされなかったコンテンツの両方を記憶することであって、前記レンダリングされなかったコンテンツは、前記第1の目線からの前記オブジェクトの非可視部分に対応する、ことと、
第2の目線からの前記1つ以上のオブジェクトを表示するための要求を受信することと、
前記1つ以上のオブジェクトに関する前記レンダリングされたコンテンツのうちの少なくともいくつかをワーピングし、前記第2の目線からのワーピングされたコンテンツを作成することと、
前記1つ以上のオブジェクトに関する前記レンダリングされなかったコンテンツのうちの少なくともいくつかをレンダリングし、前記第2の目線からの第2のレンダリングされたコンテンツを作成することと、
前記ワーピングされたコンテンツと前記第2の目線からの前記第2のレンダリングされたコンテンツとの両方を組み合わせることによって、前記第2の目線からの前記1つ以上のオブジェクトを構築することと、
前記第2の目線からの前記1つ以上のオブジェクトを表示することと
を含む、方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022126805A JP7166484B1 (ja) | 2017-09-01 | 2022-08-09 | 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用した新しいフレームの生成 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762553778P | 2017-09-01 | 2017-09-01 | |
US62/553,778 | 2017-09-01 | ||
PCT/US2018/049266 WO2019046821A1 (en) | 2017-09-01 | 2018-08-31 | GENERATING A NEW FRAME USING REBUILDED CONTENT AND UNRESTITUDED CONTENT FROM A PREVIOUS PERSPECTIVE |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022126805A Division JP7166484B1 (ja) | 2017-09-01 | 2022-08-09 | 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用した新しいフレームの生成 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020532797A JP2020532797A (ja) | 2020-11-12 |
JP2020532797A5 JP2020532797A5 (ja) | 2021-10-07 |
JP7123127B2 true JP7123127B2 (ja) | 2022-08-22 |
Family
ID=65518123
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020512591A Active JP7123127B2 (ja) | 2017-09-01 | 2018-08-31 | 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用した新しいフレームの生成 |
JP2022126805A Active JP7166484B1 (ja) | 2017-09-01 | 2022-08-09 | 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用した新しいフレームの生成 |
JP2022170457A Active JP7201869B1 (ja) | 2017-09-01 | 2022-10-25 | 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用した新しいフレームの生成 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022126805A Active JP7166484B1 (ja) | 2017-09-01 | 2022-08-09 | 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用した新しいフレームの生成 |
JP2022170457A Active JP7201869B1 (ja) | 2017-09-01 | 2022-10-25 | 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用した新しいフレームの生成 |
Country Status (9)
Country | Link |
---|---|
US (3) | US10489966B2 (ja) |
EP (2) | EP3676653B1 (ja) |
JP (3) | JP7123127B2 (ja) |
KR (2) | KR102680570B1 (ja) |
CN (2) | CN114897754B (ja) |
AU (1) | AU2018326807B2 (ja) |
CA (1) | CA3073618A1 (ja) |
IL (2) | IL294397B2 (ja) |
WO (1) | WO2019046821A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110266955B (zh) * | 2019-06-28 | 2021-01-26 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备以及存储介质 |
US11538199B2 (en) * | 2020-02-07 | 2022-12-27 | Lenovo (Singapore) Pte. Ltd. | Displaying a window in an augmented reality view |
KR102368953B1 (ko) * | 2020-02-18 | 2022-03-03 | 페디셈 주식회사 | 가상 현실 공간 제공 방법 및 시스템 |
CN111627116B (zh) * | 2020-05-29 | 2024-02-27 | 联想(北京)有限公司 | 图像渲染控制方法、装置及服务器 |
US11822713B2 (en) | 2021-06-11 | 2023-11-21 | Rockwell Collins, Inc. | Pose augmentation of head worn display video for latency reduction |
CN113721874A (zh) * | 2021-07-29 | 2021-11-30 | 阿里巴巴(中国)有限公司 | 虚拟现实画面显示方法及电子设备 |
CN113963103A (zh) * | 2021-10-26 | 2022-01-21 | 中国银行股份有限公司 | 一种三维模型的渲染方法和相关装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004525437A (ja) | 2000-12-01 | 2004-08-19 | サーノフ コーポレイション | 一群の実際のビデオおよび/または静止画像から新規ビデオおよび/または静止画像を合成する方法および装置 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100450823B1 (ko) * | 2001-11-27 | 2004-10-01 | 삼성전자주식회사 | 깊이 이미지 기반 3차원 물체의 표현을 위한 노드 구조 |
US7883415B2 (en) * | 2003-09-15 | 2011-02-08 | Sony Computer Entertainment Inc. | Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion |
JP5299173B2 (ja) * | 2009-08-26 | 2013-09-25 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
US20110279446A1 (en) * | 2010-05-16 | 2011-11-17 | Nokia Corporation | Method and apparatus for rendering a perspective view of objects and content related thereto for location-based services on mobile device |
EP3543958B1 (en) * | 2010-09-13 | 2020-11-11 | Barry Lynn Jenkins | System and method of delivering and controlling streaming interactive media comprising predetermined packets of geometric, texture, lighting and other data which are rendered on a receiving device |
US9424767B2 (en) * | 2012-06-18 | 2016-08-23 | Microsoft Technology Licensing, Llc | Local rendering of text in image |
KR102458124B1 (ko) | 2013-03-15 | 2022-10-21 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
WO2015006784A2 (en) * | 2013-07-12 | 2015-01-15 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US9729317B2 (en) | 2014-01-30 | 2017-08-08 | Mentor Graphics Corporation | Optical physical uncloneable function |
US10200627B2 (en) * | 2014-04-09 | 2019-02-05 | Imagination Technologies Limited | Virtual camera for 3-D modeling applications |
CA2960426A1 (en) * | 2014-09-09 | 2016-03-17 | Nokia Technologies Oy | Stereo image recording and playback |
US9240069B1 (en) * | 2015-06-30 | 2016-01-19 | Ariadne's Thread (Usa), Inc. | Low-latency virtual reality display system |
US10147211B2 (en) * | 2015-07-15 | 2018-12-04 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
WO2017112013A1 (en) * | 2015-12-22 | 2017-06-29 | Google Inc. | System and method for performing electronic display stabilization via retained lightfield rendering |
EP3605469A4 (en) * | 2017-03-23 | 2021-03-03 | Sony Interactive Entertainment Inc. | INFORMATION PROCESSING DEVICE |
GB201709752D0 (en) * | 2017-06-19 | 2017-08-02 | Advanced Risc Mach Ltd | Graphics processing systems |
EP3419286A1 (en) | 2017-06-23 | 2018-12-26 | Koninklijke Philips N.V. | Processing of 3d image information based on texture maps and meshes |
-
2018
- 2018-08-31 EP EP18849933.9A patent/EP3676653B1/en active Active
- 2018-08-31 CA CA3073618A patent/CA3073618A1/en active Pending
- 2018-08-31 CN CN202210546805.0A patent/CN114897754B/zh active Active
- 2018-08-31 IL IL294397A patent/IL294397B2/en unknown
- 2018-08-31 AU AU2018326807A patent/AU2018326807B2/en active Active
- 2018-08-31 CN CN201880055420.6A patent/CN111051959B/zh active Active
- 2018-08-31 KR KR1020227009732A patent/KR102680570B1/ko active IP Right Grant
- 2018-08-31 JP JP2020512591A patent/JP7123127B2/ja active Active
- 2018-08-31 IL IL272651A patent/IL272651B/en unknown
- 2018-08-31 EP EP22215316.5A patent/EP4177667A1/en active Pending
- 2018-08-31 KR KR1020207007380A patent/KR102379670B1/ko active IP Right Grant
- 2018-08-31 US US16/120,020 patent/US10489966B2/en active Active
- 2018-08-31 WO PCT/US2018/049266 patent/WO2019046821A1/en unknown
-
2019
- 2019-10-21 US US16/658,809 patent/US10846912B2/en active Active
-
2020
- 2020-10-19 US US17/074,428 patent/US11288858B2/en active Active
-
2022
- 2022-08-09 JP JP2022126805A patent/JP7166484B1/ja active Active
- 2022-10-25 JP JP2022170457A patent/JP7201869B1/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004525437A (ja) | 2000-12-01 | 2004-08-19 | サーノフ コーポレイション | 一群の実際のビデオおよび/または静止画像から新規ビデオおよび/または静止画像を合成する方法および装置 |
Also Published As
Publication number | Publication date |
---|---|
KR102379670B1 (ko) | 2022-03-25 |
US20210035353A1 (en) | 2021-02-04 |
JP2023015119A (ja) | 2023-01-31 |
CN114897754B (zh) | 2024-04-09 |
US10489966B2 (en) | 2019-11-26 |
IL272651A (en) | 2020-03-31 |
IL294397A (en) | 2022-08-01 |
AU2018326807A1 (en) | 2020-03-05 |
CA3073618A1 (en) | 2019-03-07 |
CN111051959A (zh) | 2020-04-21 |
US11288858B2 (en) | 2022-03-29 |
KR20220041252A (ko) | 2022-03-31 |
CN111051959B (zh) | 2022-06-03 |
EP3676653A4 (en) | 2020-10-07 |
WO2019046821A1 (en) | 2019-03-07 |
JP7166484B1 (ja) | 2022-11-07 |
CN114897754A (zh) | 2022-08-12 |
EP3676653B1 (en) | 2023-02-15 |
JP2022179473A (ja) | 2022-12-02 |
KR20200046048A (ko) | 2020-05-06 |
AU2018326807B2 (en) | 2023-04-13 |
EP3676653A1 (en) | 2020-07-08 |
JP2020532797A (ja) | 2020-11-12 |
KR102680570B1 (ko) | 2024-07-01 |
US10846912B2 (en) | 2020-11-24 |
US20190073821A1 (en) | 2019-03-07 |
IL294397B2 (en) | 2024-02-01 |
IL294397B1 (en) | 2023-10-01 |
JP7201869B1 (ja) | 2023-01-10 |
IL272651B (en) | 2022-08-01 |
EP4177667A1 (en) | 2023-05-10 |
US20200051322A1 (en) | 2020-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7201869B1 (ja) | 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用した新しいフレームの生成 | |
JP7443602B2 (ja) | 仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法 | |
AU2022200841B2 (en) | Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same | |
AU2021290369A1 (en) | Mixed reality system with color virtual content warping and method of generating virtual content using same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210830 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210830 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210830 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220420 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220712 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220809 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7123127 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |