JP2022103218A - 拡張現実データを記録するための手法 - Google Patents
拡張現実データを記録するための手法 Download PDFInfo
- Publication number
- JP2022103218A JP2022103218A JP2022073937A JP2022073937A JP2022103218A JP 2022103218 A JP2022103218 A JP 2022103218A JP 2022073937 A JP2022073937 A JP 2022073937A JP 2022073937 A JP2022073937 A JP 2022073937A JP 2022103218 A JP2022103218 A JP 2022103218A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- virtual content
- user
- posture
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 26
- 238000012545 processing Methods 0.000 claims abstract description 103
- 238000009877 rendering Methods 0.000 claims description 25
- 238000004590 computer program Methods 0.000 claims description 13
- 230000001052 transient effect Effects 0.000 claims 2
- 238000013459 approach Methods 0.000 abstract description 44
- 210000003128 head Anatomy 0.000 description 50
- 238000010586 diagram Methods 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 9
- 230000009471 action Effects 0.000 description 8
- 238000005259 measurement Methods 0.000 description 6
- 239000000872 buffer Substances 0.000 description 5
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 239000003550 marker Substances 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 238000001454 recorded image Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000000613 ear canal Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
- H04N19/27—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving both synthetic and natural picture components, e.g. synthetic natural hybrid coding [SNHC]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/28—Indexing scheme for image data processing or generation, in general involving image processing hardware
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Generation (AREA)
Abstract
【解決手段】システム内のカメラの視点からの拡張現実システムから生成される記録のための改良されたアプローチが、開示される。AR記録のために、ユーザの眼の視点からレンダリングされた仮想コンテンツを再利用する代わりに、AR記録のために、特に、追加の仮想コンテンツが、追加の視点からレンダリングされる。その追加の仮想コンテンツは、カメラによって生成された画像フレームと組み合わせられ、AR記録を形成する。一実施形態において、単一のGPU処理サイクルは、ユーザ姿勢とカメラ姿勢との両方のための仮想コンテンツをレンダリングするための処理を含む。
【選択図】図5
Description
本開示は、概して、拡張現実技術に関する。
現代のコンピューティングおよび表示技術は、いわゆる「仮想現実」または「拡張現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部が、現実であるように見える様式、またはそのように知覚され得る様式でユーザに提示される。仮想現実(VR)シナリオは、典型的には、他の実際の実世界の視覚的入力に対する透明性を伴わずに、デジタルまたは仮想画像情報の提示を伴い、拡張現実(AR)シナリオは、典型的には、ユーザの周囲の実際の実世界の可視化に対する拡張としてのデジタルまたは仮想画像情報の提示を伴う。
いくつかの実施形態によると、拡張現実(AR)記録のために、ユーザの眼の視点からレンダリングされた仮想コンテンツを再利用する代わりに、AR記録のために、特に、追加の仮想コンテンツが、追加の視点からレンダリングされる。すなわち、仮想コンテンツが、AR記録に関するカメラの視点からレンダリングされる。その追加の仮想コンテンツは、カメラによって生成された画像フレームと組み合わせられ、AR記録を形成する。待ち時間およびコンピューティングオーバーヘッドを低減させるために、標準のGPU処理における間隙が、仮想コンテンツの追加のレンダリングを実施するために利用され得る。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
画像記録を生成する方法であって、前記方法は、
カメラを用いて、カメラ画像フレームを捕捉することと、
前記カメラ画像フレームに対応する姿勢データを識別することであって、前記姿勢データは、ユーザ姿勢データとカメラ姿勢データとを含み、前記ユーザ姿勢データは、前記カメラ姿勢データとは異なる視点からのものである、ことと、
拡張現実(AR)デバイスにおけるユーザへの即時の表示のために、ユーザ姿勢仮想コンテンツをレンダリングすることであって、前記ユーザ姿勢仮想コンテンツは、ユーザの視点からの第1の仮想コンテンツに対応する、ことと、
カメラ姿勢仮想コンテンツをレンダリングすることであって、前記カメラ姿勢仮想コンテンツは、前記カメラの視点からの第2の仮想コンテンツに対応する、ことと、
前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせることによって、画像記録を合成することと
を含む、方法。
(項目2)
単一のGPU処理サイクルは、前記ユーザ姿勢と前記カメラ姿勢との両方のための仮想コンテンツをレンダリングするための処理を含む、項目1に記載の方法。
(項目3)
前記単一のGPU処理サイクル中にレンダリングされる前記ユーザ姿勢と前記カメラ姿勢とのための前記仮想コンテンツは、同一のフレームのためのものである、項目2に記載の方法。
(項目4)
前記単一のGPU処理サイクル中にレンダリングされる前記ユーザ姿勢と前記カメラ姿勢とのための前記仮想コンテンツは、異なるフレームに対応する、項目2に記載の方法。(項目5)
合成器が、前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせることによって、前記画像記録を生成する、項目1に記載の方法。
(項目6)
慣性測定ユニット(IMU)が、前記姿勢データを生成する、項目1に記載の方法。
(項目7)
メディアエンコーダが、前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせた1つ以上の画像フレームをエンコードする、項目1に記載の方法。
(項目8)
前記メディアエンコーダによってエンコードされる前記1つ以上の画像フレームは、単一の画像フレームまたは複数の画像フレームのストリームのうちの少なくとも1つを含む、項目7に記載の方法。
(項目9)
コンピュータ読み取り可能な媒体上に具現化されるコンピュータプログラム製品であって、前記コンピュータ読み取り可能な媒体は、プロセッサによって実行されると、前記プロセッサに項目1-8に記載の方法のうちのいずれかを実行させる一連の命令を記憶している、コンピュータプログラム製品。
(項目10)
画像記録を生成するためのシステムであって、前記システムは、
3次元コンテンツを表示する拡張現実表示デバイスと、
カメラ画像フレームを捕捉するカメラと、
前記カメラ画像フレームに対応する姿勢データを識別するIMUであって、前記姿勢データは、ユーザ姿勢データとカメラ姿勢データとを含み、前記ユーザ姿勢データは、前記カメラ姿勢データとは異なる視点からのものである、IMUと、
ユーザ姿勢仮想コンテンツおよびカメラ姿勢仮想コンテンツの両方をレンダリングするGPUであって、前記ユーザ姿勢仮想コンテンツは、拡張現実デバイスにおけるユーザへの即時の表示のためにレンダリングされ、前記ユーザ姿勢仮想コンテンツは、ユーザの視点からの第1の仮想コンテンツに対応し、前記カメラ姿勢仮想コンテンツは、前記カメラの視点からの第2の仮想コンテンツに対応する、GPUと、
前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせることによって画像記録を合成する合成器と
を備えている、システム。
(項目11)
前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせた1つ以上の画像フレームをエンコードするメディアエンコーダをさらに備えている、項目10に記載のシステム。
(項目12)
前記メディアエンコーダによってエンコードされる前記1つ以上の画像フレームは、単一の画像フレームまたは複数の画像フレームのストリームのうちの少なくとも1つを含む、項目11に記載のシステム。
(項目13)
単一のGPU処理サイクルは、前記ユーザ姿勢および前記カメラ姿勢の両方のための仮想コンテンツをレンダリングするための処理を含む、項目10に記載のシステム。
(項目14)
前記単一のGPU処理サイクル中にレンダリングされる前記ユーザ姿勢と前記カメラ姿勢とのための前記仮想コンテンツは、同一のフレームのためのものである、項目13に記載のシステム。
(項目15)
前記単一のGPU処理サイクル中にレンダリングされる前記ユーザ姿勢と前記カメラ姿勢とのための前記仮想コンテンツは、異なるフレームに対応する、項目13に記載のシステム。
(項目16)
前記合成器は、前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせることによって、前記画像記録を生成する、項目10に記載のシステム。
本開示は、「第三の眼」の仮想コンテンツレンダリングを使用して拡張現実(AR)記録を実装するためのアプローチを対象とする。いくつかの実施形態によると、AR記録のために、ユーザの眼の視点からレンダリングされた仮想コンテンツを再利用する代わりに、追加の仮想コンテンツが、カメラの視点からレンダリングされ、その追加の仮想コンテンツが、実世界のカメラ記録と組み合わせられ、AR記録を形成する。いくつかの実施形態では、標準のGPU処理における間隙が、追加の仮想コンテンツのレンダリングを生成するための追加のレンダリングを実施するために利用され得る。
続く説明は、それを用いて本開示が実践され得る(「拡張現実システム」、「ARシステム」、または「複合現実システム」のうちの任意のものと本明細書において称され得る)例証的拡張現実(AR)システムに関する。しかしながら、本開示は、拡張現実および仮想現実システムの他のタイプにおける用途にも適しており、したがって、本開示は、本明細書に開示される例証的システムにのみ限定されるものではないことを理解されたい。
続く説明は、いくつかの実施形態による、AR記録を生成するためのアプローチに関する。AR記録のために、ユーザの眼の視点からレンダリングされた仮想コンテンツを再利用する代わりに、追加の仮想コンテンツが、カメラの視点からレンダリングされ、追加の仮想コンテンツは、カメラ記憶と組み合わせられ、AR記録を形成する。
図11は、画像データの上で説明される処理のための本開示のある実施形態の実装に好適である例証的コンピューティングシステム1400のブロック図である。コンピュータシステム1400は、プロセッサ1407、システムメモリ1408(例えば、RAM)、静的記憶デバイス1409(例えば、ROM)、ディスクドライブ1410(例えば、磁気または光学)、通信インターフェース1414(例えば、モデムもしくはイーサネット(登録商標)カード)、ディスプレイ1411(例えば、CRTまたはLCD)、入力デバイス1412(例えば、キーボード)、および、カーソル制御部等のサブシステムおよびにデバイスを相互接続する情報を通信するためのバス1406または他の通信機構を含む。
Claims (16)
- 画像記録を生成する方法であって、前記方法は、
カメラを用いて、カメラ画像フレームを捕捉することと、
前記カメラ画像フレームに対応する姿勢データを取得することであって、前記姿勢データは、ユーザ姿勢データとカメラ姿勢データとを含み、前記ユーザ姿勢データは、前記カメラ姿勢データとは異なる視点からのものである、ことと、
拡張現実(AR)デバイスにおけるユーザへの即時の表示のために、ユーザ姿勢仮想コンテンツをレンダリングすることであって、前記ユーザ姿勢仮想コンテンツは、前記ユーザの視点からの第1の仮想コンテンツに対応する、ことと、
カメラ姿勢仮想コンテンツを生成するために前記カメラ姿勢データに基づいて前記ユーザ姿勢仮想コンテンツをワーピングすることであって、前記カメラ姿勢仮想コンテンツは、前記カメラの視点からの第2の仮想コンテンツに対応する、ことと、
前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせることによって、前記画像記録を合成することと
を含み、
単一のグラフィック処理ユニット(GPU)は、前記ユーザ姿勢仮想コンテンツをレンダリングし、前記ユーザ姿勢仮想コンテンツをワーピングする、方法。 - 表示画像フレームを表示するための要求を受信することと、
前記表示画像フレームを表示するための前記要求に応答して前記カメラを用いて前記カメラ画像フレームを捕捉することと
をさらに含む、請求項1に記載の方法。 - 後の表示のために前記画像記録を記憶することをさらに含む、請求項1に記載の方法。
- 単一のGPU処理サイクルは、前記ユーザ姿勢データに基づいて前記ユーザ姿勢仮想コンテンツをレンダリングし、前記カメラ姿勢仮想コンテンツを生成するために前記カメラ姿勢データに基づいて前記ユーザ姿勢仮想コンテンツをワーピングするための処理を含む、請求項1に記載の方法。
- 前記ユーザ姿勢データに基づく前記ユーザ姿勢仮想コンテンツ、および、前記単一のGPU処理サイクルの間に生成された前記カメラ姿勢データに基づく前記カメラ姿勢仮想コンテンツは、異なるフレームのためのものである、請求項4に記載の方法。
- 合成器が、前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせることによって、前記画像記録を生成する、請求項1に記載の方法。
- メディアエンコーダが、前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせた1つ以上の画像フレームをエンコードすることをさらに含む、請求項1に記載の方法。
- 前記メディアエンコーダによってエンコードされる前記1つ以上の画像フレームは、単一の画像フレームまたは複数の画像フレームのストリームのうちの少なくとも1つを含む、請求項7に記載の方法。
- 非一過性コンピュータ読み取り可能な媒体上に具現化されるコンピュータプログラム製品であって、前記非一過性コンピュータ読み取り可能な媒体は、プロセッサによって実行されると、前記プロセッサに画像記録を生成する方法を実行させる一連の命令を記憶しており、前記方法は、
カメラを用いて、カメラ画像フレームを捕捉することと、
前記カメラ画像フレームに対応する姿勢データを取得することであって、前記姿勢データは、ユーザ姿勢データとカメラ姿勢データとを含み、前記ユーザ姿勢データは、前記カメラ姿勢データとは異なる視点からのものである、ことと、
拡張現実(AR)デバイスにおけるユーザへの即時の表示のために、ユーザ姿勢仮想コンテンツをレンダリングすることであって、前記ユーザ姿勢仮想コンテンツは、前記ユーザの視点からの第1の仮想コンテンツに対応する、ことと、
カメラ姿勢仮想コンテンツを生成するために前記カメラ姿勢データに基づいて前記ユーザ姿勢仮想コンテンツをワーピングすることであって、前記カメラ姿勢仮想コンテンツは、前記カメラの視点からの第2の仮想コンテンツに対応する、ことと、
前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせることによって、前記画像記録を合成することと
を含み、
単一のグラフィック処理ユニット(GPU)は、前記ユーザ姿勢仮想コンテンツをレンダリングし、前記ユーザ姿勢仮想コンテンツをワーピングする、コンピュータプログラム製品。 - 前記方法は、
表示画像フレームを表示するための要求を受信することと、
前記表示画像フレームを表示するための前記要求に応答して前記カメラを用いて前記カメラ画像フレームを捕捉することと
をさらに含む、請求項9に記載のコンピュータプログラム製品。 - 前記方法は、後の表示のために前記画像記録を記憶することをさらに含む、請求項9に記載のコンピュータプログラム製品。
- 単一のGPU処理サイクルは、前記ユーザ姿勢データに基づいて前記ユーザ姿勢仮想コンテンツをレンダリングし、前記カメラ姿勢仮想コンテンツを生成するために前記カメラ姿勢データに基づいて前記ユーザ姿勢仮想コンテンツをワーピングするための処理を含む、請求項9に記載のコンピュータプログラム製品。
- 前記ユーザ姿勢データに基づく前記ユーザ姿勢仮想コンテンツ、および、前記単一のGPU処理サイクルの間に生成された前記カメラ姿勢データに基づく前記カメラ姿勢仮想コンテンツは、異なるフレームのためのものである、請求項12に記載のコンピュータプログラム製品。
- 合成器が、前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせることによって、前記画像記録を生成する、請求項9に記載のコンピュータプログラム製品。
- メディアエンコーダが、前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせた1つ以上の画像フレームをエンコードする、請求項9に記載のコンピュータプログラム製品。
- 前記メディアエンコーダによってエンコードされる前記1つ以上の画像フレームは、単一の画像フレームまたは複数の画像フレームのストリームのうちの少なくとも1つを含む、請求項15に記載のコンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762472923P | 2017-03-17 | 2017-03-17 | |
US62/472,923 | 2017-03-17 | ||
JP2022001002A JP7068562B2 (ja) | 2017-03-17 | 2022-01-06 | 拡張現実データを記録するための手法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022001002A Division JP7068562B2 (ja) | 2017-03-17 | 2022-01-06 | 拡張現実データを記録するための手法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022103218A true JP2022103218A (ja) | 2022-07-07 |
JP7133115B2 JP7133115B2 (ja) | 2022-09-07 |
Family
ID=63520263
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019550199A Active JP7007396B2 (ja) | 2017-03-17 | 2018-03-16 | 拡張現実データを記録するための手法 |
JP2022001002A Active JP7068562B2 (ja) | 2017-03-17 | 2022-01-06 | 拡張現実データを記録するための手法 |
JP2022073937A Active JP7133115B2 (ja) | 2017-03-17 | 2022-04-28 | 拡張現実データを記録するための手法 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019550199A Active JP7007396B2 (ja) | 2017-03-17 | 2018-03-16 | 拡張現実データを記録するための手法 |
JP2022001002A Active JP7068562B2 (ja) | 2017-03-17 | 2022-01-06 | 拡張現実データを記録するための手法 |
Country Status (9)
Country | Link |
---|---|
US (3) | US10573078B2 (ja) |
EP (2) | EP3596542B1 (ja) |
JP (3) | JP7007396B2 (ja) |
KR (3) | KR102598116B1 (ja) |
CN (1) | CN110402415A (ja) |
AU (2) | AU2018234929B2 (ja) |
CA (1) | CA3055219A1 (ja) |
IL (3) | IL290001B2 (ja) |
WO (1) | WO2018170490A1 (ja) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110574375B (zh) * | 2017-04-28 | 2023-06-02 | 苹果公司 | 视频流水线 |
US10979685B1 (en) | 2017-04-28 | 2021-04-13 | Apple Inc. | Focusing for virtual and augmented reality systems |
KR102481884B1 (ko) * | 2017-09-22 | 2022-12-28 | 삼성전자주식회사 | 가상 영상을 표시하는 방법 및 장치 |
US11128783B2 (en) * | 2018-03-07 | 2021-09-21 | Disney Enterprises, Inc. | Systems and methods for tracking objects in a field of view |
US11513590B2 (en) * | 2018-04-20 | 2022-11-29 | Pcms Holdings, Inc. | Method and system for gaze-based control of mixed reality content |
US11227435B2 (en) | 2018-08-13 | 2022-01-18 | Magic Leap, Inc. | Cross reality system |
US10957112B2 (en) | 2018-08-13 | 2021-03-23 | Magic Leap, Inc. | Cross reality system |
WO2020072985A1 (en) | 2018-10-05 | 2020-04-09 | Magic Leap, Inc. | Rendering location specific virtual content in any location |
CN114586071A (zh) | 2019-10-15 | 2022-06-03 | 奇跃公司 | 支持多设备类型的交叉现实系统 |
JP2022551735A (ja) | 2019-10-15 | 2022-12-13 | マジック リープ, インコーポレイテッド | 無線フィンガプリントを用いたクロスリアリティシステム |
US11568605B2 (en) | 2019-10-15 | 2023-01-31 | Magic Leap, Inc. | Cross reality system with localization service |
JP2023501952A (ja) | 2019-10-31 | 2023-01-20 | マジック リープ, インコーポレイテッド | 持続座標フレームについての品質情報を伴うクロスリアリティシステム |
JP7525603B2 (ja) | 2019-11-12 | 2024-07-30 | マジック リープ, インコーポレイテッド | 位置特定サービスおよび共有場所ベースのコンテンツを伴うクロスリアリティシステム |
EP4073763A4 (en) | 2019-12-09 | 2023-12-27 | Magic Leap, Inc. | CROSS-REALLY SYSTEM WITH SIMPLIFIED PROGRAMMING OF VIRTUAL CONTENT |
CN115398314A (zh) | 2020-02-13 | 2022-11-25 | 奇跃公司 | 使用多分辨率帧描述符进行地图处理的交叉现实系统 |
WO2021163295A1 (en) | 2020-02-13 | 2021-08-19 | Magic Leap, Inc. | Cross reality system with prioritization of geolocation information for localization |
US11410395B2 (en) | 2020-02-13 | 2022-08-09 | Magic Leap, Inc. | Cross reality system with accurate shared maps |
US11551430B2 (en) | 2020-02-26 | 2023-01-10 | Magic Leap, Inc. | Cross reality system with fast localization |
KR102650385B1 (ko) * | 2020-04-09 | 2024-03-25 | 주식회사 피아몬드 | 가상세계의 공간을 통해 노출하기 위한 콘텐츠를 선정하는 방법 및 시스템 |
US11521359B2 (en) * | 2020-04-17 | 2022-12-06 | Apple Inc. | Extended reality recorder |
JP2023524446A (ja) | 2020-04-29 | 2023-06-12 | マジック リープ, インコーポレイテッド | 大規模環境のためのクロスリアリティシステム |
CN113961280B (zh) * | 2020-07-21 | 2023-11-24 | 抖音视界有限公司 | 视图的展示方法、装置、电子设备及计算机可读存储介质 |
US12051239B2 (en) | 2020-08-11 | 2024-07-30 | Disney Enterprises, Inc. | Item location tracking via image analysis and projection |
CN112819967B (zh) * | 2021-01-14 | 2024-07-30 | 京东方科技集团股份有限公司 | 一种显示方法、装置及系统、存储介质、显示器 |
US11651544B2 (en) * | 2021-04-30 | 2023-05-16 | Varjo Technologies Oy | Systems and methods employing multiple graphics processing units for producing images |
US20220351411A1 (en) * | 2021-04-30 | 2022-11-03 | Varjo Technologies Oy | Display apparatus and method employing reprojection based on marker pose |
DE102021117453B3 (de) | 2021-07-06 | 2022-10-20 | Holoride Gmbh | Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug während einer Fahrt, entsprechend betreibbare Datenbrille, Prozessorschaltung sowie Kraftfahrzeug |
KR102625729B1 (ko) * | 2021-10-05 | 2024-01-16 | 가온그룹 주식회사 | 클론객체를 이용하는 ar 콘텐츠 렌더링 처리 방법 |
US11694409B1 (en) | 2021-12-08 | 2023-07-04 | Google Llc | Augmented reality using a split architecture |
US12062145B2 (en) | 2022-02-01 | 2024-08-13 | Samsung Electronics Co., Ltd. | System and method for three-dimensional scene reconstruction and understanding in extended reality (XR) applications |
US20230342877A1 (en) * | 2022-04-20 | 2023-10-26 | Snap Inc. | Cached cloud rendering |
KR20240026314A (ko) * | 2022-08-18 | 2024-02-28 | 한국전자기술연구원 | 비디오 기반의 증강현실 컨텐츠 제공 시스템 |
CN117596373B (zh) * | 2024-01-17 | 2024-04-12 | 淘宝(中国)软件有限公司 | 基于动态数字人形象进行信息展示的方法及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002271693A (ja) * | 2001-03-13 | 2002-09-20 | Canon Inc | 画像処理装置、画像処理方法、及び制御プログラム |
WO2016118371A1 (en) * | 2015-01-20 | 2016-07-28 | Microsoft Technology Licensing, Llc | Mixed reality system |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US573078A (en) * | 1896-12-15 | Wattmeter | ||
US7728877B2 (en) * | 2004-12-17 | 2010-06-01 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for synthesizing multiview videos |
KR100918392B1 (ko) * | 2006-12-05 | 2009-09-24 | 한국전자통신연구원 | 3d 컨텐츠 저작을 위한 개인형 멀티미디어 스튜디오플랫폼 장치 및 방법 |
US8990292B2 (en) * | 2011-07-05 | 2015-03-24 | Cisco Technology, Inc. | In-network middlebox compositor for distributed virtualized applications |
KR101887548B1 (ko) * | 2012-03-23 | 2018-08-10 | 삼성전자주식회사 | 증강현실 서비스를 위한 미디어 파일의 처리 방법 및 장치 |
US20130311548A1 (en) * | 2012-05-15 | 2013-11-21 | Nvidia Corporation | Virtualized graphics processing for remote display |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US9361659B2 (en) * | 2012-11-14 | 2016-06-07 | Facebook, Inc. | Systems and methods for optimizing order of image transformations |
US20140176591A1 (en) * | 2012-12-26 | 2014-06-26 | Georg Klein | Low-latency fusing of color image data |
US9083960B2 (en) * | 2013-01-30 | 2015-07-14 | Qualcomm Incorporated | Real-time 3D reconstruction with power efficient depth sensor usage |
KR102560629B1 (ko) | 2013-03-15 | 2023-07-26 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
US9269003B2 (en) * | 2013-04-30 | 2016-02-23 | Qualcomm Incorporated | Diminished and mediated reality effects from reconstruction |
WO2014179745A1 (en) * | 2013-05-02 | 2014-11-06 | Qualcomm Incorporated | Methods for facilitating computer vision application initialization |
US9063330B2 (en) * | 2013-05-30 | 2015-06-23 | Oculus Vr, Llc | Perception based predictive tracking for head mounted displays |
US9578016B2 (en) * | 2014-07-17 | 2017-02-21 | Riverbed Technology, Inc. | Optimizing secure communications between a client authenticating server and a mobile client |
KR20160112898A (ko) * | 2015-03-20 | 2016-09-28 | 한국과학기술원 | 증강현실 기반 동적 서비스 제공 방법 및 장치 |
US9240069B1 (en) * | 2015-06-30 | 2016-01-19 | Ariadne's Thread (Usa), Inc. | Low-latency virtual reality display system |
US9569812B1 (en) * | 2016-01-07 | 2017-02-14 | Microsoft Technology Licensing, Llc | View rendering from multiple server-side renderings |
CN106228591B (zh) * | 2016-07-12 | 2020-06-26 | 江苏奥格视特信息科技有限公司 | 虚拟现实超高速实时渲染方法 |
CN106231205B (zh) * | 2016-08-10 | 2019-07-30 | 苏州黑盒子智能科技有限公司 | 增强现实移动终端 |
CN106131536A (zh) * | 2016-08-15 | 2016-11-16 | 万象三维视觉科技(北京)有限公司 | 一种裸眼3d增强现实互动展示系统及其展示方法 |
CN106327584B (zh) * | 2016-08-24 | 2020-08-07 | 深圳市瑞云科技有限公司 | 一种用于虚拟现实设备的图像处理方法及装置 |
CN106502427B (zh) * | 2016-12-15 | 2023-12-01 | 北京国承万通信息科技有限公司 | 虚拟现实系统及其场景呈现方法 |
-
2018
- 2018-03-16 CA CA3055219A patent/CA3055219A1/en active Pending
- 2018-03-16 IL IL290001A patent/IL290001B2/en unknown
- 2018-03-16 KR KR1020237010823A patent/KR102598116B1/ko active IP Right Grant
- 2018-03-16 AU AU2018234929A patent/AU2018234929B2/en active Active
- 2018-03-16 US US15/924,144 patent/US10573078B2/en active Active
- 2018-03-16 CN CN201880018314.0A patent/CN110402415A/zh active Pending
- 2018-03-16 KR KR1020197030295A patent/KR102384232B1/ko active IP Right Grant
- 2018-03-16 JP JP2019550199A patent/JP7007396B2/ja active Active
- 2018-03-16 EP EP18768170.5A patent/EP3596542B1/en active Active
- 2018-03-16 KR KR1020227010984A patent/KR102517876B1/ko active IP Right Grant
- 2018-03-16 EP EP24151535.2A patent/EP4329305A3/en active Pending
- 2018-03-16 IL IL297863A patent/IL297863B2/en unknown
- 2018-03-16 WO PCT/US2018/023025 patent/WO2018170490A1/en active Application Filing
-
2019
- 2019-08-19 IL IL268777A patent/IL268777B/en unknown
-
2020
- 2020-01-15 US US16/743,207 patent/US10861244B2/en active Active
- 2020-10-27 US US17/081,081 patent/US11380068B2/en active Active
-
2022
- 2022-01-06 JP JP2022001002A patent/JP7068562B2/ja active Active
- 2022-04-28 JP JP2022073937A patent/JP7133115B2/ja active Active
- 2022-09-26 AU AU2022241459A patent/AU2022241459A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002271693A (ja) * | 2001-03-13 | 2002-09-20 | Canon Inc | 画像処理装置、画像処理方法、及び制御プログラム |
WO2016118371A1 (en) * | 2015-01-20 | 2016-07-28 | Microsoft Technology Licensing, Llc | Mixed reality system |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7068562B2 (ja) | 拡張現実データを記録するための手法 | |
AU2022200841B2 (en) | Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same | |
JP7009494B2 (ja) | カラー仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツ生成する方法 | |
AU2018236457B2 (en) | Mixed reality system with virtual content warping and method of generating virtual content using same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220428 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220729 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220826 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7133115 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240116 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240116 |