JP2022040219A - 拡張現実データを記録するための手法 - Google Patents
拡張現実データを記録するための手法 Download PDFInfo
- Publication number
- JP2022040219A JP2022040219A JP2022001002A JP2022001002A JP2022040219A JP 2022040219 A JP2022040219 A JP 2022040219A JP 2022001002 A JP2022001002 A JP 2022001002A JP 2022001002 A JP2022001002 A JP 2022001002A JP 2022040219 A JP2022040219 A JP 2022040219A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- virtual content
- user
- posture
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 28
- 238000012545 processing Methods 0.000 claims abstract description 104
- 238000009877 rendering Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 12
- 238000005259 measurement Methods 0.000 claims description 9
- 230000001052 transient effect Effects 0.000 claims 2
- 238000013459 approach Methods 0.000 abstract description 44
- 210000003128 head Anatomy 0.000 description 50
- 238000010586 diagram Methods 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 9
- 230000009471 action Effects 0.000 description 8
- 239000000872 buffer Substances 0.000 description 5
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 239000003550 marker Substances 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 238000001454 recorded image Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000000613 ear canal Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
- H04N19/27—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving both synthetic and natural picture components, e.g. synthetic natural hybrid coding [SNHC]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/28—Indexing scheme for image data processing or generation, in general involving image processing hardware
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Architecture (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Generation (AREA)
Abstract
【解決手段】システム内のカメラの視点からの拡張現実システムから生成される記録のための改良されたアプローチが、開示される。AR記録のために、ユーザの眼の視点からレンダリングされた仮想コンテンツを再利用する代わりに、AR記録のために、特に、追加の仮想コンテンツが、追加の視点からレンダリングされる。その追加の仮想コンテンツは、カメラによって生成された画像フレームと組み合わせられ、AR記録を形成する。一実施形態において、単一のGPU処理サイクルは、ユーザ姿勢とカメラ姿勢との両方のための仮想コンテンツをレンダリングするための処理を含む。
【選択図】図5
Description
本開示は、概して、拡張現実技術に関する。
現代のコンピューティングおよび表示技術は、いわゆる「仮想現実」または「拡張現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部が、現実であるように見える様式、またはそのように知覚され得る様式でユーザに提示される。仮想現実(VR)シナリオは、典型的には、他の実際の実世界の視覚的入力に対する透明性を伴わずに、デジタルまたは仮想画像情報の提示を伴い、拡張現実(AR)シナリオは、典型的には、ユーザの周囲の実際の実世界の可視化に対する拡張としてのデジタルまたは仮想画像情報の提示を伴う。
ダリングされるのに対し、実際に実オブジェクトを記録しているカメラは、通常、ユーザの眼から異なる場所および/または視野角Dで搭載されることである。これは、単にレンダリングされた仮想オブジェクトを実オブジェクトの記録と組み合わせる記録が、第1の視点からの仮想オブジェクトと第2の視点からの実オブジェクトとを示し、潜在的に、記録の所与の画像フレームに対する最終画像生産物にいて、仮想オブジェクトの向きおよび/またはコンテンツのかなりのずれを作成するであろうことを意味する。
いくつかの実施形態によると、拡張現実(AR)記録のために、ユーザの眼の視点からレンダリングされた仮想コンテンツを再利用する代わりに、AR記録のために、特に、追加の仮想コンテンツが、追加の視点からレンダリングされる。すなわち、仮想コンテンツが、AR記録に関するカメラの視点からレンダリングされる。その追加の仮想コンテンツは、カメラによって生成された画像フレームと組み合わせられ、AR記録を形成する。待ち時間およびコンピューティングオーバーヘッドを低減させるために、標準のGPU処理における間隙が、仮想コンテンツの追加のレンダリングを実施するために利用され得る。
仮想コンテンツは、ユーザの視点からの第1の仮想コンテンツに対応する、ことと、カメラ姿勢仮想コンテンツをレンダリングすることであって、カメラ姿勢仮想コンテンツは、カメラの視点からの第2の仮想コンテンツに対応する、ことと、カメラ画像フレームをカメラ姿勢仮想コンテンツと組み合わせることによって、画像記録を合成することとを実装する画像記録を生成する方法、コンピュータプログラム製品、およびシステムに関する。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
画像記録を生成する方法であって、前記方法は、
カメラを用いて、カメラ画像フレームを捕捉することと、
前記カメラ画像フレームに対応する姿勢データを識別することであって、前記姿勢データは、ユーザ姿勢データとカメラ姿勢データとを含み、前記ユーザ姿勢データは、前記カメラ姿勢データとは異なる視点からのものである、ことと、
拡張現実(AR)デバイスにおけるユーザへの即時の表示のために、ユーザ姿勢仮想コンテンツをレンダリングすることであって、前記ユーザ姿勢仮想コンテンツは、ユーザの視点からの第1の仮想コンテンツに対応する、ことと、
カメラ姿勢仮想コンテンツをレンダリングすることであって、前記カメラ姿勢仮想コンテンツは、前記カメラの視点からの第2の仮想コンテンツに対応する、ことと、
前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせることによって、画像記録を合成することと
を含む、方法。
(項目2)
単一のGPU処理サイクルは、前記ユーザ姿勢と前記カメラ姿勢との両方のための仮想コンテンツをレンダリングするための処理を含む、項目1に記載の方法。
(項目3)
前記単一のGPU処理サイクル中にレンダリングされる前記ユーザ姿勢と前記カメラ姿勢とのための前記仮想コンテンツは、同一のフレームのためのものである、項目2に記載の方法。
(項目4)
前記単一のGPU処理サイクル中にレンダリングされる前記ユーザ姿勢と前記カメラ姿勢とのための前記仮想コンテンツは、異なるフレームに対応する、項目2に記載の方法。(項目5)
合成器が、前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせることによって、前記画像記録を生成する、項目1に記載の方法。
(項目6)
慣性測定ユニット(IMU)が、前記姿勢データを生成する、項目1に記載の方法。
(項目7)
メディアエンコーダが、前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせた1つ以上の画像フレームをエンコードする、項目1に記載の方法。
(項目8)
前記メディアエンコーダによってエンコードされる前記1つ以上の画像フレームは、単一の画像フレームまたは複数の画像フレームのストリームのうちの少なくとも1つを含む、項目7に記載の方法。
(項目9)
コンピュータ読み取り可能な媒体上に具現化されるコンピュータプログラム製品であって、前記コンピュータ読み取り可能な媒体は、プロセッサによって実行されると、前記プロセッサに項目1-8に記載の方法のうちのいずれかを実行させる一連の命令を記憶している、コンピュータプログラム製品。
(項目10)
画像記録を生成するためのシステムであって、前記システムは、
3次元コンテンツを表示する拡張現実表示デバイスと、
カメラ画像フレームを捕捉するカメラと、
前記カメラ画像フレームに対応する姿勢データを識別するIMUであって、前記姿勢データは、ユーザ姿勢データとカメラ姿勢データとを含み、前記ユーザ姿勢データは、前記カメラ姿勢データとは異なる視点からのものである、IMUと、
ユーザ姿勢仮想コンテンツおよびカメラ姿勢仮想コンテンツの両方をレンダリングするGPUであって、前記ユーザ姿勢仮想コンテンツは、拡張現実デバイスにおけるユーザへの即時の表示のためにレンダリングされ、前記ユーザ姿勢仮想コンテンツは、ユーザの視点からの第1の仮想コンテンツに対応し、前記カメラ姿勢仮想コンテンツは、前記カメラの視点からの第2の仮想コンテンツに対応する、GPUと、
前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせることによって画像記録を合成する合成器と
を備えている、システム。
(項目11)
前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせた1つ以上の画像フレームをエンコードするメディアエンコーダをさらに備えている、項目10に記載のシステム。
(項目12)
前記メディアエンコーダによってエンコードされる前記1つ以上の画像フレームは、単一の画像フレームまたは複数の画像フレームのストリームのうちの少なくとも1つを含む、項目11に記載のシステム。
(項目13)
単一のGPU処理サイクルは、前記ユーザ姿勢および前記カメラ姿勢の両方のための仮想コンテンツをレンダリングするための処理を含む、項目10に記載のシステム。
(項目14)
前記単一のGPU処理サイクル中にレンダリングされる前記ユーザ姿勢と前記カメラ姿勢とのための前記仮想コンテンツは、同一のフレームのためのものである、項目13に記載のシステム。
(項目15)
前記単一のGPU処理サイクル中にレンダリングされる前記ユーザ姿勢と前記カメラ姿勢とのための前記仮想コンテンツは、異なるフレームに対応する、項目13に記載のシステム。
(項目16)
前記合成器は、前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせることによって、前記画像記録を生成する、項目10に記載のシステム。
深く理解するために、上で手短に説明される本開示のより具体的な説明が、付随の図面に図示される、その具体的実施形態を参照することによって与えられるであろう。これらの図面が、本開示の典型的実施形態のみを描写し、したがって、その範囲の限定に見なされるものではないことの理解のもと、本開示は、付随の図面の使用を通して、追加の特殊性および詳細とともに記載かつ説明されるであろう。
本開示は、「第三の眼」の仮想コンテンツレンダリングを使用して拡張現実(AR)記録を実装するためのアプローチを対象とする。いくつかの実施形態によると、AR記録のために、ユーザの眼の視点からレンダリングされた仮想コンテンツを再利用する代わりに、追加の仮想コンテンツが、カメラの視点からレンダリングされ、その追加の仮想コンテンツが、実世界のカメラ記録と組み合わせられ、AR記録を形成する。いくつかの実施形態では、標準のGPU処理における間隙が、追加の仮想コンテンツのレンダリングを生成するための追加のレンダリングを実施するために利用され得る。
続く説明は、それを用いて本開示が実践され得る(「拡張現実システム」、「ARシステム」、または「複合現実システム」のうちの任意のものと本明細書において称され得る)例証的拡張現実(AR)システムに関する。しかしながら、本開示は、拡張現実および仮想現実システムの他のタイプにおける用途にも適しており、したがって、本開示は、本明細書に開示される例証的システムにのみ限定されるものではないことを理解されたい。
Employing Same」と題され、2014年7月14日に出願された米国特許出願第14/331,218号に提供されている。
)の中への書き込みおよび/またはそれからの読み取りを行い得る。
ム108と、1つ以上のフレームバッファ154と、GPU152と、3Dデータベース160と、画像/ビデオデータ171と、CPU150とを含む。制御サブシステム101bは、1つ以上の慣性測定ユニット(IMU)162と、合成器164と、メディアエンコーダ166と、記録データベース168とをさらに含む。
続く説明は、いくつかの実施形態による、AR記録を生成するためのアプローチに関する。AR記録のために、ユーザの眼の視点からレンダリングされた仮想コンテンツを再利用する代わりに、追加の仮想コンテンツが、カメラの視点からレンダリングされ、追加の仮想コンテンツは、カメラ記憶と組み合わせられ、AR記録を形成する。
保存するように求める。生じる問題は、仮想オブジェクトがユーザの眼の視点からレンダリングされるのに対し、カメラが、ユーザの眼の視点と異なるカメラの視点から実オブジェクトを記録しているという事実に起因して、画像アーチファクトが生成され得ることである。
けて仮想オブジェクトを含むと仮定する。仮想オブジェクトは、実際には実世界に存在せず、故に、ARシステム100aまたは100bなしには、エンドユーザ50によって視認されることはできず、カメラ(例えば、カメラ144)によって捕捉された画像フレーム内で視認されることはできず、ARシステムなしでは、ユーザによって視認されることはできない。しかしながら、仮想オブジェクトは、定義された形状と、座標場所とを有し、したがって、その論理場所および向きにおいてユーザに表示されるべき仮想コンテンツとして、ARシステム100aまたは100bによってレンダリングされることができる。仮想オブジェクトは、その正面上に文字「VO」を伴い、その側面上に文字「X」を伴う一定のブロック/立方体として成形される。
れていないことを意味する。したがって、ワーピングが適用される場合でも、仮想オブジェクトの右側面からの文字「X」は、文字「X」が第1の視点からレンダリングされた仮想オブジェクト内に存在していなかったので、ワーピングされた仮想オブジェクト内に存在しないであろう。これは、カメラ144がエンドユーザ50の眼(例えば、第1の視点)とは異なる視点を有するので、第1の視点からのワーピングされた仮想オブジェクトと第2の視点からの実オブジェクトとの組み合わせが、第2の視点から視認可能であるべきであるコンテンツ(すなわち、仮想オブジェクトの右側上の「X」)を欠いていることを意味する。これは、記録された画像/ビデオフレームの有用性および正確度に影響を及ぼすビデオアーチファクトを生成する。
並べることによって、仮想コンテンツをカメラ画像フレームとの正しい相対位置に挿入することによって実施され得る。
)、エンドユーザ50の視点からの環境内の実オブジェクトのビュー上に重ねられるエンドユーザ50のための仮想コンテンツの画像を生産するように提供されることを意味する。
らの仮想オブジェクトのはるかに正確なビューを提供する。レンダリングされた仮想オブジェクトは、次いで、合成器164によって実オブジェクトの実世界画像と組み合わせられ、組み合わせられた画像フレームを形成する。この組み合わせられた画像フレームは、次いで、メディアエンコーダ166によってエンコードされ、記録データベース168がコンピュータ記憶媒体であり得る記録データベース168に保存されることができる。
リケーションは、現在の画像フレーム「N」に対する作業負荷を実施する。その同一処理サイクルの中で、GPUは、エンドユーザ50の頭部および/または眼の視点から、画像フレーム「N」のための仮想コンテンツをレンダリングするための動作を実施する。レンダリングされた仮想コンテンツは、ウェアラブルARデバイス上に表示されるように生成される。同一処理サイクルの中で、GPUは、カメラ144の視点から、画像フレーム「N」のための仮想コンテンツをレンダリングするための動作も実施する。
ツをレンダリングすることによって、開始する。GPUが以前のフレーム「N-1」のためのカメラ144の視点からの仮想コンテンツを処理することを終了した後にのみ、GPUは、次いで、現在のフレーム「N」のためにエンドユーザ50の頭部および/眼の視点から仮想コンテンツをレンダリングすることに進むであろう。
144のための姿勢データは、フレーム「N」処理期間内に処理されない。代わりに、カメラ144のための姿勢データは、フレーム「N+1」処理期間中の処理のために、GPUに伝送される。
図11は、画像データの上で説明される処理のための本開示のある実施形態の実装に好適である例証的コンピューティングシステム1400のブロック図である。コンピュータシステム1400は、プロセッサ1407、システムメモリ1408(例えば、RAM)、静的記憶デバイス1409(例えば、ROM)、ディスクドライブ1410(例えば、磁気または光学)、通信インターフェース1414(例えば、モデムもしくはイーサネット(登録商標)カード)、ディスプレイ1411(例えば、CRTまたはLCD)、入力デバイス1412(例えば、キーボード)、および、カーソル制御部等のサブシステムおよびにデバイスを相互接続する情報を通信するためのバス1406または他の通信機構を含む。
410等の光学または磁気ディスクを含む。揮発性媒体は、システムメモリ1408等の動的メモリを含む。
Claims (18)
- 画像記録を生成する方法であって、前記方法は、
カメラを用いて、カメラ画像フレームを捕捉することと、
前記カメラ画像フレームに対応する姿勢データを取得することであって、前記姿勢データは、ユーザ姿勢データとカメラ姿勢データとを含み、前記ユーザ姿勢データは、前記カメラ姿勢データとは異なる視点からのものである、ことと、
拡張現実(AR)デバイスにおけるユーザへの即時の表示のために、ユーザ姿勢仮想コンテンツをレンダリングすることであって、前記ユーザ姿勢仮想コンテンツは、前記ユーザの視点からの第1の仮想コンテンツに対応する、ことと、
カメラ姿勢仮想コンテンツを生成するために前記カメラ姿勢データに基づいて前記ユーザ姿勢仮想コンテンツをワーピングすることであって、前記カメラ姿勢仮想コンテンツは、前記カメラの視点からの第2の仮想コンテンツに対応する、ことと、
前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせることによって、前記画像記録を合成することと
を含み、
単一の慣性測定ユニット(IMU)は、前記ユーザ姿勢データと前記カメラ姿勢データとの両方を生成する、方法。 - 表示画像フレームを表示するための要求を受信することと、
前記表示画像フレームを表示するための前記要求に応答して前記カメラを用いて前記カメラ画像フレームを捕捉することと
をさらに含む、請求項1に記載の方法。 - 後の表示のために前記画像記録を記憶することをさらに含む、請求項1に記載の方法。
- 単一のグラフィック処理ユニット(GPU)処理サイクルは、前記ユーザ姿勢データに基づいて前記ユーザ姿勢仮想コンテンツをレンダリングし、前記カメラ姿勢仮想コンテンツを生成するために前記カメラ姿勢データに基づいて前記ユーザ姿勢仮想コンテンツをワーピングするための処理を含む、請求項1に記載の方法。
- 合成器が、前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせることによって、前記画像記録を生成する、請求項1に記載の方法。
- メディアエンコーダが、前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせた1つ以上の画像フレームをエンコードすることをさらに含む、請求項1に記載の方法。
- 前記メディアエンコーダによってエンコードされる前記1つ以上の画像フレームは、単一の画像フレームまたは複数の画像フレームのストリームのうちの少なくとも1つを含む、請求項6に記載の方法。
- 非一過性コンピュータ読み取り可能な媒体上に具現化されるコンピュータプログラム製品であって、前記非一過性コンピュータ読み取り可能な媒体は、プロセッサによって実行されると、前記プロセッサに画像記録を生成する方法を実行させる一連の命令を記憶しており、前記方法は、
カメラを用いて、カメラ画像フレームを捕捉することと、
前記カメラ画像フレームに対応する姿勢データを取得することであって、前記姿勢データは、ユーザ姿勢データとカメラ姿勢データとを含み、前記ユーザ姿勢データは、前記カメラ姿勢データとは異なる視点からのものである、ことと、
拡張現実(AR)デバイスにおけるユーザへの即時の表示のために、ユーザ姿勢仮想コンテンツをレンダリングすることであって、前記ユーザ姿勢仮想コンテンツは、前記ユーザの視点からの第1の仮想コンテンツに対応する、ことと、
カメラ姿勢仮想コンテンツを生成するために前記カメラ姿勢データに基づいて前記ユーザ姿勢仮想コンテンツをワーピングすることであって、前記カメラ姿勢仮想コンテンツは、前記カメラの視点からの第2の仮想コンテンツに対応する、ことと、
前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせることによって、前記画像記録を合成することと
を含み、
単一の慣性測定ユニット(IMU)は、前記ユーザ姿勢データと前記カメラ姿勢データとの両方を生成する、コンピュータプログラム製品。 - 前記方法は、
表示画像フレームを表示するための要求を受信することと、
前記表示画像フレームを表示するための前記要求に応答して前記カメラを用いて前記カメラ画像フレームを捕捉することと
をさらに含む、請求項8に記載のコンピュータプログラム製品。 - 前記方法は、後の表示のために前記画像記録を記憶することをさらに含む、請求項8に記載のコンピュータプログラム製品。
- 単一のグラフィック処理ユニット(GPU)処理サイクルは、前記ユーザ姿勢データに基づいて前記ユーザ姿勢仮想コンテンツをレンダリングし、前記カメラ姿勢仮想コンテンツを生成するために前記カメラ姿勢データに基づいて前記ユーザ姿勢仮想コンテンツをワーピングするための処理を含む、請求項8に記載のコンピュータプログラム製品。
- 合成器が、前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせることによって、前記画像記録を生成する、請求項8に記載のコンピュータプログラム製品。
- メディアエンコーダが、前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせた1つ以上の画像フレームをエンコードする、請求項8に記載のコンピュータプログラム製品。
- 前記メディアエンコーダによってエンコードされる前記1つ以上の画像フレームは、単一の画像フレームまたは複数の画像フレームのストリームのうちの少なくとも1つを含む、請求項13に記載のコンピュータプログラム製品。
- 画像記録を生成するためのシステムであって、前記システムは、
3次元コンテンツを表示する拡張現実表示デバイスと、
カメラ画像フレームを捕捉するカメラと、
前記カメラ画像フレームに対応する姿勢データを取得する単一の慣性測定ユニット(IMU)であって、前記姿勢データは、ユーザ姿勢データとカメラ姿勢データとを含み、前記ユーザ姿勢データは、前記カメラ姿勢データとは異なる視点からのものである、IMUと、
単一のグラフィック処理ユニット(GPU)であって、
拡張現実(AR)デバイスにおけるユーザへの即時の表示のためにユーザ姿勢仮想コンテンツをレンダリングすることであって、前記ユーザ姿勢仮想コンテンツは、前記ユーザの視点からの第1の仮想コンテンツに対応する、ことと、
カメラ姿勢仮想コンテンツを生成するために前記カメラ姿勢データに基づいて前記ユーザ姿勢仮想コンテンツをワーピングすることであって、前記カメラ姿勢仮想コンテンツは、前記カメラの視点からの第2の仮想コンテンツに対応する、ことと
を行う、GPUと、
前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせることによって前記画像記録を合成する合成器と
を備えている、システム。 - 前記カメラ画像フレームを前記カメラ姿勢仮想コンテンツと組み合わせた1つ以上の画像フレームをエンコードするメディアエンコーダをさらに備えている、請求項15に記載のシステム。
- 前記メディアエンコーダによってエンコードされる前記1つ以上の画像フレームは、単一の画像フレームまたは複数の画像フレームのストリームのうちの少なくとも1つを含む、請求項16に記載のシステム。
- 単一のGPU処理サイクルは、前記ユーザ姿勢データに基づいて前記ユーザ姿勢仮想コンテンツをレンダリングし、前記カメラ姿勢仮想コンテンツを生成するために前記カメラ姿勢データに基づいて前記ユーザ姿勢仮想コンテンツをワーピングするための処理を含む、請求項15に記載のシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022073937A JP7133115B2 (ja) | 2017-03-17 | 2022-04-28 | 拡張現実データを記録するための手法 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762472923P | 2017-03-17 | 2017-03-17 | |
US62/472,923 | 2017-03-17 | ||
JP2019550199A JP7007396B2 (ja) | 2017-03-17 | 2018-03-16 | 拡張現実データを記録するための手法 |
PCT/US2018/023025 WO2018170490A1 (en) | 2017-03-17 | 2018-03-16 | Technique for recording augmented reality data |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019550199A Division JP7007396B2 (ja) | 2017-03-17 | 2018-03-16 | 拡張現実データを記録するための手法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022073937A Division JP7133115B2 (ja) | 2017-03-17 | 2022-04-28 | 拡張現実データを記録するための手法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022040219A true JP2022040219A (ja) | 2022-03-10 |
JP7068562B2 JP7068562B2 (ja) | 2022-05-16 |
Family
ID=63520263
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019550199A Active JP7007396B2 (ja) | 2017-03-17 | 2018-03-16 | 拡張現実データを記録するための手法 |
JP2022001002A Active JP7068562B2 (ja) | 2017-03-17 | 2022-01-06 | 拡張現実データを記録するための手法 |
JP2022073937A Active JP7133115B2 (ja) | 2017-03-17 | 2022-04-28 | 拡張現実データを記録するための手法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019550199A Active JP7007396B2 (ja) | 2017-03-17 | 2018-03-16 | 拡張現実データを記録するための手法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022073937A Active JP7133115B2 (ja) | 2017-03-17 | 2022-04-28 | 拡張現実データを記録するための手法 |
Country Status (9)
Country | Link |
---|---|
US (3) | US10573078B2 (ja) |
EP (2) | EP3596542B1 (ja) |
JP (3) | JP7007396B2 (ja) |
KR (3) | KR102598116B1 (ja) |
CN (1) | CN110402415A (ja) |
AU (2) | AU2018234929B2 (ja) |
CA (1) | CA3055219A1 (ja) |
IL (3) | IL297863B2 (ja) |
WO (1) | WO2018170490A1 (ja) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018200993A1 (en) | 2017-04-28 | 2018-11-01 | Zermatt Technologies Llc | Video pipeline |
US10979685B1 (en) | 2017-04-28 | 2021-04-13 | Apple Inc. | Focusing for virtual and augmented reality systems |
KR102481884B1 (ko) * | 2017-09-22 | 2022-12-28 | 삼성전자주식회사 | 가상 영상을 표시하는 방법 및 장치 |
US10728430B2 (en) * | 2018-03-07 | 2020-07-28 | Disney Enterprises, Inc. | Systems and methods for displaying object features via an AR device |
CN112262361A (zh) * | 2018-04-20 | 2021-01-22 | Pcms控股公司 | 用于对混合现实内容进行基于注视的控制的方法和系统 |
US11227435B2 (en) | 2018-08-13 | 2022-01-18 | Magic Leap, Inc. | Cross reality system |
EP3837674A4 (en) | 2018-08-13 | 2022-05-18 | Magic Leap, Inc. | CROSS REALITY SYSTEM |
JP7503542B2 (ja) | 2018-10-05 | 2024-06-20 | マジック リープ, インコーポレイテッド | 任意の場所における場所特有の仮想コンテンツのレンダリング |
WO2021076754A1 (en) | 2019-10-15 | 2021-04-22 | Magic Leap, Inc. | Cross reality system with localization service |
JP2022551735A (ja) | 2019-10-15 | 2022-12-13 | マジック リープ, インコーポレイテッド | 無線フィンガプリントを用いたクロスリアリティシステム |
JP2022551734A (ja) | 2019-10-15 | 2022-12-13 | マジック リープ, インコーポレイテッド | 複数のデバイスタイプをサポートするクロスリアリティシステム |
EP4052086A4 (en) | 2019-10-31 | 2023-11-15 | Magic Leap, Inc. | EXTENDED REALITY SYSTEM PROVIDING QUALITY INFORMATION ABOUT PERSISTENT COORDINATE FRAMES |
WO2021096931A1 (en) | 2019-11-12 | 2021-05-20 | Magic Leap, Inc. | Cross reality system with localization service and shared location-based content |
JP2023504570A (ja) | 2019-12-09 | 2023-02-03 | マジック リープ, インコーポレイテッド | 仮想コンテンツの簡略化されたプログラミングを伴うクロスリアリティシステム |
WO2021163300A1 (en) | 2020-02-13 | 2021-08-19 | Magic Leap, Inc. | Cross reality system with map processing using multi-resolution frame descriptors |
CN115398484A (zh) | 2020-02-13 | 2022-11-25 | 奇跃公司 | 具有用于定位的地理定位信息优先级的交叉现实系统 |
CN115427758A (zh) | 2020-02-13 | 2022-12-02 | 奇跃公司 | 具有精确共享地图的交叉现实系统 |
CN115461787A (zh) | 2020-02-26 | 2022-12-09 | 奇跃公司 | 具有快速定位的交叉现实系统 |
KR102650385B1 (ko) * | 2020-04-09 | 2024-03-25 | 주식회사 피아몬드 | 가상세계의 공간을 통해 노출하기 위한 콘텐츠를 선정하는 방법 및 시스템 |
US11521359B2 (en) * | 2020-04-17 | 2022-12-06 | Apple Inc. | Extended reality recorder |
US11900547B2 (en) | 2020-04-29 | 2024-02-13 | Magic Leap, Inc. | Cross reality system for large scale environments |
CN113961280B (zh) * | 2020-07-21 | 2023-11-24 | 抖音视界有限公司 | 视图的展示方法、装置、电子设备及计算机可读存储介质 |
US12051239B2 (en) | 2020-08-11 | 2024-07-30 | Disney Enterprises, Inc. | Item location tracking via image analysis and projection |
CN112819967B (zh) * | 2021-01-14 | 2024-07-30 | 京东方科技集团股份有限公司 | 一种显示方法、装置及系统、存储介质、显示器 |
US11651544B2 (en) * | 2021-04-30 | 2023-05-16 | Varjo Technologies Oy | Systems and methods employing multiple graphics processing units for producing images |
US20220351411A1 (en) * | 2021-04-30 | 2022-11-03 | Varjo Technologies Oy | Display apparatus and method employing reprojection based on marker pose |
DE102021117453B3 (de) | 2021-07-06 | 2022-10-20 | Holoride Gmbh | Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug während einer Fahrt, entsprechend betreibbare Datenbrille, Prozessorschaltung sowie Kraftfahrzeug |
KR102625729B1 (ko) * | 2021-10-05 | 2024-01-16 | 가온그룹 주식회사 | 클론객체를 이용하는 ar 콘텐츠 렌더링 처리 방법 |
US11694409B1 (en) | 2021-12-08 | 2023-07-04 | Google Llc | Augmented reality using a split architecture |
US12062145B2 (en) | 2022-02-01 | 2024-08-13 | Samsung Electronics Co., Ltd. | System and method for three-dimensional scene reconstruction and understanding in extended reality (XR) applications |
US20230342877A1 (en) * | 2022-04-20 | 2023-10-26 | Snap Inc. | Cached cloud rendering |
KR20240026314A (ko) * | 2022-08-18 | 2024-02-28 | 한국전자기술연구원 | 비디오 기반의 증강현실 컨텐츠 제공 시스템 |
CN117596373B (zh) * | 2024-01-17 | 2024-04-12 | 淘宝(中国)软件有限公司 | 基于动态数字人形象进行信息展示的方法及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002271693A (ja) * | 2001-03-13 | 2002-09-20 | Canon Inc | 画像処理装置、画像処理方法、及び制御プログラム |
WO2016118371A1 (en) * | 2015-01-20 | 2016-07-28 | Microsoft Technology Licensing, Llc | Mixed reality system |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US573078A (en) * | 1896-12-15 | Wattmeter | ||
US7728877B2 (en) * | 2004-12-17 | 2010-06-01 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for synthesizing multiview videos |
KR100918392B1 (ko) * | 2006-12-05 | 2009-09-24 | 한국전자통신연구원 | 3d 컨텐츠 저작을 위한 개인형 멀티미디어 스튜디오플랫폼 장치 및 방법 |
US8990292B2 (en) * | 2011-07-05 | 2015-03-24 | Cisco Technology, Inc. | In-network middlebox compositor for distributed virtualized applications |
KR101887548B1 (ko) * | 2012-03-23 | 2018-08-10 | 삼성전자주식회사 | 증강현실 서비스를 위한 미디어 파일의 처리 방법 및 장치 |
US20130311548A1 (en) | 2012-05-15 | 2013-11-21 | Nvidia Corporation | Virtualized graphics processing for remote display |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US9361659B2 (en) | 2012-11-14 | 2016-06-07 | Facebook, Inc. | Systems and methods for optimizing order of image transformations |
US20140176591A1 (en) * | 2012-12-26 | 2014-06-26 | Georg Klein | Low-latency fusing of color image data |
US9083960B2 (en) * | 2013-01-30 | 2015-07-14 | Qualcomm Incorporated | Real-time 3D reconstruction with power efficient depth sensor usage |
KR102458124B1 (ko) | 2013-03-15 | 2022-10-21 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
US9269003B2 (en) * | 2013-04-30 | 2016-02-23 | Qualcomm Incorporated | Diminished and mediated reality effects from reconstruction |
JP6359644B2 (ja) * | 2013-05-02 | 2018-07-18 | クアルコム,インコーポレイテッド | コンピュータビジョンアプリケーション初期化を容易にするための方法 |
US9063330B2 (en) * | 2013-05-30 | 2015-06-23 | Oculus Vr, Llc | Perception based predictive tracking for head mounted displays |
US9578016B2 (en) * | 2014-07-17 | 2017-02-21 | Riverbed Technology, Inc. | Optimizing secure communications between a client authenticating server and a mobile client |
KR20160112898A (ko) * | 2015-03-20 | 2016-09-28 | 한국과학기술원 | 증강현실 기반 동적 서비스 제공 방법 및 장치 |
US9240069B1 (en) * | 2015-06-30 | 2016-01-19 | Ariadne's Thread (Usa), Inc. | Low-latency virtual reality display system |
US9569812B1 (en) * | 2016-01-07 | 2017-02-14 | Microsoft Technology Licensing, Llc | View rendering from multiple server-side renderings |
CN106228591B (zh) * | 2016-07-12 | 2020-06-26 | 江苏奥格视特信息科技有限公司 | 虚拟现实超高速实时渲染方法 |
CN106231205B (zh) * | 2016-08-10 | 2019-07-30 | 苏州黑盒子智能科技有限公司 | 增强现实移动终端 |
CN106131536A (zh) * | 2016-08-15 | 2016-11-16 | 万象三维视觉科技(北京)有限公司 | 一种裸眼3d增强现实互动展示系统及其展示方法 |
CN106327584B (zh) * | 2016-08-24 | 2020-08-07 | 深圳市瑞云科技有限公司 | 一种用于虚拟现实设备的图像处理方法及装置 |
CN106502427B (zh) * | 2016-12-15 | 2023-12-01 | 北京国承万通信息科技有限公司 | 虚拟现实系统及其场景呈现方法 |
-
2018
- 2018-03-16 EP EP18768170.5A patent/EP3596542B1/en active Active
- 2018-03-16 US US15/924,144 patent/US10573078B2/en active Active
- 2018-03-16 IL IL297863A patent/IL297863B2/en unknown
- 2018-03-16 JP JP2019550199A patent/JP7007396B2/ja active Active
- 2018-03-16 CN CN201880018314.0A patent/CN110402415A/zh active Pending
- 2018-03-16 CA CA3055219A patent/CA3055219A1/en active Pending
- 2018-03-16 AU AU2018234929A patent/AU2018234929B2/en active Active
- 2018-03-16 KR KR1020237010823A patent/KR102598116B1/ko active IP Right Grant
- 2018-03-16 IL IL290001A patent/IL290001B2/en unknown
- 2018-03-16 KR KR1020197030295A patent/KR102384232B1/ko active IP Right Grant
- 2018-03-16 KR KR1020227010984A patent/KR102517876B1/ko active IP Right Grant
- 2018-03-16 EP EP24151535.2A patent/EP4329305A3/en active Pending
- 2018-03-16 WO PCT/US2018/023025 patent/WO2018170490A1/en active Application Filing
-
2019
- 2019-08-19 IL IL268777A patent/IL268777B/en unknown
-
2020
- 2020-01-15 US US16/743,207 patent/US10861244B2/en active Active
- 2020-10-27 US US17/081,081 patent/US11380068B2/en active Active
-
2022
- 2022-01-06 JP JP2022001002A patent/JP7068562B2/ja active Active
- 2022-04-28 JP JP2022073937A patent/JP7133115B2/ja active Active
- 2022-09-26 AU AU2022241459A patent/AU2022241459A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002271693A (ja) * | 2001-03-13 | 2002-09-20 | Canon Inc | 画像処理装置、画像処理方法、及び制御プログラム |
WO2016118371A1 (en) * | 2015-01-20 | 2016-07-28 | Microsoft Technology Licensing, Llc | Mixed reality system |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7068562B2 (ja) | 拡張現実データを記録するための手法 | |
AU2022200841B2 (en) | Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same | |
AU2018236457B2 (en) | Mixed reality system with virtual content warping and method of generating virtual content using same | |
KR20190125455A (ko) | 컬러 가상 콘텐츠 와핑을 갖는 혼합 현실 시스템 및 이를 사용하여 가상 콘텐츠를 생성하는 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220106 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220401 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220428 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7068562 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |