JP2021530811A - 仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法 - Google Patents

仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法 Download PDF

Info

Publication number
JP2021530811A
JP2021530811A JP2021503570A JP2021503570A JP2021530811A JP 2021530811 A JP2021530811 A JP 2021530811A JP 2021503570 A JP2021503570 A JP 2021503570A JP 2021503570 A JP2021503570 A JP 2021503570A JP 2021530811 A JP2021530811 A JP 2021530811A
Authority
JP
Japan
Prior art keywords
depth
virtual content
rendered
movement
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021503570A
Other languages
English (en)
Other versions
JPWO2020023383A5 (ja
JP7304934B2 (ja
Inventor
レザ ヌーライ,
ロバート ブレイク テイラー,
マイケル ハロルド リーベナウ,
ジール カデット,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2021530811A publication Critical patent/JP2021530811A/ja
Publication of JPWO2020023383A5 publication Critical patent/JPWO2020023383A5/ja
Priority to JP2023104864A priority Critical patent/JP7443602B2/ja
Application granted granted Critical
Publication of JP7304934B2 publication Critical patent/JP7304934B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

仮想コンテンツをワーピングするためのコンピュータ実装方法は、レンダリングされた仮想コンテンツデータを受信するステップであって、レンダリングされた仮想コンテンツデータは、遠深度を含む、ステップを含む。本方法はまた、光学軸に直交する方向におけるユーザ移動を示す、移動データを受信するステップを含む。本方法はさらに、レンダリングされた仮想コンテンツデータ、遠深度、および移動データに基づいて、ワーピングされたレンダリングされた仮想コンテンツデータを生成するステップを含む。

Description

本開示は、仮想コンテンツをワーピングするステップを伴う複合現実システムと、それを使用して、ワーピングされた仮想コンテンツを含む複合現実体験を生成するための方法とに関する。
現代のコンピューティングおよびディスプレイ技術は、デジタル的に再現された画像またはその一部が、現実であるように見える、またはそのように知覚され得る様式においてユーザに提示される、いわゆる「仮想現実」(VR)または「拡張現実」(AR)体験のための「複合現実」(MR)システムの開発を促進している。VRシナリオは、典型的には、実際の実世界の視覚的入力に対する透過性を伴わずに、デジタルまたは仮想画像情報の提示を伴う。ARシナリオは、典型的には、ユーザの周囲の実世界の可視化(すなわち、実世界視覚的入力に対して透過性である)の拡張として、デジタルまたは仮想画像情報の提示を伴う。故に、ARシナリオは、ユーザの周囲の実世界に対する透過性を伴う、デジタルまたは仮想画像情報の提示を伴う。
種々の光学システムが、MR(VRおよびAR)シナリオを表示するために、画像を種々の深度において生成する。いくつかのそのような光学システムは、2014年11月27日に出願された米国実用特許出願第14/555,585号(弁理士整理番号第ML.20011.00)(その内容は、参照することによって、全体として記載される場合と同様に、その全体として明示的かつ完全に本明細書に組み込まれる)に説明される。
MRシステムは、典型的には、ユーザの頭部に少なくとも緩く結合され、したがって、ユーザの頭部が移動すると移動する、ウェアラブルディスプレイデバイス(例えば、頭部装着型ディスプレイ、ヘルメット搭載型ディスプレイ、またはスマートグラス)を採用する。ユーザの頭部運動が、ディスプレイデバイスによって検出される場合、表示されているデータは、頭部姿勢(すなわち、ユーザの頭部の配向および/または場所)の変化を考慮するために更新されることができる。
実施例として、頭部装着型ディスプレイデバイスを装着しているユーザが、仮想オブジェクトの仮想表現をディスプレイデバイス上で視認し、仮想オブジェクトが現れる面積の周囲を歩き回る場合、仮想オブジェクトは、視点(頭部搭載型ディスプレイデバイスの位置および/または配向に対応する)毎にレンダリングされ、ユーザに、実空間を占有するオブジェクトの周囲を歩き回っているという知覚を与えることができる。頭部装着型ディスプレイデバイスが、複数の仮想オブジェクトを異なる深度に提示するために使用される場合、頭部姿勢の測定は、場面をユーザの動的に変化する頭部姿勢に合致するようにレンダリングし、増加された没入感を提供するために使用されることができる。しかしながら、場面をレンダリングするステップと、レンダリングされた場面を表示/投影するステップとの間には、不可避の遅れが存在する。
頭部装着型ディスプレイデバイスは、ARが、実および仮想オブジェクトの両方の同時視認を提供することを可能にする。「光学シースルー」ディスプレイを用いることで、ユーザは、ディスプレイシステム内の透明(または半透明)要素を通して見え、直接、実世界環境内の実オブジェクトからの光を視認することができる。透明要素は、多くの場合、「コンバイナ」と称され、ディスプレイからの光を実世界のユーザのビューにわたって重畳し、ディスプレイからの光は、仮想コンテンツの画像を環境内の実オブジェクトのシースルービューにわたって投影される。カメラが、頭部装着型ディスプレイデバイス上に搭載され、ユーザによって視認されている場面の画像またはビデオを捕捉し得る。
MRシステムは、写実的没入型のMRシナリオを提示するように試みる。しかしながら、仮想コンテンツ(「レンダリングされた仮想コンテンツ」)の生成とレンダリングされた仮想コンテンツの表示との間の遅れ時間の間の頭部移動は、視覚的アーチファクト(例えば、グリッチ)をもたらし得る。本問題は、遅れ時間の間の高速頭部移動によって悪化され得る。
本問題に対処するために、いくつかの光学システムは、レンダリングされた仮想コンテンツをソースから受信する、ワーピングソフトウェア/システム/方法を含み得る。ワーピングシステムは、次いで、ディスプレイシステム/視認者の基準のフレーム(「基準のディスプレイフレーム」)内における表示のために、受信されたレンダリングされた仮想コンテンツを「ワーピング」する(すなわち、「基準のフレーム」を変換する)。本アプローチは、元々レンダリングされた仮想コンテンツを取り上げ、仮想コンテンツが提示される方法を変換し、表示時に、仮想コンテンツを異なる視点から表示するように試みる。
いくつかのワーピングソフトウェア/システム/方法は、レンダリングされた仮想コンテンツをワーピングし、回転または大まかな位置のユーザ移動(すなわち、ユーザの視野「FOV」)を補正する。そのようなシステムは、他のタイプのユーザ移動(例えば、ユーザの光学軸に直交する軸に沿った実質的側方ユーザ移動)を補正するために最適化されていない。故に、いくつかのワーピングソフトウェア/システム/方法は、ユーザ移動に伴って、アーチファクトをもたらし得る。
一実施形態では、仮想コンテンツをワーピングするためのコンピュータ実装方法は、レンダリングされた仮想コンテンツデータを受信するステップであって、レンダリングされた仮想コンテンツデータは、遠深度を含む、ステップを含む。本方法はまた、光学軸に直交する方向におけるユーザ移動を示す、移動データを受信するステップを含む。本方法はさらに、レンダリングされた仮想コンテンツデータ、遠深度、および移動データに基づいて、ワーピングされたレンダリングされた仮想コンテンツデータを生成するステップを含む。
1つ以上の実施形態では、レンダリングされた仮想コンテンツデータは、近仮想オブジェクトおよび遠仮想オブジェクトに対応し、ワーピングされたレンダリングされた仮想コンテンツデータは、ワーピングされた近仮想オブジェクトおよびワーピングされた遠仮想オブジェクトに対応する。近仮想オブジェクトとワーピングされた近仮想オブジェクトとの間の第1の位置偏移は、遠仮想オブジェクトとワーピングされた遠仮想オブジェクトとの間の第2の位置偏移に実質的に等しくあってもよい。
1つ以上の実施形態では、レンダリングされた仮想コンテンツデータ、遠深度、および移動データに基づいて、ワーピングされたレンダリングされた仮想コンテンツデータを生成するステップは、レンダリングされた仮想コンテンツデータと比較して、視差関連アーチファクトを低減させる。視差関連アーチファクトは、ディスオクルージョンアーチファクトである。視差関連アーチファクトは、スミアアーチファクトまたはジッタアーチファクトであり得る。
1つ以上の実施形態では、レンダリングされた仮想コンテンツデータは、第1の深度セグメントに対応する。本方法はまた、第2の深度セグメントに対応する、第2のレンダリングされた仮想コンテンツデータを受信するステップであって、第2のレンダリングされた仮想コンテンツデータは、第2の遠深度を含む、ステップを含む。本方法はさらに、第2のレンダリングされた仮想コンテンツデータ、第2の遠深度、および移動データに基づいて、ワーピングされた第2のレンダリングされた仮想コンテンツデータを生成するステップを含む。
別の実施形態では、仮想コンテンツをワーピングするためのコンピュータ実装方法は、レンダリングされた仮想コンテンツデータを受信するステップであって、レンダリングされた仮想コンテンツデータは、遠深度および近深度を含む、ステップを含む。本方法はまた、光学軸に直交する方向におけるユーザ移動を示す、移動データを受信するステップを含む。本方法はさらに、レンダリングされた仮想コンテンツデータ、遠深度、近深度、および移動データに基づいて、ワーピングされたレンダリングされた仮想コンテンツデータを生成するステップを含む。
1つ以上の実施形態では、レンダリングされた仮想コンテンツデータ、遠深度、近深度、および移動データに基づいて、ワーピングされたレンダリングされた仮想コンテンツデータを生成するステップは、遠深度および近深度を平均するステップを含む。
さらに別の実施形態では、仮想コンテンツをワーピングするためのコンピュータ実装方法は、レンダリングされた仮想コンテンツデータを受信するステップを含む。本方法はまた、光学軸に直交する方向におけるユーザ移動を示す、移動データを受信するステップを含む。本方法はさらに、ユーザ視線を示す、視線データを受信するステップを含む。さらに、本方法は、視線データに基づいて、深度を決定するステップを含む。加えて、本方法は、レンダリングされた仮想コンテンツデータ、深度、および移動データに基づいて、ワーピングされたレンダリングされた仮想コンテンツデータを生成するステップを含む。
さらに別の実施形態では、仮想コンテンツをワーピングするためのコンピュータ実装方法は、レンダリングされた仮想コンテンツデータを受信するステップを含む。本方法はまた、光学軸に直交する方向におけるユーザ移動を示す、移動データを受信するステップを含む。本方法はさらに、メッシュデータをレンダリングされた仮想コンテンツデータから生成するステップを含む。さらに、本方法は、深度データをメッシュデータから決定するステップを含む。加えて、本方法は、レンダリングされた仮想コンテンツデータ、メッシュデータ、深度データ、および移動データに基づいて、ワーピングされたレンダリングされた仮想コンテンツデータを生成するステップを含む。
1つ以上の実施形態では、本方法はまた、メッシュデータを生成するとき、メッシュサイズを調節するステップを含む。メッシュデータは、グリッドメッシュを使用して生成されてもよい。深度データは、メッシュ内の複数の深度および複数の深度のそれぞれにおけるメッシュのコンテンツに基づいて決定されてもよい。
別の実施形態では、仮想オブジェクトの深度を決定するためのコンピュータ実装方法は、複数の深度において、第1の眼に対応する仮想オブジェクトの第1の画像を第2の眼に対応する仮想オブジェクトの第2の画像にわたって再投影し、複数の個別の組み合わせ画像を生成するステップを含む。本方法はまた、複数の個別の組み合わせ画像のそれぞれにおける再投影誤差を測定し、複数の再投影誤差を生成するステップを含む。本方法はさらに、複数の個別の組み合わせ画像の組み合わせ画像に対応する、複数の再投影誤差内の最小再投影誤差を識別するステップを含む。さらに、本方法は、組み合わせ画像に対応する深度を仮想オブジェクトの深度として識別するステップを含む。
1つ以上の実施形態では、仮想オブジェクトの深度は、仮想オブジェクトを第1の視点から第2の視点にワーピングするために使用される。複数の深度は、64個の深度から成ってもよい。複数の深度はそれぞれ、仮想オブジェクトの第1の画像を再投影する際の1ピクセル差に対応してもよい。
さらに別の実施形態では、最小安定化深度を決定するためのコンピュータ実装方法は、視点(POV)移動量を取得するステップを含む。本方法はまた、POV移動量に基づいて、安定化深度と安定化深度におけるピクセル移動との間の関係を決定するステップを含む。本方法はさらに、ディスプレイシステムのための最大検知不能ピクセル移動を取得するステップを含む。さらに、本方法は、ディスプレイシステムのための最大検知不能ピクセル移動に対応する安定化深度をディスプレイシステムの最小安定化深度として識別するステップを含む。
1つ以上の実施形態では、本方法はまた、視点が変化するとき、視認者に対して最小安定化深度より近いコンテンツのみをワーピングするステップを含む。安定化深度と安定化深度におけるピクセル移動との間の関係は、逆相関であってもよい。
本開示の付加的および他の目的、特徴、および利点は、詳細な説明、図、および請求項に説明される。
図面は、本開示の種々の実施形態の設計および可用性を図示する。図は、正確な縮尺で描かれておらず、類似構造または機能の要素は、図全体を通して同様の参照番号によって表されることに留意されたい。本開示の種々の実施形態の前述および他の利点および目的を得る方法をより深く理解するために、簡単に前述された本開示の詳細な説明が、付随の図面に図示されるその具体的実施形態を参照することによって与えられるであろう。これらの図面は、本開示の典型的実施形態のみを描写し、したがって、その範囲の限定として見なされないことを理解した上で、本開示は、付随の図面の使用を通して、付加的具体性および詳細とともに記載および説明されるであろう。
図1は、いくつかの実施形態による、ウェアラブルARユーザデバイスを通した拡張現実(AR)のユーザのビューを描写する。
図2A−2Dは、いくつかの実施形態による、ARシステムおよびそのサブシステムを図式的に描写する。 図2A−2Dは、いくつかの実施形態による、ARシステムおよびそのサブシステムを図式的に描写する。 図2A−2Dは、いくつかの実施形態による、ARシステムおよびそのサブシステムを図式的に描写する。 図2A−2Dは、いくつかの実施形態による、ARシステムおよびそのサブシステムを図式的に描写する。
図3および4は、いくつかの実施形態による、ユーザ移動に伴うアーチファクトを図示する。 図3および4は、いくつかの実施形態による、ユーザ移動に伴うアーチファクトを図示する。
図5は、いくつかの実施形態による、仮想コンテンツをワーピングし、頭部回転を補正するステップを図示する。
図6−9は、いくつかの実施形態による、仮想コンテンツをワーピングし、ユーザ移動を補正するステップを図示する。 図6−9は、いくつかの実施形態による、仮想コンテンツをワーピングし、ユーザ移動を補正するステップを図示する。 図6−9は、いくつかの実施形態による、仮想コンテンツをワーピングし、ユーザ移動を補正するステップを図示する。 図6−9は、いくつかの実施形態による、仮想コンテンツをワーピングし、ユーザ移動を補正するステップを図示する。
図10は、いくつかの実施形態による、グラフィック処理ユニット(GPU)を図式的に描写する。
図11は、いくつかの実施形態による、プリミティブとして記憶される仮想オブジェクトを描写する。
図12−14は、いくつかの実施形態による、異なる深度に位置する2つの非重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図12−14は、いくつかの実施形態による、異なる深度に位置する2つの非重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図12−14は、いくつかの実施形態による、異なる深度に位置する2つの非重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。
図15−19は、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するときの、ディスオクルージョンアーチファクトを描写する。 図15−19は、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するときの、ディスオクルージョンアーチファクトを描写する。 図15−19は、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するときの、ディスオクルージョンアーチファクトを描写する。 図15−19は、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するときの、ディスオクルージョンアーチファクトを描写する。 図15−19は、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するときの、ディスオクルージョンアーチファクトを描写する。
図20および21は、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するときの、スミアアーチファクトを描写する。 図20および21は、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するときの、スミアアーチファクトを描写する。
図22−24は、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するときの、ジッタアーチファクトを描写する。 図22−24は、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するときの、ジッタアーチファクトを描写する。 図22−24は、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するときの、ジッタアーチファクトを描写する。
図25−27は、いくつかの実施形態による、ジッタアーチファクトを最小限にしながら、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図25−27は、いくつかの実施形態による、ジッタアーチファクトを最小限にしながら、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図25−27は、いくつかの実施形態による、ジッタアーチファクトを最小限にしながら、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。
図28−31は、いくつかの実施形態による、複数の深度を使用して、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図28−31は、いくつかの実施形態による、複数の深度を使用して、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図28−31は、いくつかの実施形態による、複数の深度を使用して、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図28−31は、いくつかの実施形態による、複数の深度を使用して、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図28−31は、いくつかの実施形態による、複数の深度を使用して、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。
図32−38は、いくつかの実施形態による、眼追跡を使用して、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図32−38は、いくつかの実施形態による、眼追跡を使用して、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図32−38は、いくつかの実施形態による、眼追跡を使用して、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図32−38は、いくつかの実施形態による、眼追跡を使用して、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図32−38は、いくつかの実施形態による、眼追跡を使用して、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図32−38は、いくつかの実施形態による、眼追跡を使用して、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図32−38は、いくつかの実施形態による、眼追跡を使用して、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。
図39−45は、いくつかの実施形態による、メッシュを使用して、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図39−45は、いくつかの実施形態による、メッシュを使用して、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図39−45は、いくつかの実施形態による、メッシュを使用して、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図39−45は、いくつかの実施形態による、メッシュを使用して、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図39−45は、いくつかの実施形態による、メッシュを使用して、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図39−45は、いくつかの実施形態による、メッシュを使用して、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。 図39−45は、いくつかの実施形態による、メッシュを使用して、異なる深度に位置する2つの重複仮想オブジェクトをワーピングし、ユーザ移動を補正するステップを描写する。
図46は、いくつかの実施形態による、例証的コンピューティングシステムを図式的に描写する、ブロック図である。
図47−49は、いくつかの実施形態による、仮想オブジェクトの深度を仮想オブジェクトのステレオ画像対から決定するための方法を図式的に描写する。 図47−49は、いくつかの実施形態による、仮想オブジェクトの深度を仮想オブジェクトのステレオ画像対から決定するための方法を図式的に描写する。 図47−49は、いくつかの実施形態による、仮想オブジェクトの深度を仮想オブジェクトのステレオ画像対から決定するための方法を図式的に描写する。
図50−52は、いくつかの実施形態による、仮想オブジェクトの深度を仮想オブジェクトのステレオ画像対から決定するための方法によって生成された種々の組み合わせ画像を示す。 図50−52は、いくつかの実施形態による、仮想オブジェクトの深度を仮想オブジェクトのステレオ画像対から決定するための方法によって生成された種々の組み合わせ画像を示す。 図50−52は、いくつかの実施形態による、仮想オブジェクトの深度を仮想オブジェクトのステレオ画像対から決定するための方法によって生成された種々の組み合わせ画像を示す。
図53は、いくつかの実施形態による、仮想オブジェクトの深度を仮想オブジェクトのステレオ画像対から決定するための方法を図示する、フローチャートである。
図54は、安定化深度とPOV移動に伴う仮想オブジェクトの見掛け移動との間の関係を図示する、グラフである。
図55は、いくつかの実施形態による、安定化深度を決定するための方法を図示する、フローチャートである。
本開示の種々の実施形態は、単一実施形態または複数の実施形態における、仮想コンテンツをワーピングするためのシステム、方法、および製造品を対象とする。本開示の他の目的、特徴、および利点は、詳細な説明、図、および請求項に説明される。
種々の実施形態が、ここで、当業者が本開示を実践することを可能にするように、本開示の例証的実施例として提供される、図面を参照して詳細に説明されるであろう。着目すべきこととして、以下の図および実施例は、本開示の範囲を限定することを意味するものではない。本開示のある要素が、公知のコンポーネント(または方法またはプロセス)を使用して部分的または完全に、実装され得る場合、本開示の理解のために必要なそのような公知のコンポーネント(または方法またはプロセス)の一部のみが、説明され、そのような公知のコンポーネント(または方法またはプロセス)の他の部分の詳細な説明は、本開示を曖昧にしないように、省略されるであろう。さらに、種々の実施形態は、例証として本明細書に参照されるコンポーネントの現在および将来的公知の均等物を包含する。
仮想コンテンツワーピングシステムは、複合現実システムから独立して実装され得るが、下記のいくつかの実施形態は、例証目的のためだけに、ARシステムに関連して説明される。さらに、本明細書に説明される仮想コンテンツワーピングシステムはまた、VRシステムと同じ様式で使用されてもよい。
(例証的複合現実シナリオおよびシステム)
続く説明は、ワーピングシステムが実践され得る、例証的拡張現実システムに関する。しかしながら、実施形態はまた、それ自体が他のタイプのディスプレイシステム(他のタイプの複合現実システムを含む)における用途にも適しており、したがって、実施形態は、本明細書に開示される例証的システムのみに限定されないことを理解されたい。
複合現実(例えば、VRまたはAR)シナリオは、多くの場合、実世界オブジェクトに関連して仮想オブジェクトに対応する仮想コンテンツ(例えば、画像および音)の提示を含む。例えば、図1を参照すると、AR場面100が、描写され、AR技術のユーザには、人々、木々、背景における建物、および実世界の物理的コンクリートプラットフォーム104を特徴とする、実世界の物理的公園状設定102が見える。これらのアイテムに加え、AR技術のユーザはまた、物理的コンクリートプラットフォーム104上に立っている仮想ロボット像106と、マルハナバチの擬人化のように見える、飛んでいる仮想漫画状アバタキャラクタ108とが「見える」と知覚するが、これらの仮想オブジェクト106、108は、実世界には存在しない。
ARシナリオのように、VRシナリオもまた、仮想コンテンツを生成/レンダリングするために使用される姿勢を考慮する。仮想コンテンツを基準のAR/VRディスプレイフレームに対して正確にワーピングし、ワーピングされた仮想コンテンツをワーピングするステップは、AR/VRシナリオを改良する、または少なくともAR/VRシナリオを損なわせないことができる。
続く説明は、本開示が実践され得る、例証的ARシステムに関する。しかしながら、本開示はまた、それ自体が他のタイプの拡張現実および仮想現実システムにおける用途にも適し、したがって、本開示は、本明細書に開示される例証的システムのみに限定されないことを理解されたい。
図2Aは、いくつかの実施形態による、ARシステム200を図示する。ARシステム200は、投影サブシステム208と併せて動作され、物理的オブジェクトと混合された仮想オブジェクトの画像をユーザ250の視野内に提供してもよい。本アプローチは、1つ以上の少なくとも部分的に透明な表面を採用し、それを通して、物理的オブジェクトを含む、周囲環境が、見られることができ、それを通して、ARシステム200は、仮想オブジェクトの画像を生産する。投影サブシステム208は、リンク207を通してディスプレイシステム/サブシステム204に動作可能に結合される、制御サブシステム201内に格納される。リンク207は、有線または無線通信リンクであってもよい。
ARアプリケーションに関して、個別の物理的オブジェクトに対する種々の仮想オブジェクトをユーザ250の視野内に空間的に位置付けることが望ましくあり得る。仮想オブジェクトは、画像として表されることが可能な任意の種々のデータ、情報、概念、または論理構造を有する、多種多様な形態のいずれかをとってもよい。仮想オブジェクトの非限定的実施例は、仮想テキストオブジェクト、仮想数値オブジェクト、仮想英数字オブジェクト、仮想タグオブジェクト、仮想フィールドオブジェクト、仮想チャートオブジェクト、仮想マップオブジェクト、仮想計器オブジェクト、または物理的オブジェクトの仮想視覚的表現を含んでもよい。
ARシステム200は、ユーザ250によって装着される、フレーム構造202と、ディスプレイシステム204がユーザ250の眼の正面に位置付けられるように、フレーム構造202によって担持されるディスプレイシステム204と、ディスプレイシステム204の中に組み込まれる、またはそれに接続される、スピーカ206とを含む。図示される実施形態では、スピーカ206は、スピーカ206がユーザ250の外耳道(内またはその周囲)に隣接して位置付けられるように、フレーム構造202によって担持される(例えば、イヤーバッドまたはヘッドホン)。
ディスプレイシステム204は、ユーザ250の眼に、2次元および3次元コンテンツの両方を含む、周囲環境に対する拡張として快適に知覚され得る、光ベースの放射パターンを提示するように設計される。ディスプレイシステム204は、単一コヒーレント場面の知覚を提供する、フレームのシーケンスを高周波数で提示する。この目的を達成するために、ディスプレイシステム204は、投影サブシステム208と、それを通して投影サブシステム208が画像を投影する、部分的に透明なディスプレイ画面とを含む。ディスプレイ画面は、ユーザ250の眼と周囲環境との間のユーザ250の視野内に位置付けられる。
いくつかの実施形態では、投影サブシステム208は、走査ベースの投影デバイスの形態をとり、ディスプレイ画面は、導波管ベースのディスプレイの形態をとり、その中に、投影サブシステム208からの走査される光が投入され、例えば、無限遠(例えば、腕の長さ)より近い単一光学視認距離における画像、複数の離散光学視認距離または焦点平面における画像、および/または複数の視認距離または焦点面にスタックされ、立体3Dオブジェクトを表す画像層を生産する。ライトフィールド内のこれらの層は、ヒト副視覚系に連続して現れるように十分に近接してともにスタックされてもよい(例えば、1つの層が、隣接する層の混同の円錐内にある)。加えて、または代替として、ピクチャ要素が、2つ以上の層を横断して混成され、それらの層がより疎らにスタックされる(例えば、1つの層が、隣接する層の混同の円錐外にある)場合でも、ライトフィールド内の層間の遷移の知覚される連続性を増加させてもよい。ディスプレイシステム204は、単眼または双眼であってもよい。走査アセンブリは、光ビームを生産する(例えば、異なる色の光を定義されたパターンで放出する)、1つ以上の光源を含む。光源は、それぞれ、ピクセル情報またはデータの個別のフレーム内で規定された定義されたピクセルパターンに従って、赤色、緑色、および青色のコヒーレントなコリメートされた光を生産するように動作可能である、多種多様な形態のいずれか、例えば、RGBソースのセット(例えば、赤色、緑色、および青色光を出力することが可能なレーザダイオード)をとってもよい。レーザ光は、高色飽和を提供し、高度にエネルギー効率的である。光学結合サブシステムは、例えば、1つ以上の反射表面、回折格子、ミラー、ダイクロイックミラー、またはプリズム等の光学導波管入力装置を含み、光をディスプレイ画面の端部の中に光学的に結合する。光学結合サブシステムはさらに、光ファイバからの光をコリメートする、コリメーション要素を含む。随意に、光学結合サブシステムは、コリメーション要素からの光を光学導波管入力装置の中心内の焦点に向かって収束させ、それによって、光学導波管入力装置のサイズが最小限にされることを可能にするために構成される、光学変調装置を含む。したがって、ディスプレイシステム204は、1つ以上の仮想オブジェクトの歪曲されていない画像をユーザに提示する、ピクセル情報の一連の合成画像フレームを生成する。ディスプレイサブシステムを説明するさらなる詳細は、「Display System and Method」と題された米国実用特許出願第14/212,961号(弁理士整理番号ML.20006.00)および「Planar Waveguide Apparatus With Diffraction Elementand Subsystem Employing Same」と題された第14/331,218号(弁理士整理番号ML.20020.00)(その内容は、参照することによって、全体として記載される場合と同様に、その全体として明示的かつ完全に本明細書に組み込まれる)に提供される。
ARシステム200はさらに、ユーザ250の頭部の位置(配向を含む)および移動および/またはユーザ250の眼位置および眼球間距離を検出するためにフレーム構造202に搭載される、1つ以上のセンサを含む。そのようなセンサは、画像捕捉デバイス、マイクロホン、慣性測定ユニット(IMU)、加速度計、コンパス、GPSユニット、無線デバイス、ジャイロスコープ、および同等物を含んでもよい。例えば、一実施形態では、ARシステム200は、1つ以上の慣性変換器を含み、ユーザ250の頭部の移動を示す慣性測定値を捕捉する、頭部装着型変換器サブシステムを含む。そのようなデバイスは、ユーザ250の頭部移動についての情報を感知、測定、または収集するために使用されてもよい。例えば、これらのデバイスは、ユーザの頭部250の移動、速度、加速、および/または位置を検出/測定するために使用されてもよい。ユーザ250の頭部の位置(配向を含む)は、ユーザ250の「頭部姿勢」としても知られる。
図2AのARシステム200は、1つ以上の前方に面したカメラを含んでもよい。カメラは、システム200の前方方向からの画像/ビデオの記録等、任意の数の目的のために採用されてもよい。加えて、カメラは、環境および環境内の具体的オブジェクトに対するユーザ250の距離、配向、および/または角位置を示す情報等、ユーザ250が位置する環境についての情報を捕捉するために使用されてもよい。
ARシステム200はさらに、後ろ向きに向いたカメラを含み、ユーザ250の眼の角位置(片眼または両眼が向いている方向)、瞬目、および焦点深度(眼収束を検出することによって)を追跡してもよい。そのような眼追跡情報は、例えば、光をエンドユーザの眼に投影させ、その投影された光の少なくとも一部の戻りまたは反射を検出することによって、判別されてもよい。
拡張現実システム200はさらに、多種多様な形態のいずれかをとり得る、制御サブシステム201を含む。制御サブシステム201は、いくつかのコントローラ、例えば1つ以上のマイクロコントローラ、マイクロプロセッサまたは中央処理ユニット(CPU)、デジタル信号プロセッサ、グラフィック処理ユニット(GPU)、特定用途向け集積回路(ASIC)等の他の集積回路コントローラ、プログラマブルゲートアレイ(PGAs)、例えば、フィールドPGAs(FPGAs)、および/またはプログラマブル論理コントローラ(PLU)を含む。制御サブシステム201は、デジタル信号プロセッサ(DSP)、中央処理ユニット(CPU)251、グラフィック処理ユニット(GPU)252、および1つ以上のフレームバッファ254を含んでもよい。CPU251は、システムの全体的動作を制御する一方、GPU252は、フレームをレンダリングし(すなわち、3次元場面を2次元画像に変換する)、これらのフレームをフレームバッファ254内に記憶する。図示されないが、1つ以上の付加的集積回路は、フレームバッファ254の中へのフレームの読込および/またはそこからの読取およびディスプレイシステム204の動作を制御してもよい。フレームバッファ254の中への読込および/またはそこからの読取は、動的アドレス指定を採用してもよく、例えば、フレームは、オーバーレンダリングされる。制御サブシステム201はさらに、読取専用メモリ(ROM)およびランダムアクセスメモリ(RAM)を含む。制御サブシステム201はさらに、3次元データベース260を含み、そこから、GPU252は、フレームをレンダリングするための1つ以上の場面の3次元データおよび3次元場面内に含有される仮想音源と関連付けられた合成音データにアクセスすることができる。
制御AR拡張現実サブシステム2010はさらに、ユーザ配向検出モジュール248を含む。ユーザ配向モジュール248は、ユーザ250の頭部の瞬間位置を検出し、センサから受信された位置データに基づいて、ユーザ250の頭部の位置を予測してもよい。ユーザ配向モジュール248はまた、センサから受信された追跡データに基づいて、ユーザ250の眼、特に、ユーザ250が合焦している方向および/または距離を追跡する。
図2Bは、いくつかの実施形態による、ARシステム200’を描写する。図2Bに描写されるARシステム200’は、図2Aに描写され、上記に説明される、ARシステム200に類似する。例えば、ARシステム200’は、フレーム構造202と、ディスプレイシステム204と、スピーカ206と、リンク207を通してディスプレイシステム204に動作可能に結合される、制御サブシステム201’とを含む。図2Bに描写される制御サブシステム201’は、図2Aに描写され、上記に説明される、制御サブシステム201に類似する。例えば、制御サブシステム201’は、投影サブシステム208と、画像/ビデオデータベース271と、ユーザ配向モジュール248と、CPU251と、GPU252と、3Dデータベース260と、ROMと、RAMとを含む。
制御サブシステム201’、したがって、図2Bに描写されるARシステム200’と、図2Aに描写される対応するシステム/システムコンポーネントとの間の差異は、図2Bに描写される制御サブシステム201’内のブロック290の存在である。ブロック290は、GPU252またはCPU251のいずれかから独立する、別個のワーピングブロックである。図2Cに図示されるように、ブロック290は、ワーピングユニット280と、データベース292と、合成ユニット294とを含む。合成ユニット294は、混成ユニット296を含む。図2Dに図示されるように、ワーピングユニット280は、姿勢推定器282と、変換ユニット284とを含む。
ARシステム200、200’の種々の処理コンポーネントは、分散型サブシステム内に含有されてもよい。例えば、ARシステム200、200’は、有線導線または無線コネクティビティ207等によって、ディスプレイシステム204の一部に動作可能に結合される、ローカル処理およびデータモジュール(すなわち、制御サブシステム201、201’)を含む。ローカル処理およびデータモジュールは、フレーム構造202に固定して取り付けられる、ヘルメットまたは帽子に固定して取り付けられる、ヘッドホンに内蔵される、ユーザ250の胴体に除去可能に取り付けられる、またはベルト結合式構成においてユーザ250の腰部に除去可能に取り付けられる等、種々の構成において搭載されてもよい。ARシステム200、200’はさらに、遠隔モジュールが、相互に動作可能に結合され、ローカル処理およびデータモジュールに対するリソースとして利用可能であるように、有線導線または無線コネクティビティ等によって、ローカル処理およびデータモジュールに動作可能に結合される、遠隔処理モジュールおよび遠隔データリポジトリを含んでもよい。ローカル処理およびデータモジュールは、電力効率的プロセッサまたはコントローラおよびフラッシュメモリ等のデジタルメモリを備えてもよく、両方とも、可能性として、処理または読出後、ディスプレイシステム204への通過のために、センサから捕捉された、および/または遠隔処理モジュールおよび/または遠隔データリポジトリを使用して入手および/または処理されたデータの処理、キャッシュ、および記憶を補助するために利用されてもよい。遠隔処理モジュールは、データおよび/または画像情報を分析および処理するように構成される、1つ以上の比較的に強力なプロセッサまたはコントローラを備えてもよい。遠隔データリポジトリは、比較的に大規模デジタルデータ記憶設備を備えてもよく、これは、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であってもよい。いくつかの実施形態では、全てのデータは、記憶され、全ての算出は、ローカル処理およびデータモジュール内で実施され、任意の遠隔モジュールからの完全に自律的使用を可能にする。上記に説明される種々のコンポーネント間の結合は、ワイヤまたは光学通信を提供するために、1つ以上の有線インターフェースまたはポート、または無線通信を提供するための、RF、マイクロ波、およびIR等を介した1つ以上の無線インターフェースまたはポートを含んでもよい。いくつかの実装では、全ての通信は、有線であってもよい一方、他の実装では、全ての通信は、光ファイバを除き、無線であってもよい。
(問題およびソリューションの概要)
光学システムが、仮想コンテンツを生成/レンダリングするとき、仮想コンテンツがレンダリングされるときのシステムの姿勢に関連し得る、ソース基準フレームを使用し得る。ARシステムでは、レンダリングされた仮想コンテンツは、実際の物理的オブジェクトと所定の関係を有し得る。例えば、図3は、実際の物理的台312の上部に位置付けられる、仮想植木鉢310を含む、ARシナリオ300を図示する。ARシステムは、仮想植木鉢310が実際の台312の上部に静置しているかのように現れるように、実際の台312の場所が既知である、ソース基準フレームに基づいて、仮想植木鉢310をレンダリングした。ARシステムは、第1の時間において、ソース基準フレームを使用して、仮想植木鉢310をレンダリングし、第1の時間の後の第2の時間において、レンダリングされた仮想植木鉢310を出力基準フレームを使用して表示/投影してもよい。ソース基準フレームおよび出力基準フレームが、同一である場合、仮想植木鉢310は、例えば、図3に図示されるように、意図された場所(例えば、実際の物理的台312の上部)に現れるであろう。
しかしながら、基準のフレームが、仮想植木鉢310がレンダリングされる第1の時間から、レンダリングされた仮想植木鉢310が表示/投影される第2の時間に変化する場合(例えば、ユーザ頭部移動に伴って)、ソース基準フレームと出力基準フレームとの間の不整合/差異は、視覚的アーチファクト/異常/グリッチをもたらし得る。例えば、図4は、実際の物理的台412の上部に位置付けられるようにレンダリングされた仮想植木鉢410を含む、ARシナリオ400を示す。しかしながら、ARシステムは、仮想植木鉢410がレンダリングされた後であるが、表示/投影される前に、(例えば、右への頭部回転によって)右に移動されたため、仮想植木鉢410は、その意図される位置410’(想像線で示される)の右に表示される。したがって、仮想植木鉢410は、実際の物理的台412の右の空中に浮いているように現れる。本アーチファクトは、仮想植木鉢が次のソース基準フレーム内に再レンダリングされ、次の出力基準フレーム内に表示されると是正され得る(ARシステム運動が中止すると仮定して)。しかしながら、アーチファクトは、依然として、一部のユーザには可視であって、仮想植木鉢410は、予期しない位置に一時的にジャンプすることによって、グリッチとして現れるであろう。本グリッチおよびそのような他のものは、ARシナリオの連続性の錯覚に悪影響を及ぼし得る。
いくつかの光学システムは、レンダリングされた仮想コンテンツの基準のフレームを、仮想コンテンツが生成されたソース基準フレームから、仮想コンテンツが表示されるであろう出力基準フレームにワーピングまたは変換する、ワーピングシステムを含んでもよい。図4に描写される実施例では、ARシステムは、出力基準フレームおよび/または姿勢を検出および/または予測することができる(例えば、IMUまたは眼追跡を使用して)。ARシステムは、次いで、ソース基準フレームからのレンダリングされた仮想コンテンツを出力基準フレーム内のワーピングされた仮想コンテンツにワーピングまたは変換することができる。
図5は、いくつかの実施形態による、頭部回転を補正するための仮想コンテンツのワーピング(「回転ワーピング」)を図式的に図示する。光線510によって表されるソース基準フレーム(レンダリング姿勢)におけるレンダリングされた仮想コンテンツ512は、光線510’によって表される出力基準フレーム(推定される姿勢)におけるワーピングされた仮想コンテンツ512’にワーピングされる。図5に描写されるワーピングは、右への頭部回転を表し得る。レンダリングされた仮想コンテンツ512が、ソースX、Y場所に配置される間、ワーピングされた仮想コンテンツ512’は、(定常基準フレーム内の)出力X’、Y’場所に変換される。しかしながら、仮想コンテンツ512のレンダリングとワーピングされた仮想コンテンツ512’の表示との間のユーザの頭部およびFOVの移動(例えば、右回転)に起因して、ワーピングされた仮想コンテンツ512’は、光線510によって表されるソース基準フレーム(レンダリング姿勢)に対するレンダリングされた仮想コンテンツ512の位置/配向と同一である光線510’によって表される、ディスプレイ基準フレーム(姿勢)に対する位置/配向に表示される。図5に描写されるワーピングは、レンダリングされた仮想コンテンツ512がレンダリング姿勢に表示されるかのように現れるであろうため、ディスプレイ姿勢に表示されるワーピングされた仮想コンテンツ512’をもたらす。
図6−9は、いくつかの実施形態による、頭部位置変化を補正するための仮想コンテンツのワーピング(「位置ワーピング」)を図式的に図示する。レンダリング姿勢からレンダリングされた仮想コンテンツ610、612は、ワーピングされ、ディスプレイ姿勢におけるワーピングされた仮想コンテンツ610’、612’を生成する。レンダリング姿勢からディスプレイ姿勢へのFOV変化は、位置変化(すなわち、随意の回転に加え、6自由度のうちのいくつかに沿った移動)である。
図6は、いくつかの実施形態による、位置ワーピングを描写する。例えば、ARシステムは、全てのソースサブ部分をワーピングし、3−Dシナリオをレンダリングされた仮想コンテンツ内に形成し得る。例えば、チェスの駒610および立方体612を形成するプリミティブは、ワーピングされたチェスの駒610’およびワーピングされた立方体612’にワーピングされてもよい。チェスの駒610および立方体612は、図6において想像線で示され、それらがソース基準フレーム(すなわち、レンダリングFOV)内にあって、表示されないであろうことを示す。代わりに、出力基準フレーム(すなわち、位置変化後のディスプレイFOV)内のワーピングされたチェスの駒610’およびワーピングされた立方体612’(実線で示される)が、表示されるであろう。
いくつかのワーピングシステム/方法はまた、全てのサブ部分(例えば、ワーピングされたチェスの駒610’およびワーピングされた立方体612’を形成する各プリミティブ)を深度試験し、深度データを生成する。深度試験後、ARシステムは、全てのワーピングされたサブ部分(例えば、プリミティブ)およびソース基準フレーム内のその相対的深度を記憶する(例えば、リスト内に)。ワーピングされた仮想コンテンツは、競合するワーピングされた仮想データの全てのインスタンスを含む、出力仮想コンテンツ内の各X、Y位置(例えば、ピクセル)における全ての明度/色のリストとして記憶されてもよい。(下参照記)。
ワーピングシステムは、次いで、記憶されたワーピングされたサブ部分および相対的深度(例えば、リスト)の各X、Yの位置における全ての競合する仮想データを解決する。例えば、図7に図示されるように、3−Dシナリオの2つ以上の異なるサブ部分(例えば、チェスの駒610および立方体612)が、出力基準フレームにワーピングされると(例えば、ワーピングされたチェスの駒610’’およびワーピングされた立方体612’’)、これらのサブ部分の一部は、最終ディスプレイ画像の同一ピクセルの中にワーピング/投影され得る(すなわち、割り当てられる)。例えば、図7における面積614’’は、ワーピングされたチェスの駒610’’およびワーピングされた立方体612’’の「競合する」部分を表す。ワーピングシステムは、出力仮想コンテンツを生成するとき、ワーピングされた仮想コンテンツのこれらの競合する部分を解決/解消する。
いくつかの実施形態では、ワーピングされたチェスの駒610’’およびワーピングされた立方体612’’(例えば、第1および第2の仮想コンテンツ)の個別のピクセルが、ディスプレイの同一ピクセル(すなわち、衝突するピクセル)上に表示されるであろう場合、ワーピングシステムは、個別の衝突/競合するピクセルに対応する記憶された深度データを比較してもよい。出力基準フレーム内の視認場所により近い衝突するピクセル(例えば、ワーピングされた仮想コンテンツ)が、表示される(コンテンツは不透明であると仮定する)。出力基準フレーム内の視認場所に最も近い衝突するピクセルは、最終ディスプレイ画像を生成するために使用される。残りの衝突するピクセルは、破棄される。
図8に示される1つのインスタンスでは、ワーピングされたチェスの駒610’’’は、ワーピングされた立方体612’’’よりユーザに近い。したがって、ワーピングされたチェスの駒610’’’およびワーピングされた立方体612’’’のピクセルが衝突するとき、ワーピングされたチェスの駒610’’’のピクセルが、出力コンテンツに表示される。図9に示される別のインスタンスでは、ワーピングされた立方体612’’’’は、ワーピングされたチェスの駒610’’’’よりユーザに近い。したがって、ワーピングされたチェスの駒610’’’’およびワーピングされた立方体612’’’’のピクセルが衝突するとき、ワーピングされた立方体612’’’’のピクセルが、出力コンテンツに表示される。いくつかのワーピングシステムは、ソース基準フレーム内の深度データを生成するため、深度比較は、複数の変換を伴い得、直接比較より複雑であり得る。
ワーピング方法の種々のステップは、米国実用出願第15/924,011号(その内容は、参照することによって上記においてすでに組み込まれている)に説明されるように、2つの工程または単一工程において実施されることができる。位置ワーピングシステム/方法(ワーピング、深度試験、深度比較、合成等)は、比較的に算出上高価であって(プロセッサ/メモリ関連システム限界をもたらす)、比較的に時間がかかり得る(システム待ち時間をもたらす)。故に、いくつかのワーピング方法は、回転ワーピングに焦点を当てる。しかしながら、回転ワーピングは、光学軸に直交する側方ユーザFOV移動等の種々のユーザFOV移動に伴って、種々のアーチファクト(下記に詳細に説明される、ディスオクルージョン、ジッタ、スミア)をもたらし得る。
これらの限界に対処するために、本明細書に説明されるシステム/方法は、ユーザFOVが(例えば、光学軸に直交して側方に)移動されるとき、仮想コンテンツをワーピングするための種々の実施形態を含む。いくつかの実施形態は、側方ユーザFOV移動を参照して説明されるが、これらの実施形態は、他のタイプのユーザFOV移動から生じるアーチファクトにも対処する。これは、表示のためにワーピングされなければならない、3−Dシナリオの複雑性に伴って増加する、要求される算出費用および時間を最小限にする。故に、開示される実施形態は、いくつかの複合現実システム等のリアルタイムシステムを促進し、これは、サイズ、電力、熱、および他の処理関連パラメータを許容限度内に維持する。
(例証的グラフィック処理ユニット)
図10は、いくつかの実施形態による、レンダリングされた仮想コンテンツを出力/ディスプレイ基準フレームにワーピングするための例示的グラフィック処理ユニット(GPU)252を図式的に描写する。GPU252は、入力メモリ1010を含み、ワーピングされるためのレンダリングされた仮想コンテンツを記憶する。いくつかの実施形態では、仮想コンテンツは、プリミティブ(例えば、図11では、三角形1100)として記憶される。GPU252はまた、コマンドプロセッサ1012を含み、これは、(1)仮想コンテンツを入力メモリ1010から受信し/読み取り、(2)仮想コンテンツをスケジューリングユニットに分割し、(3)並列処理のために、スケジューリングユニットをレンダリングパイプラインに沿って波またはワープ内で送信する。GPU252はさらに、スケジューラ1014を含み、(1)スケジューリングユニットをコマンドプロセッサ1012から受信し、(2)コマンドプロセッサ1012からの「新しい作業」またはレンダリングパイプライン(下記に説明される)内の下流から戻る「古い作業」がレンダリングパイプラインを辿って任意の特定の時間に送信されるべきであるかどうかを決定する。事実上、スケジューラ1014は、GPU252が種々の入力データを処理するシーケンスを決定する。
GPU252は、1つ以上のGPUコア1016を含み、各GPUコア1016は、スケジューリングユニットを並行して処理するために、いくつかの並行実行可能コア/ユニット(「シェーダコア」)1018を有する。コマンドプロセッサ1012は、仮想コンテンツをシェーダコア1018の数と等しい数(例えば、32)に分割する。GPU252はまた、「先入れ先出し」(「FIFO」)メモリ1020を含み、GPUコア1016からの出力を受信する。FIFOメモリ1020から、出力は、GPUコア1016によるレンダリングパイプラインの付加的処理の中への挿入のために、スケジューラ1014に「古い作業」として戻るようにルーティングされてもよい。
GPU252はさらに、FIFOメモリ1020からの出力を受信し、表示のために、出力をラスタ化する、ラスタ演算ユニット(「ROP」)1022を含む。例えば、仮想コンテンツのプリミティブは、三角形の頂点の座標として記憶されてもよい。GPUコア1016による処理(その間、図11の三角形1100の3つの頂点1111、1112、1114がワーピングされ得る)後、ROP1022は、3つの頂点1111、1112、1114によって画定された三角形1100の内側のピクセル1116を決定し、仮想コンテンツ内のそれらのピクセル1116を充填する。ROP1022はまた、深度試験を仮想コンテンツ上で実施してもよい。
GPU252はまた、ROP1022からのワーピングされた仮想コンテンツを一時的に記憶するためのバッファメモリ1024を含む。バッファメモリ1024内のワーピングされた仮想コンテンツは、出力基準フレーム内の視野の複数のY位置における明度/色および深度情報を含んでもよい。バッファメモリ1024からの出力は、GPUコア1016によるレンダリングパイプラインの付加的処理の中への挿入のために、またはディスプレイシステムの対応するピクセル内における表示のために、スケジューラ1014に「古い作業」として戻るようにルーティングされてもよい。GPUコア1016は、最初に、三角形1100の頂点1111、1112、1114を処理し、次いで、三角形1100の内側のピクセル1116を処理する。入力メモリ1011内の仮想コンテンツの全てのフラグメントが、ワーピングおよび深度試験されると(必要な場合)、バッファメモリ1024は、視野を出力基準フレーム内に表示するために必要とされる明度/色および深度情報の全てを含むであろう。
(側方偏移のための仮想コンテンツワーピングシステムおよび方法)
頭部姿勢変化を伴わない画像処理では、GPU252による処理の結果は、個別のX、Y値における(例えば、各ピクセルにおける)色/明度値および深度値である。しかしながら、側方頭部姿勢変化(すなわち、光学軸に直交するディスプレイFOVの側方移動)を伴うと、仮想コンテンツが生成されたソース基準フレームと異なる、出力基準フレーム内の視認場所から視認される仮想コンテンツの異なる部分は、種々のアーチファクトを含み得る。上記に説明されるように、側方頭部姿勢変化後の側方移動アーチファクトを補正するための位置ワーピングは、算出上高価かつ低速であって、複合現実システム等のポータブルディスプレイシステムとの併用を困難にし得る。さらに、側方頭部姿勢変化に伴う回転ワーピングは、種々の他のアーチファクトをもたらし得る。
図12−14は、いくつかの実施形態による、側方FOV移動に応答した位置ワーピングを描写する。図12は、レンダリングされた仮想オブジェクト(チェスの駒1210および立方体1212)を描写する。
図13は、左側方FOV移動後のレンダリングされた仮想オブジェクト1210、1212およびワーピングされた仮想オブジェクト1210’、1212’を描写する。レンダリングされた仮想オブジェクト1210、1212は、図13では、想像線で示され、ソース基準フレーム内で生成され、ディスプレイ基準フレーム内にない、チェスの駒1210および立方体1212が、表示されないことを示す。ワーピングシステムが、チェスの駒1210および立方体1212をワーピングした後のみ、ワーピングされたチェスの駒1210’およびワーピングされた立方体1212’(実線で示される)が、表示される。
図14は、レンダリングされた仮想オブジェクト1210、1212を上面図から図式的に描写し、レンダリングされた仮想オブジェクト1210、1212の深度の差異を示す。チェスの駒1210は、深度D10(すなわち、チェスの駒1210の中心の深度)において、視認者により近くなり、立方体1212は、深度D12(すなわち、立方体1212の中心の深度)において視認者からより遠くなる。その結果、同一左側方FOV移動に伴って、より近いオブジェクト(チェスの駒1210)は、より遠いオブジェクト(立方体1212)と比較して、さらに右に移動するように現れる。本差異は、ワーピングされたチェスの駒1210’およびワーピングされた立方体1212’の異なる右偏移によって、図13に図示される。図13に描写される右偏移における差異は、本原理/影響を図示するように選択され、直接、図14に描写される深度差異と相関されない。大深度差異を用いることで、より近いオブジェクトは、右に偏移するように現れることができる一方、より遠いオブジェクトは、定常であるように現れることができる。
いくつかの実施形態では、各レンダリングされた仮想オブジェクト1210、1212の各ピクセルを深度試験し、その深度に基づいて、各ピクセルをワーピングすることは、そのような位置ワーピングがポータブルシステム内で実装するために非実践的であり得るほど、算出上高価であり得る。
(ディスオクルージョンアーチファクト)
図15−19は、いくつかの実施形態による、位置ワーピングに伴う、ディスオクルージョンアーチファクトを描写する。図15は、レンダリング姿勢からのチェスの駒1510と立方体1512との間の重複1514の面積を伴う、レンダリングされた仮想オブジェクト(チェスの駒1510および立方体1512)を描写する。図16は、チェスの駒1510が立方体1512より視認者に近いため、重複面積1514に対応する立方体1512の部分がレンダリングされず、重複面積1514に対応するチェスの駒1510の部分がレンダリングされることを示す。
図17は、図13におけるように、左への側方ユーザ頭部移動に伴って、仮想オブジェクト(チェスの駒1510および立方体1512)が、右にワーピングされ、ワーピングされた仮想オブジェクト(チェスの駒1510’およびワーピングされた立方体1512’)を生成することを図式的に示す。図13および14に関して解説されるように、チェスの駒1510は、立方体1512より視認者に近いため、チェスの駒1510は、左への側方ユーザ頭部移動に応答して、立方体1512よりさらに右にワーピングされるであろう。チェスの駒1510’およびワーピングされた立方体1512’の本差動ワーピングは、重複面積1514に対応する立方体1512の部分を露出または「ディスオクルード」させる。図16に戻って参照すると、重複面積1514に対応する立方体1512の部分は、レンダリングされなかった。故に、以前にオクルードされた重複面積1514’に対応するワーピングされた立方体1512’のここでディスオクルードされている部分は、ソース仮想オブジェクト(すなわち、立方体1512)が重複面積1514を含んでいなかったため、表示されることができない。
図18は、任意の非レンダリング部分を含まない、図17に説明される位置ワーピングを示す。図18は、ワーピングされた立方体1512’が、以前にオクルードされていた部分(図17における1514’参照)を含まないことを示す。図19は、側方ユーザ頭部移動が図18に描写されるフレームで停止すると仮定してレンダリングおよび表示される、次のフレームを描写する。図19に示されるように、ユーザFOV移動を伴わない次のレンダリングに伴って、新しくレンダリングされたチェスの駒1510’’および立方体1512’’は、図17におけるように、実質的に同一位置に留まる。しかしながら、新しくレンダリングされた立方体1512’’は、以前にオクルードされている部分(図17における1514’参照)を含み、それによって、完全立方体1512’’を形成する。
図18および19の比較は、仮想オブジェクト(図17における1514’参照)の以前にオクルードされている部分が、ワーピングが、図18に示されるように、以前にディスオクルードされている部分を露出させた後、最初は表示されない、ディスオクルージョンアーチファクトを示す。次いで、以前にオクルードされている部分は、仮想オブジェクトが、図19に示されるように、次にレンダリングおよび表示されると、現れる。図17−19に描写されるディスオクルージョンアーチファクトは、消失し、現れる、仮想オブジェクト(立方体)の有意な部分を含むが、他の実施形態では、深度の差異、重複の量、FOV移動の速さを含む、多くの要因に応じて、ディスオクルージョンアーチファクトは、中実仮想オブジェクト内の亀裂または他の欠測部分として露見し得る。露見にかかわらず、ディスオクルージョンアーチファクトは、ユーザ体験に影響を及ぼし、複合現実シナリオの現実性を低減させ得る。図15−19に描写される実施形態は、依然として、位置ワーピングを利用するため、ディスオクルージョンアーチファクトはまた、位置ワーピングの算出費用を伴う。
(スミアアーチファクト)
図20および21は、いくつかの実施形態による、ワーピングに伴う、スミアアーチファクトを描写する。上記に説明されるディスオクルージョンアーチファクトを最小限にするために、いくつかのワーピングシステム/方法は、ワーピングによってディスオクルードされるとき、遠仮想オブジェクトを伸展させ、差動的にワーピングされた仮想オブジェクト間の空間を埋める。図20は、左への側方ユーザ頭部移動に応答して、ワーピングされた仮想オブジェクト(ワーピングされたチェスの駒2010’およびワーピングされた立方体2012’)を生成するための仮想オブジェクト(チェスの駒2010および立方体2012)の右へのそのようなワーピングを示す。立方体2012の非オクルード部分は、伸展され、充填セクション2016をワーピングされたチェスの駒2010’とワーピングされた立方体2012’との間の空間内に形成する。
図21は、ユーザFOV移動を伴わない、チェスの駒2010’’および立方体2012’’の次のレンダリングを描写する。次のレンダリングを用いることで、新しくレンダリングされたチェスの駒2010’’および立方体2012’’は、図20におけるように、実質的に同一位置に留まる。しかしながら、新しくレンダリングされた立方体2012’’は、完全立方体(例えば、図17からの立方体1514)に基づき、図20における充填セクション2016を含まない。さらに、新しくレンダリングされた立方体2012’’の部分と以前にレンダリングされた立方体2012の異なる部分に基づいた充填セクション2016との間の特性における任意の差異部分が、図20および21を比較すると、ユーザに明白となるであろう。そのような特性は、色、テクスチャ、および同等物を含み得る。新しくレンダリングされた立方体2012’’の部分と充填セクション2016との間の特性における本差異は、充填セクション2016が、以前にレンダリングされた立方体2012/2012’の異なる部分のスミアとして現れ得るため、スミアアーチファクトと称され得る。スミアアーチファクトもまた、ユーザ体験に影響を及ぼし、複合現実シナリオの現実性を低減させ得る。図20−21に描写される実施形態は、依然として、位置ワーピングを利用するため、スミアアーチファクトはまた、位置ワーピングの算出費用を伴う。
(単一深度ワーピングおよびジッタアーチファクト)
図22−27は、2つのタイプの実施形態(図22−24および25−27)による、単一深度ワーピングを描写する。図22−24は、いくつかの実施形態による、単一深度ワーピングを描写する。図22は、レンダリングされた仮想オブジェクト、すなわち、比較的により近い深度におけるチェスの駒2210と、比較的により遠い深度における立方体2212とを描写する。
図23は、単一深度を使用してレンダリングされた仮想オブジェクト2210、2212をワーピングするステップを描写する。単一深度を使用することによって、ワーピングされた仮想オブジェクト(ワーピングされたチェスの駒2210’とワーピングされた立方体2212’)間の相対的空間関係は、レンダリングされた仮想オブジェクト2210、2212間の相対的空間関係と実質的に同一である。ワーピングされた仮想オブジェクト2210’、2212’間の実質的に同一相対的空間関係の維持は、立方体2212のオクルードされる部分が、立方体2212’’全体が図24において再レンダリングされるまで、ディスオクルードされないため、ディスオクルージョンアーチファクトを最小限にする。
図22−24に描写される実施形態における、レンダリングされた仮想オブジェクト2210、2212をワーピングするために使用される単一深度は、FOV内の任意の仮想オブジェクト(すなわち、チェスの駒2210)の最近深度である。本最近深度は、レンダリングされた仮想オブジェクト2210、2212に対応するデータ内に含まれる。したがって、深度試験は、要求されない。これは、本単一深度ワーピング方法の算出負荷を低減させる。
図23におけるワーピングされた仮想オブジェクト2210’、2212’と図24における再レンダリングされた仮想オブジェクト2210’’、2212’’(すなわち、ユーザFOV移動を伴わない、次のレンダリングされたフレーム)の比較は、ワーピングされたチェスの駒2210’および再レンダリングされたチェスの駒2210’’が、チェスの駒2210をワーピングするために使用される深度がチェスの駒2210の近深度D10であるため、実質的に同一場所にあることを示す。他方では、ワーピングされた立方体2212’および再レンダリングされた立方体2212’’は、立方体2212をワーピングするために使用される深度D10が立方体2212の実際の遠深度D12未満であるため、異なる位置にある。これは、左側方FOV移動に応答して、ワーピングされた立方体2212’を右に過度に偏移させる。故に、図23におけるワーピングされた仮想オブジェクト2210’、2212’に続いて、図24における再レンダリングされた仮想オブジェクト2210’’、2212’’を順次表示することは、レンダリングされた立方体2212を、右に移動し、次いで、左に跳ね返るように現れさせる。本「ジッタアーチファクト」(または「揺れアーチファクト」)は、持続FOV移動によって悪化され、概して、より遠いオブジェクト(すなわち、レンダリングされた立方体2212)または背景におけるオブジェクトに関して一連の方向変化をもたらす。
図25−27は、いくつかの他の実施形態による、単一深度ワーピングを描写する。図25は、レンダリングされた仮想オブジェクト、すなわち、比較的により近い深度におけるチェスの駒2510と、比較的により遠い深度における立方体2512とを描写する。
図26は、単一深度を使用して、レンダリングされた仮想オブジェクト2510、2512をワーピングし、ワーピングされた仮想オブジェクト(ワーピングされたチェスの駒2510’とワーピングされた立方体2512’)間の実質的に同一相対的空間関係を維持するステップを描写する。上記に解説されるように、ワーピングされた仮想オブジェクト2510’、2512’間の本質的に同一の相対的間隔を維持することは、立方体2512のオクルードされる部分が、立方体2512’’全体が図27において再レンダリングされるまで、ディスオクルードされないため、ディスオクルージョンアーチファクトを最小限にする。
図25−27に描写される実施形態における、レンダリングされた仮想オブジェクト2510、2512をワーピングするために使用される単一深度は、FOV内の任意の仮想オブジェクト(すなわち、立方体2512)の最遠深度である。本最遠深度は、レンダリングされた仮想オブジェクト2510、2512に対応するデータ内に含まれる。したがって、深度試験は、要求されない。これは、本単一深度ワーピング方法の算出負荷を低減させる。
図26におけるワーピングされた仮想オブジェクト2510’、2512’と図27における再レンダリングされた仮想オブジェクト2510’’、2512’’(すなわち、ユーザFOV移動を伴わない、次のレンダリングされたフレーム)の比較は、ワーピングされた立方体2512’および再レンダリングされた立方体2512’’が、立方体2512をワーピングするために使用される深度が立方体2512の遠深度D12であるため、実質的に同一場所にあることを示す。他方では、ワーピングされたチェスの駒2510’および再レンダリングされたチェスの駒2510’’は、チェスの駒2510をワーピングするために使用される深度D12がチェスの駒2510の実際の近深度D10を上回るため、異なる位置にある。これは、左側方FOV移動に応答して、ワーピングされたチェスの駒2510’を右に過小偏移させる。故に、図26におけるワーピングされた仮想オブジェクト2510’、2512’に続いて、図27における再レンダリングされた仮想オブジェクト2510’’、2512’’を順次表示することは、レンダリングされたチェスの駒2510を、部分的に右に移動し、次いで、さらに右に移動し、立方体2512をディスオクルードするように現れさせる。本アーチファクトは、上記に説明され、図22−24に示される、ジッタアーチファクトと比較して、典型的ユーザのための複合現実シナリオの現実性にあまり影響を及ぼさない。これは、方向変化に伴うジッタまたは揺れではなく、(全くではないにしても)遅れとして知覚される、図25−27に描写されるアーチファクトにおける方向変化の欠如に起因し得る。
FOV内の仮想オブジェクトの最遠および最近深度の両方を使用した単一距離ワーピングが、上記に説明されたが、FOV内の他の深度もまた、レンダリングされた仮想オブジェクトをワーピングするために使用されてもよい。例えば、いくつかの実施形態では、単一距離は、FOV内の最近および最遠オブジェクトの距離の代表値である。いくつかの実施形態では、単一距離は、FOV内の全てのオブジェクトの距離の平均値/代表値である。いくつかの実施形態では、単一距離は、FOV内の全てのオブジェクトの距離の中央値である。
(複数の離散深度ワーピング)
図28−31は、いくつかの実施形態による、複数の深度ワーピングを描写する。図28は、レンダリングされた仮想オブジェクト、すなわち、比較的により近い深度におけるチェスの駒2810と、比較的により遠い深度における立方体2812とを描写する。
図29Aは、上面図からのレンダリングされた仮想オブジェクト2810、2812を描写し、レンダリングされた仮想オブジェクト2810、2812の深度の差異を示す。チェスの駒2810は、深度D10において視認者により近くなり、立方体2812は、深度D12において視認者からより遠くなる。図29Aはまた、FOVが分割される、6つの離散深度スライス2814、2816、2818、2820、2822、2824を示す。いくつかの実施形態では、これらの離散深度スライス2814、2816、2818、2820、2822、2824は、VR/AR/MRシステムが仮想コンテンツを表示するように構成される、深度スライスに対応する。深度スライス2814、2816、2818、2820、2822、2824は、光学軸に沿って限界を有する。例えば、いくつかの実施形態による、深度スライスは、ユーザの眼から0.37m〜1.5mに及び得る。いくつかの実施形態による、別の深度スライスは、ユーザの眼から1.5mを上回る全ての距離を含み得る。
図29Aは、類似厚さを有する、6つの深度スライス2814、2816、2818、2820、2822、2824を描写するが、他の実施形態では、ユーザの眼により近い深度スライスは、ユーザがユーザに近い深度差異により敏感であるため、より薄い厚さを有する。例えば、図29Bは、いくつかの他の実施形態による、6つの深度スライス2814’、2816’、2818’、2820’、2822’、2824’を描写する。図29Bでは、各連続的により遠くなる深度スライス(例えば、2816’対2814’)は、より厚い厚さを有する。例えば、1mおよび2mにおけるオブジェクトは、離散深度スライス内に位置し得るが、5mおよび10mにおけるオブジェクトは、同一深度スライス内に位置し得る。いくつかの実施形態では、最遠深度スライス2824’は、無限遠まで延在する。種々の実施形態では、深度スライスの厚さは、線形または対数的に増加し得る(図29Bに示されるように)。
図29Aは、6つの深度スライス2814、2816、2818、2820、2822、2824を描写するが、他の実施形態では、FOVが分割される、深度スライスの数は、FOV内の仮想オブジェクトの数に対応し得る。例えば、FOV内に3つの仮想オブジェクトが存在する場合、FOVは、3つの深度スライスに分割されるであろう。図29Aおよび29Bは、6つの深度スライスを含むが、他の実施形態では、深度スライスの数は、仮想シナリオおよび利用可能なシステムリソースに応じて、6つを上回るまたはそれ未満であることができる。
図30は、レンダリングされた仮想オブジェクト2810、2812毎に、異なる深度を使用して、(図29Aにおける)レンダリングされた仮想オブジェクト2810、2812をワーピングし、ワーピングされた仮想オブジェクト2810’、2812’をより正確に位置付けるステップを描写する。いくつかの実施形態では、比較的により近いチェスの駒2810をワーピングするために使用される距離は、チェスの駒2810を含有する、深度スライス2816の遠距離(「遠クリップ」)D16である。比較的により遠い立方体2812をワーピングするために使用される距離は、立方体2812の大部分を含有する、深度スライス2822の遠クリップD22である。他の実施形態では、オブジェクトをワーピングするために使用される距離は、仮想オブジェクトの全てまたは大部分または一部を含有する、深度スライスの中間距離または任意の他の距離であってもよい。
図30におけるワーピングされた仮想オブジェクト2810’、2812’と図31における再レンダリングされた仮想オブジェクト2810’’、2812’’(すなわち、ユーザFOV移動を伴わない、次のレンダリングされたフレーム)の比較は、図28−31に描写される複数の離散深度ワーピングが、完全位置ワーピングと比較して、算出負荷を低減させ得るが、依然として、ディスオクルージョンアーチファクトを被りやすいことを示す。
図29Aに示される仮想オブジェクト2810、2812は、いくつかの深度スライスによって分離されるが、他の実施形態では、仮想オブジェクトは、最小限のワーピングアーチファクトとともにワーピングされ得るように小さい距離によって分離されてもよい。例えば、いくつかの実施形態では、相互から0.1m未満離れたオブジェクト(例えば、1.5m対1.6m)は、複数の深度ワーピングをトリガしない。他の実施形態では、複数の深度ワーピングのための閾値は、ジオプタ単位で測定されることができる(例えば、1ジオプタを上回って離れたオブジェクトに関してのみ)。
(眼追跡に基づく単一深度ワーピング)
図32−38は、いくつかの実施形態による、眼追跡に基づく、単一深度ワーピングを描写する。図32は、レンダリングされた仮想オブジェクト、すなわち、比較的により近い深度におけるチェスの駒3210と、比較的により遠い深度における立方体3212とを描写する。
図33は、上面図からのレンダリングされた仮想オブジェクト3210、3212を描写し、レンダリングされた仮想オブジェクト3210、3212の深度の差異を示す。チェスの駒3210は、深度D10において視認者により近くなり、立方体3212は、深度D12における視認者からより遠くなる。図33はまた、ユーザの眼3226がチェスの駒3210の場所と一致する方向3228を追跡していることを示す。ユーザの眼3226の方向は、例えば、ARシステム200上のセンサ/カメラを使用して追跡されることができる。
ユーザの眼3226の方向3228は、チェスの駒3210を追跡しているため、レンダリングされた仮想オブジェクト3210、3212の両方をワーピングするために使用される深度は、チェスの駒3210を含有する、深度スライス3216の遠クリップD16である。本ワーピングの結果は、図34に示され、ワーピングされた仮想オブジェクト3210’、3212’は、より遠い立方体3212の深度D12よりも、より近いチェスの駒3210の深度D10に類似する、深度D16を使用して生成される。
上記に解説されるように、図34におけるワーピングされたチェスの駒3210’および図35における再レンダリングされたチェスの駒3210’’(すなわち、ユーザFOV移動を伴わない、次のレンダリングされたフレーム)は、チェスの駒3210をワーピングするために使用される深度D16がチェスの駒3210の深度D10に近似するため、実質的に同一場所にある。他方では、ワーピングされた立方体3212’および再レンダリングされた立方体3212’’は、立方体3212をワーピングするために使用される深度D16が、立方体3212の実際の遠深度D12未満であるため、異なる位置にある。これは、左側方FOV移動に応答して、ワーピングされた立方体3212’を右に過度に偏移させる。故に、図34におけるワーピングされた仮想オブジェクト3210’、3212’に続いて、図35における再レンダリングされた仮想オブジェクト3210’’、3212’’を順次表示することは、レンダリングされた立方体3212を、右に移動し、次いで、左に跳ね返るように現れさせ、ジッタアーチファクトをもたらす。
しかしながら、これらの実施形態は、システムがより近いオブジェクト(すなわち、チェスの駒3212)へのユーザの眼3226の方向3228を追跡しているため、全てのレンダリングされた仮想コンテンツをワーピングするための単一深度として深度D16を使用する。故に、ワーピングされた立方体3212’および再レンダリングされた立方体3212’’が、表示される間、ユーザの焦点は、立方体3212から離れる。ワーピングされた立方体3212’および再レンダリングされた立方体3212’’は、図34および35では、破線で示され、ユーザの焦点が立方体3212から離れることを示す。その結果、図34に描写されるワーピングは、ジッタアーチファクトを含む場合でも、そのアーチファクトの影響は、立方体3212から離れるユーザの焦点によって最小限にされる。立方体3212から離れるように指向されるユーザの焦点は、点線を使用してワーピングおよび再レンダリングされた立方体3212’、3212’’をレンダリングすることによって、図34および35に描写される。他方では、ユーザの焦点は、チェスの駒3210に指向され、これは、ワーピングされたチェスの駒3210’により正確にワーピングされる。
図36は、図33に類似する、上面図からのレンダリングされた仮想オブジェクト3210、3212を描写する。図36はまた、ユーザの眼3226’が、立方体3212の場所と一致する、方向3228’を追跡していることを示す。
ユーザの眼3226’の方向3228’は、立方体3212を追跡しているため、レンダリングされた仮想オブジェクト3210、3212の両方をワーピングするために使用される深度は、立方体3212の大部分を含有する、深度スライス3222の遠クリップD22である。本ワーピングの結果は、図37に示され、ワーピングされた仮想オブジェクト3210’’’、3212’’’は、チェスの駒3210の深度D10よりも、立方体3212の深度D12に類似する、深度D22を使用して生成される。
上記に解説されるように、図37におけるワーピングされた立方体3212’’’および図38における再レンダリングされた立方体3212’’’’(すなわち、ユーザFOV移動を伴わない、次のレンダリングされたフレーム)は、立方体3212をワーピングするために使用される深度D22が立方体3212の遠深度D12に近似するため、実質的に同一場所にある。他方では、ワーピングされたチェスの駒3210’’’および再レンダリングされたチェスの駒3210’’’’は、チェスの駒3210をワーピングするために使用される深度D16がチェスの駒3210の実際の近深度D10未満であるため、異なる位置にある。これは、左側方FOV移動に応答して、ワーピングされたチェスの駒3210’’’を右に過小偏移させる。故に、図37におけるワーピングされた仮想オブジェクト3210’’’、3212’’’に続いて、図38における再レンダリングされた仮想オブジェクト3210’’’’、3212’’’’を順次表示することは、レンダリングされたチェスの駒3210を、右に部分的に移動し、次いで、さらに右に移動し、立方体3212をディスオクルードするように現れさせ、遅れアーチファクトをもたらす。
しかしながら、これらの実施形態は、システムがより遠いオブジェクト(すなわち、立方体3212)へのユーザの眼3226’の方向3228’を追跡しているため、全てのレンダリングされた仮想コンテンツをワーピングするための単一深度として深度D22を使用する。故に、ワーピングされたチェスの駒3210’’’および再レンダリングされたチェスの駒3210’’’’が、表示される間、ユーザの焦点は、チェスの駒3210から離れる。ワーピングされたチェスの駒3210’’’および再レンダリングされたチェスの駒3210’’’’は、図36および37では、破線で示され、ユーザの焦点がチェスの駒3210から離れることを示す。その結果、図36に描写されるワーピングが、遅れアーチファクトを含む場合でも、そのアーチファクトの影響は、チェスの駒3210から離れるユーザの焦点によって最小限にされる。チェスの駒3210から離れるように指向されるユーザの焦点は、点線を使用してワーピングおよび再レンダリングされたチェスの駒3210’、3210’’をレンダリングすることによって、図37および38に描写される。他方では、ユーザの焦点は、立方体3212に指向され、これは、ワーピングされた立方体3212’’’により正確にワーピングされる。
ユーザの眼が追跡している仮想オブジェクトを含む、深度スライスの遠クリップを使用した単一深度ワーピングが、上記に説明されるが、眼追跡に基づく単一深度は、仮想オブジェクトと関連付けられる他の深度であることができる。これらは、仮想オブジェクトを含む深度スライスの近距離(「近クリップ」)または近クリップと遠クリップとの間の任意の距離を含む。
(メッシュベースのワーピング)
図39−45は、いくつかの実施形態による、仮想コンテンツのメッシュを使用してワーピングし、例えば、算出負荷を低減させるステップを描写する。図39は、上面図からのレンダリングされた仮想オブジェクト3910、3912を図式的に描写し、レンダリングされた仮想オブジェクト3910、3912の深度の差異を示す。チェスの駒3910は、深度D1において視認者により近くなり、立方体3912は、深度D2において視認者からより遠くなる。図39はまた、レンダリングされた仮想オブジェクト3910、3912がそれぞれ、1つ以上のピクセル3914(図11におけるプリミティブ三角形1100のピクセル1116参照)を含むことを示す。レンダリングされた仮想オブジェクト3910、3912はまた、1つ以上のプリミティブを含んでもよい。各レンダリングされた仮想オブジェクト3910、3912の各ピクセル3914をワーピングするステップは、算出上高価であり得る。
図40は、レンダリングされた仮想オブジェクト3910、3912(図39参照)から形成され、それに近似する、メッシュ3910’、3912’を図式的に描写する。メッシュ3910’、3912’は、個々のピクセル3914を含まず、これは、ワーピングのための算出複雑性を低減させ得る。メッシュは、グリッドを使用して、レンダリングされた仮想オブジェクト3910、3912から形成されることができる。さらに、メッシュ3910’、3912’は、図41に示されるように、メッシュ3910’、3912’に近似する、頂点3916を含み、これはさらに、ワーピングの算出複雑性を低減させ得る。メッシュ3910’、3912’は、頂点3916から再構成されることができ、仮想オブジェクト3910、3912は、メッシュ3910’、3912’から再構成されることができる。しかしながら、簡略化および再構築プロセスは、図42に示されるように、アーチファクトを再構成された仮想オブジェクト3918、3920の中に導入し得る。
図43は、レンダリングされた仮想オブジェクト、すなわち、比較的により近い深度におけるチェスの駒3910と、比較的により遠い深度における立方体3912とを描写する。図44は、メッシュベースのワーピングの結果(すなわち、再構成されたチェスの駒3918および再構成された立方体3920)を描写し、図45は、再レンダリングされた仮想オブジェクトの次のフレーム(すなわち、ユーザFOV移動を伴わない、再レンダリングされたチェスの駒3910’’および再レンダリングされた立方体3912’’)を描写する。メッシュ3910’、3912’および/または頂点3916へのレンダリングされた仮想オブジェクト3910、3912の簡略化のため、簡略化された仮想オブジェクトは、過度の算出負荷を伴わずに、位置ワーピング技法を使用してワーピングされることができる。定期的に成形される立方体は、図44および45の両方において類似するが、あまり定期的に成形されないチェスの駒は、図44では、いくつかの再構築アーチファクトを有する。メッシュのサイズは、算出負荷を最小限にしながら、再構築アーチファクトを最適化するように調節されることができる。
種々のワーピング技法が、個々に説明されているが、これらの技法は、本開示の範囲および精神から逸脱することなく、ワーピング有効性を改良するために、相互に組み合わせられることができる。
(システムアーキテクチャ概要)
図46は、本開示の実施形態を実装するために好適な例証的コンピューティングシステム1300のブロック図である。コンピュータシステム1300は、プロセッサ1307、システムメモリ1308(例えば、RAM)、静的記憶デバイス1309(例えば、ROM)、ディスクドライブ1310(例えば、磁気または光学)、通信インターフェース1314(例えば、モデムまたはEthernet(登録商標)カード)、ディスプレイ1311(例えば、CRTまたはLCD)、入力デバイス1312(例えば、キーボード)、およびカーソル制御等のサブシステムおよびデバイスを相互接続する、情報を通信するためのバス1306または他の通信機構を含む。
本開示の一実施形態によると、コンピュータシステム1300は、プロセッサ1307がシステムメモリ1308内に含有される1つ以上の命令の1つ以上のシーケンスを実行することによって、具体的動作を実施する。そのような命令は、静的記憶デバイス1309またはディスクドライブ1310等の別のコンピュータ可読/使用可能媒体からシステムメモリ1308の中に読み込まれてもよい。代替実施形態では、有線回路が、ソフトウェア命令の代わりに、またはそれと組み合わせて、本開示を実装するために使用されてもよい。したがって、本開示の実施形態は、ハードウェア回路および/またはソフトウェアの任意の具体的組み合わせに限定されない。一実施形態では、用語「論理」は、本開示の全部または一部を実装するために使用される、任意の組み合わせのソフトウェアまたはハードウェアを意味し得る。
用語「コンピュータ可読媒体」または「コンピュータ使用可能媒体」は、本明細書で使用されるように、実行のための命令をプロセッサ1307に提供する際に関与する、任意の媒体を指す。そのような媒体は、限定ではないが、不揮発性媒体および揮発性媒体を含む、多くの形態をとり得る。不揮発性媒体は、例えば、ディスクドライブ1310等の光学または磁気ディスクを含む。揮発性媒体は、システムメモリ1308等の動的メモリを含む。
一般的形態のコンピュータ可読媒体は、例えば、フロッピー(登録商標)ディスク、フレキシブルディスク、ハードディスク、磁気テープ、任意の他の磁気媒体、CD−ROM、任意の他の光学媒体、パンチカード、紙テープ、孔のパターンを伴う任意の他の物理的媒体、RAM、PROM、EPROM、FLASH(登録商標)−EPROM(例えば、NANDフラッシュ、NORフラッシュ)、任意の他のメモリチップまたはカートリッジ、またはコンピュータが読み取り得る、任意の他の媒体を含む。
本開示のある実施形態では、本開示を実践するための命令のシーケンスの実行は、単一コンピュータシステム1300によって実施される。本開示の他の実施形態によると、通信リンク1315(例えば、LAN、PTSN、または無線ネットワーク)によって結合される、2つ以上のコンピュータシステム1300が、相互に協調して、本開示を実践するために要求される命令のシーケンスを実施してもよい。
コンピュータシステム1300は、通信リンク1315および通信インターフェース1314を通して、プログラム、例えば、アプリケーションコードを含む、メッセージ、データ、および命令を伝送および受信してもよい。受信されたプログラムコードは、プロセッサ1307によって、受信されるにつれて実行される、および/または後の実行のために、ディスクドライブ1310または他の不揮発性記憶装置内に記憶されてもよい。記憶媒体1331内のデータベース1332は、データインターフェース1333を介して、システム1300によってアクセス可能なデータを記憶するために使用されてもよい。
(仮想オブジェクト深度決定)
仮想オブジェクトの深度は、その仮想オブジェクトを正確にワーピングするために必要とされる。しかしながら、いくつかの実施形態では、仮想オブジェクトの深度は、把握されていない。例えば、いくつかのアプリケーションは、(例えば、投影のための)仮想オブジェクトの画像のステレオ対のみを提供し、仮想オブジェクトの深度を提供しない。そのような仮想オブジェクトを正確にワーピングするために、方法が、システムリソースの需要を最小限にしながら、そのような仮想オブジェクトの深度を決定するために必要とされる。
図47−53は、仮想オブジェクトの深度をその仮想オブジェクトのための画像のステレオ対から決定/推定するための方法を描写する。本方法は、アプリケーションが適切な視点(POV)を使用してステレオ対の構成要素の両方をレンダリングしたため、ステレオ対の第1の構成要素(例えば、左または右眼)が、ステレオ対の他の構成要素のための(例えば、右または左眼)完璧なワーピングであると仮定する。一般に、本方法は、ステレオ対の一方の構成要素(例えば、右眼)を「基準眼」として識別し、ステレオ対の第2の構成要素(例えば、左眼)を1つ以上の深度における第1の構成要素のPOVにワーピング/再投影する。次いで、本方法は、再投影された第2の構成要素と第1の構成要素を比較し、1つ以上の深度のそれぞれにおける再投影誤差を決定する。最小再投影誤差を伴う深度は、次いで、仮想オブジェクトの決定された/推定される深度と識別される。
図53は、方法5310を図示する、フローチャートである。ステップ5312では、システム(例えば、VR/AR/MRシステム)は、1つ以上の深度において、仮想オブジェクトのステレオ対の第1の画像を仮想オブジェクトのステレオ対の第2の画像にわたって再投影し、1つ以上の組み合わせ画像を生成する。
例示的組み合わせ画像は、図50−52に示される。それらの図では、第2の基準画像5012は、定常のままであって、第1の試験画像は、第2の基準画像5112にわたって異なる深度5110、5110’、5110’’に再投影される。第1の試験画像を再投影するために使用される異なる深度のため、再投影される第1の試験画像5110、5110’、5110’’は、第2の基準画像5012に対して異なる位置にある。
本方法で使用される深度の数は、(1)システムがリアルタイムで評価し得る最大数の深度および(2)視認者の眼間のピクセル内の最大不均衡の小さい方によって決定されてもよい。言い換えると、システムが、100個の異なる深度をリアルタイムで評価することが可能である場合でも、ユーザの眼間のピクセル内の最大距離均衡が、50個の異なる深度に対応する場合、50個の異なる深度が、仮想オブジェクトの深度を識別するための方法において使用されるであろう。いくつかの実施形態では、64個の異なる深度が、本方法において使用される。ユーザの眼間のピクセル内の最大不均衡は、瞳孔間距離、焦点距離、および/または近深度平面の関数であり得る。いくつかの実施形態では、各深度平面は、対応する再投影された第1の試験画像が約1ピクセル間隔だけ偏移するような均一空間である。
図53を参照すると、ステップ5314では、本システムは、各深度における再投影誤差を測定する。再投影誤差は、第1の試験画像を再投影するために使用される深度平面が(例えば、第2の基準画像内の)仮想オブジェクトの深度に対して準最適不整合であるときに生じる。本システムは、各深度における再投影誤差を定量化する。
ステップ5316では、本システムは、1つ以上の深度に対応する1つ以上の再投影誤差を分析し、最小再投影誤差を識別する。最小再投影誤差を伴う深度が、次いで、ステップ5318において、仮想オブジェクトの決定された/推定される深度と識別される。
これらの分析をリアルタイムで実施するために、本システムは、1つ以上の深度平面のそれぞれにおける一連の評価を複数のフレーム(例えば、約10個のフレーム)に分割してもよい。分析はまた、(例えば、各寸法の25%における)画像フレームのダウンサンプリングされたバージョン上で実施され、算出負荷を低減させてもよい。方法5300は、本方法の正確度を改良するために、数回、繰り返されてもよい。
図47−49は、上記に説明される方法5300を図式的に描写する。図47は、3D仮想オブジェクト4710が、1つ以上の深度平面4712において、左眼4714から右眼4716に再投影されることを示す。図48は、本方法が、仮想オブジェクト4710の深度と対応する、最良ワーピング平面4718(例えば、最小再投影誤差を伴う組み合わせ画像)を識別することを示す。図49は、最良ワーピング平面4718およびその決定された/推定される深度が、本システムによって使用され、画像のステレオ対4714、4716を(例えば、移動から生じる)新しいPOV4720により正確にワーピングし得ることを示す。
(安定化平面深度決定)
任意の所与のPOV移動量に関して、仮想オブジェクトが無限遠に接近するにつれて、POV移動に伴う仮想オブジェクトの見掛け移動は、ゼロに接近する。「安定化平面」は、特定のPOV移動を伴う仮想オブジェクトの見掛け移動が、見掛け移動がシステム視認者に検知不能/知覚不能となるほどゼロに接近する、(無限遠に接近する)深度として定義される。例えば、表示、処理、速さ等の観点からのシステム限界は、わずかな移動(例えば、1つまたは2つのピクセル)を典型的ユーザにとって検知不能/知覚不能にし得る。特定のPOV移動を伴う安定化平面の深度を識別することは、本システムが、特定のPOV移動未満のPOV移動を伴う安定化平面より遠い仮想オブジェクトのワーピングを行わないことを可能にする。本最適化は、処理、メモリ、通信チャネル等の観点からシステム需要を低減させる。
図54に示されるように、いくつかの実施形態では、(ピクセルの観点からの)仮想オブジェクトの見掛け移動と(距離の逆数である、ジオプタの観点からの)安定化深度との間には、逆相関が存在する。
図55は、安定化平面深度を決定する方法を描写する。ステップ5512では、システム(例えば、VR/AR/MRシステム)が、POV移動量を取得する。POV移動量は、ユーザ/視認者移動を示すシステム上のセンサから取得されてもよい、またはPOV移動量は、所定の最大限のPOV移動値であってもよい。
ステップ5514では、本システムは、取得されるPOV移動に基づいて、安定化深度と見掛け仮想オブジェクト移動との間の関係を決定する。いくつかの実施形態では、図54に示されるもの等のピクセル対ジオプタグラフが、生成されてもよい。
ステップ5516では、本システムは、上記に説明されるように、ディスプレイシステムのための最大検知不能/知覚不能見掛け仮想オブジェクト移動を取得する。本値は、ピクセル単位で測定されてもよい。
ステップ5518では、本システムは、最大検知不能/知覚不能見掛け仮想オブジェクト移動に対応する安定化深度を最小安定化深度として識別する。
本最小安定化深度では、ステップ5512において取得されるPOV移動量までのPOV移動は、本システムの典型的ユーザにとって検知不能/知覚不能であろう。したがって、本システムは、POV移動がステップ5512において取得されるPOV移動を下回るままである限り、本最小安定化深度より遠い任意の仮想オブジェクトのワーピングを行わないように構成されてもよい。これらの仮想オブジェクトの前述のワーピングは、処理、メモリ、通信チャネル等の観点からシステム負荷を低減させることによって、システムの効率を改良する。
本開示は、本主題のデバイスを使用して行なわれ得る方法を含む。本方法は、そのような好適なデバイスを提供するという行為を含んでもよい。そのような提供は、ユーザによって実施されてもよい。換言すれば、「提供する」行為は、単に、ユーザが、本主題の方法において必須デバイスを取得する、それにアクセスする、それに接近する、それを位置付ける、それを設定する、それをアクティブ化する、それに電源を入れる、または別様にそれを提供するように作用することを要求する。本明細書で記載される方法は、論理的に可能である記載された事象の任意の順番で、および事象の列挙された順番で実行されてもよい。
本開示の例示的側面が、材料選択および製造に関する詳細とともに、上記で記載されている。本開示の他の詳細に関して、これらは、上述で参照された特許および出版物に関連して理解されるとともに、概して、当業者によって把握または理解され得る。同じことが、一般または理論的に採用されるような付加的な行為の観点から、本開示の方法ベースの側面に関して当てはまり得る。
加えて、本開示は、種々の特徴を随意的に組み込む、いくつかの実施例を参照して説明されているが、本開示は、本開示の各変形例に関して考慮されるように説明または指示されるものに限定されるものではない。種々の変更が、説明される本開示に行われてもよく、本開示の真の精神および範囲から逸脱することなく、(本明細書に記載されるか、またはいくらか簡潔にするために含まれないかどうかにかかわらず)均等物が置換されてもよい。加えて、値の範囲が提供される場合、その範囲の上限と下限との間の全ての介在値、およびその規定範囲内の任意の他の規定または介在値が、本発明内に包含されることを理解されたい。
また、説明される本発明の変形例の任意の特徴が、独立して、または本明細書で説明される特徴のうちのいずれか1つ以上のものと組み合わせて、記載および請求され得ることが考慮される。単数形の項目の言及は、複数の同一項目が存在する可能性を含む。より具体的には、本明細書で、およびそれに関連付けられる請求項で使用されるように、「a」、「an」、「said」、および「the」という単数形は、特に別様に記述されない限り、複数の指示対象を含む。換言すると、冠詞の使用は、上記の説明および本開示と関連付けられる請求項で、対象項目の「少なくとも1つ」を可能にする。さらに、そのような請求項は、任意の随意の要素を除外するように起草され得ることに留意されたい。したがって、この記述は、請求項要素の記載と関連する「だけ」、「のみ」、および同等物等のそのような排他的用語の使用、または「否定的」制限の使用のための先行詞としての機能を果たすことを目的としている。
そのような排他的用語を使用することなく、本開示と関連付けられる請求項での「備える」という用語は、所与の数の要素がそのような請求項で列挙されるか、または特徴の追加をそのような請求項に記載される要素の性質を変換するものと見なすことができるかどうかにかかわらず、任意の付加的な要素の包含を可能にするものとする。本明細書で特に定義される場合を除いて、本明細書で使用される全ての技術および科学用語は、請求項の有効性を維持しながら、可能な限り広義の一般的に理解されている意味を与えられるものである。
本発明の範疇は、提供される実施例および/または本明細書に限定されるものではなく、むしろ、本開示と関連付けられる請求項の範囲のみによって限定されるものとする。
前述の明細書では、本開示は、その具体的実施形態を参照して説明された。しかしながら、種々の修正および変更が、本開示のより広義の精神および範囲から逸脱することなく、そこに行われてもよいことが明白であろう。例えば、前述のプロセスフローは、プロセスアクションの特定の順序を参照して説明される。しかしながら、説明されるプロセスアクションの多くの順序は、本開示の範囲または動作に影響を及ぼすことなく、変更されてもよい。明細書および図面は、故に、限定的意味ではなく、例証と見なされるべきである。

Claims (22)

  1. 仮想コンテンツをワーピングするためのコンピュータ実装方法であって、
    レンダリングされた仮想コンテンツデータを受信することであって、前記レンダリングされた仮想コンテンツデータは、遠深度を含む、ことと、
    光学軸に直交する方向におけるユーザ移動を示す移動データを受信することと、
    前記レンダリングされた仮想コンテンツデータ、前記遠深度、および前記移動データに基づいて、ワーピングされたレンダリングされた仮想コンテンツデータを生成することと
    を含む、方法。
  2. 前記レンダリングされた仮想コンテンツデータは、近仮想オブジェクトおよび遠仮想オブジェクトに対応し、
    前記ワーピングされたレンダリングされた仮想コンテンツデータは、ワーピングされた近仮想オブジェクトおよびワーピングされた遠仮想オブジェクトに対応する、
    請求項1に記載の方法。
  3. 前記近仮想オブジェクトと前記ワーピングされた近仮想オブジェクトとの間の第1の位置偏移は、前記遠仮想オブジェクトと前記ワーピングされた遠仮想オブジェクトとの間の第2の位置偏移に実質的に等しい、請求項2に記載の方法。
  4. 前記レンダリングされた仮想コンテンツデータ、前記遠深度、および前記移動データに基づいて、前記ワーピングされたレンダリングされた仮想コンテンツデータを生成することは、前記レンダリングされた仮想コンテンツデータと比較して、視差関連アーチファクトを低減させる、請求項1に記載の方法。
  5. 前記視差関連アーチファクトは、ディスオクルージョンアーチファクトである、請求項4に記載の方法。
  6. 前記視差関連アーチファクトは、スミアアーチファクトである、請求項4に記載の方法。
  7. 前記視差関連アーチファクトは、ジッタアーチファクトである、請求項4に記載の方法。
  8. 前記レンダリングされた仮想コンテンツデータは、第1の深度セグメントに対応し、前記方法はさらに、
    第2の深度セグメントに対応する第2のレンダリングされた仮想コンテンツデータを受信することであって、前記第2のレンダリングされた仮想コンテンツデータは、第2の遠深度を含む、ことと、
    前記第2のレンダリングされた仮想コンテンツデータ、前記第2の遠深度、および前記移動データに基づいて、ワーピングされた第2のレンダリングされた仮想コンテンツデータを生成することと
    を含む、請求項1に記載の方法。
  9. 仮想コンテンツをワーピングするためのコンピュータ実装方法であって、
    レンダリングされた仮想コンテンツデータを受信することであって、前記レンダリングされた仮想コンテンツデータは、遠深度および近深度を含む、ことと、
    光学軸に直交する方向におけるユーザ移動を示す移動データを受信することと、
    前記レンダリングされた仮想コンテンツデータ、前記遠深度、前記近深度、および前記移動データに基づいて、ワーピングされたレンダリングされた仮想コンテンツデータを生成することと
    を含む、方法。
  10. 前記レンダリングされた仮想コンテンツデータ、前記遠深度、前記近深度、および前記移動データに基づいて、ワーピングされたレンダリングされた仮想コンテンツデータを生成することは、前記遠深度および前記近深度を平均することを含む、請求項9に記載の方法。
  11. 仮想コンテンツをワーピングするためのコンピュータ実装方法であって、
    レンダリングされた仮想コンテンツデータを受信することと、
    光学軸に直交する方向におけるユーザ移動を示す移動データを受信することと、
    ユーザ視線を示す視線データを受信することと、
    前記視線データに基づいて、深度を決定することと、
    前記レンダリングされた仮想コンテンツデータ、前記深度、および前記移動データに基づいて、ワーピングされたレンダリングされた仮想コンテンツデータを生成することと
    を含む、方法。
  12. 仮想コンテンツをワーピングするためのコンピュータ実装方法であって、
    レンダリングされた仮想コンテンツデータを受信することと、
    光学軸に直交する方向におけるユーザ移動を示す移動データを受信することと、
    メッシュデータを前記レンダリングされた仮想コンテンツデータから生成することと、
    深度データを前記メッシュデータから決定することと、
    前記レンダリングされた仮想コンテンツデータ、前記メッシュデータ、前記深度データ、および前記移動データに基づいて、ワーピングされたレンダリングされた仮想コンテンツデータを生成することと
    を含む、方法。
  13. 前記メッシュデータを生成するとき、メッシュサイズを調節することをさらに含む、請求項12に記載の方法。
  14. 前記メッシュデータは、グリッドメッシュを使用して生成される、請求項12に記載の方法。
  15. 前記深度データは、前記メッシュ内の複数の深度および前記複数の深度のそれぞれにおける前記メッシュのコンテンツに基づいて決定される、請求項12に記載の方法。
  16. 仮想オブジェクトの深度を決定するためのコンピュータ実装方法であって、
    複数の深度において、第1の眼に対応する前記仮想オブジェクトの第1の画像を第2の眼に対応する前記仮想オブジェクトの第2の画像にわたって再投影し、複数の個別の組み合わせ画像を生成することと、
    前記複数の個別の組み合わせ画像のそれぞれにおける再投影誤差を測定し、複数の再投影誤差を生成することと、
    前記複数の個別の組み合わせ画像の組み合わせ画像に対応する前記複数の再投影誤差内の最小再投影誤差を識別することと、
    前記組み合わせ画像に対応する深度を前記仮想オブジェクトの深度として識別することと
    を含む、方法。
  17. 前記仮想オブジェクトの深度は、前記仮想オブジェクトを第1の視点から第2の視点にワーピングするために使用される、請求項16に記載の方法。
  18. 前記複数の深度は、64個の深度から成る、請求項16に記載の方法。
  19. 前記複数の深度はそれぞれ、前記仮想オブジェクトの第1の画像を再投影する際の1ピクセル差に対応する、請求項16に記載の方法。
  20. 最小安定化深度を決定するためのコンピュータ実装方法であって、
    視点(POV)移動量を取得することと、
    前記POV移動量に基づいて、安定化深度と前記安定化深度におけるピクセル移動との間の関係を決定することと、
    ディスプレイシステムのための最大検知不能ピクセル移動を取得することと、
    前記ディスプレイシステムのための最大検知不能ピクセル移動に対応する安定化深度を前記ディスプレイシステムの最小安定化深度として識別することと
    を含む、方法。
  21. 視点が変化するとき、視認者に対して前記最小安定化深度より近いコンテンツのみをワーピングすることをさらに含む、請求項20に記載の方法。
  22. 前記安定化深度と前記安定化深度におけるピクセル移動との間の関係は、逆相関である、請求項20に記載の方法。
JP2021503570A 2018-07-23 2019-07-22 仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法 Active JP7304934B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023104864A JP7443602B2 (ja) 2018-07-23 2023-06-27 仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862702238P 2018-07-23 2018-07-23
US62/702,238 2018-07-23
PCT/US2019/042819 WO2020023383A1 (en) 2018-07-23 2019-07-22 Mixed reality system with virtual content warping and method of generating virtual content using same

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023104864A Division JP7443602B2 (ja) 2018-07-23 2023-06-27 仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法

Publications (3)

Publication Number Publication Date
JP2021530811A true JP2021530811A (ja) 2021-11-11
JPWO2020023383A5 JPWO2020023383A5 (ja) 2022-07-29
JP7304934B2 JP7304934B2 (ja) 2023-07-07

Family

ID=69161139

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021503570A Active JP7304934B2 (ja) 2018-07-23 2019-07-22 仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法
JP2023104864A Active JP7443602B2 (ja) 2018-07-23 2023-06-27 仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023104864A Active JP7443602B2 (ja) 2018-07-23 2023-06-27 仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法

Country Status (5)

Country Link
US (3) US11379948B2 (ja)
EP (1) EP3827299A4 (ja)
JP (2) JP7304934B2 (ja)
CN (2) CN112513712B (ja)
WO (1) WO2020023383A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10838207B2 (en) 2015-03-05 2020-11-17 Magic Leap, Inc. Systems and methods for augmented reality
AU2016225963B2 (en) 2015-03-05 2021-05-13 Magic Leap, Inc. Systems and methods for augmented reality
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
CA3007367A1 (en) 2015-12-04 2017-06-08 Magic Leap, Inc. Relocalization systems and methods
KR20190034321A (ko) 2016-08-02 2019-04-01 매직 립, 인코포레이티드 고정-거리 가상 및 증강 현실 시스템들 및 방법들
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
KR102366781B1 (ko) 2017-03-17 2022-02-22 매직 립, 인코포레이티드 컬러 가상 콘텐츠 와핑을 갖는 혼합 현실 시스템 및 이를 사용하여 가상 콘텐츠를 생성하는 방법
IL303275B1 (en) 2017-03-17 2024-04-01 Magic Leap Inc A mixed reality system with the assembly of multi-source virtual content and a method for creating virtual content using it
JP7055815B2 (ja) 2017-03-17 2022-04-18 マジック リープ, インコーポレイテッド 仮想コンテンツをワーピングすることを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法
JP7304934B2 (ja) 2018-07-23 2023-07-07 マジック リープ, インコーポレイテッド 仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法
US10733800B2 (en) * 2018-09-17 2020-08-04 Facebook Technologies, Llc Reconstruction of essential visual cues in mixed reality applications
US11783444B1 (en) * 2019-11-14 2023-10-10 Apple Inc. Warping an input image based on depth and offset information
US20220327784A1 (en) * 2021-04-09 2022-10-13 Varjo Technologies Oy Image reprojection method, and an imaging system
US20220375026A1 (en) * 2021-05-18 2022-11-24 Snap Inc. Late warping to minimize latency of moving objects
KR20220156331A (ko) * 2021-05-18 2022-11-25 삼성전자주식회사 이미지 지연을 보정하기 위한 전자 장치 및 방법
KR20240047482A (ko) * 2021-09-02 2024-04-12 스냅 인코포레이티드 분산되고 연결된 실세계 객체들을 통한 소셜 연결

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017183346A1 (ja) * 2016-04-18 2017-10-26 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US20170345220A1 (en) * 2016-05-29 2017-11-30 Google Inc. Time-warping adjustment based on depth information in a virtual/augmented reality system

Family Cites Families (254)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4462165A (en) 1983-01-31 1984-07-31 The Boeing Company Three axis orientation sensor for an aircraft or the like
US6701296B1 (en) 1988-10-14 2004-03-02 James F. Kramer Strain-sensing goniometers, systems, and recognition algorithms
US5047952A (en) 1988-10-14 1991-09-10 The Board Of Trustee Of The Leland Stanford Junior University Communication system for deaf, deaf-blind, or non-vocal individuals using instrumented glove
US5913820A (en) 1992-08-14 1999-06-22 British Telecommunications Public Limited Company Position location system
CA2358682A1 (en) 1992-08-14 1994-03-03 British Telecommunications Public Limited Company Position location system
US5583974A (en) 1993-05-10 1996-12-10 Apple Computer, Inc. Computer graphics system having high performance multiple layer Z-buffer
TW275590B (en) 1994-12-09 1996-05-11 Sega Enterprises Kk Head mounted display and system for use therefor
US5592401A (en) 1995-02-28 1997-01-07 Virtual Technologies, Inc. Accurate, rapid, reliable position sensing using multiple sensing technologies
US5930741A (en) 1995-02-28 1999-07-27 Virtual Technologies, Inc. Accurate, rapid, reliable position sensing using multiple sensing technologies
US5684498A (en) 1995-06-26 1997-11-04 Cae Electronics Ltd. Field sequential color head mounted display with suppressed color break-up
CA2238693C (en) 1995-11-27 2009-02-24 Cae Electronics Ltd. Method and apparatus for displaying a virtual environment on a video display
US5784115A (en) 1996-12-31 1998-07-21 Xerox Corporation System and method for motion compensated de-interlacing of video frames
US6163155A (en) 1999-01-28 2000-12-19 Dresser Industries, Inc. Electromagnetic wave resistivity tool having a tilted antenna for determining the horizontal and vertical resistivities and relative dip angle in anisotropic earth formations
US6407736B1 (en) 1999-06-18 2002-06-18 Interval Research Corporation Deferred scanline conversion architecture
GB9917591D0 (en) 1999-07-28 1999-09-29 Marconi Electronic Syst Ltd Head tracker system
JP2001208529A (ja) 2000-01-26 2001-08-03 Mixed Reality Systems Laboratory Inc 計測装置及びその制御方法並びに記憶媒体
US6757068B2 (en) 2000-01-28 2004-06-29 Intersense, Inc. Self-referenced tracking
US7878905B2 (en) 2000-02-22 2011-02-01 Creative Kingdoms, Llc Multi-layered interactive play experience
US7445550B2 (en) 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
AU2001250802A1 (en) 2000-03-07 2001-09-17 Sarnoff Corporation Camera pose estimation
US6891533B1 (en) 2000-04-11 2005-05-10 Hewlett-Packard Development Company, L.P. Compositing separately-generated three-dimensional images
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US6738044B2 (en) 2000-08-07 2004-05-18 The Regents Of The University Of California Wireless, relative-motion computer input device
US20020180727A1 (en) 2000-11-22 2002-12-05 Guckenberger Ronald James Shadow buffer control module method and software construct for adjusting per pixel raster images attributes to screen space and projector features for digital warp, intensity transforms, color matching, soft-edge blending, and filtering for multiple projectors and laser projectors
US6691074B1 (en) 2001-02-08 2004-02-10 Netmore Ltd. System for three dimensional positioning and tracking
US6861982B2 (en) 2001-08-16 2005-03-01 Itt Manufacturing Enterprises, Inc. System for determining position of an emitter
US6911995B2 (en) * 2001-08-17 2005-06-28 Mitsubishi Electric Research Labs, Inc. Computer vision depth segmentation using virtual surface
US7113618B2 (en) 2001-09-18 2006-09-26 Intel Corporation Portable virtual reality
JP2003337963A (ja) 2002-05-17 2003-11-28 Seiko Epson Corp 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
US9153074B2 (en) 2011-07-18 2015-10-06 Dylan T X Zhou Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
JP3984907B2 (ja) 2002-11-29 2007-10-03 キヤノン株式会社 画像観察システム
US20070155589A1 (en) 2002-12-04 2007-07-05 Philip Feldman Method and Apparatus for Operatively Controlling a Virtual Reality Scenario with an Isometric Exercise System
JP2004213350A (ja) 2002-12-27 2004-07-29 Seiko Epson Corp 力覚提示装置及び画像補正方法
US20050107870A1 (en) 2003-04-08 2005-05-19 Xingwu Wang Medical device with multiple coating layers
US7643025B2 (en) 2003-09-30 2010-01-05 Eric Belk Lange Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
US7443154B1 (en) 2003-10-04 2008-10-28 Seektech, Inc. Multi-sensor mapping omnidirectional sonde and line locator
CA2450837A1 (en) 2003-11-25 2005-05-25 University Of New Brunswick Induction magnetometer
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US20160098095A1 (en) 2004-01-30 2016-04-07 Electronic Scripting Products, Inc. Deriving Input from Six Degrees of Freedom Interfaces
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
JP4508820B2 (ja) 2004-10-19 2010-07-21 株式会社ワコム 3次元情報検出システム及び3次元情報入力装置
JP2008521110A (ja) 2004-11-19 2008-06-19 ダーム インタラクティブ,エスエル AugmentedRealityResourcesのアプリケーション用に画像取り込み機能を具備した個人用装置とその方法
KR100960577B1 (ko) 2005-02-08 2010-06-03 오블롱 인더스트리즈, 인크 제스처 기반의 제어 시스템을 위한 시스템 및 방법
WO2006116536A1 (en) 2005-04-26 2006-11-02 Imax Corporation Electronic projection systems and methods
US8308563B2 (en) 2005-08-30 2012-11-13 Nintendo Co., Ltd. Game system and storage medium having game program stored thereon
US8157651B2 (en) 2005-09-12 2012-04-17 Nintendo Co., Ltd. Information processing program
JP4437228B2 (ja) 2005-11-07 2010-03-24 大学共同利用機関法人情報・システム研究機構 焦点ぼけ構造を用いたイメージング装置及びイメージング方法
KR100722229B1 (ko) 2005-12-02 2007-05-29 한국전자통신연구원 사용자 중심형 인터페이스를 위한 가상현실 상호작용 인체모델 즉석 생성/제어 장치 및 방법
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9910497B2 (en) 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US8537111B2 (en) 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
JP4151982B2 (ja) 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
JP4684147B2 (ja) 2006-03-28 2011-05-18 任天堂株式会社 傾き算出装置、傾き算出プログラム、ゲーム装置およびゲームプログラム
JP4196302B2 (ja) 2006-06-19 2008-12-17 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP4804256B2 (ja) 2006-07-27 2011-11-02 キヤノン株式会社 情報処理方法
US8194088B1 (en) 2006-08-03 2012-06-05 Apple Inc. Selective composite rendering
US7921120B2 (en) 2006-11-30 2011-04-05 D&S Consultants Method and system for image recognition using a similarity inverse matrix
CN101093586A (zh) 2007-07-12 2007-12-26 上海交通大学 面向复杂场景实时交互操作的并行碰撞检测方法
US8165352B1 (en) 2007-08-06 2012-04-24 University Of South Florida Reconstruction of biometric image templates using match scores
US10095815B2 (en) 2008-11-19 2018-10-09 Elbit Systems Ltd. System and a method for mapping a magnetic field
IL195389A (en) 2008-11-19 2013-12-31 Elbit Systems Ltd Magnetic Field Mapping System and Method
US20090115406A1 (en) 2007-11-01 2009-05-07 General Electric Company System and method for minimizing mutual inductance coupling between coils in an electromagnetic tracking system
US9013505B1 (en) 2007-11-27 2015-04-21 Sprint Communications Company L.P. Mobile system representing virtual objects on live camera image
KR20090055803A (ko) 2007-11-29 2009-06-03 광주과학기술원 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법
US8212880B2 (en) * 2007-12-20 2012-07-03 Utah State University Research Foundation Three-axis image stabilization system
US7795596B2 (en) 2008-01-03 2010-09-14 Alcatel-Lucent Usa Inc. Cloaking device detection system
WO2009091563A1 (en) 2008-01-18 2009-07-23 Thomson Licensing Depth-image-based rendering
US20090184825A1 (en) 2008-01-23 2009-07-23 General Electric Company RFID Transponder Used for Instrument Identification in an Electromagnetic Tracking System
WO2009093956A1 (en) 2008-01-23 2009-07-30 Swiftfoot Graphics Ab Method, apparatus, and computer program product for improved graphics performance
US8926511B2 (en) 2008-02-29 2015-01-06 Biosense Webster, Inc. Location system with virtual touch screen
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8446426B2 (en) 2008-04-28 2013-05-21 Apple Inc. Technique for visually compositing a group of graphical objects
KR20090120159A (ko) 2008-05-19 2009-11-24 삼성전자주식회사 영상합성장치 및 영상합성방법
US8929877B2 (en) 2008-09-12 2015-01-06 Digimarc Corporation Methods and systems for content processing
JP5415054B2 (ja) 2008-10-28 2014-02-12 セイコーエプソン株式会社 駆動方法および電気光学装置
EP2354896B1 (en) 2008-11-14 2016-12-21 Sony Interactive Entertainment Inc. Operating device and information processing apparatus
US8188745B2 (en) 2008-12-05 2012-05-29 Metrotech Corporation Inc. Precise location and orientation of a concealed dipole transmitter
US9465129B1 (en) 2009-03-06 2016-10-11 See Scan, Inc. Image-based mapping locating system
US8860723B2 (en) * 2009-03-09 2014-10-14 Donya Labs Ab Bounded simplification of geometrical computer data
JP5177078B2 (ja) 2009-05-26 2013-04-03 富士通モバイルコミュニケーションズ株式会社 情報処理装置
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US8775424B2 (en) 2010-01-26 2014-07-08 Xerox Corporation System for creative image navigation and exploration
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US8581905B2 (en) 2010-04-08 2013-11-12 Disney Enterprises, Inc. Interactive three dimensional displays on handheld devices
TWI399688B (zh) 2010-06-08 2013-06-21 Waltop Int Corp 整合電磁式及電容感應輸入裝置
RU2010123652A (ru) * 2010-06-10 2011-12-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." (KR) Система и способ визуализации стереоизображений и многовидовых изображений для управления восприятием глубины стереоскопического изображения, создаваемого телевизионным приемником
JP5541974B2 (ja) * 2010-06-14 2014-07-09 任天堂株式会社 画像表示プログラム、装置、システムおよび方法
JP2012043308A (ja) 2010-08-20 2012-03-01 Canon Inc 位置姿勢決定方法、位置姿勢決定装置、物体モデル生成方法、物体モデル生成装置、およびプログラム
JP5820366B2 (ja) 2010-10-08 2015-11-24 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
US20120086630A1 (en) 2010-10-12 2012-04-12 Sony Computer Entertainment Inc. Using a portable gaming device to record or modify a game or application in real-time running on a home gaming system
US9122053B2 (en) * 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
FR2966251B1 (fr) 2010-10-19 2014-04-25 Astrium Sas Systeme d'orientation et de positionnement d'un recepteur electromagnetique
US8660369B2 (en) 2010-10-25 2014-02-25 Disney Enterprises, Inc. Systems and methods using mobile devices for augmented reality
US8745061B2 (en) 2010-11-09 2014-06-03 Tibco Software Inc. Suffix array candidate selection and index data structure
CN103415860B (zh) 2011-01-27 2019-07-12 苹果公司 确定第一和第二图像间的对应关系的方法以及确定摄像机姿态的方法
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8994722B2 (en) * 2011-02-14 2015-03-31 Mitsubishi Electric Research Laboratories, Inc. Method for enhancing depth images of scenes using trellis structures
JP5724544B2 (ja) 2011-03-31 2015-05-27 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US9206007B2 (en) 2011-05-31 2015-12-08 Twist-Ease Inc. Bag dispenser
US20120306850A1 (en) 2011-06-02 2012-12-06 Microsoft Corporation Distributed asynchronous localization and mapping for augmented reality
US20120327116A1 (en) 2011-06-23 2012-12-27 Microsoft Corporation Total field of view classification for head-mounted display
US8933913B2 (en) 2011-06-28 2015-01-13 Microsoft Corporation Electromagnetic 3D stylus
US20150100380A1 (en) 2011-07-20 2015-04-09 Raymond P. Jones, JR. Systems and methods for providing financial controls for aggregated weather-based work
EP2745236A1 (en) 2011-08-18 2014-06-25 Layar B.V. Computer-vision based augmented reality system
US20150040074A1 (en) 2011-08-18 2015-02-05 Layar B.V. Methods and systems for enabling creation of augmented reality content
US8749396B2 (en) 2011-08-25 2014-06-10 Satorius Stedim Biotech Gmbh Assembling method, monitoring method, communication method, augmented reality system and computer program product
WO2013029674A1 (en) 2011-08-31 2013-03-07 Metaio Gmbh Method of matching image features with reference features
EP2756328A2 (en) 2011-09-13 2014-07-23 Sadar 3D, Inc. Synthetic aperture radar apparatus and methods
US8821286B2 (en) 2011-09-29 2014-09-02 Wms Gaming, Inc. Wagering game system having motion sensing controllers
US9286711B2 (en) * 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Representing a location at a previous time period using an augmented reality display
AU2012348348B2 (en) 2011-10-28 2017-03-30 Magic Leap, Inc. System and method for augmented and virtual reality
CN104067316B (zh) 2011-11-23 2017-10-27 奇跃公司 三维虚拟和增强现实显示系统
JP2013134455A (ja) * 2011-12-27 2013-07-08 Nidec Copal Corp 像振れ補正装置及びレンズ駆動装置
US9313475B2 (en) * 2012-01-04 2016-04-12 Thomson Licensing Processing 3D image sequences
US9330468B2 (en) 2012-02-29 2016-05-03 RetailNext, Inc. Method and system for analyzing interactions
US9075824B2 (en) 2012-04-27 2015-07-07 Xerox Corporation Retrieval system and method leveraging category-level labels
US9098229B2 (en) 2012-05-04 2015-08-04 Aaron Hallquist Single image pose estimation of image capture devices
US9116666B2 (en) 2012-06-01 2015-08-25 Microsoft Technology Licensing, Llc Gesture based region identification for holograms
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9582072B2 (en) 2013-09-17 2017-02-28 Medibotics Llc Motion recognition clothing [TM] with flexible electromagnetic, light, or sonic energy pathways
US9384737B2 (en) 2012-06-29 2016-07-05 Microsoft Technology Licensing, Llc Method and device for adjusting sound levels of sources based on sound source priority
JP2014049934A (ja) 2012-08-31 2014-03-17 Sony Corp ヘッドマウントディスプレイ
EP2704055A1 (en) 2012-08-31 2014-03-05 Layar B.V. Determining space to display content in augmented reality
US9134954B2 (en) 2012-09-10 2015-09-15 Qualcomm Incorporated GPU memory buffer pre-fetch and pre-back signaling to avoid page-fault
EP3502621B1 (en) 2012-09-21 2023-06-07 NavVis GmbH Visual localisation
GB201217372D0 (en) 2012-09-28 2012-11-14 Ucl Business Plc A system and method for annotating images by propagating information
US9177404B2 (en) 2012-10-31 2015-11-03 Qualcomm Incorporated Systems and methods of merging multiple maps for computer vision based tracking
US9188694B2 (en) 2012-11-16 2015-11-17 Halliburton Energy Services, Inc. Optical interferometric sensors for measuring electromagnetic fields
US9160727B1 (en) 2012-11-30 2015-10-13 Microstrategy Incorporated Providing credential information
US9026847B2 (en) 2012-12-21 2015-05-05 Advanced Micro Devices, Inc. Hardware based redundant multi-threading inside a GPU for improved reliability
US20140176591A1 (en) 2012-12-26 2014-06-26 Georg Klein Low-latency fusing of color image data
WO2014105385A1 (en) 2012-12-27 2014-07-03 The Regents Of The University Of California Anamorphic stretch image compression
US9788714B2 (en) 2014-07-08 2017-10-17 Iarmourholdings, Inc. Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance
KR102387314B1 (ko) 2013-03-11 2022-04-14 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
WO2014160342A1 (en) 2013-03-13 2014-10-02 The University Of North Carolina At Chapel Hill Low latency stabilization for head-worn displays
CN105229719B (zh) 2013-03-15 2018-04-27 奇跃公司 显示系统和方法
US8908021B2 (en) 2013-03-15 2014-12-09 Orcam Technologies Ltd. Systems and methods for automatic control of a continuous action
US9269003B2 (en) 2013-04-30 2016-02-23 Qualcomm Incorporated Diminished and mediated reality effects from reconstruction
US20140323148A1 (en) 2013-04-30 2014-10-30 Qualcomm Incorporated Wide area localization from slam maps
US9367960B2 (en) 2013-05-22 2016-06-14 Microsoft Technology Licensing, Llc Body-locked placement of augmented reality objects
US10254855B2 (en) 2013-06-04 2019-04-09 Wen-Chieh Geoffrey Lee High resolution and high sensitivity three-dimensional (3D) cursor maneuvering device
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9129430B2 (en) 2013-06-25 2015-09-08 Microsoft Technology Licensing, Llc Indicating out-of-view augmented reality images
US9443355B2 (en) 2013-06-28 2016-09-13 Microsoft Technology Licensing, Llc Reprojection OLED display for augmented reality experiences
US9712473B2 (en) 2013-07-11 2017-07-18 Facebook, Inc. Methods, systems, and user interfaces for community-based location ratings
WO2015006784A2 (en) 2013-07-12 2015-01-15 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US10408613B2 (en) 2013-07-12 2019-09-10 Magic Leap, Inc. Method and system for rendering virtual content
US9514571B2 (en) 2013-07-25 2016-12-06 Microsoft Technology Licensing, Llc Late stage reprojection
JP6192010B2 (ja) 2013-09-05 2017-09-06 国立大学法人 東京大学 重み設定装置および方法
US9729864B2 (en) 2013-09-30 2017-08-08 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
JP6353214B2 (ja) 2013-11-11 2018-07-04 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
KR102378457B1 (ko) 2013-11-27 2022-03-23 매직 립, 인코포레이티드 가상 및 증강 현실 시스템들 및 방법들
US11402629B2 (en) 2013-11-27 2022-08-02 Magic Leap, Inc. Separated pupil optical systems for virtual and augmented reality and methods for displaying images using same
US9354778B2 (en) 2013-12-06 2016-05-31 Digimarc Corporation Smartphone-based methods and systems
SG11201604981UA (en) 2013-12-19 2016-07-28 Avigilon Fortress Corp System and method for identifying faces in unconstrained media
US9360935B2 (en) 2013-12-20 2016-06-07 Hong Kong Applied Science And Technology Research Institute Co. Ltd. Integrated bi-sensing optical structure for head mounted display
EP2887311B1 (en) 2013-12-20 2016-09-14 Thomson Licensing Method and apparatus for performing depth estimation
US20160147063A1 (en) 2014-11-26 2016-05-26 Osterhout Group, Inc. See-through computer display systems
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US9405122B2 (en) 2014-01-29 2016-08-02 Ricoh Co., Ltd Depth-disparity calibration of a binocular optical augmented reality system
CN106796679A (zh) 2014-03-04 2017-05-31 谷歌公司 基于社交线索的地图个性化
US20160203624A1 (en) 2014-03-05 2016-07-14 Google Inc. System and Method for Providing Combined Multi-Dimensional Map Views
WO2015134958A1 (en) 2014-03-07 2015-09-11 Magic Leap, Inc. Virtual and augmented reality systems and methods
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
CN105005457B (zh) 2014-04-25 2019-04-09 腾讯科技(深圳)有限公司 地理位置展示方法及装置
US9953243B2 (en) 2014-04-25 2018-04-24 Google Llc Electronic device localization based on imagery
US9652893B2 (en) * 2014-04-29 2017-05-16 Microsoft Technology Licensing, Llc Stabilization plane determination based on gaze location
US9727341B2 (en) 2014-05-09 2017-08-08 Samsung Electronics Co., Ltd. Control flow in a thread-based environment without branching
KR101888566B1 (ko) 2014-06-03 2018-08-16 애플 인크. 실제 물체와 관련된 디지털 정보를 제시하기 위한 방법 및 시스템
US20150358539A1 (en) 2014-06-06 2015-12-10 Jacob Catt Mobile Virtual Reality Camera, Method, And System
US20150379772A1 (en) 2014-06-30 2015-12-31 Samsung Display Co., Ltd. Tracking accelerator for virtual and augmented reality displays
US10283035B2 (en) 2014-07-01 2019-05-07 Sharp Kabushiki Kaisha Field-sequential image display device and image display method
US10056054B2 (en) 2014-07-03 2018-08-21 Federico Fraccaroli Method, system, and apparatus for optimising the augmentation of radio emissions
US10198865B2 (en) 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
US10162177B2 (en) 2014-07-11 2018-12-25 Sixense Entertainment, Inc. Method and apparatus for self-relative body tracking for virtual reality systems using magnetic tracking
US9363644B2 (en) 2014-07-16 2016-06-07 Yahoo! Inc. System and method for detection of indoor tracking units
US9719871B2 (en) 2014-08-09 2017-08-01 Google Inc. Detecting a state of a wearable device
EP3192058A4 (en) 2014-09-08 2018-05-02 Simx LLC Augmented reality simulator for professional and educational training
EP3192259A4 (en) 2014-09-09 2018-05-16 Nokia Technologies Oy Stereo image recording and playback
US10430382B2 (en) 2014-10-14 2019-10-01 Microsoft Technology Licensing, Llc Data visualization architecture
US9478029B2 (en) 2014-10-23 2016-10-25 Qualcomm Incorporated Selection strategy for exchanging map information in collaborative multi-user SLAM systems
US10650574B2 (en) 2014-10-31 2020-05-12 Fyusion, Inc. Generating stereoscopic pairs of images from a single lens camera
US11049476B2 (en) 2014-11-04 2021-06-29 The University Of North Carolina At Chapel Hill Minimal-latency tracking and display for matching real and virtual worlds in head-worn displays
US20160131904A1 (en) 2014-11-07 2016-05-12 Osterhout Group, Inc. Power management for head worn computing
US9818170B2 (en) 2014-12-10 2017-11-14 Qualcomm Incorporated Processing unaligned block transfer operations
EP3796235A1 (en) 2014-12-17 2021-03-24 Google LLC Generating numeric embeddings of images
US9696549B2 (en) 2014-12-22 2017-07-04 International Business Machines Corporation Selectively pairing an application presented in virtual space with a physical display
US9846968B2 (en) 2015-01-20 2017-12-19 Microsoft Technology Licensing, Llc Holographic bird's eye view camera
US9721385B2 (en) * 2015-02-10 2017-08-01 Dreamworks Animation Llc Generation of three-dimensional imagery from a two-dimensional image using a depth map
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US20160247282A1 (en) * 2015-02-19 2016-08-25 Daqri, Llc Active surface projection correction
AU2016225963B2 (en) 2015-03-05 2021-05-13 Magic Leap, Inc. Systems and methods for augmented reality
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
WO2016142837A1 (en) 2015-03-07 2016-09-15 Verity Studios Distributed localization systems and methods and self-localizing apparatus
US9874932B2 (en) 2015-04-09 2018-01-23 Microsoft Technology Licensing, Llc Avoidance of color breakup in late-stage re-projection
US9814430B1 (en) 2015-04-17 2017-11-14 Bertec Corporation System and method for measuring eye movement and/or eye position and postural sway of a subject
CN113050280B (zh) 2015-05-04 2024-01-19 奇跃公司 用于虚拟和增强现实的分离光瞳光学系统以及用于使用其显示图像的方法
CN104866829B (zh) 2015-05-25 2019-02-19 苏州大学 一种基于特征学习的跨年龄人脸验证方法
US10721280B1 (en) 2015-05-29 2020-07-21 Sprint Communications Company L.P. Extended mixed multimedia reality platform
US20160378863A1 (en) 2015-06-24 2016-12-29 Google Inc. Selecting representative video frames for videos
US10062010B2 (en) 2015-06-26 2018-08-28 Intel Corporation System for building a map and subsequent localization
US10192361B2 (en) 2015-07-06 2019-01-29 Seiko Epson Corporation Head-mounted display device and computer program
US10750161B2 (en) 2015-07-15 2020-08-18 Fyusion, Inc. Multi-view interactive digital media representation lock screen
US9875427B2 (en) 2015-07-28 2018-01-23 GM Global Technology Operations LLC Method for object localization and pose estimation for an object of interest
WO2017044965A1 (en) 2015-09-10 2017-03-16 Duke University Systems and methods for arbitrary viewpoint robotic manipulation and robotic surgical assistance
GB201518112D0 (en) 2015-10-13 2015-11-25 Bae Systems Plc Improvements in and relating to displays
US10338677B2 (en) 2015-10-28 2019-07-02 Microsoft Technology Licensing, Llc Adjusting image frames based on tracking motion of eyes
US10026212B2 (en) * 2015-11-20 2018-07-17 Google Llc Electronic display stabilization using pixel velocities
US20170161853A1 (en) 2015-12-03 2017-06-08 James Carroll Gossweiler Mapping system that identifies site-specific real estate due diligence professionals and related service providers
CA3007367A1 (en) 2015-12-04 2017-06-08 Magic Leap, Inc. Relocalization systems and methods
US10241569B2 (en) * 2015-12-08 2019-03-26 Facebook Technologies, Llc Focus adjustment method for a virtual reality headset
EP3185550A1 (en) 2015-12-23 2017-06-28 Thomson Licensing Tridimensional rendering with adjustable disparity direction
FR3046261B1 (fr) 2015-12-24 2018-08-31 Starbreeze Paris Element mobile hybride, procede et dispositif pour interfacer une pluralite d'elements mobiles hybrides avec un systeme informatique, et ensemble pour systeme de realite virtuelle ou augmentee
US10130429B1 (en) 2016-01-06 2018-11-20 Ethicon Llc Methods, systems, and devices for controlling movement of a robotic surgical system
KR20180110051A (ko) 2016-02-05 2018-10-08 매직 립, 인코포레이티드 증강 현실을 위한 시스템들 및 방법들
US10334076B2 (en) 2016-02-22 2019-06-25 Google Llc Device pairing in augmented/virtual reality environment
EP3420413A1 (en) 2016-02-22 2019-01-02 Real View Imaging Ltd. A method and system for displaying holographic images within a real object
CN108139815B (zh) * 2016-02-22 2020-11-10 谷歌有限责任公司 用于虚拟现实内容的显示的场景和对象的分立时间扭曲
US9639935B1 (en) 2016-05-25 2017-05-02 Gopro, Inc. Apparatus and methods for camera alignment model calibration
US10366536B2 (en) * 2016-06-28 2019-07-30 Microsoft Technology Licensing, Llc Infinite far-field depth perception for near-field objects in virtual environments
KR20190034321A (ko) 2016-08-02 2019-04-01 매직 립, 인코포레이티드 고정-거리 가상 및 증강 현실 시스템들 및 방법들
US11017712B2 (en) 2016-08-12 2021-05-25 Intel Corporation Optimized display image rendering
CA2976464A1 (en) 2016-08-16 2018-02-16 Sergi Berna Sague Method and system for wireless location and movement mapping, tracking and analytics
US10529063B2 (en) 2016-08-22 2020-01-07 Magic Leap, Inc. Virtual, augmented, and mixed reality systems and methods
IL301071B2 (en) * 2016-08-26 2024-04-01 Magic Leap Inc Continuous time warping and binocular time warping for virtual and augmented reality display systems and methods
US10318115B2 (en) 2016-10-14 2019-06-11 OneMarket Network LLC System and method for presenting optimized map labels
CN108241142B (zh) 2016-12-26 2021-05-11 宏达国际电子股份有限公司 追踪系统及追踪方法
US10330936B2 (en) * 2017-01-19 2019-06-25 Facebook Technologies, Llc Focal surface display
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
JP7055815B2 (ja) 2017-03-17 2022-04-18 マジック リープ, インコーポレイテッド 仮想コンテンツをワーピングすることを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法
IL303275B1 (en) 2017-03-17 2024-04-01 Magic Leap Inc A mixed reality system with the assembly of multi-source virtual content and a method for creating virtual content using it
KR102366781B1 (ko) 2017-03-17 2022-02-22 매직 립, 인코포레이티드 컬러 가상 콘텐츠 와핑을 갖는 혼합 현실 시스템 및 이를 사용하여 가상 콘텐츠를 생성하는 방법
US10991280B2 (en) 2017-05-01 2021-04-27 Pure Depth Limited Head tracking based field sequential saccadic break up reduction
US10620710B2 (en) * 2017-06-15 2020-04-14 Microsoft Technology Licensing, Llc Displacement oriented interaction in computer-mediated reality
GB201709752D0 (en) * 2017-06-19 2017-08-02 Advanced Risc Mach Ltd Graphics processing systems
US10859834B2 (en) * 2017-07-03 2020-12-08 Holovisions Space-efficient optical structures for wide field-of-view augmented reality (AR) eyewear
US10403032B2 (en) * 2017-08-22 2019-09-03 Qualcomm Incorporated Rendering an image from computer graphics using two rendering computing devices
US10445922B2 (en) * 2017-08-31 2019-10-15 Intel Corporation Last-level projection method and apparatus for virtual and augmented reality
US10529086B2 (en) * 2017-11-22 2020-01-07 Futurewei Technologies, Inc. Three-dimensional (3D) reconstructions of dynamic scenes using a reconfigurable hybrid imaging system
US10481689B1 (en) 2018-01-10 2019-11-19 Electronic Arts Inc. Motion capture glove
US10861215B2 (en) * 2018-04-30 2020-12-08 Qualcomm Incorporated Asynchronous time and space warp with determination of region of interest
JP7304934B2 (ja) 2018-07-23 2023-07-07 マジック リープ, インコーポレイテッド 仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法
US11176901B1 (en) 2019-08-13 2021-11-16 Facebook Technologies, Llc. Pan-warping and modifying sub-frames with an up-sampled frame rate
US10843067B1 (en) 2019-10-04 2020-11-24 Varjo Technologies Oy Input device, system, and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017183346A1 (ja) * 2016-04-18 2017-10-26 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US20170345220A1 (en) * 2016-05-29 2017-11-30 Google Inc. Time-warping adjustment based on depth information in a virtual/augmented reality system

Also Published As

Publication number Publication date
WO2020023383A1 (en) 2020-01-30
JP2023129414A (ja) 2023-09-14
US20200027194A1 (en) 2020-01-23
CN116483200A (zh) 2023-07-25
US11790482B2 (en) 2023-10-17
EP3827299A1 (en) 2021-06-02
US11379948B2 (en) 2022-07-05
CN112513712B (zh) 2023-05-09
CN112513712A (zh) 2021-03-16
JP7443602B2 (ja) 2024-03-05
JP7304934B2 (ja) 2023-07-07
US20220245758A1 (en) 2022-08-04
EP3827299A4 (en) 2021-10-27
US20230394621A1 (en) 2023-12-07

Similar Documents

Publication Publication Date Title
JP7443602B2 (ja) 仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法
JP7096450B2 (ja) カラー仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツ生成する方法
US11410269B2 (en) Mixed reality system with virtual content warping and method of generating virtual content using same
JP7095189B2 (ja) 多ソース仮想コンテンツ合成を伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220721

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220721

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230627

R150 Certificate of patent or registration of utility model

Ref document number: 7304934

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150