JP7421505B2 - 自動化された表面選択設置およびコンテンツ配向設置を用いた拡張現実ビューア - Google Patents

自動化された表面選択設置およびコンテンツ配向設置を用いた拡張現実ビューア Download PDF

Info

Publication number
JP7421505B2
JP7421505B2 JP2020567853A JP2020567853A JP7421505B2 JP 7421505 B2 JP7421505 B2 JP 7421505B2 JP 2020567853 A JP2020567853 A JP 2020567853A JP 2020567853 A JP2020567853 A JP 2020567853A JP 7421505 B2 JP7421505 B2 JP 7421505B2
Authority
JP
Japan
Prior art keywords
orientation
user
content
display area
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020567853A
Other languages
English (en)
Other versions
JP2021527252A (ja
Inventor
ビクター ング-ソウ-ヒン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2021527252A publication Critical patent/JP2021527252A/ja
Application granted granted Critical
Publication of JP7421505B2 publication Critical patent/JP7421505B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/373Details of the operation on graphic patterns for modifying the size of the graphic pattern
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

(関連出願の相互参照)
本願は、その全てが、参照することによってその全体として本明細書に組み込まれる、2018年6月8日に出願された、米国仮特許出願第62/682,788号の優先権を主張する。
1)発明の分野
本発明は、拡張現実ビューアおよび拡張現実視認方法に関する。
2)関連技術の議論
現代のコンピューティングおよびディスプレイ技術は、「拡張現実」ビューアの開発を促進している。拡張現実ビューアは、ユーザに、左眼に1つおよび右眼に1つの2つの画像を提示する、ウェアラブルデバイスである。眼毎の画像内のオブジェクトは、若干異なる視点でレンダリングされ、脳が、オブジェクトを3次元オブジェクトとして処理することを可能にする。ビューアが移動するにつれて、画像が常に視点を変化させるとき、合成3次元コンテンツの周囲の移動が、シミュレートされ得る。
拡張現実ビューアは、通常、ユーザの周囲の実際の世界の可視化に対する拡張としてのデジタルまたは仮想画像情報の提示を可能にする、技術を含む。1つの実装では、仮想画像情報は、ユーザが、その頭部と、その頭部に伴って、拡張現実ビューアを移動させる場合、実世界オブジェクトがそのビュー内で偏移する間、ユーザが彼らの正面の定常位置に留まる画像を提示されるように、拡張現実ビューアに対して静的場所に提示される。これは、ユーザに、仮想画像情報が実世界オブジェクトに対して固定されないが、代わりに、ビューアの視点内で固定される、外観を与える。他の実装では、ユーザがその頭部を移動させるとき、仮想画像情報を実世界オブジェクトに対して定常位置に保つ技術が、存在する。後者のシナリオでは、ユーザは、実世界オブジェクトに対する仮想画像情報の初期設置のある程度の制御を与えられ得る。
本発明は、ユーザに実世界オブジェクトが見えることを可能にする、ディスプレイと、コンテンツを保持するためのデータチャネルと、第1のディスプレイエリアに対するユーザの第1のユーザ配向を決定し、第1のディスプレイエリアに対するユーザの第2のユーザ配向を決定するためのユーザ配向決定モジュールと、データチャネルに接続され、ユーザが実世界オブジェクトを視認している間、第1のディスプレイエリアの限局域内において、コンテンツをディスプレイを通してユーザに表示する、プロジェクタと、表面抽出モジュールおよびユーザ配向モジュールに接続され、ユーザが第1のユーザ配向にあるとき、コンテンツの近縁がユーザに近くなるように、第1のディスプレイエリアに対して第1のコンテンツ配向においてコンテンツを表示し、ユーザが第2のユーザ配向にあるとき、近縁がユーザのより近くに回転され、コンテンツが、第1のコンテンツ配向から第2のコンテンツ配向に、第1のディスプレイエリアに対して回転されるように、第1のディスプレイエリアに対して第2のコンテンツ配向においてコンテンツを表示する、コンテンツ配向選択モジュールとを含む、拡張現実ビューアを提供する。
本発明はさらに、プロセッサによって、第1のディスプレイエリアに対するユーザの第1のユーザ配向を決定するステップ、ユーザが第1の配向にあるときプロセッサによって、ディスプレイに対する第1のコンテンツ配向を決定するステップと、プロセッサによって、第1のユーザ配向にある間、ユーザがディスプレイを通して実世界オブジェクトを視認している間、第1のディスプレイエリアの限局域内において、第1のコンテンツ配向におけるコンテンツをディスプレイを通してユーザに表示するステップと、プロセッサによって、第1のディスプレイエリアに対するユーザの第2のユーザ配向を決定するステップと、ユーザが第2の場所にあるとき、プロセッサによって、ディスプレイに対する第2のコンテンツ配向を決定するステップと、プロセッサによって、ユーザが第2の場所からディスプレイを通して実世界オブジェクトを視認している間、ディスプレイエリアの限局域内において、第2のコンテンツ配向におけるコンテンツをディスプレイを通してユーザに表示するステップであって、コンテンツは、第1のコンテンツ配向から第2のコンテンツ配向に、第1のディスプレイエリアに対して回転される、ステップとを含む、拡張現実視認方法を提供する。
本発明はまた、ユーザに実世界オブジェクトが見えることを可能にする、ディスプレイと、コンテンツを保持するためのデータチャネルと、第1の表面エリアおよび第2の表面エリアを決定するための表面エリア抽出モジュールと、第1の表面エリアおよび第2の表面エリアに対するユーザの第1の配向を決定するためのユーザ配向決定モジュールと、個別の表面エリアに対する法線がユーザの第1のユーザ配向とより反対に指向されていることに基づいて第1の表面エリアと第2の表面エリアとの間の好ましい表面エリアを選択するための表面エリア選択モジュールと、ユーザが実世界オブジェクトを視認している間、好ましい表面エリアの限局域内において、コンテンツをディスプレイを通してユーザに表示する、プロジェクタとを含む、拡張現実ビューアを提供する。
本発明はさらに、プロセッサによって、第1の表面エリアおよび第2の表面エリアを決定するステップと、プロセッサによって、第1の表面エリアおよび第2の表面エリアに対するユーザの第1の配向を決定するステップと、プロセッサによって、個別の表面エリアに対する法線がユーザの第1の場所に向かってより指向されていることに基づいて、第1の表面エリアと第2の表面エリアとの間の好ましい表面エリアを選択するステップと、プロセッサによって、ユーザが第1の場所からディスプレイを通して実世界オブジェクトを視認している間、好ましい表面エリアの限局域内において、コンテンツをディスプレイを通してユーザに表示するステップとを含む、拡張現実視認方法を提供する。
本発明はまた、ユーザの配向を示す第1のベクトルを決定するための環境計算ユニットと、第2のベクトルを計算するためのベクトル計算機と、第1のベクトルと第2のベクトルのドット積を計算するための選択モジュールと、コンテンツを保持するためのデータチャネルと、ドット積に基づいて、コンテンツの設置を決定するためのコンテンツレンダリングモジュールと、ユーザに実世界オブジェクトが見えることを可能にする、ディスプレイと、ユーザがディスプレイを通して実世界オブジェクトを視認している間、コンテンツをディスプレイを通してユーザに表示する、プロジェクタであって、コンテンツは、コンテンツレンダリングモジュールによって決定された設置に基づいて表示されている、プロジェクタとを含む、拡張現実ビューアを提供する。
本発明はさらに、プロセッサによって、ユーザの配向を示す第1のベクトルを決定するステップと、プロセッサによって、第2のベクトルを計算するステップと、プロセッサによって、第1のベクトルと第2のベクトルのドット積を計算するステップと、プロセッサによって、ドット積に基づいて、コンテンツの設置を決定するステップと、プロセッサによって、ユーザがディスプレイを通して実世界オブジェクトを視認している間、コンテンツをディスプレイを通してユーザに表示するステップであって、コンテンツは、コンテンツレンダリングモジュールによって決定された設置に基づいて表示されている、ステップとを含む、拡張現実視認方法を提供する。
本発明は、例えば、以下の項目を提供する。
(項目1)
拡張現実ビューアであって、
ユーザに実世界オブジェクトが見えることを可能にするディスプレイと、
コンテンツを保持するためのデータチャネルと、
ユーザ配向決定モジュールであって、前記ユーザ配向決定モジュールは、第1のディスプレイエリアに対するユーザの第1のユーザ配向を決定し、前記第1のディスプレイエリアに対する前記ユーザの第2のユーザ配向を決定する、ユーザ配向決定モジュールと、
プロジェクタであって、前記プロジェクタは、前記データチャネルに接続され、前記ユーザが前記実世界オブジェクトを視認している間、前記第1のディスプレイエリアの限局域内において、前記コンテンツを前記ディスプレイを通してユーザに表示する、プロジェクタと、
コンテンツ配向選択モジュールであって、前記コンテンツ配向選択モジュールは、表面抽出モジュールおよびユーザ配向モジュールに接続され、前記ユーザが前記第1のユーザ配向にあるとき、前記コンテンツの近縁が前記ユーザに近くなるように、前記第1のディスプレイエリアに対して第1のコンテンツ配向において前記コンテンツを表示し、前記近縁が前記ユーザが前記第2のユーザ配向にあるとき、ユーザのより近くに回転され、前記コンテンツが、前記第1のコンテンツ配向から前記第2のコンテンツ配向に、前記第1のディスプレイエリアに対して回転されるように、前記第1のディスプレイエリアに対して第2のコンテンツ配向において前記コンテンツを表示する、コンテンツ配向選択モジュールと
を備える、拡張現実ビューア。
(項目2)
ユーザの配向を示すユーザ配向ベクトルを決定する前記ユーザ配向決定モジュールはさらに、
前記コンテンツの近縁に対するコンテンツ配向ベクトルを計算するためのコンテンツベクトル計算機を備え、前記コンテンツ配向選択モジュールは、前記ユーザ配向ベクトルと前記コンテンツ配向ベクトルとのドット積を決定し、前記第2の配向および前記第1の配向における前記ドット積の大きさに基づいて、前記第1の配向から前記第2の配向に、前記コンテンツを回転させる、項目1に記載の拡張現実ビューア。
(項目3)
前記コンテンツ配向ベクトルは、前記コンテンツの近縁から延在し、前記コンテンツは、前記ドット積が前記第1のコンテンツ配向より前記第2のコンテンツ配向において大きくなると、前記第1のコンテンツ配向から前記第2のコンテンツ配向に回転する、項目2に記載の拡張現実ビューア。
(項目4)
前記コンテンツをサイズ変更し、前記表面エリアを前記第1の配向および前記第2の配向内に適合させるサイズ決定モジュールをさらに備える、項目1に記載の拡張現実ビューア。
(項目5)
前記コンテンツは、前記第1の配向および前記第2の配向において、同一アスペクト比を有する、項目4に記載の拡張現実ビューア。
(項目6)
前記第1のディスプレイエリアを決定するための表面エリア抽出モジュールをさらに備える、項目1に記載の拡張現実ビューア。
(項目7)
前記表面エリア抽出モジュールは、第2の表面エリアを決定し、第1の表面エリアおよび前記第2の表面エリアに対するユーザの第1の配向を決定するためのユーザ配向決定モジュールはさらに、
個別の表面エリアに対する法線が前記ユーザの第1のユーザ配向とより反対に指向されていることに基づいて、前記第1の表面エリアと前記第2の表面エリアとの間の好ましい表面エリアを選択するための表面エリア選択モジュールを備え、前記プロジェクタは、前記ユーザが前記実世界オブジェクトを視認している間、前記好ましい表面エリアの限局域内において、コンテンツを前記ディスプレイを通してユーザに表示する、項目6に記載の拡張現実ビューア。
(項目8)
拡張現実視認方法であって、
プロセッサによって、第1のディスプレイエリアに対するユーザの第1のユーザ配向を決定することと、
ユーザが第1の配向にあるとき、前記プロセッサによって、ディスプレイに対する第1のコンテンツ配向を決定することと、
前記プロセッサによって、前記第1のユーザ配向にある間、前記ユーザが前記ディスプレイを通して実世界オブジェクトを視認している間、前記第1のディスプレイエリアの限局域内において、前記第1のコンテンツ配向におけるコンテンツをディスプレイを通してユーザに表示することと、
前記プロセッサによって、前記第1のディスプレイエリアに対する前記ユーザの第2のユーザ配向を決定することと、
前記ユーザが第2の場所にあるとき、前記プロセッサによって、前記ディスプレイに対する第2のコンテンツ配向を決定することと、
前記プロセッサによって、前記ユーザが前記第2の場所から前記ディスプレイを通して実世界オブジェクトを視認している間、前記ディスプレイエリアの限局域内において、前記第2のコンテンツ配向におけるコンテンツをディスプレイを通してユーザに表示することであって、前記コンテンツは、前記第1のコンテンツ配向から前記第2のコンテンツ配向に、前記第1のディスプレイエリアに対して回転される、ことと
を含む、方法。
(項目9)
拡張現実ビューアであって、
ユーザに実世界オブジェクトが見えることを可能にするディスプレイと、
コンテンツを保持するためのデータチャネルと、
第1の表面エリアおよび第2の表面エリアを決定するための表面エリア抽出モジュールと、
前記第1の表面エリアおよび前記第2の表面エリアに対する第1のユーザの配向を決定するためのユーザ配向決定モジュールと、
表面エリア選択モジュールであって、前記表面エリア選択モジュールは、個別の表面エリアに対する法線が前記ユーザの第1のユーザ配向とより反対に指向されていることに基づいて、前記第1の表面エリアと前記第2の表面エリアとの間の好ましい表面エリアを選択する、表面エリア選択モジュールと、
プロジェクタであって、前記プロジェクタは、前記ユーザが前記実世界オブジェクトを視認している間、前記好ましい表面エリアの限局域内において、コンテンツを前記ディスプレイを通してユーザに表示する、プロジェクタと
を備える、拡張現実ビューア。
(項目10)
前記ユーザの第1のユーザ配向を示す第1のユーザ配向ベクトルを決定する前記ユーザ配向決定モジュールはさらに、
前記第1の表面エリアの配向を示す第1の表面エリア配向ベクトルおよび前記第2の表面エリアの配向を示す第2の表面エリア配向ベクトルを計算するための表面エリアベクトル計算機を備え、前記表面エリア選択モジュールは、前記第1のユーザ配向ベクトルと前記第1の表面エリア配向ベクトルとのドット積および前記第1のユーザ配向ベクトルと前記第2の表面エリア配向ベクトルとのドット積を決定し、前記第1のユーザ配向ベクトルと前記第1の表面エリア配向ベクトルとのドット積および第1のユーザ配向ベクトルと前記第2の表面エリア配向ベクトルとのドット積の相対的大きさに基づいて、前記好ましい表面エリアを選択する、項目9に記載の拡張現実ビューア。
(項目11)
前記第1の表面エリア配向ベクトルは、前記第1の表面エリアに対する法線方向にあり、前記第2の表面エリア配向ベクトルは、前記第2の表面エリアに対する法線方向にあり、前記好ましい表面エリアは、大きさが最大の負の前記ドット積に基づいて選択される、項目10に記載の拡張現実ビューア。
(項目12)
前記ユーザ位置およびユーザ配向決定モジュールは、前記ユーザの第2の配向を示す第2のユーザ配向ベクトルを決定し、前記表面エリア選択モジュールは、前記第2のユーザ配向ベクトルと前記第1の表面エリア配向ベクトルとのドット積および前記第2のユーザ配向と前記第2の表面エリア配向ベクトルとのドット積を決定し、前記第2のユーザ配向ベクトルと前記第1の表面エリア配向ベクトルとのドット積および前記第2のユーザ配向ベクトルと前記第2の表面エリア配向ベクトルとのドット積の相対的大きさに基づいて、前記好ましい表面エリアを選択する、項目9に記載の拡張現実ビューア。
(項目13)
前記ユーザは、前記第1のユーザ配向が前記第2のユーザ配向に変化するとき、前記第1の表面エリアおよび前記第2の表面エリアに対して同一位置のままである、項目12に記載の拡張現実ビューア。
(項目14)
前記ユーザは、前記第1のユーザ配向が前記第2のユーザ配向に変化するとき、前記第1の表面エリアおよび前記第2の表面エリアに対して第1の位置から第2の位置に移動する、項目12に記載の拡張現実ビューア。
(項目15)
前記好ましい表面エリアは、前記ユーザ配向ベクトルが前記第1のユーザ配向ベクトルから前記第2のユーザ配向ベクトルに変化するとき、同一のままである、項目12に記載の拡張現実ビューア。
(項目16)
前記好ましい表面は、前記ユーザ配向ベクトルが前記第1のユーザ配向ベクトルから前記第2のユーザ配向ベクトルに変化するとき、前記第1の表面から前記第2の表面に変化する、項目12に記載の拡張現実ビューア。
(項目17)
前記好ましい表面内で前記コンテンツをサイズ変更し、前記第2の表面エリアを適合させるサイズ決定モジュールをさらに備える、項目12に記載の拡張現実ビューア。
(項目18)
前記コンテンツは、前記第1の表面エリアおよび前記第2の表面エリア内に同一アスペクト比を有する、項目17に記載の拡張現実ビューア。
(項目19)
拡張現実視認方法であって、
プロセッサによって、第1の表面エリアおよび第2の表面エリアを決定することと、
前記プロセッサによって、前記第1の表面エリアおよび前記第2の表面エリアに対する第1のユーザの配向を決定することと、
前記プロセッサによって、個別の表面エリアに対する法線がユーザの第1の場所に向かってより指向されていることに基づいて、前記第1の表面エリアと前記第2の表面エリアとの間の好ましい表面エリアを選択することと、
前記プロセッサによって、前記ユーザが前記第1の場所から前記ディスプレイを通して実世界オブジェクトを視認している間、前記好ましい表面エリアの限局域内において、コンテンツをディスプレイを通してユーザに表示することと
を含む、方法。
(項目20)
拡張現実ビューアであって、
ユーザの配向を示す第1のベクトルを決定するための環境計算ユニットと、
第2のベクトルを計算するためのベクトル計算機と、
前記第1のベクトルと前記第2のベクトルとのドット積を計算するための選択モジュールと、
コンテンツを保持するためのデータチャネルと、
前記ドット積に基づいて前記コンテンツの設置を決定するためのコンテンツレンダリングモジュールと、
前記ユーザに実世界オブジェクトが見えることを可能にするディスプレイと、
前記ユーザが前記ディスプレイを通して実世界オブジェクトを視認している間、コンテンツを前記ディスプレイを通してユーザに表示するプロジェクタであって、前記コンテンツは、前記コンテンツレンダリングモジュールによって決定された前記設置に基づいて表示されている、プロジェクタと
を備える、拡張現実ビューア。
(項目21)
拡張現実視認方法であって、
プロセッサによって、ユーザの配向を示す第1のベクトルを決定することと、
前記プロセッサによって、第2のベクトルを計算することと、
前記プロセッサによって、前記第1のベクトルと前記第2のベクトルとのドット積を計算することと、
前記プロセッサによって、前記ドット積に基づいて、コンテンツの設置を決定することと、
前記プロセッサによって、前記ユーザが前記ディスプレイを通して実世界オブジェクトを視認している間、前記コンテンツをディスプレイを通してユーザに表示することであって、前記コンテンツは、前記コンテンツレンダリングモジュールによって決定された前記設置に基づいて表示されている、ことと
を含む、方法。
本発明はさらに、付随の図面を参照して、一例として説明される。
図1Aは、コンピュータからのコンテンツで拡張された実世界オブジェクトが見えるように、ユーザによって使用される、拡張現実ビューアのブロック図である。
図1Bは、拡張現実ビューアの斜視図である。
図2は、2次元コンテンツを視認している間の、3次元環境内で拡張現実ビューアを装着している、ユーザを図示する、斜視図である。
図3は、拡張現実ビューアを用いて作成された、3次元データマップを図示する、斜視図である。
図4は、ユーザ配向ベクトルの決定、表面エリアの抽出、および表面エリア配向ベクトルの計算を図示する、斜視図である。
図5は、表面エリアのうちの1つ上へのコンテンツのレンダリングの設置を図示する、図4に類似する図である。
図6は、ユーザ配向ベクトルの変化を図示する、図5に類似する図である。
図7は、ユーザ配向ベクトルの変化に起因する、コンテンツのレンダリングの設置を図示する、図6に類似する図である。
図8は、ユーザの移動に起因する、ユーザ配向ベクトルの変化を図示する、図7に類似する図である。
図9は、ユーザ配向ベクトルの変化に起因する、コンテンツのレンダリングの回転を図示する、図8に類似する図である。
図10は、ユーザの移動に起因する、ユーザ配向ベクトルの変化を図示する、図9に類似する図である。
図11は、ユーザ配向ベクトルの変化に起因する、コンテンツのレンダリングの回転を図示する、図10に類似する図である。
図12は、ユーザの移動に起因する、ユーザ配向ベクトルの変化を図示する、図11に類似する図である。
図13は、ユーザ配向ベクトルの変化に起因する、コンテンツのレンダリングの回転を図示する、図12に類似する図である。
図14は、ユーザが見上げることに起因する、ユーザ配向ベクトルの変化を図示する、図13に類似する図である。
図15は、ユーザ配向ベクトルの変化に起因する、別の表面エリア上へのコンテンツのレンダリングの設置を図示する、図14に類似する図である。
図16は、先行図の方法を行うためのアルゴリズムの機能を図示する、フローチャートである。
図17は、3次元コンテンツを視認している間の、3次元環境内で拡張現実ビューアを装着しているユーザを図示する、斜視図である。
図18は、図17の上部平面図である。
図19は、ユーザがディスプレイ表面の周囲で時計回り方向に回転した、図18に類似する図である。
図20は、コンテンツが時計回り方向に回転した、図19に類似する図である。
図21は、垂直表面上のコンテンツを視認している間のユーザを図示する、斜視図である。
図22は、ユーザが反時計回り方向に回転した、図21に類似する図である。
図23は、コンテンツが反時計回り方向に回転した、図2に類似する図である。
図24は、本発明の一実施形態による、本発明のシステム内で用途を見出し得る、コンピュータの形態における機械のブロック図である。
用語「表面」および「表面エリア」は、本明細書では、ディスプレイエリアとして使用のために好適な2次元エリアを説明するために使用される。本発明の側面は、他のディスプレイエリア、例えば、3次元表面エリアであるディスプレイエリアまたは3次元体積内のスライスを表すディスプレイエリアが使用されるときも用途を見出し得る。
付随の図面の図1Aは、ユーザが、コンピュータまたはコンピュータネットワーク上に記憶される、それによって受信される、または別様に、それによって生成される、種類のコンテンツ16で拡張される、実世界表面および実世界オブジェクト14を含む、実世界場面の直接ビューを見るために使用する、拡張現実ビューア12を図示する。
拡張現実ビューア12は、ディスプレイ18と、データチャネル20と、コンテンツレンダリングモジュール22と、プロジェクタ24と、深度センサ28と、加速度計30等の位置センサと、カメラ32と、環境計算ユニット34と、コンテンツ設置およびコンテンツ配向ユニット36とを含む。
データチャネル20は、コンテンツ16を保持する、記憶デバイスに接続されてもよい、またはコンテンツ16をリアルタイムで提供する、サービスに接続されてもよい。コンテンツ16は、例えば、写真等の静的画像、コンピュータディスプレイ上に表示される、ウェブページ、テキストドキュメント、または他のデータ等、ある時間周期にわたって静的なままであって、ユーザによって操作され得る、画像、またはビデオまたはアニメーション等の動画であってもよい。コンテンツ16は、2次元、3次元、静的、動的、テキスト、画像、ビデオ等であってもよい。コンテンツ16は、ゲーム、書籍、映画、ビデオクリップ、広告、アバタ、図面、アプリケーション、ウェブページ、装飾、スポーツゲーム、リプレイ、3-Dモデル、または当業者によって理解されるであろうような任意の他のタイプのコンテンツを含んでもよい。
コンテンツレンダリングモジュール22は、データチャネル20に接続され、コンテンツ16をデータチャネル20から受信する。コンテンツレンダリングモジュール22は、コンテンツ16を3次元視認のために好適な形態に変換する。ユーザの配向に応じて3次元空間内の2次元平面を視認する、またはユーザによって3次元内の3次元体積を視認するための種々の技法が、存在する。
プロジェクタ24は、コンテンツレンダリングモジュール22に接続される。プロジェクタ24は、コンテンツレンダリングモジュール22によって生成されたデータを光に変換し、光をディスプレイ18に送達する。光は、ディスプレイ18からユーザの眼26に進行する。ユーザに3次元体験を提供するための種々の技法が、存在する。各眼は、異なる画像を提供され、画像内のオブジェクトは、3次元内に構築されるにつれてユーザによって知覚される。ユーザが、必ずしも、ディスプレイ18の平面にあるわけではなく、典型的には、ディスプレイ18の背後のある距離にある、ある被写界深度において、オブジェクトに合焦するための技法もまた、存在する。仮想コンテンツがある深度にあるように現れるように作成され得る、1つの方法は、実際の物理的オブジェクトからの光が眼に到達する方法を模倣するように、光線を発散させ、湾曲波面を形成することによるものである。眼は、次いで、遠近調節と呼ばれるプロセスにおいて、解剖学的水晶体の形状を変化させることによって、発散する光ビームを網膜上に合焦させる。異なる発散角度は、異なる深度を表し、導波管上の射出瞳エクスパンダ上の回折格子を使用して作成される。
ディスプレイ18は、透明ディスプレイである。ディスプレイ18は、ユーザにディスプレイ18を通して実世界オブジェクト14が見えることを可能にする。ユーザは、したがって、拡張現実ビュー40を知覚し、3次元においてユーザに見える、実世界オブジェクト14は、プロジェクタ24からディスプレイ18を介してユーザに提供する、3次元画像で拡張される。
深度センサ28およびカメラ32は、実世界オブジェクト14を捕捉するための位置に搭載される。深度センサ28は、典型的には、赤外線範囲内の電磁波を検出し、カメラ32は、可視光スペクトル内の電磁波を検出する。図1Bにより明確に示されるように、1つを上回るカメラ32が、世界に面した位置において、拡張現実ビューア12のフレーム13上に搭載されてもよい。特定の実施形態では、4つのカメラ32が、フレーム13に搭載され、2つが、前方の世界に面した位置にあって、2つが、左および右側または斜めの世界に面した位置にある。複数のカメラ32の視野は、重複してもよい。深度センサ28およびカメラ32は、拡張現実ビューア12のフレーム13に対して静的位置に搭載される。深度センサ28およびカメラ32によって捕捉された画像の中心点は、常時、拡張現実ビューア12に対して同一の前方方向にある。
加速度計30は、拡張現実ビューア12のフレームに対して定常位置に搭載される。加速度計30は、重力の方向を検出する。加速度計30は、地球の重力場に対する拡張現実ビューアの配向を決定するために使用されることができる。深度センサ28と、視覚的同時位置特定およびマッピング(「SLAM」)および慣性測定ユニット(「IMU」)入力に依拠する、頭部姿勢アルゴリズムの組み合わせによって、加速度計30は、拡張現実ビューア12が、重力の方向および拡張現実ビューア12に対する実世界オブジェクト14の場所を確立することを可能にする。
カメラ32は、実世界オブジェクト14の画像を捕捉し、継続的ベースでの画像のさらなる処理は、実世界オブジェクト14に対する拡張現実ビューア12の移動を示す、データを提供する。深度センサ28、世界カメラ32、および加速度計30は、継続的ベースで重力に対する実世界オブジェクト14の場所を決定するため、重力およびマッピングされた実世界環境に対する拡張現実ビューア12の移動もまた、計算されることができる。
図1Aでは、環境計算ユニット34は、環境マッピングモジュール44と、表面抽出モジュール46と、ビューア配向決定モジュール48とを含む。環境マッピングモジュール44は、1つ以上のセンサからの入力を受信してもよい。1つ以上のセンサは、例えば、深度センサ28と、1つ以上の世界カメラ32と、加速度計30とを含み、実世界表面およびオブジェクト14の場所を決定してもよい。表面抽出モジュール46は、環境マッピングモジュール44からのデータを受信し、環境内の平面表面を決定してもよい。ビューア配向決定モジュール48は、深度センサ28、カメラ32、および加速度計30に接続し、そこからの入力を受信し、実世界オブジェクト14および表面抽出モジュール46によって識別される表面に対するユーザのユーザ配向を決定する。
コンテンツ設置およびコンテンツ配向ユニット36は、表面ベクトル計算機50と、表面選択モジュール52と、コンテンツサイズ決定モジュール54と、コンテンツベクトル計算機56と、コンテンツ配向選択モジュール58とを含む。表面ベクトル計算機50、表面選択モジュール52、およびコンテンツサイズ決定モジュール54は、順次、相互に接続されてもよい。表面選択モジュール52は、ビューア配向決定モジュール48に接続され、そこに入力を提供する。コンテンツベクトル計算機56は、コンテンツ16を受信することが可能であるように、データチャネル20に接続される。コンテンツ配向選択モジュール58は、コンテンツベクトル計算機56およびビューア配向決定モジュール48に接続され、そこからの入力を受信する。コンテンツサイズ決定モジュール54は、コンテンツ配向選択モジュール58に接続され、そこに入力を提供する。コンテンツレンダリングモジュール22は、コンテンツサイズ決定モジュール54に接続され、そこからの入力を受信する。
図2は、3次元環境内で拡張現実ビューア12を装着している、ユーザ60を図示する。
ベクトル62は、拡張現実ビューア12上の1つ以上のセンサによって検出されるような重力の方向を示す。ベクトル64は、ユーザ60の視点から右方向を示す。ユーザ配向ベクトル66は、ユーザ配向、本実施例では、ユーザ60のビューの中央における前方方向を示す。ユーザ配向ベクトル66はまた、図1における深度センサ28およびカメラ32によって捕捉された画像の中心点までの方向を指す。図1Bはさらに、右へのベクトル64と、ユーザ配向ベクトル66と、相互に直交する、デバイス直立ベクトル67とを含む、座標系63を示す。
3次元環境は、例証として、水平表面70を伴うテーブル68と、表面72および74と、表面72および74をコンテンツの設置のために好適ではないものにし得る、障害物を提供する、オブジェクト76とを含む。例えば、持続表面72および74を途絶させる、オブジェクト76は、写真フレーム、鏡、壁内の亀裂、粗面テクスチャ、異なる着色エリア、表面内の穴、表面の突出部、または平面表面72、74に対する任意の他の非均一性を含み得る。対照的に、表面78および80は、その比較的に大サイズおよびユーザ60とのその近接度のため、コンテンツの設置のためにより好適であり得る。表示されているコンテンツのタイプに応じて、また、矩形寸法を有する表面を見出すことが有利であり得るが、正方形、三角形、円形、卵形、または多角形等の他の形状もまた、使用されてもよい。
図3は、図1における深度センサ28、加速度計30、および環境マッピングモジュール44の機能を図示する。深度センサ28は、3次元環境内のオブジェクトおよび表面を含む、全ての特徴の深度を捕捉する。環境マッピングモジュール44は、直接または間接的に、拡張現実ビューア12上の1つ以上のセンサからデータを受信する。例えば、深度センサ28および加速度計30は、3次元における3次元環境の深度をマッピングするための入力を環境マッピングモジュール44に提供してもよい。
図3はまた、カメラ32およびビューア配向決定モジュール48の機能を図示する。カメラ32は、オブジェクト76および表面78の画像を捕捉する。ビューア配向決定モジュール48は、カメラ32からの画像を受信し、画像を処理し、ユーザ配向ベクトル66によって表されるようなユーザ60によって装着されている拡張現実ビューア12の配向を決定する。
3次元環境をマッピングする他の方法、例えば、部屋内の定常位置に位置する、1つ以上のカメラの使用が、採用されてもよい。しかしながら、拡張現実ビューア12内の深度センサ28と環境マッピングモジュール44の統合は、より移動性の用途を提供する。
図4は、図1における表面抽出モジュール46の機能を図示する。表面抽出モジュール46は、図3において作成された3次元マップを処理し、コンテンツ、本実施例では、2次元コンテンツの設置および視認のために好適な任意の表面が存在するかどうかを決定する。表面抽出モジュール46は、水平表面エリア82と、2つの垂直表面エリア84および86とを決定する。表面エリア82、84、および86は、実表面ではなく、代わりに、3次元環境に配向される2次元平面表面を電子的に表す。データ表現である、表面エリア82、84、および86は、それぞれ、図1における実世界オブジェクト14の一部を形成する、図2における実表面70、78、および80に対応する。
図4は、立方体88と、立方体88の陰影90とを図示する。これらの要素は、作成者によって使用され、ビューアが、3次元空間を通した図2におけるユーザ配向ベクトル66の変化およびユーザ60および拡張現実ビューア12の移動を追跡することを補助する。
図4はまた、図1における表面ベクトル計算機50の機能を図示する。表面ベクトル計算機50は、マッピングされた3次元環境の抽出された表面毎に、表面エリア配向ベクトルを計算する。例えば、表面ベクトル計算機50は、表面エリア82の平面に対して法線の表面エリア配向ベクトル92を計算する。同様に、表面ベクトル計算機50は、表面エリア84に対して法線の表面エリア配向ベクトル94と、表面エリア86に対して法線の表面エリア配向ベクトル94とを計算する。
その上に仮想コンテンツを表示するための表面の選択は、表面とユーザとの間の関係を計算する、表面選択モジュール52によって行われる。図1Aにおける表面選択モジュール52は、ユーザ配向ベクトル66と表面エリア配向ベクトル92のドット積を計算する。単位ベクトルaとbのドット積は、以下の方程式によって表される。
a・b=│a││b│cosθ [1]
式中、│a│=1
│b│=1
θは、単位ベクトルaとbとの間の角度である。
ユーザ配向ベクトル66および表面エリア配向ベクトル92は、相互に直交し、これは、そのドット積がゼロであることを意味する。
表面選択モジュール52はまた、ユーザ配向ベクトル66と表面エリア配向ベクトル94のドット積を計算する。ユーザ配向ベクトル66および表面エリア配向ベクトル94は、直交するため、そのドット積は、ゼロである。
表面選択モジュール52はまた、ユーザ配向ベクトル66と表面エリア配向ベクトル96のドット積を計算する。ユーザ配向ベクトル66および表面エリア配向ベクトル96は、相互に対して180°であり、そのドット積は、-1である。表面エリア配向ベクトル96を含む、ドット積は、3つのドット積のうち最も負であるため、表面選択モジュール52は、表面エリア82、84、および86のうち、表面エリア86が、コンテンツを表示するための好ましい表面エリアであることを決定する。より負のドット積は、コンテンツがビューアに直接面するように配向されるであろう可能性がより高い。表面エリア86は、垂直表面エリアであるため、コンテンツ設置およびコンテンツ配向ユニット36は、図1におけるコンテンツ配向選択モジュール58を呼び出さない。ドット積は、最良表面を選定するためにシステムによってまたは仮想コンテンツの必要性によって優先順位化され得る、多くの表面特性のうちの1つである。例えば、-1.0のドット積を有する、表面が、極小であって、ユーザから離れている場合、-0.8のドット積を有するが、大きく、ユーザの近くにある、表面より好ましくない場合がある。システムは、コンテンツを設置するとき、良好なコントラスト比性質を有し、ユーザにより容易に見えるであろう、表面を選定し得る。次に、コンテンツサイズ決定モジュール54が、表面エリア86上に表示するためのコンテンツの適切なサイズを決定する。コンテンツは、最適アスペクト比、例えば、近縁上に16および側縁上に9のアスペクト比を有する。コンテンツサイズ決定モジュール54は、近縁と側縁の比率を使用して、コンテンツのサイズおよび形状を決定し、コンテンツを歪曲させないように、全ての視認角度において本アスペクト比を保存する。コンテンツサイズ決定モジュール54は、表面エリア86内に適合するであろう最適アスペクト比を伴う、コンテンツの最適高さおよび幅を計算する。所与の実施例では、表面エリア86の左縁と右縁との間の距離は、コンテンツのサイズを決定する。
図5は、図1におけるコンテンツレンダリングモジュール22およびプロジェクタ24の機能を図示する。コンテンツレンダリングモジュール22は、コンテンツサイズ決定モジュール54および表面選択モジュール52のサイズ決定に基づいて、その計算された配向におけるコンテンツ16をプロジェクタ24の中に提供する。ビューアは、コンテンツ16を、表面エリア86上の3次元空間内に設置され、それと同一平面にある、レンダリング98として視認する。コンテンツ16は、表面エリア82および84上にはレンダリングされない。全ての他の表面特性が等しいとすると、表面エリア86は、ユーザ配向ベクトル66によって表されるようなユーザ配向のため、表面エリア82および84と比較して、レンダリング98のための最適エリアを提供する。レンダリング98は、ユーザ配向ベクトルがわずかな程度だけ変化するとき、表面エリア86上で静的なままである。図1Aにおけるビューア配向決定モジュール48が、ユーザ配向ベクトルが、所定の閾値度を上回って、例えば、5度変化したことを感知する場合、システムは、上記に説明されるように、全てのドット積の再計算に自動的に進み、必要な場合、ユーザへの表示のためにレンダリングされているコンテンツを再位置付けおよびサイズ変更する。代替として、システムは、定期的に、例えば、15秒毎に、上記に説明されるように、全てのドット積を再計算し、コンテンツを設置してもよい。
代替として、ユーザは、その配向を変化させても、コンテンツが留まるようにエリア86を選択してもよい。
図6では、ユーザ60は、その頭部の傾きを変化させる。その結果、ユーザ配向ベクトル66は、下向き方向100に回転する。新しいユーザ配向は、新しいユーザ配向ベクトル102によって表される。図1Aおよび1Bにおけるカメラ32は、実世界オブジェクト14の画像を継続的に捕捉する。深度センサ28および加速度計30等の付加的センサもまた、継続的に捕捉し、更新された情報を提供してもよい。ビューア配向決定モジュール48は、画像を処理し、拡張現実ビューア12にオンボード搭載されるセンサによって捕捉された他のデータとともに、カメラ32のビュー内の実世界オブジェクト14の相対的移動を決定する。ビューア配向決定モジュール48は、次いで、そのような移動を処理し、図5におけるユーザ配向ベクトル66から図6におけるユーザ配向ベクトル102へのユーザ配向ベクトルの変化を決定する。システムは、通常、最も最適なドット積を伴う表面を選択するが、ジッタおよび処理が低減されるように、ドット積に関する許容可能なある程度の公差/範囲が存在してもよい。一例として、システムは、より最適である別のドット積が存在するとき、かつより最適であるドット積が、コンテンツが現在表示されている表面のドット積より少なくとも5パーセント良好である場合、コンテンツを移動させてもよい。
ユーザが、その配向を変化させた後もコンテンツが留まるような表面86を選択しなかったと仮定する。表面選択モジュール52は、再び、3つのドット積、すなわち、ユーザ配向ベクトル102と表面エリア配向ベクトル92、ユーザ配向ベクトル102と表面エリア配向ベクトル94、およびユーザ配向ベクトル102と表面エリア配向ベクトル96との間のドット積を計算する。表面選択モジュール52は、次いで、最も負である、3つのドット積のうちの1つを決定する。本実施例では、ユーザ配向ベクトル102と表面エリア配向ベクトル92との間のドット積が、最も負である。表面選択モジュール52は、その関連付けられるドット積が表面エリア84および86に関してよりも負であるため、表面エリア82が好ましい表面であることを決定する。システムはまた、上記に説明されるように、他の要因も検討し得る。
図1Aにおけるコンテンツ設置およびコンテンツ配向ユニット36は、コンテンツベクトル計算機56およびコンテンツ配向選択モジュール58を呼び出す。コンテンツ配向選択モジュール58の動作に続き、コンテンツサイズ決定モジュール54が、再び、呼び出される。
コンテンツベクトル計算機56、コンテンツ配向選択モジュール58、およびコンテンツサイズ決定モジュール54の機能は、図7の助けを借りてより詳しく図示される。
図7は、コンテンツレンダリングモジュール22およびプロジェクタ24が、表面エリア82内かつその同一平面にある、コンテンツ16のレンダリング104を作成することを図示する。表面エリア86上のレンダリングは、もはやユーザ60に表示されない。
レンダリング104は、遠縁106と、近縁108と、右縁110と、左縁112とを有する。図1Aにおけるコンテンツベクトル計算機56は、コンテンツ配向ベクトル114を計算してもよい。コンテンツ配向ベクトル114は、近縁108から遠縁106まで延在し、近縁108および遠縁106の両方に直交する。
コンテンツベクトル計算機によって行われる計算は、データチャネル上に提供される、コンテンツに依存する。いくつかのコンテンツは、コンテンツの近縁から遠縁まで延在する、コンテンツ配向ベクトルをすでに有している場合があり、その場合、コンテンツベクトル計算機56は、単に、コンテンツのコード内のコンテンツ配向ベクトルを識別および隔離する。他のインスタンスでは、コンテンツ配向ベクトルは、コンテンツと関連付けられ得、コンテンツベクトル計算機56は、コンテンツの近縁から遠縁まで延在するようにコンテンツ配向ベクトルを再配向する必要があり得る。他のインスタンスでは、コンテンツベクトル計算機56は、コンテンツ内のツールの設置等、画像分析等の他のデータに基づいて、コンテンツ配向ベクトルを生成しなくてもよい。
コンテンツ配向選択モジュール58は、ユーザ配向ベクトル102とコンテンツ配向ベクトル114との間のドット積を計算する。ドット積は、4つのシナリオ、すなわち、コンテンツ配向ベクトル114が、図7に示される方向に配向されるとき、コンテンツ配向ベクトル114が、右に90°配向されるとき、コンテンツ配向ベクトル114が、180°に配向されるとき、およびコンテンツ配向ベクトル114が、左に90°配向されるときに関して計算される。コンテンツ配向選択モジュール58は、次いで、4つのドット積間で最低のドット積を選択し、コンテンツ配向ベクトル114が最低の関連付けられるドット積を伴う方向に整合されるように、レンダリング104を設置する。近縁108は、次いで、ユーザ配向ベクトル102によって描写されるように、遠縁106よりユーザ60の近くに位置し、右および左縁112および110は、ユーザ60の配向から右および左に位置する。コンテンツ16は、したがって、ユーザ60によって容易に視認可能な様式で配向される。例えば、人物の頭部および胴体の写真は、頭部がユーザ60から最遠にあって、胴体がユーザ60に最近である状態で表示され、テキストドキュメントは、最初の行が、ユーザ60から最遠にあって、最後の行が、ユーザ60に最近にある状態で表示される。
コンテンツサイズ決定モジュール54は、レンダリング104のための適切なサイズを決定しており、右縁110および左縁112は、表面エリア82内のレンダリング104の幅を定義し、遠縁106と近縁108との間の距離は、所望のアスペクト比によって決定される。
図8では、ユーザ60は、表面エリア82の周囲で反時計回り方向116に移動している。ユーザ60はまた、その身体を反時計回りに90°回転させている。ユーザ60は、新しいユーザ配向ベクトル118によって表されるように、新しく確立された新しい配向を有する。ユーザの頭部は、依然として、表面エリア82に向かって下向きに傾けられ、表面エリア84および86は、ここでは、それぞれ、ユーザ60の背後および右に位置する。
表面選択モジュール52は、再び、表面エリア配向ベクトル92、94、および96のそれぞれ1つと関連付けられる、ドット積を計算する。ユーザ配向ベクトル118と表面エリア配向ベクトル94のドット積は、ここでは、正になっている。ユーザ配向ベクトル118と表面エリア配向ベクトル96との間のドット積は、約ゼロである。ユーザ配向ベクトル118と表面エリア配向ベクトル92との間のドット積は、最も負である。図1Aにおける表面選択モジュール52は、表面エリア配向ベクトル92と関連付けられる表面エリア82をコンテンツ16のレンダリングの位置付けのための好ましい表面として選択する。
図1Aにおけるコンテンツ配向選択モジュール58は、再び、それぞれ1つがコンテンツ配向ベクトルの個別の方向と関連付けられる、4つのドット積、すなわち、図8に示される方向におけるユーザ配向ベクトル118とコンテンツ配向ベクトル114との間のドット積と、さらに、それぞれ、図8におけるコンテンツ配向ベクトル114に対して右に90°、180°、および左に90°における、ユーザ配向ベクトル118とコンテンツ配向ベクトルとの間のドット積とを計算する。コンテンツ配向選択モジュール58は、図7に示されるコンテンツ配向ベクトル114の方向に対して左に90°のコンテンツ配向ベクトル114と関連付けられる、ドット積が、4つのドット積のうち最も正であることを決定する。
コンテンツサイズ決定モジュール54は、次いで、コンテンツ配向ベクトル114が左に90°回転される場合、レンダリングのための適切なサイズを決定する。
図9は、コンテンツレンダリングモジュール22が、ユーザ配向ベクトル118によって表されるようなユーザ配向に基づいて、レンダリング104を作成する方法を図示する。レンダリング104は、コンテンツ配向ベクトル114が、図8と比較して、左に90°指向されるように、反時計回りに90°回転される。近縁108は、ここでは、ユーザ60の最近に位置する。図1Aにおけるコンテンツサイズ決定モジュール54は、表面エリア82の利用可能な割合に起因して、レンダリング104を図8より小さくしている。レンダリングは、コンテンツ作成者またはユーザ選好によって選択されるように、位置間でスナップする、平滑に回転する、フェードイン/フェードアウトし得る。
図10では、ユーザ60は、表面エリア82の周囲において方向120にさらに移動しており、新しいユーザ配向ベクトル122によって表されるように、新しいユーザ配向を確立している。ユーザ配向ベクトル122と表面エリア配向ベクトル96との間のドット積は、ここでは、正である。ユーザ配向ベクトル122と表面エリア配向ベクトル94との間のドット積は、約ゼロである。ユーザ配向ベクトル122と表面エリア配向ベクトル92との間のドット積は、最も負である。表面エリア82は、したがって、コンテンツを表示するために好ましい表面である。
図10に示されるように、ユーザ配向ベクトル122とコンテンツ配向ベクトル114との間のドット積は、約ゼロである。コンテンツ配向ベクトル114が、時計回りに90°、180°、反時計回りに90°回転される場合、個別のドット積は、大きさが異なり、左に90°である、コンテンツ配向ベクトル114のドット積が、最も正である。レンダリング104は、したがって、反時計回りに90°回転され、表面エリア82の割合に基づいて、サイズ変更されるべきである。図11は、レンダリング104が、表面エリア82上に留まったまま、ユーザ配向ベクトル122の変化に起因して回転およびサイズ変更される方法を図示する。
図12では、ユーザ60は、表面エリア82の周囲で方向124に移動しており、新しいユーザ配向ベクトル126によって表されるように、新しいユーザ配向を確立している。ユーザ配向ベクトル126と表面エリア配向ベクトル94のドット積は、ここでは、負である。しかしながら、ユーザ配向ベクトル126と表面エリア配向ベクトル92との間のドット積は、より負である。表面エリア82は、したがって、コンテンツ16のレンダリングを作成するための好ましい表面エリアである。
図12に示されるように、ユーザ配向ベクトル126とコンテンツ配向ベクトル114との間のドット積は、約ゼロである。ユーザ配向ベクトル126とコンテンツ配向ベクトル114との間のドット積は、左に90°回転される場合、正である。レンダリング104は、したがって、表面エリア82上に留まりながら、反時計回り回転されるべきである。図13は、新しいユーザ配向ベクトル126に基づいて修正されるようなレンダリング104の設置、配向、およびサイズを図示する。
図14は、ユーザ60がその頭部を上向き方向134に回転させるときに確立される、新しいユーザ配向ベクトル132を図示する。ユーザ配向ベクトル132と表面エリア配向ベクトル92との間のドット積は、約ゼロである。ユーザ配向ベクトル132と表面エリア配向ベクトル96との間のドット積もまた、約ゼロである。ユーザ配向ベクトル132と表面エリア配向ベクトル94との間のドット積は、-1またはそれに近く、したがって、3つの表面ベースのドット積のうち最も負である。表面エリア84は、ここでは、コンテンツ16のレンダリングの設置のための好ましい表面エリアである。図15は、表面エリア84上でユーザ60に表示される、レンダリング136を図示する。表面エリア82上のレンダリングは、もはやユーザ60に表示されない。表面エリア84および表面エリア86等の垂直表面エリア上では、近縁108は、常時、底部にある。
図16は、上記に説明されるような方法を行うためのアルゴリズムを図示する。150では、3次元空間が、図3を参照して説明されるようにマッピングされる。152A、B、およびCでは、表面エリアが、図4を参照して説明されるように抽出される。154A、B、およびCでは、表面ベクトルが、図4を参照して説明されるように計算される。156では、ユーザ配向ベクトルが、図1-4を参照して説明されるように決定される。158A、B、およびCでは、個別のドット積が、図4を参照して説明されるように、ユーザ配向ベクトルと各個別の表面エリア配向ベクトルとの間で計算される。160では、好ましい表面エリアが、図4を参照して説明されるように決定される。
162では、好ましい表面エリアが垂直であるかどうかの決定が、行われる。好ましい表面エリアが、垂直ではない場合、164において、コンテンツの遠、近、右、および左縁に対するコンテンツ配向ベクトルの方向が、図7を参照して説明されるように決定される。164に続いて、166A、B、C、およびDにおいて、コンテンツベクトルが、図7を参照して説明されるように、0°、90°右、180°、および90°左において計算される。168A、B、C、およびDでは、ドット積が、ユーザ配向ベクトルと、それぞれ、166A、B、C、およびDにおいて計算されるコンテンツ配向ベクトルとの間で計算される。170では、コンテンツ配向が、図7を参照して説明されるように選択される。
172では、コンテンツのサイズが、図5および図7を参照して説明されるように決定される。174では、コンテンツが、図5および図7を参照して説明されるように表示される。
174に続いて、新しいユーザ配向ベクトルが、156において、図6、8、9、10、および12を参照して説明されるように、決定されてもよい。プロセスは、次いで、再び、154A、B、およびCにおいて、表面エリア配向ベクトルを計算せずに、繰り返されてもよい。
図17および18を参照すると、実施形態が、それぞれ、ユーザ60によって視認するための環境184内にマッピングされた表面182上にレンダリングされた3次元仮想コンテンツ180を伴う、斜視図および上面図に示される。そのような実施形態では、上記に説明される原理が、ユーザ60が可能な限り容易かつ自然にコンテンツを視認し得るように、3次元仮想コンテンツ180を位置付けるために使用される。
ユーザ配向ベクトル66は、本デバイス12の前方ベクトルと同一であって、以降、「デバイス前方ベクトル66」と称される。その上に3次元仮想コンテンツ180を設置するための表面を決定するステップは、少なくとも部分的に、デバイス前方ベクトル66と環境184内のマッピングされた表面の表面法線ベクトル186との間のドット積関係に依拠し得る。3次元仮想コンテンツ180の最適視認のために、多くのドット積関係のうちの1つが、コンテンツに応じて、最適と見なされ得る。例えば、コンテンツが、側面から視認されることが意図される場合、本デバイス前方ベクトル66と表面法線ベクトル186との間のドット積関係が、ゼロに近く、ユーザがマッピングされた表面182にほぼ直交することを示すことが理想的であり得る。そのような実施形態では、マッピングされた表面182上に設置された3次元仮想コンテンツ180は、ユーザによって側面から見られるであろう。代替として、-1またはその近くのドット積関係は、他の実施形態に関して本明細書に説明されたように、3次元仮想コンテンツ180が、上方から視認されることが意図される場合、より望ましくあり得る。理想的ドット積関係は、3次元仮想コンテンツ180の作成者による属性セットであってもよい、ユーザによって選好として選択されてもよい、または別様に、表示されることになるコンテンツのタイプに基づいて、拡張現実視認システムによって決定されてもよい。
いったん設置表面が、システムまたはユーザによる設置のいずれかによって決定されると、マッピングされた表面182上の3次元仮想コンテンツ180の配向が、ユーザに対して決定される。示される実施例では、3次元仮想コンテンツ180は、3次元仮想コンテンツ180をユーザデバイスの基準ベクトルに整合させるために使用され得る、コンテンツ配向ベクトル188を提供される。3次元仮想コンテンツ180は、キャラクタの頭部であって、キャラクタの近縁は、その口がある場所である。キャラクタの遠縁は、典型的には、遠縁がユーザに見えないキャラクタの側面上にあるため、ユーザ60によって視認するためにレンダリングされないであろう。コンテンツ配向ベクトル188は、キャラクタの近縁と平行に整合される。コンテンツ配向ベクトル188は、コンテンツ配向ベクトル188とデバイス右ベクトル64との間のドット積が、1またはその近くであって、2つのベクトルが実質的に同一方向に向いていることを示すように、3次元仮想コンテンツ180と拡張現実ビューア12を整合させるために使用されてもよい。
図19および20を参照すると、ユーザの移動に基づく、3次元コンテンツ再配向の実施例が、示される。図19では、ユーザ60は、図18に対してある距離および角度だけテーブルの周囲で時計回りに移動している。その結果、コンテンツ配向ベクトル188とデバイス右ベクトル64との間のドット積関係は、1未満である。いくつかの実施形態では、位置の本変化は、3次元仮想コンテンツ180の再配向を要求しなくてもよい。例えば、コンテンツ作成者、ユーザ、または拡張現実ビューア12内のソフトウェアは、3次元仮想コンテンツ180の再配向が、コンテンツ配向ベクトル188とデバイス基準ベクトルとの間のドット積が所定の閾値未満であるときのみ必要であることを示し得る。大または小閾値公差が、表示されているコンテンツのタイプに応じて、設定されてもよい。
図18の場所から図19の場所へのユーザ60の位置の変化が、3次元仮想コンテンツ180の再配向をトリガする場合、配向モジュールは、図20に示されるように、コンテンツ配向ベクトル188が、デバイス右ベクトル64と整合し、2つのベクトルに関して1に等しいまたはそれに近いドット積をもたらすように、3次元仮想コンテンツ180を再レンダリングしてもよい。上記に議論されるように、3次元仮想コンテンツ180の再配向はまた、コンテンツのサイズ変更を可能にし得る。しかしながら、コンテンツはまた、ユーザが環境内で移動するにつれて、マッピングされた表面182に対して法線の軸を中心としてのみ再配向するように現れるように、同一サイズのままであってもよい。
図21、22、および23を参照すると、垂直表面198上での仮想コンテンツ196再配向の実施例が、示される。図21では、ユーザ60は、環境内で垂直に配向される垂直表面198上の仮想コンテンツ196を視認しているように示される。仮想コンテンツ196は、コンテンツ右配向ベクトル200およびコンテンツ直立配向ベクトル202のうちの少なくとも1つを有し得、これは、それぞれ、デバイス右ベクトル64およびデバイス直立ベクトル67に対する整合を測定するために使用され得る。図21では、コンテンツ配向ベクトル(200、202)のうちの1つと対応するデバイス配向ベクトル(64、67)との間の整合は、約1のドット積値をもたらす。上記に議論されるように、1により近いドット積値は、比較されている2つのベクトル間のより類似する整合を示す。
ユーザ60が、例えば、図22に示されるように、仮想コンテンツ196の再配向を伴わずに、長椅子上に横たわることによって、位置を変化させようとする場合、コンテンツ配向ベクトル(200、202)と対応するデバイス配向ベクトル(64、67)との間の整合は、約ゼロであって、図21に示される整合ほど最適ではないユーザ60と仮想コンテンツ196との間の整合を示し得る。ゼロのドット積関係が、仮想コンテンツ/ユーザの相対的配向に関して要求されるドット積関係未満である場合、仮想コンテンツ196は、ドット積関係が所定の閾値内であるように、図23に示されるように、新しい配向に再レンダリングされてもよい。いくつかの実施形態では、仮想コンテンツ196を新しい配向に再レンダリングするステップは、コンテンツ配向ベクトル(200、202)と対応するデバイス配向ベクトル(64、67)との間の最適ドット積関係を再確立し得る。
図24は、その中で、機械に本明細書で議論される方法論のうちの任意の1つ以上のものを実施させるための命令のセットが、実行され得る、コンピュータシステム900の例示的形態における、機械の概略表現を示す。代替実施形態では、機械は、独立型デバイスとして動作する、または他の機械に接続(例えば、ネットワーク化)されてもよい。さらに、単一機械のみが、図示されるが、用語「機械」はまた、個々に、またはともに、本明細書で議論される方法論のうちの任意の1つ以上のものを実施するための命令のセット(または複数のセット)を実行する、機械の任意の集合を含むものと捉えられるものとする。
例示的コンピュータシステム900は、プロセッサ902(例えば、中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、または両方)と、メインメモリ904(例えば、読取専用メモリ(ROM)、フラッシュメモリ、同期DRAM(SDRAM)またはRambus DRAM(RDRAM)等の動的ランダムアクセスメモリ(DRAM)等)と、静的メモリ906(例えば、フラッシュメモリ、静的ランダムアクセスメモリ(SRAM)等)とを含み、これらは、バス908を介して相互に通信する。
コンピュータシステム900はさらに、ディスクドライブユニット916と、ネットワークインターフェースデバイス920とを含んでもよい。
ディスクドライブユニット916は、その上に、本明細書に説明される方法論または機能のうちの任意の1つ以上のものを具現化する、1つ以上の命令924のセット(例えば、ソフトウェア)が記憶される、機械可読媒体922を含む。ソフトウェアはまた、完全または少なくとも部分的に、コンピュータシステム900によるその実行の間、メインメモリ904および/またはプロセッサ902内に常駐してもよく、メインメモリ904およびプロセッサ902もまた、機械可読媒体を構成する。
ソフトウェアはさらに、ネットワーク928を経由して、ネットワークインターフェースデバイス920を介して伝送または受信されてもよい。
機械可読媒体924は、例示的実施形態では、単一媒体であるように示されるが、用語「機械可読媒体」は、1つ以上の命令のセットを記憶する、単一媒体または複数の媒体(例えば、集中型または分散型データベースおよび/または関連付けられるキャッシュおよびサーバ)を含むものと捉えられるべきである。用語「機械可読媒体」はまた、機械による実行のための命令のセットを記憶、エンコーディング、または搬送することが可能であって、機械に本発明の方法論のうちの任意の1つ以上のものを実施させる、任意の媒体を含むものと捉えられるものとする。用語「機械可読媒体」は、故に、限定ではないが、ソリッドステートメモリ、光学および磁気媒体、および搬送波信号を含むものと捉えられるものとする。
ある例示的実施形態が、説明され、付随の図面に示されたが、そのような実施形態は、単に、本発明の例証であって、制限ではなく、本発明は、修正が当業者に想起され得るため、図示および説明される具体的構造および配列に制限されないことを理解されたい。




Claims (21)

  1. 拡張現実ビューアであって、
    ユーザに実世界オブジェクトが見えることを可能にするディスプレイと、
    コンテンツを保持するためのデータチャネルと、
    ユーザ配向決定モジュールであって、前記ユーザ配向決定モジュールは、第1のディスプレイエリアに対するユーザの第1のユーザ配向を決定し、前記第1のディスプレイエリアに対する前記ユーザの第2のユーザ配向を決定する、ユーザ配向決定モジュールと、
    プロジェクタであって、前記プロジェクタは、前記データチャネルに接続され、前記ユーザが前記実世界オブジェクトを視認している間、前記第1のディスプレイエリアの限局域内において、前記コンテンツを前記ディスプレイを通して前記ユーザに表示する、プロジェクタと、
    コンテンツ配向選択モジュールであって、前記コンテンツ配向選択モジュールは、前記ユーザ配向決定モジュールに接続され、前記ユーザが前記第1のユーザ配向にあるとき、前記コンテンツの第1の縁が前記ユーザに近くなるように、前記第1のディスプレイエリアに対して第1のコンテンツ配向において前記コンテンツを表示し、前記ユーザが前記第2のユーザ配向にあるときに前記第1の縁がユーザのより近くに回転され、前記コンテンツが、前記第1のコンテンツ配向から第2のコンテンツ配向に、前記第1のディスプレイエリアに対して回転されるように、前記第1のディスプレイエリアに対して前記第2のコンテンツ配向において前記コンテンツを表示する、コンテンツ配向選択モジュールと
    を備える、拡張現実ビューア。
  2. ユーザの配向を示すユーザ配向ベクトルを決定する前記ユーザ配向決定モジュールはさらに、
    前記コンテンツの前記第1の縁に対するコンテンツ配向ベクトルを計算するためのコンテンツベクトル計算機を備え、前記コンテンツ配向選択モジュールは、前記ユーザ配向ベクトルと前記コンテンツ配向ベクトルとのドット積を決定し、前記第2のコンテンツ配向および前記第1のコンテンツ配向における前記ドット積の大きさに基づいて、前記第1のコンテンツ配向から前記第2のコンテンツ配向に、前記コンテンツを回転させる、請求項1に記載の拡張現実ビューア。
  3. 前記コンテンツ配向ベクトルは、前記コンテンツの前記第1の縁から延在し、前記コンテンツは、前記ドット積が前記第1のコンテンツ配向より前記第2のコンテンツ配向において大きくなると、前記第1のコンテンツ配向から前記第2のコンテンツ配向に回転する、請求項2に記載の拡張現実ビューア。
  4. 前記コンテンツをサイズ変更し、前記第1のディスプレイエリアを前記第1のコンテンツ配向および前記第2のコンテンツ配向内に適合させるサイズ決定モジュールをさらに備える、請求項1に記載の拡張現実ビューア。
  5. 前記コンテンツは、前記第1のコンテンツ配向および前記第2のコンテンツ配向において、同一アスペクト比を有する、請求項4に記載の拡張現実ビューア。
  6. 前記第1のディスプレイエリアを決定するためのディスプレイエリア抽出モジュールをさらに備える、請求項1に記載の拡張現実ビューア。
  7. 前記ディスプレイエリア抽出モジュールは、第2のディスプレイエリアを決定し、前記第1のディスプレイエリアおよび前記第2のディスプレイエリアに対するユーザの第1の配向を決定するための前記ユーザ配向決定モジュールはさらに、
    それぞれのディスプレイエリアに対する法線が前記ユーザの前記第1の配向とより反対に指向されていることに基づいて、前記第1のディスプレイエリアと前記第2のディスプレイエリアとの間の好ましいディスプレイエリアを選択するためのディスプレイエリア選択モジュールを備え、前記プロジェクタは、前記ユーザが前記実世界オブジェクトを視認している間、前記好ましいディスプレイエリアの限局域内において、前記コンテンツを前記ディスプレイを通して前記ユーザに表示する、請求項6に記載の拡張現実ビューア。
  8. 拡張現実視認方法であって、
    プロセッサによって、第1のディスプレイエリアに対するユーザの第1のユーザ配向を決定することと、
    前記ユーザが前記第1のユーザ配向にあるとき、前記プロセッサによって、ディスプレイに対する第1のコンテンツ配向を決定することと、
    前記プロセッサによって、前記第1のユーザ配向にある間、前記ユーザが前記ディスプレイを通して実世界オブジェクトを視認している間、前記第1のディスプレイエリアの限局域内において、前記第1のコンテンツ配向におけるコンテンツをディスプレイを通して前記ユーザに表示することと、
    前記プロセッサによって、前記第1のディスプレイエリアに対する前記ユーザの第2のユーザ配向を決定することと、
    前記ユーザが前記第2のユーザ配向にあるとき、前記プロセッサによって、前記ディスプレイに対する第2のコンテンツ配向を決定することと、
    前記プロセッサによって、前記ユーザが前記第2のユーザ配向から前記ディスプレイを通して実世界オブジェクトを視認している間、前記第1のディスプレイエリアの限局域内において、前記第2のコンテンツ配向におけるコンテンツをディスプレイを通して前記ユーザに表示することであって、前記コンテンツは、前記第1のコンテンツ配向から前記第2のコンテンツ配向に、前記第1のディスプレイエリアに対して回転される、ことと
    を含む、方法。
  9. 拡張現実ビューアであって、
    ユーザに実世界オブジェクトが見えることを可能にするディスプレイと、
    コンテンツを保持するためのデータチャネルと、
    第1のディスプレイエリアおよび第2のディスプレイエリアを決定するためのディスプレイエリア抽出モジュールと、
    前記第1のディスプレイエリアおよび前記第2のディスプレイエリアに対するユーザの第1の配向を決定するためのユーザ配向決定モジュールと、
    ディスプレイエリア選択モジュールであって、前記ディスプレイエリア選択モジュールは、それぞれのディスプレイエリアに対する法線が前記ユーザの前記第1の配向とより反対に指向されていることに基づいて、前記第1のディスプレイエリアと前記第2のディスプレイエリアとの間の好ましいディスプレイエリアを選択する、ディスプレイエリア選択モジュールと、
    プロジェクタであって、前記プロジェクタは、前記ユーザが前記実世界オブジェクトを視認している間、前記好ましいディスプレイエリアの限局域内において、前記コンテンツを前記ディスプレイを通して前記ユーザに表示する、プロジェクタと
    を備える、拡張現実ビューア。
  10. 前記ユーザの前記第1の配向を示す第1のユーザ配向ベクトルを決定する前記ユーザ配向決定モジュールはさらに、
    前記第1のディスプレイエリアの配向を示す第1のディスプレイエリア配向ベクトルおよび前記第2のディスプレイエリアの配向を示す第2のディスプレイエリア配向ベクトルを計算するためのディスプレイエリアベクトル計算機を備え、前記ディスプレイエリア選択モジュールは、前記第1のユーザ配向ベクトルと前記第1のディスプレイエリア配向ベクトルとのドット積および前記第1のユーザ配向ベクトルと前記第2のディスプレイエリア配向ベクトルとのドット積を決定し、前記第1のユーザ配向ベクトルと前記第1のディスプレイエリア配向ベクトルとのドット積および第1のユーザ配向ベクトルと前記第2のディスプレイエリア配向ベクトルとのドット積の相対的大きさに基づいて、前記好ましいディスプレイエリアを選択する、請求項9に記載の拡張現実ビューア。
  11. 前記第1のディスプレイエリア配向ベクトルは、前記第1のディスプレイエリアに対する法線方向にあり、前記第2のディスプレイエリア配向ベクトルは、前記第2のディスプレイエリアに対する法線方向にあり、前記好ましいディスプレイエリアは、大きさが最大の負の前記ドット積に基づいて選択される、請求項10に記載の拡張現実ビューア。
  12. 前記ーザ配向決定モジュールは、前記ユーザの第2の配向を示す第2のユーザ配向ベクトルを決定し、前記ディスプレイエリア選択モジュールは、前記第2のユーザ配向ベクトルと前記第1のディスプレイエリア配向ベクトルとのドット積および前記第2のユーザ配向ベクトルと前記第2のディスプレイエリア配向ベクトルとのドット積を決定し、前記第2のユーザ配向ベクトルと前記第1のディスプレイエリア配向ベクトルとのドット積および前記第2のユーザ配向ベクトルと前記第2のディスプレイエリア配向ベクトルとのドット積の相対的大きさに基づいて、前記好ましいディスプレイエリアを選択する、請求項10または11に記載の拡張現実ビューア。
  13. 前記ユーザは、前記ユーザの前記第1の配向が前記ユーザの前記第2の配向に変化するとき、前記第1のディスプレイエリアおよび前記第2のディスプレイエリアに対して同一位置のままである、請求項12に記載の拡張現実ビューア。
  14. 前記ユーザは、前記ユーザの前記第1の配向が前記ユーザの前記第2の配向に変化するとき、前記第1のディスプレイエリアおよび前記第2のディスプレイエリアに対して第1の位置から第2の位置に移動する、請求項12に記載の拡張現実ビューア。
  15. 前記好ましいディスプレイエリアは、ーザ配向ベクトルが前記第1のユーザ配向ベクトルから前記第2のユーザ配向ベクトルに変化するとき、同一のままである、請求項12に記載の拡張現実ビューア。
  16. 前記好ましいディスプレイエリアは、ーザ配向ベクトルが前記第1のユーザ配向ベクトルから前記第2のユーザ配向ベクトルに変化するとき、前記第1のディスプレイエリアから前記第2のディスプレイエリアに変化する、請求項12に記載の拡張現実ビューア。
  17. 前記好ましいディスプレイエリア内で前記コンテンツをサイズ変更し、前記第2のディスプレイエリアを適合させるサイズ決定モジュールをさらに備える、請求項12に記載の拡張現実ビューア。
  18. 前記コンテンツは、前記第1のディスプレイエリアおよび前記第2のディスプレイエリア内に同一アスペクト比を有する、請求項17に記載の拡張現実ビューア。
  19. 拡張現実視認方法であって、
    プロセッサによって、第1のディスプレイエリアおよび第2のディスプレイエリアを決定することと、
    ユーザが第1の場所にあるとき、前記プロセッサによって、前記第1のディスプレイエリアおよび前記第2のディスプレイエリアに対する前記ユーザの第1の配向を決定することと、
    前記プロセッサによって、それぞれのディスプレイエリアに対する法線が前記ユーザの前記第1の場所に向かってより指向されていることに基づいて、前記第1のディスプレイエリアと前記第2のディスプレイエリアとの間の好ましいディスプレイエリアを選択することと、
    前記プロセッサによって、前記ユーザが前記第1の場所からィスプレイを通して実世界オブジェクトを視認している間、前記好ましいディスプレイエリアの限局域内において、コンテンツを前記ディスプレイを通して前記ユーザに表示することと
    を含む、方法。
  20. 拡張現実ビューアであって、
    ユーザの配向を示す第1のベクトルを決定するための環境計算ユニットと、
    ディスプレイエリアの配向またはコンテンツの配向を示す第2のベクトルを計算するためのベクトル計算機と、
    前記第1のベクトルと前記第2のベクトルとのドット積を計算するための選択モジュールと、
    コンテンツを保持するためのデータチャネルと、
    前記ドット積に基づいて前記コンテンツの設置を決定するためのコンテンツレンダリングモジュールと、
    前記ユーザに実世界オブジェクトが見えることを可能にするディスプレイと、
    前記ユーザが前記ディスプレイを通して前記実世界オブジェクトを視認している間、前記コンテンツを前記ディスプレイを通して前記ユーザに表示するプロジェクタであって、前記コンテンツは、前記コンテンツレンダリングモジュールによって決定された前記設置に基づいて表示されている、プロジェクタと
    を備える、拡張現実ビューア。
  21. 拡張現実視認方法であって、
    プロセッサによって、ユーザの配向を示す第1のベクトルを決定することと、
    前記プロセッサによって、ディスプレイエリアの配向またはコンテンツの配向を示す第2のベクトルを計算することと、
    前記プロセッサによって、前記第1のベクトルと前記第2のベクトルとのドット積を計算することと、
    前記プロセッサによって、前記ドット積に基づいて、コンテンツの設置を決定することと、
    前記プロセッサによって、前記ユーザがィスプレイを通して実世界オブジェクトを視認している間、前記コンテンツを前記ディスプレイを通して前記ユーザに表示することであって、前記コンテンツは、前記プロセッサによって決定された前記設置に基づいて表示されている、ことと
    を含む、方法。
JP2020567853A 2018-06-08 2019-06-10 自動化された表面選択設置およびコンテンツ配向設置を用いた拡張現実ビューア Active JP7421505B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862682788P 2018-06-08 2018-06-08
US62/682,788 2018-06-08
PCT/US2019/036275 WO2019237099A1 (en) 2018-06-08 2019-06-10 Augmented reality viewer with automated surface selection placement and content orientation placement

Publications (2)

Publication Number Publication Date
JP2021527252A JP2021527252A (ja) 2021-10-11
JP7421505B2 true JP7421505B2 (ja) 2024-01-24

Family

ID=68764935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020567853A Active JP7421505B2 (ja) 2018-06-08 2019-06-10 自動化された表面選択設置およびコンテンツ配向設置を用いた拡張現実ビューア

Country Status (5)

Country Link
US (2) US11092812B2 (ja)
EP (1) EP3803545A4 (ja)
JP (1) JP7421505B2 (ja)
CN (1) CN112513785A (ja)
WO (1) WO2019237099A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
TWI779305B (zh) * 2020-06-24 2022-10-01 奧圖碼股份有限公司 使用擴增實境之投影機的設置模擬方法及其終端裝置
CN112348889B (zh) * 2020-10-23 2024-06-07 浙江商汤科技开发有限公司 视觉定位方法及相关装置、设备
US11620796B2 (en) * 2021-03-01 2023-04-04 International Business Machines Corporation Expert knowledge transfer using egocentric video
CN113141346B (zh) * 2021-03-16 2023-04-28 青岛小鸟看看科技有限公司 基于串流的vr一拖多系统及方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018031621A1 (en) 2016-08-11 2018-02-15 Magic Leap, Inc. Automatic placement of a virtual object in a three-dimensional space

Family Cites Families (224)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6541736B1 (en) 2001-12-10 2003-04-01 Usun Technology Co., Ltd. Circuit board/printed circuit board having pre-reserved conductive heating circuits
US4344092A (en) 1980-10-21 1982-08-10 Circon Corporation Miniature video camera means for video system
US4652930A (en) 1984-11-19 1987-03-24 Rca Corporation Television camera structure
US4810080A (en) 1987-09-03 1989-03-07 American Optical Corporation Protective eyewear with removable nosepiece and corrective spectacle
US4997268A (en) 1989-07-24 1991-03-05 Dauvergne Hector A Corrective lens configuration
US5074295A (en) 1989-08-03 1991-12-24 Jamie, Inc. Mouth-held holder
US5007727A (en) 1990-02-26 1991-04-16 Alan Kahaney Combination prescription lens and sunglasses assembly
US5240220A (en) 1990-09-12 1993-08-31 Elbex Video Ltd. TV camera supporting device
WO1993001743A1 (en) 1991-07-22 1993-02-04 Adair Edwin Lloyd Sterile video microscope holder for operating room
US5224198A (en) 1991-09-30 1993-06-29 Motorola, Inc. Waveguide virtual image display
US5497463A (en) 1992-09-25 1996-03-05 Bull Hn Information Systems Inc. Ally mechanism for interconnecting non-distributed computing environment (DCE) and DCE systems to operate in a network system
US5410763A (en) 1993-02-11 1995-05-02 Etablissments Bolle Eyeshield with detachable components
US5682255A (en) 1993-02-26 1997-10-28 Yeda Research & Development Co. Ltd. Holographic optical devices for the transmission of optical signals of a plurality of channels
US6023288A (en) 1993-03-31 2000-02-08 Cairns & Brother Inc. Combination head-protective helmet and thermal imaging apparatus
US5455625A (en) 1993-09-23 1995-10-03 Rosco Inc. Video camera unit, protective enclosure and power circuit for same, particularly for use in vehicles
US5835061A (en) 1995-06-06 1998-11-10 Wayport, Inc. Method and apparatus for geographic-based communications service
US5864365A (en) 1996-01-26 1999-01-26 Kaman Sciences Corporation Environmentally controlled camera housing assembly
US5854872A (en) 1996-10-08 1998-12-29 Clio Technologies, Inc. Divergent angle rotator system and method for collimating light beams
US8005254B2 (en) 1996-11-12 2011-08-23 Digimarc Corporation Background watermark processing
US6012811A (en) 1996-12-13 2000-01-11 Contour Optik, Inc. Eyeglass frames with magnets at bridges for attachment
JP3465528B2 (ja) 1997-04-22 2003-11-10 三菱瓦斯化学株式会社 新規な光学材料用樹脂
JPH11142783A (ja) 1997-11-12 1999-05-28 Olympus Optical Co Ltd 画像表示装置
US6191809B1 (en) 1998-01-15 2001-02-20 Vista Medical Technologies, Inc. Method and apparatus for aligning stereo images
US6076927A (en) 1998-07-10 2000-06-20 Owens; Raymond L. Adjustable focal length eye glasses
JP2000099332A (ja) 1998-09-25 2000-04-07 Hitachi Ltd 遠隔手続き呼び出し最適化方法とこれを用いたプログラム実行方法
US6918667B1 (en) 1998-11-02 2005-07-19 Gary Martin Zelman Auxiliary eyewear attachment apparatus
US6556245B1 (en) 1999-03-08 2003-04-29 Larry Allan Holmberg Game hunting video camera
US6375369B1 (en) 1999-04-22 2002-04-23 Videolarm, Inc. Housing for a surveillance camera
US6757068B2 (en) 2000-01-28 2004-06-29 Intersense, Inc. Self-referenced tracking
JP4921634B2 (ja) 2000-01-31 2012-04-25 グーグル インコーポレイテッド 表示装置
JP4646374B2 (ja) 2000-09-29 2011-03-09 オリンパス株式会社 画像観察光学系
TW522256B (en) 2000-12-15 2003-03-01 Samsung Electronics Co Ltd Wearable display system
US6807352B2 (en) 2001-02-11 2004-10-19 Georgia Tech Research Corporation Optical waveguides with embedded air-gap cladding layer and methods of fabrication thereof
US6931596B2 (en) * 2001-03-05 2005-08-16 Koninklijke Philips Electronics N.V. Automatic positioning of display depending upon the viewer's location
US20020140848A1 (en) 2001-03-30 2002-10-03 Pelco Controllable sealed chamber for surveillance camera
EP1249717A3 (en) 2001-04-10 2005-05-11 Matsushita Electric Industrial Co., Ltd. Antireflection coating and optical element using the same
JP4682470B2 (ja) 2001-07-16 2011-05-11 株式会社デンソー スキャン型ディスプレイ装置
US6762845B2 (en) 2001-08-23 2004-07-13 Zygo Corporation Multiple-pass interferometry
DE60124961T2 (de) 2001-09-25 2007-07-26 Cambridge Flat Projection Displays Ltd., Fenstanton Flachtafel-Projektionsanzeige
US6833955B2 (en) 2001-10-09 2004-12-21 Planop Planar Optics Ltd. Compact two-plane optical device
US7305020B2 (en) 2002-02-04 2007-12-04 Vizionware, Inc. Method and system of reducing electromagnetic interference emissions
US6849558B2 (en) 2002-05-22 2005-02-01 The Board Of Trustees Of The Leland Stanford Junior University Replication and transfer of microstructures and nanostructures
US6714157B2 (en) 2002-08-02 2004-03-30 The Boeing Company Multiple time-interleaved radar operation using a single radar at different angles
KR100480786B1 (ko) 2002-09-02 2005-04-07 삼성전자주식회사 커플러를 가지는 집적형 광 헤드
US7306337B2 (en) 2003-03-06 2007-12-11 Rensselaer Polytechnic Institute Calibration-free gaze tracking under natural head movement
DE10311972A1 (de) 2003-03-18 2004-09-30 Carl Zeiss HMD-Vorrichtung
AU2003901272A0 (en) 2003-03-19 2003-04-03 Martin Hogan Pty Ltd Improvements in or relating to eyewear attachments
US7294360B2 (en) 2003-03-31 2007-11-13 Planar Systems, Inc. Conformal coatings for micro-optical elements, and method for making the same
EP1639394A2 (en) 2003-06-10 2006-03-29 Elop Electro-Optics Industries Ltd. Method and system for displaying an informative image against a background image
JP4699699B2 (ja) 2004-01-15 2011-06-15 株式会社東芝 ビーム光走査装置及び画像形成装置
EP1731943B1 (en) 2004-03-29 2019-02-13 Sony Corporation Optical device and virtual image display device
GB0416038D0 (en) 2004-07-16 2004-08-18 Portland Press Ltd Document display system
EP1769275A1 (en) 2004-07-22 2007-04-04 Pirelli & C. S.p.A. Integrated wavelength selective grating-based filter
EP1850731A2 (en) 2004-08-12 2007-11-07 Elop Electro-Optical Industries Ltd. Integrated retinal imager and method
US9030532B2 (en) 2004-08-19 2015-05-12 Microsoft Technology Licensing, Llc Stereoscopic image display
US7029114B2 (en) 2004-09-03 2006-04-18 E'lite Optik U.S. L.P. Eyewear assembly with auxiliary frame and lens assembly
WO2006030848A1 (ja) 2004-09-16 2006-03-23 Nikon Corporation 非晶質酸化珪素バインダを有するMgF2光学薄膜、及びそれを備える光学素子、並びにそのMgF2光学薄膜の製造方法
US20060126181A1 (en) 2004-12-13 2006-06-15 Nokia Corporation Method and system for beam expansion in a display device
US8619365B2 (en) 2004-12-29 2013-12-31 Corning Incorporated Anti-reflective coating for optical windows and elements
GB0502453D0 (en) 2005-02-05 2005-03-16 Cambridge Flat Projection Flat panel lens
US7573640B2 (en) 2005-04-04 2009-08-11 Mirage Innovations Ltd. Multi-plane optical apparatus
US20060250322A1 (en) 2005-05-09 2006-11-09 Optics 1, Inc. Dynamic vergence and focus control for head-mounted displays
WO2006132614A1 (en) 2005-06-03 2006-12-14 Nokia Corporation General diffractive optics method for expanding and exit pupil
JP4776285B2 (ja) 2005-07-01 2011-09-21 ソニー株式会社 照明光学装置及びこれを用いた虚像表示装置
US20080043334A1 (en) 2006-08-18 2008-02-21 Mirage Innovations Ltd. Diffractive optical relay and method for manufacturing the same
US20070058248A1 (en) 2005-09-14 2007-03-15 Nguyen Minh T Sport view binocular-zoom lens focus system
US20100232016A1 (en) 2005-09-28 2010-09-16 Mirage Innovations Ltd. Stereoscopic Binocular System, Device and Method
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US9658473B2 (en) 2005-10-07 2017-05-23 Percept Technologies Inc Enhanced optical and perceptual digital eyewear
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
EP1943556B1 (en) 2005-11-03 2009-02-11 Mirage Innovations Ltd. Binocular optical relay device
US8092723B2 (en) 2005-11-18 2012-01-10 Nanocomp Oy Ltd Method of producing a diffraction grating element
EP1952189B1 (en) 2005-11-21 2016-06-01 Microvision, Inc. Display with image-guiding substrate
WO2007085682A1 (en) 2006-01-26 2007-08-02 Nokia Corporation Eye tracker device
JP2007219106A (ja) 2006-02-16 2007-08-30 Konica Minolta Holdings Inc 光束径拡大光学素子、映像表示装置およびヘッドマウントディスプレイ
US7461535B2 (en) 2006-03-01 2008-12-09 Memsic, Inc. Multi-temperature programming for accelerometer
IL174170A (en) 2006-03-08 2015-02-26 Abraham Aharoni Device and method for two-eyed tuning
CN101449270B (zh) 2006-03-15 2011-11-16 谷歌公司 自动显示尺寸调整后的图像
US7692855B2 (en) 2006-06-28 2010-04-06 Essilor International Compagnie Generale D'optique Optical article having a temperature-resistant anti-reflection coating with optimized thickness ratio of low index and high index layers
US7724980B1 (en) 2006-07-24 2010-05-25 Adobe Systems Incorporated System and method for selective sharpening of images
US20080068557A1 (en) 2006-09-20 2008-03-20 Gilbert Menduni Lens holding frame
US20080146942A1 (en) 2006-12-13 2008-06-19 Ep Medsystems, Inc. Catheter Position Tracking Methods Using Fluoroscopy and Rotational Sensors
JP4348441B2 (ja) * 2007-01-22 2009-10-21 国立大学法人 大阪教育大学 位置検出装置、位置検出方法、データ判定装置、データ判定方法、コンピュータプログラム及び記憶媒体
US20090017910A1 (en) 2007-06-22 2009-01-15 Broadcom Corporation Position and motion tracking of an object
WO2008148927A1 (en) 2007-06-04 2008-12-11 Nokia Corporation A diffractive beam expander and a virtual display based on a diffractive beam expander
US8508848B2 (en) 2007-12-18 2013-08-13 Nokia Corporation Exit pupil expanders with wide field-of-view
DE102008005817A1 (de) 2008-01-24 2009-07-30 Carl Zeiss Ag Optisches Anzeigegerät
WO2009101238A1 (en) 2008-02-14 2009-08-20 Nokia Corporation Device and method for determining gaze direction
JP2009244869A (ja) 2008-03-11 2009-10-22 Panasonic Corp 表示装置、表示方法、眼鏡型ヘッドマウントディスプレイ、及び自動車
US9400212B2 (en) 2008-06-13 2016-07-26 Barco Inc. Smart pixel addressing
JP5181860B2 (ja) 2008-06-17 2013-04-10 セイコーエプソン株式会社 パルス幅変調信号生成装置およびそれを備えた画像表示装置、並びにパルス幅変調信号生成方法
US10885471B2 (en) 2008-07-18 2021-01-05 Disney Enterprises, Inc. System and method for providing location-based data on a wireless portable device
US7850306B2 (en) 2008-08-28 2010-12-14 Nokia Corporation Visual cognition aware display and visual data transmission architecture
US7885506B2 (en) 2008-09-26 2011-02-08 Nokia Corporation Device and a method for polarized illumination of a micro-display
WO2010065786A1 (en) 2008-12-03 2010-06-10 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for determining the positioin of the tip of a medical catheter within the body of a patient
JP5121764B2 (ja) 2009-03-24 2013-01-16 株式会社東芝 固体撮像装置
US9095436B2 (en) 2009-04-14 2015-08-04 The Invention Science Fund I, Llc Adjustable orthopedic implant and method for treating an orthopedic condition in a subject
JP2011033993A (ja) * 2009-08-05 2011-02-17 Sharp Corp 情報提示装置、および情報提示方法
JP5316391B2 (ja) 2009-08-31 2013-10-16 ソニー株式会社 画像表示装置及び頭部装着型ディスプレイ
US11320571B2 (en) 2012-11-16 2022-05-03 Rockwell Collins, Inc. Transparent waveguide display providing upper and lower fields of view with uniform light extraction
US8305502B2 (en) 2009-11-11 2012-11-06 Eastman Kodak Company Phase-compensated thin-film beam combiner
US8605209B2 (en) 2009-11-24 2013-12-10 Gregory Towle Becker Hurricane damage recording camera system
US8909962B2 (en) 2009-12-16 2014-12-09 Qualcomm Incorporated System and method for controlling central processing unit power with guaranteed transient deadlines
US8565554B2 (en) 2010-01-09 2013-10-22 Microsoft Corporation Resizing of digital images
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US9547910B2 (en) 2010-03-04 2017-01-17 Honeywell International Inc. Method and apparatus for vision aided navigation using image registration
JP5499854B2 (ja) 2010-04-08 2014-05-21 ソニー株式会社 頭部装着型ディスプレイにおける光学的位置調整方法
US8118499B2 (en) 2010-05-19 2012-02-21 LIR Systems, Inc. Infrared camera assembly systems and methods
US20110291964A1 (en) * 2010-06-01 2011-12-01 Kno, Inc. Apparatus and Method for Gesture Control of a Dual Panel Electronic Device
JP2012015774A (ja) 2010-06-30 2012-01-19 Toshiba Corp 立体視映像処理装置および立体視映像処理方法
US8854594B2 (en) 2010-08-31 2014-10-07 Cast Group Of Companies Inc. System and method for tracking
US20120081392A1 (en) * 2010-09-30 2012-04-05 Apple Inc. Electronic device operation adjustment based on face detection
US20120113235A1 (en) 2010-11-08 2012-05-10 Sony Corporation 3d glasses, systems, and methods for optimized viewing of 3d video content
US9304319B2 (en) * 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
US9213405B2 (en) * 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
US8949637B2 (en) 2011-03-24 2015-02-03 Intel Corporation Obtaining power profile information with low overhead
KR101591579B1 (ko) * 2011-03-29 2016-02-18 퀄컴 인코포레이티드 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링
KR101210163B1 (ko) 2011-04-05 2012-12-07 엘지이노텍 주식회사 광학 시트 및 이를 포함하는 표시장치
US8856355B2 (en) 2011-05-09 2014-10-07 Samsung Electronics Co., Ltd. Systems and methods for facilitating communication between mobile devices and display devices
US9245307B2 (en) 2011-06-01 2016-01-26 Empire Technology Development Llc Structured light projection for motion detection in augmented reality
US9087267B2 (en) 2011-06-10 2015-07-21 Image Vision Labs, Inc. Image scene recognition
US10606066B2 (en) 2011-06-21 2020-03-31 Gholam A. Peyman Fluidic light field camera
US20120326948A1 (en) 2011-06-22 2012-12-27 Microsoft Corporation Environmental-light filter for see-through head-mounted display device
EP2723240B1 (en) 2011-06-27 2018-08-08 Koninklijke Philips N.V. Live 3d angiogram using registration of a surgical tool curve to an x-ray image
US9342610B2 (en) * 2011-08-25 2016-05-17 Microsoft Technology Licensing, Llc Portals: registered objects as virtualized, personalized displays
US9025252B2 (en) 2011-08-30 2015-05-05 Microsoft Technology Licensing, Llc Adjustment of a mixed reality display for inter-pupillary distance alignment
US8998414B2 (en) 2011-09-26 2015-04-07 Microsoft Technology Licensing, Llc Integrated eye tracking and display system
US9835765B2 (en) 2011-09-27 2017-12-05 Canon Kabushiki Kaisha Optical element and method for manufacturing the same
US8847988B2 (en) 2011-09-30 2014-09-30 Microsoft Corporation Exercising applications for personal audio/visual system
US9125301B2 (en) 2011-10-18 2015-09-01 Integrated Microwave Corporation Integral heater assembly and method for carrier or host board of electronic package assembly
WO2013101273A1 (en) 2011-12-30 2013-07-04 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for detection and avoidance of collisions of robotically-controlled medical devices
US8608309B2 (en) 2011-12-30 2013-12-17 A New Vision Llc Eyeglass system
US9704220B1 (en) * 2012-02-29 2017-07-11 Google Inc. Systems, methods, and media for adjusting one or more images displayed to a viewer
EP2834698B1 (en) 2012-05-03 2021-06-23 Nokia Technologies Oy Image providing apparatus, method and computer program
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9113291B2 (en) 2012-06-18 2015-08-18 Qualcomm Incorporated Location detection within identifiable pre-defined geographic areas
US9031283B2 (en) 2012-07-12 2015-05-12 Qualcomm Incorporated Sensor-aided wide-area localization on mobile devices
WO2014031540A1 (en) 2012-08-20 2014-02-27 Cameron Donald Kevin Processing resource allocation
US9177404B2 (en) 2012-10-31 2015-11-03 Qualcomm Incorporated Systems and methods of merging multiple maps for computer vision based tracking
US9576183B2 (en) 2012-11-02 2017-02-21 Qualcomm Incorporated Fast initialization for monocular visual SLAM
US9584382B2 (en) 2012-11-28 2017-02-28 At&T Intellectual Property I, L.P. Collecting and using quality of experience information
US20140168260A1 (en) 2012-12-13 2014-06-19 Paul M. O'Brien Waveguide spacers within an ned device
US8988574B2 (en) 2012-12-27 2015-03-24 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using bright line image
US20150355481A1 (en) 2012-12-31 2015-12-10 Esight Corp. Apparatus and method for fitting head mounted vision augmentation systems
US9336629B2 (en) 2013-01-30 2016-05-10 F3 & Associates, Inc. Coordinate geometry augmented reality process
GB201301764D0 (en) 2013-01-31 2013-03-20 Adlens Ltd Actuation of fluid-filled lenses
US9600068B2 (en) 2013-03-13 2017-03-21 Sony Interactive Entertainment Inc. Digital inter-pupillary distance adjustment
US9779517B2 (en) 2013-03-15 2017-10-03 Upskill, Inc. Method and system for representing and interacting with augmented reality content
JP6232763B2 (ja) 2013-06-12 2017-11-22 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2015031511A1 (en) 2013-08-27 2015-03-05 Frameri Inc. Removable eyeglass lens and frame platform
US9256072B2 (en) 2013-10-02 2016-02-09 Philip Scott Lyren Wearable electronic glasses that detect movement of a real object copies movement of a virtual object
US20150123966A1 (en) 2013-10-03 2015-05-07 Compedia - Software And Hardware Development Limited Interactive augmented virtual reality and perceptual computing platform
KR102189115B1 (ko) 2013-11-11 2020-12-09 삼성전자주식회사 대칭형 다중 프로세서를 구비한 시스템 온-칩 및 이를 위한 최대 동작 클럭 주파수 결정 방법
US9286725B2 (en) 2013-11-14 2016-03-15 Nintendo Co., Ltd. Visually convincing depiction of object interactions in augmented reality images
CN105706028B (zh) * 2013-11-19 2018-05-29 麦克赛尔株式会社 投影型影像显示装置
JP6465030B2 (ja) 2013-11-26 2019-02-06 ソニー株式会社 ヘッドマウントディスプレイ
CN107329259B (zh) 2013-11-27 2019-10-11 奇跃公司 虚拟和增强现实系统与方法
WO2015100714A1 (en) 2014-01-02 2015-07-09 Empire Technology Development Llc Augmented reality (ar) system
US9524580B2 (en) 2014-01-06 2016-12-20 Oculus Vr, Llc Calibration of virtual reality systems
US9383630B2 (en) 2014-03-05 2016-07-05 Mygo, Llc Camera mouth mount
US9871741B2 (en) 2014-03-10 2018-01-16 Microsoft Technology Licensing, Llc Resource management based on device-specific or user-specific resource usage profiles
US9251598B2 (en) 2014-04-10 2016-02-02 GM Global Technology Operations LLC Vision-based multi-camera factory monitoring with dynamic integrity scoring
US20150301955A1 (en) 2014-04-21 2015-10-22 Qualcomm Incorporated Extending protection domains to co-processors
US9626802B2 (en) 2014-05-01 2017-04-18 Microsoft Technology Licensing, Llc Determining coordinate frames in a dynamic environment
US10620700B2 (en) 2014-05-09 2020-04-14 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
EP2952850A1 (en) 2014-06-03 2015-12-09 Optotune AG Optical device, particularly for tuning the focal length of a lens of the device by means of optical feedback
US9865089B2 (en) 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
US20160077338A1 (en) 2014-09-16 2016-03-17 Steven John Robbins Compact Projection Light Engine For A Diffractive Waveguide Display
US9494799B2 (en) 2014-09-24 2016-11-15 Microsoft Technology Licensing, Llc Waveguide eye tracking employing switchable diffraction gratings
US10176625B2 (en) 2014-09-25 2019-01-08 Faro Technologies, Inc. Augmented reality camera for use with 3D metrology equipment in forming 3D images from 2D camera images
KR102688893B1 (ko) 2014-09-29 2024-07-29 매직 립, 인코포레이티드 상이한 파장의 광을 도파관 밖으로 출력하기 위한 아키텍쳐 및 방법
US9612722B2 (en) 2014-10-31 2017-04-04 Microsoft Technology Licensing, Llc Facilitating interaction between users and their environments using sounds
US10371936B2 (en) 2014-11-10 2019-08-06 Leo D. Didomenico Wide angle, broad-band, polarization independent beam steering and concentration of wave energy utilizing electronically controlled soft matter
WO2016106220A1 (en) 2014-12-22 2016-06-30 Dimensions And Shapes, Llc Headset vision system for portable devices
US10018844B2 (en) 2015-02-09 2018-07-10 Microsoft Technology Licensing, Llc Wearable image display system
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
WO2016146963A1 (en) 2015-03-16 2016-09-22 Popovich, Milan, Momcilo Waveguide device incorporating a light pipe
US9955862B2 (en) 2015-03-17 2018-05-01 Raytrx, Llc System, method, and non-transitory computer-readable storage media related to correction of vision defects using a visual display
US10909464B2 (en) 2015-04-29 2021-02-02 Microsoft Technology Licensing, Llc Semantic locations prediction
KR20160139727A (ko) 2015-05-28 2016-12-07 엘지전자 주식회사 글래스타입 단말기 및 이의 제어방법
GB2539009A (en) 2015-06-03 2016-12-07 Tobii Ab Gaze detection method and apparatus
WO2016205396A1 (en) 2015-06-15 2016-12-22 Black Eric J Methods and systems for communication with beamforming antennas
US10832479B2 (en) * 2015-06-15 2020-11-10 Sony Corporation Information processing apparatus, information processing method, and program
US9519084B1 (en) 2015-06-18 2016-12-13 Oculus Vr, Llc Securing a fresnel lens to a refractive optical element
WO2017004695A1 (en) 2015-07-06 2017-01-12 Frank Jones Methods and devices for demountable head mounted displays
US20170100664A1 (en) 2015-10-12 2017-04-13 Osterhout Group, Inc. External user interface for head worn computing
US20170038607A1 (en) 2015-08-04 2017-02-09 Rafael Camara Enhanced-reality electronic device for low-vision pathologies, and implant procedure
WO2017039308A1 (en) 2015-08-31 2017-03-09 Samsung Electronics Co., Ltd. Virtual reality display apparatus and display method thereof
US10067346B2 (en) 2015-10-23 2018-09-04 Microsoft Technology Licensing, Llc Holographic display
US9671615B1 (en) 2015-12-01 2017-06-06 Microsoft Technology Licensing, Llc Extended field of view in near-eye display using wide-spectrum imager
US10025060B2 (en) 2015-12-08 2018-07-17 Oculus Vr, Llc Focus adjusting virtual reality headset
EP3190447B1 (en) 2016-01-06 2020-02-05 Ricoh Company, Ltd. Light guide and virtual image display device
US9978180B2 (en) 2016-01-25 2018-05-22 Microsoft Technology Licensing, Llc Frame projection for augmented reality environments
US9891436B2 (en) 2016-02-11 2018-02-13 Microsoft Technology Licensing, Llc Waveguide-based displays with anti-reflective and highly-reflective coating
JP6686504B2 (ja) 2016-02-15 2020-04-22 セイコーエプソン株式会社 頭部装着型画像表示装置
US20170256096A1 (en) * 2016-03-07 2017-09-07 Google Inc. Intelligent object sizing and placement in a augmented / virtual reality environment
WO2017173213A1 (en) 2016-03-31 2017-10-05 Zoll Medical Corporation Systems and methods of tracking patient movement
JP7055751B2 (ja) 2016-04-07 2022-04-18 マジック リープ, インコーポレイテッド 拡張現実のためのシステムおよび方法
EP3236211A1 (en) 2016-04-21 2017-10-25 Thomson Licensing Method and apparatus for estimating a pose of a rendering device
US20170312032A1 (en) 2016-04-27 2017-11-02 Arthrology Consulting, Llc Method for augmenting a surgical field with virtual guidance content
US10215986B2 (en) 2016-05-16 2019-02-26 Microsoft Technology Licensing, Llc Wedges for light transformation
US11228770B2 (en) 2016-05-16 2022-01-18 Qualcomm Incorporated Loop sample processing for high dynamic range and wide color gamut video coding
US10078377B2 (en) 2016-06-09 2018-09-18 Microsoft Technology Licensing, Llc Six DOF mixed reality input by fusing inertial handheld controller with hand tracking
US10943359B2 (en) 2016-08-04 2021-03-09 Dolby Laboratories Licensing Corporation Single depth tracked accommodation-vergence solutions
US10690936B2 (en) 2016-08-29 2020-06-23 Mentor Acquisition One, Llc Adjustable nose bridge assembly for headworn computer
US20180067779A1 (en) 2016-09-06 2018-03-08 Smartiply, Inc. AP-Based Intelligent Fog Agent
US20180082480A1 (en) 2016-09-16 2018-03-22 John R. White Augmented reality surgical technique guidance
CA3036709A1 (en) 2016-09-26 2018-03-29 Magic Leap, Inc. Calibration of magnetic and optical sensors in a virtual reality or augmented reality display system
EP3320829A1 (en) 2016-11-10 2018-05-16 E-Health Technical Solutions, S.L. System for integrally measuring clinical parameters of visual function
US10489975B2 (en) 2017-01-04 2019-11-26 Daqri, Llc Environmental mapping system
US20180255285A1 (en) 2017-03-06 2018-09-06 Universal City Studios Llc Systems and methods for layered virtual features in an amusement park environment
EP3376279B1 (en) 2017-03-13 2022-08-31 Essilor International Optical device for a head-mounted display, and head-mounted device incorporating it for augmented reality
US10241545B1 (en) 2017-06-01 2019-03-26 Facebook Technologies, Llc Dynamic distortion correction for optical compensation
US10402448B2 (en) 2017-06-28 2019-09-03 Google Llc Image retrieval with deep local feature descriptors and attention-based keypoint descriptors
US20190056591A1 (en) 2017-08-18 2019-02-21 Microsoft Technology Licensing, Llc Optical waveguide with multiple antireflective coatings
US9948612B1 (en) 2017-09-27 2018-04-17 Citrix Systems, Inc. Secure single sign on and conditional access for client applications
US10437065B2 (en) 2017-10-03 2019-10-08 Microsoft Technology Licensing, Llc IPD correction and reprojection for accurate mixed reality object placement
US11348257B2 (en) 2018-01-29 2022-05-31 Philipp K. Lang Augmented reality guidance for orthopedic and other surgical procedures
US10422989B2 (en) 2018-02-06 2019-09-24 Microsoft Technology Licensing, Llc Optical systems including a single actuator and multiple fluid-filled optical lenses for near-eye-display devices
GB201805301D0 (en) 2018-03-29 2018-05-16 Adlens Ltd Improvements In Or Relating To Variable Focusing Power Optical Devices
US10740966B2 (en) * 2018-05-14 2020-08-11 Microsoft Technology Licensing, Llc Fake thickness on a two-dimensional object
US11510027B2 (en) 2018-07-03 2022-11-22 Magic Leap, Inc. Systems and methods for virtual and augmented reality

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018031621A1 (en) 2016-08-11 2018-02-15 Magic Leap, Inc. Automatic placement of a virtual object in a three-dimensional space

Also Published As

Publication number Publication date
JP2021527252A (ja) 2021-10-11
EP3803545A4 (en) 2022-01-26
US11092812B2 (en) 2021-08-17
EP3803545A1 (en) 2021-04-14
WO2019237099A1 (en) 2019-12-12
US20190377192A1 (en) 2019-12-12
US20210318547A1 (en) 2021-10-14
CN112513785A (zh) 2021-03-16

Similar Documents

Publication Publication Date Title
JP7421505B2 (ja) 自動化された表面選択設置およびコンテンツ配向設置を用いた拡張現実ビューア
US11378798B2 (en) Surface modeling systems and methods
US10096157B2 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
US9824485B2 (en) Presenting a view within a three dimensional scene
US20190325555A1 (en) System and method of capturing and rendering a stereoscopic panorama using a depth buffer
US20190238818A1 (en) Displaying modified stereo visual content
US20170103562A1 (en) Systems and methods for arranging scenes of animated content to stimulate three-dimensionality
JP2007019666A (ja) 立体画像表示装置及び立体画像表示方法
US20230396750A1 (en) Dynamic resolution of depth conflicts in telepresence
US20170052684A1 (en) Display control apparatus, display control method, and program
JP2024538548A (ja) コンテンツアイテムのためのポータルビュー
CN117999535A (zh) 用于内容项目的门户视图

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240112

R150 Certificate of patent or registration of utility model

Ref document number: 7421505

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150