JP6619005B2 - 仮想空間に提示されるアプリケーションと物理的ディスプレイとの選択的ペアリング - Google Patents

仮想空間に提示されるアプリケーションと物理的ディスプレイとの選択的ペアリング Download PDF

Info

Publication number
JP6619005B2
JP6619005B2 JP2017528924A JP2017528924A JP6619005B2 JP 6619005 B2 JP6619005 B2 JP 6619005B2 JP 2017528924 A JP2017528924 A JP 2017528924A JP 2017528924 A JP2017528924 A JP 2017528924A JP 6619005 B2 JP6619005 B2 JP 6619005B2
Authority
JP
Japan
Prior art keywords
virtual space
augmented reality
reality device
user
physical display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017528924A
Other languages
English (en)
Other versions
JP2018506098A (ja
Inventor
ビーン、クリス
グリーン、ソフィー、ダニエル
ホワイトヘッド、マシュー、ロバート
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2018506098A publication Critical patent/JP2018506098A/ja
Application granted granted Critical
Publication of JP6619005B2 publication Critical patent/JP6619005B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)

Description

本開示は、コンピュータの分野に関し、具体的には、コンピュータ・ディスプレイに関する。さらにより特定的には、本開示は、物理的コンピュータ・ディスプレイを、仮想空間において拡張現実グラス(augmented reality glasses)により提示されるアプリケーションにポピュレートすることに関する。
デスクトップ・コンピューティング環境において利用可能な仮想領域の拡張は、例えば、(1)より多くの物理的モニタを付加する、(2)仮想デスクトップを生成し、それらを切り替える、(3)ウィンドウを最小化し、それらが必要なときに最大化するなど、多数の方法で行うことができる。
しかしながら、これらの解決法は、ユーザが常にウィンドウを切り替える必要があること、又は多数の物理的画面を付加しなければならないことがある。
従って、当技術分野において、上述の問題に対処するための必要性がある。
第1の態様から見ると、本発明は、物理的ディスプレイのために仮想空間内の特定の領域からのコンテンツをグラフィック・ドライバとペアリングするための方法を提供し、この方法は、拡張現実デバイスにより、第1の仮想空間を定めることであって、第1の仮想空間は拡張現実デバイスにより生成される第1の空間境界により境界付けられ、第1の空間境界は拡張現実デバイスのユーザにしか見えない、定めることと;1つ又は複数のプロセッサにより、第1の仮想空間を複数のグラフィック・ドライバからの第1のグラフィック・ドライバと関連付けることであって、グラフィック・ドライバは、物理的ディスプレイ上に画像を生成する、関連付けることと;ビデオ・アダプタ・ハードウェア・カードにより、拡張現実デバイスから、第1の仮想空間選択ジェスチャを示す第1の信号を受け取ることであって、第1の仮想空間選択ジェスチャが生成されることを示す第1の信号は、ユーザが第1の仮想空間を選択する第1の物理的運動を行うことに応答して、拡張現実デバイスにより生成される、受け取ることと;ビデオ・アダプタ・ハードウェア・カードが第1の仮想空間選択ジェスチャを示す第1の信号を受け取ることに応答して、第1のグラフィック・ドライバを実装するビデオ・アダプタ・ハードウェア・カードにより、物理的ディスプレイ上に前記第1の仮想空間と関連したコンテンツを表示することと、を含む。
本発明の1つの実施形態において、方法は、物理的ディスプレイのために仮想空間内の特定の領域からのコンテンツをグラフィック・ドライバとペアリングする。拡張現実デバイスは仮想空間を定め、該仮想空間は、拡張現実デバイスにより生成される空間境界により境界付けられ、空間境界は拡張現実デバイスのユーザにしか見えない。1つ又は複数のプロセッサは、仮想空間を複数のグラフィック・ドライバからの1つのグラフィック・ドライバと関連付け、グラフィック・ドライバは、物理的ディスプレイ上に画像を生成する。仮想空間選択ジェスチャを示す第1の信号を拡張現実デバイスから受け取り、仮想空間選択ジェスチャを示す第1の信号は、ユーザが仮想空間を選択する物理的運動を行うことに応答して、拡張現実デバイスにより生成される。仮想空間選択ジェスチャを示す信号を受け取ることに応答して、ハードウェア・グラフィック・カードは、グラフィック・ドライバを実装し、物理的ディスプレイ上に仮想空間と関連したコンテンツを表示する。
更に別の態様から見ると、本発明は、物理的ディスプレイのために仮想空間内の特定の領域からのコンテンツをグラフィック・ドライバとペアリングするためのシステムを提供し、このシステムは、拡張現実デバイスであって、該拡張現実デバイスは第1の仮想空間を定め、第1の仮想空間は拡張現実デバイスにより生成される第1の空間境界により境界付けられ、第1の空間境界は拡張現実デバイスのユーザにしか見えない、拡張現実デバイスと;第1の仮想空間を複数のグラフィック・ドライバからの第1のグラフィック・ドライバと関連付ける1つ又は複数のプロセッサであって、グラフィック・ドライバは物理的ディスプレイ上に画像を生成し、1つ又は複数のプロセッサは、ユーザが第1の仮想空間を選択する第1の物理的運動を行うことに応答して、拡張現実デバイスから、拡張現実デバイスにより生成される第1の仮想空間選択ジェスチャを示す第1の信号を受け取る、1つ又は複数のプロセッサと;ビデオ・アダプタ・ハードウェア・カードであって、該ビデオ・アダプタ・ハードウェア・カードは、第1の仮想空間選択ジェスチャを示す第1の信号を受け取ることに応答して、第1のグラフィック・ドライバを実装し、物理的ディスプレイ上に第1の仮想空間と関連したコンテンツを表示する、ビデオ・アダプタ・ハードウェア・カードと、を備える。
本発明の1つの実施形態において、システムは、物理的ディスプレイのために仮想空間内の特定の領域からのコンテンツをグラフィック・ドライバとペアリングする。拡張現実デバイスは仮想空間を定め、仮想空間は、拡張現実デバイスにより生成される空間境界により境界付けられ、空間境界は拡張現実デバイスのユーザにしか見えない。1つ又は複数のプロセッサは、仮想空間を複数のグラフィック・ドライバからの特定のグラフィック・ドライバと関連付け、グラフィック・ドライバは物理的ディスプレイ上に画像を生成し、1つ又は複数のプロセッサは、拡張現実デバイスから、拡張現実デバイスのユーザからの仮想空間選択ジェスチャを示す信号を受け取り、仮想空間選択ジェスチャを示す信号が、ユーザが仮想空間を選択する物理的運動を行うことに応答して、拡張現実デバイスにより生成される。ハードウェア・カードは、仮想空間選択ジェスチャを示す信号を受け取ることに応答して、特定のグラフィック・ドライバを実装し、物理的ディスプレイ上に仮想空間と関連したコンテンツを表示する。
更に別の態様から見ると、本発明は、物理的ディスプレイのために仮想空間内の特定の領域からのコンテンツをグラフィック・ドライバとペアリングするためのコンピュータ・プログラム、またはコンピュータ・プログラム製品を提供し、コンピュータ・プログラム製品は、処理回路により読み取り可能であり、本発明のステップを実施する方法を実行するための、処理回路により実行される命令を格納する、コンピュータ可読ストレージ媒体を含む。
本発明の1つの実施形態において、コンピュータ・プログラム製品は、物理的ディスプレイのために仮想空間内の特定の領域からのコンテンツをグラフィック・ドライバとペアリングする。コンピュータ・プログラム製品は、プログラム・コードがそこに具体化されたコンピュータ可読ストレージ媒体を含み、コンピュータ可読ストレージ媒体は、一時的信号自体ではない。プログラム・コードは、方法を実施するために、プロセッサにより読み取り可能かつ実行可能であり、この方法は、仮想空間を定めることであって、仮想空間は拡張現実デバイスにより生成される空間境界により境界付けられ、空間境界は拡張現実デバイスのユーザにしか見えない、定めることを含む。仮想空間は、複数のグラフィック・ドライバからの特定のグラフィック・ドライバと関連付けられ、グラフィック・ドライバは、物理的ディスプレイ上に画像を生成する。仮想空間選択ジェスチャを示す信号を拡張現実デバイスから受け取り、仮想空間選択ジェスチャを示す信号は、ユーザが仮想空間を選択する物理的運動を行うことに応答して、拡張現実デバイスにより生成される。仮想空間選択ジェスチャを示す信号を受け取ることに応答して、ハードウェア・グラフィック・カードは、特定のグラフィック・ドライバを実装し、物理的ディスプレイ上に仮想空間と関連したコンテンツを表示する。
更に別の態様から見ると、本発明は、コンピュータ可読媒体上に格納され、デジタル・コンピュータの内部メモリにロード可能なコンピュータ・プログラムであって、プログラムがコンピュータ上で実行されるとき、本発明のステップを実行するためのソフトウェア・コード部分を含むコンピュータ・プログラムを提供する。
ここで、単なる例として以下の図に示されるような好ましい実施形態を参照して、本発明を説明する。
従来技術による、本発明の好ましい実施形態を実施することができる、例示的なシステム及びネットワークを示す。 本発明の好ましい実施形態を実施することができる、物理的ディスプレイ上に仮想画像を選択的に表示するために使用される拡張現実デバイスを示す。 本発明の好ましい実施形態を実施することができる、図2に示される拡張現実デバイスの付加的な詳細を示す。 本発明の好ましい実施形態を実施することができる、図2に示される拡張現実デバイスの着用者により見られるような仮想画像に囲まれる物理的ディスプレイの例示的なビューを示す。 本発明の好ましい実施形態を実施することができる、図2に示される拡張現実デバイスの着用者により見られるような仮想画像に囲まれる物理的ディスプレイの別の例示的なビューを示す。 本発明の好ましい実施形態を実施することができる、仮想画像のサイズが、物理的ディスプレイの見掛け上の寸法と一致するように調整されることを示す。 本発明の好ましい実施形態を実施することができる、物理的ディスプレイのために仮想空間内の特定の領域からのコンテンツをグラフィック・ドライバとペアリングするための、1つ又は複数のハードウェア・デバイスにより実施される1つ又は複数の動作の高レベルのフローチャートである。
本発明は、システム、方法、及び/又はコンピュータ・プログラム製品とすることができる。コンピュータ・プログラム製品は、プロセッサに本発明の態様を実施させるためのコンピュータ可読プログラム命令をその上に有するコンピュータ可読ストレージ媒体(単数又は複数)を含むことができる。
コンピュータ可読ストレージ媒体は、命令実行デバイスにより使用される命令を保持及び格納することができる有形デバイスとすることができる。コンピュータ可読ストレージ媒体は、例えば、これらに限定されるものではないが、電子ストレージ・デバイス、磁気ストレージ・デバイス、光学ストレージ・デバイス、電磁ストレージ・デバイス、半導体ストレージ・デバイス、又は上記のいずれかの適切な組み合わせとすることができる。コンピュータ可読ストレージ媒体のより具体的な例の非網羅的なリストとして、以下のもの:即ち、ポータブル・コンピュータ・ディスケット、ハード・ディスク、ランダム・アクセス・メモリ(RAM)、読み出し専用メモリ(ROM)、消去可能なプログラム可能読み出し専用メモリ(EPROM又はフラッシュ・メモリ)、スタティック・ランダム・アクセス・メモリ(SRAM)、ポータブル・コンパクト・ディスク読み出し専用メモリ(CD−ROM)、デジタル多用途ディスク(DVD)、メモリ・スティック、フロッピー・ディスク、パンチカード又は命令が記録された溝内の隆起構造のような機械的にエンコードされたデバイス、及び上記のいずれかの適切な組み合わせが挙げられる。本明細書で使用される場合、コンピュータ可読ストレージ媒体は、電波、又は他の自由に伝搬する電磁波、導波管若しくは他の伝送媒体を通じて伝搬する電磁波(例えば、光ファイバ・ケーブルを通る光パルス)、又はワイヤを通って伝搬される電気信号などの、一時的信号自体として解釈されるべきではない。
本明細書で説明されるコンピュータ可読プログラム命令は、コンピュータ可読ストレージ媒体からそれぞれのコンピューティング/処理デバイスに、又は、例えばインターネット、ローカル・エリア・ネットワーク、広域ネットワーク及び/又は無線ネットワークなどのネットワークを介して、外部コンピュータ又は外部ストレージ・デバイスにダウンロードすることができる。ネットワークは、銅伝送ケーブル、光伝送ファイバ、無線伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイ・コンピュータ、及び/又はエッジ・サーバを含むことができる。各コンピューティング/処理デバイスにおけるネットワーク・アダプタ・カード又はネットワーク・インターフェースは、ネットワークからコンピュータ可読プログラム命令を受け取り、コンピュータ可読プログラム命令を転送して、それぞれのコンピューティング/処理デバイス内のコンピュータ可読ストレージ媒体内に格納する。
本発明の動作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セット・アーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又は、Java(登録商標)、Smalltalk、C++などのオブジェクト指向プログラミング言語、又は、「C」プログラミング言語若しくは類似のプログラミング言語などの通常の手続き型プログラミング言語を含む1つ又は複数のプログラミング言語の任意の組み合わせで記述することができる。コンピュータ可読プログラム命令は、完全にユーザのコンピュータ上で実行される場合もあり、一部がユーザのコンピュータ上で、独立型ソフトウェア・パッケージとして実行される場合もあり、一部がユーザのコンピュータ上で実行され、一部が遠隔コンピュータ上で実行される場合もあり、又は完全に遠隔コンピュータ若しくはサーバ上で実行される場合もある。最後のシナリオにおいては、遠隔コンピュータは、ローカル・エリア・ネットワーク(LAN)若しくは広域ネットワーク(WAN)を含むいずれかのタイプのネットワークを通じてユーザのコンピュータに接続される場合もあり、又は外部コンピュータへの接続がなされる場合もある(例えば、インターネット・サービス・プロバイダを用いたインターネットを通じて)。幾つかの実施形態において、例えば、プログラム可能論理回路、フィールド・プログラマブル・ゲート・アレイ(FPGA)、又はプログラム可能論理アレイ(PLA)を含む電子回路は、コンピュータ可読プログラム命令の状態情報を用いて、電子回路を個人化することによりコンピュータ可読プログラム命令を実行し、本発明の態様を実施することができる。Java及び全てのJavaベースの商標及びロゴは、Oracle社及び/又はその関連会社の商標又は登録商標である。
本発明の態様は、本発明の実施形態による方法、装置(システム)及びコンピュータ・プログラム製品のフローチャート図及び/又はブロック図を参照して説明される。フローチャート図及び/又はブロック図の各ブロック、並びにフローチャート図及び/又はブロック図内のブロックの組み合わせは、コンピュータ可読プログラム命令によって実装できることが理解されるであろう。
これらのコンピュータ可読プログラム命令を、汎用コンピュータ、専用コンピュータ、又は他のプログラム可能データ処理装置のプロセッサに与えてマシンを製造し、それにより、コンピュータ又は他のプログラム可能データ処理装置のプロセッサによって実行される命令が、フローチャート及び/又はブロック図の1つ又は複数のブロック内で指定された機能/動作を実装するための手段を作り出すようにすることができる。これらのコンピュータ・プログラム命令を、コンピュータ、他のプログラム可能データ処理装置、又は他のデバイスを特定の方式で機能させるように指示することができるコンピュータ可読媒体内に格納し、それにより、そのコンピュータ可読媒体内に格納された命令が、フローチャート及び/又はブロック図の1つ又は複数のブロックにおいて指定された機能/動作を実装する命令を含む製品を製造するようにすることもできる。
コンピュータ・プログラム命令を、コンピュータ、他のプログラム可能データ処理装置、又は他のデバイス上にロードして、一連の動作ステップをコンピュータ、他のプログラム可能データ処理装置、又は他のデバイス上で行わせてコンピュータ実施のプロセスを生成し、それにより、コンピュータ又は他のプログラム可能装置上で実行される命令が、フローチャート及び/又はブロック図の1つ又は複数のブロックにおいて指定された機能/動作を実行するためのプロセスを提供するようにすることもできる。
ここで図を、特に図1を参照すると、本発明の実施により及び/又はそれにおいて用いることができる例示的なシステム及びネットワークのブロック図が示される。コンピュータ102について及びコンピュータ102内に示される、描かれているハードウェア及びソフトウェアの両方を含む例示的なアーキテクチャの一部又は全ては、ソフトウェア配備サーバ150及び/又は拡張現実デバイス152により利用できることに留意されたい。
例示的なコンピュータ102は、システム・バス106に結合されたプロセッサ104を含む。プロセッサ104は、各々が1つ又は複数のプロセッサ・コアを有する1つ又は複数のプロセッサを利用することができる。ディスプレイ110を駆動/サポートするビデオ・アダプタ108もまた、システム・バス106に結合される。本発明の1つ又は複数の実施形態において、ビデオ・アダプタ108は、ハードウェア・ビデオ・カードである。システム・バス106は、バス・ブリッジ112を介して入力/出力(I/O)バス114に結合される。I/Oインターフェース116は、I/Oバス114に結合される。I/Oインターフェース116は、キーボード118、マウス120、媒体トレイ122(CD−ROMドライブ、マルチメディア・インターフェース等のようなストレージ・デバイスを含むことができる)、送受信機124、及び外部USBポート126を含む、種々のI/Oデバイスとの通信を提供する。I/Oインターフェース116に接続されるポートの形式は、コンピュータ・アーキテクチャの当業者には周知のものとすることができるが、一実施形態においては、これらのポートの一部又は全ては、ユニバーサル・シリアル・バス(USB)ポートである。
グラフィック・ドライバ109は、ビデオ・アダプタ108と(そうでない場合はその一部と)関連付けられる。グラフィック・ドライバ109は、一実施形態においては、オペレーティング・システム138の一部であり、ビデオ・アダプタ108(例えば、ビデオ・カード)がディスプレイ110上にどのようにテキスト及び画像を生成するかを制御するソフトウェアである。本発明の実施形態において、複数のグラフィック・ドライバ109をビデオ・アダプタ108と関連付けることができる。この実施形態において、以下に説明されるように、複数のグラフィック・ドライバ109の各々は、仮想空間の特定の領域及び/又は特定のアプリケーションと関連付けられる。
示されるように、コンピュータ102は、ネットワーク・インターフェース130を用いて、ソフトウェア配備サーバ150と通信することができる。ネットワーク・インターフェース130は、ネットワーク・インターフェース・カード(NIC)等のようなハードウェア・ネットワーク・インターフェースである。ネットワーク128は、インターネットのような外部ネットワーク、又はイーサネット若しくは仮想プライベート・ネットワーク(VPN)のような内部ネットワークとすることができる。
ハードドライブ・インターフェース132もまた、システム・バス106に結合される。ハードドライブ・インターフェース132は、ハードドライブ134とインターフェース接続する。一実施形態において、ハードドライブ134は、同じくシステム・バス106に結合されるシステム・メモリ136をポピュレートする。システム・メモリは、コンピュータ102における最下位レベルの揮発性メモリとして定義される。この揮発性メモリは、これらに限られるものではないが、キャッシュ・メモリ、レジスタ及びバッファを含む、付加的なより上位レベルの揮発性メモリ(図示せず)を含む。システム・メモリ136をポピュレートするデータは、コンピュータ102のオペレーティング・システム(OS)138及びアプリケーション・プログラム144を含む。
OS138は、アプリケーション・プログラム144のようなリソースへのトランスペアレントなユーザ・アクセスを提供するためのシェル140を含む。一般に、シェル140は、インタープリタと、ユーザとオペレーティング・システムとの間のインターフェースとを提供するプログラムである。より具体的には、シェル140は、コマンドライン・ユーザ・インターフェースに又はファイルから入力されるコマンドを実行する。従って、シェル140は、コマンド・プロセッサとも呼ばれ、一般に、最上位レベルのオペレーティング・システム・ソフトウェア階層であり、コマンド・インタープリタとして働く。シェルは、システムのプロンプトを提供し、キーボード、マウス、又は他のユーザ入力媒体によって入力されたコマンドを解釈し、処理のために、解釈したコマンドを、適切なより下位レベルのオペレーティング・システム(例えば、カーネル142)に送る。シェル140は、テキスト・ベースのライン指向ユーザ・インターフェースであるが、本発明は、グラフィカル、音声、ジェスチャ等のような他のユーザ・インターフェース・モードも等しく良好にサポートすることに留意されたい。
示されるように、OS138はまた、カーネル142も含み、このカーネル142は、メモリ管理、プロセス及びタスク管理、ディスク管理、マウス及びキーボード管理を含む、OS138の他の部分及びアプリケーション・プログラム144によって要求される必須サービスの提供を含む、より下位レベルのOS138の機能を含む。
アプリケーション・プログラム144は、ブラウザ146などの例示的な形で示されるレンダラー(renderer)を含む。ブラウザ146は、ワールド・ワイド・ウェブ(WWW)のクライアント(即ち、コンピュータ102)が、ハイパーテキスト転送プロトコル(HTTP)メッセージングを用いてネットワーク・メッセージをインターネットとの間で受送信するのを可能にし、従って、ソフトウェア配備サーバ150及び他のコンピュータ・システムとの通信を可能にする、プログラム・モジュール及び命令を含む。
コンピュータ102のシステム・メモリ(及び、ソフトウェア配備サーバ150のシステム・メモリ)内のアプリケーション・プログラム144はまた、拡張現実協調論理(augmented reality coordination logic、ARCL)148も含む。ARCL148は、図2〜図7に説明されるものを含む、下記に説明されるプロセスを実施するためのコードを含む。一実施形態において、コンピュータ102は、例えばオンデマンドで、ソフトウェア配備サーバ150からARCL148をダウンロードすることができ、ARCL148のコードは、実行のために必要とされるまでダウンロードされない。さらに、本発明の一実施形態においては、ソフトウェア配備サーバ150は、本発明と関連した機能(ARCL148の実行を含む)の全てを実行し、従って、コンピュータ102が、ARCL148を実行するために自分の内部コンピューティング・リソースを使用しなくても済むようにする。
受送信機124(及び/又は、USBポート126のようないずれかの入力/出力(I/O)インターフェース)は、一対の拡張現実(AR)グラスのような拡張現実デバイス152と電子的に通信することができる。ARグラスは、着用者が、オーバーレイされた仮想現実(例えば、ヘッドアップ表示)により物理的現実を見ることを可能にするウェアラブル(wearable)電子デバイスである。従って、着用者/ユーザは、現実のもの(即ち、実物理空間における)と仮想のもの(即ち、コンピュータにより生成され、ヘッドアップ表示上に表示されるもの)の両方を見ることができ、それにより、現実(実世界の)がコンピュータにより生成される画像(仮想の)により「拡張される」。
コンピュータ102内に示されるハードウェア要素は、網羅的であることを意図するものではなく、本発明により必要とされる重要なコンポーネントを強調表示するために表される。例えば、コンピュータ102は、磁気カセット、デジタル多用途ディスク(DVD)、ベルヌーイ・カートリッジ等のような代替的なメモリ・ストレージ・デバイスを含むことができる。これら及び他の変形は、本発明の趣旨及び範囲内にあるように意図される。
ここで図2を参照すると、物理的ディスプレイ上に仮想画像を選択的に表示するために使用される拡張現実デバイス200が提示される。図2に示されるように、ユーザ204(例えば、拡張現実デバイス200の着用者)は、2つのタイプの画像を「見る」ことができる。
ユーザ204が見る第1のタイプの画像は、拡張現実デバイス200の透明な部分を通して見られる実オブジェクト(real object)のものである。こうした実オブジェクトの例は、物理的ディスプレイ210(図1のディスプレイ110に類似した)、及びコンピュータ202(図1のコンピュータ102に類似した)により物理的ディスプレイ上に提示されるコンテンツ(例えば、アプリケーション、ウェブページ等)である。
ユーザ204が見る第2のタイプの画像は、拡張現実デバイス200内の表示画面上でユーザに示される仮想画像のものである。本明細書で説明されるように、仮想画像は、それを通してユーザ204が実世界を見る拡張現実デバイス200の透明な部分の上にオーバーレイ表示する(overlay)ことができる。従って、これらのオーバーレイ表示された仮想画像により、現実が「拡張される」。ユーザ204に見える仮想画像の例は、これらに限定されるものではないが、仮想アプリケーション表示、仮想ウェブページ、仮想ビデオ・クリップ等を含み、その全てが拡張現実デバイス200により生成される。
図2に示されるように、コンピュータ202内には、グラフィック・ドライバ209(図1に示されるグラフィック・ドライバ109と類似した)がある。グラフィック・ドライバ209は、物理的ディスプレイ(例えば、物理的ディスプレイ210)上に画像を生成するソフトウェア・ユニットとして定義される。本発明の1つの実施形態において、グラフィック・ドライバ209の各々は、アプリケーション244(スプレッドシート、ビデオ・アプリケーション、ワード・プロセッシング・アプリケーション、ブラウザ等のような)の1つだけと関連付けされる。さらに、本発明の一実施形態において、アプリケーション244の完全バージョン及びその関連するグラフィック・ドライバは、拡張現実デバイス200に利用可能でない。むしろ、アプリケーション244の静止記述子画像だけが、拡張現実デバイス200上に表示される。しかしながら、本発明の別の実施形態においては、アプリケーション244の完全バージョン及びその関連するグラフィック・ドライバは、拡張現実デバイス200に利用可能であり、拡張現実デバイス200上に表示するために、アプリケーション244のリアルタイムの動的(可変の)コンテンツが利用可能である。
ここで図3を参照すると、本発明の1つ又は複数の実施形態による、図2に示される拡張現実デバイス200の付加的な詳細が提示される。上述のように、拡張現実デバイス200は、透明な視認グラス302を含み、これを通して拡張現実デバイス200の着用者は、実(物理)世界を見ることができる。しかしながら、実世界のこのビューを仮想画像により拡張するために、オーバーレイ・プロジェクタ304は、透明な視認グラス上に画像を投影することができるので、拡張現実デバイス200のユーザ/視認者/着用者は、世界からの物理的な実オブジェクト及び拡張された仮想画像の両方を見ることになる。従って、図2に示されるように、ユーザ204は、物理的ディスプレイ210(及びそこに生成されるアプリケーション244からのコンテンツ)、並びに仮想空間208内のもののような仮想画像の両方を見ることができる。
仮想空間208は、2次元又は3次元とすることができる。例えば、図3に示されるように、2次元(2−D)空間境界(spatial border)306が、2次元のみを境界付ける。従って、ユーザが空間を通ってユーザの手206を動かすと(図2に示されるように)、システム(例えば、コンピュータ202)により、ユーザ204が見るような、2−Dの空間境界306の「後ろに(behind)」ある実空間におけるいずれの領域も、ユーザ204により選択される仮想空間208の一部であると考えられる。しかしながら、ユーザが、3−D空間境界308により定められる限られた3次元(3−D)空間を通ってユーザの手206を動かすと、システムは、その限られた3−D空間と関連したアクションのみを実施する。1つの仮想空間が別の仮想空間の前に(後ろに)ある場合、この3−Dフィーチャにより、種々の仮想空間がユーザ204の同じ視線に入ることが可能になる。
従って、3−D空間境界308は、実空間の特定の容積を仮想空間として境界付ける。オーバーレイ・プロジェクタ304により透明な視認グラス302上に投影される画像が生成する錯視(optical illusion)のために、ユーザ204には、3−D空間境界308が実空間中に「浮いている」ように「見える」。ユーザ204が、3−D空間境界308により生成される仮想空間208を通って自分の手206(又は、杖、手袋、ポインタ等の他のオブジェクト)を動かすと、コンピュータ202は、(1)特定の仮想空間208、及び(2)ユーザの手206により行われるジェスチャ/動きと関連付けられたアクションで応答する。
図3に戻ると、拡張現実デバイス200の3−D位置は、(1)ユーザ204がどこを見ているか、従って(2)どの仮想空間がユーザ204と関係するかを明らかにする/識別することが必要である。
本発明の1つの実施形態において、拡張現実デバイス200の3−D位置は、拡張現実デバイス200の3−Dの動きを検出する3−D加速度計310により確立される。機械的運動を電気信号に変換する、圧電、圧電抵抗及び容量性コンポーネントを含む種々の電子デバイスを用いて、1つ又は複数の軸線における加速度運動を検出することができる。一実施形態において、3−D加速度計310は、微小電子機械システム(MEMS)の使用を組み込み、既知の質量の釣り合い重りを構成するマイクロレバーの偏向を測定する。
本発明の一実施形態において、拡張現実デバイス200の3−D位置は、図3に示される筋電(EMG)センサ312により求められる。EMGセンサ312は、図2に示されるユーザ204により筋肉運動を検出するセンサである。つまり、拡張現実デバイス200の着用者が自分の頭の筋肉を動かすたびに、電気信号(即ち、神経細胞膜にわたる、イオン誘起された電位の変化)が、筋肉を制御する軸索(神経線維)に伝達される。運動ニューロン及びこれが神経支配する筋肉は、まとめて運動単位として知られる。運動ニューロンにより運動単位内の筋肉が収縮すると、これらの筋肉内で電気活動が刺激される。運動単位の運動ニューロン及び筋肉からの電気活動の合計は、運動単位活動電位(MUAP)を生成し、これがEMGセンサ312により測定される。処理論理(例えば、図3に示されるマイクロプロセッサ314)により、測定されたMUAPを分析し、筋肉運動のレベルを特定する。つまり、電気信号は、筋肉が動かされている場所を特定するのに十分に特有のものである。着用者が自分の頭部を動かすと、一意のMUAPパターンが発生する。従って、EMGセンサ312によりリアルタイムで検出されるMUAPパターンを、特定の頭部位置についての既知の/格納されたMUAP読取値と比較する。この比較により、3−Dの実空間において拡張現実デバイス200がある位置を判定し、従って、生成される仮想空間208が突き止められる。
図2に示されるユーザの手206の位置を判定するために、拡張現実デバイス200内の種々のデバイスを使用することができる。
例えば、本発明の一実施形態において、モーション・センサ316は、ユーザの手206の動き及びユーザの手206の位置を検出する。モーション・センサ316は、ユーザの手206から送られる信号を感知する光学、マイクロ波、音響、及び/又は赤外線センサを使用する。例えば、ユーザの手206に着用している手袋(図示せず)上の光又は赤外線送信機をモーション・センサ316により検出し、ユーザ204が自分の手を動かしている位置を判定することができる。代替的に、音響信号を、モーション・センサ316から伝送し、モーション・センサ316に跳ね返すようにすることもできる。跳ね返った音響信号の方向及び音響信号の送信と受信の間の持続時間を用いることにより、拡張現実デバイス200は、ユーザの手206の3−D位置を判定することができる。同様に、電磁放射(例えば、赤外線光、可視光、無線周波数信号等)をモーション・センサ316から伝送し、モーション・センサ316に跳ね返すようにすることもできる。音響信号の使用と同様に、跳ね返った電磁放射の方向及び電磁放射の送信と受信の間の持続時間を用いることにより、拡張現実デバイス200は、ユーザの手206の3−D位置を判定することができる。
本発明の一実施形態において、ユーザの手206の3−D位置は、受動型赤外線(IR)センサ318により検出される。ユーザの手206は、通常の人体の生理機能のために熱を発生させる。IR放射の強さ及び方向を検出することにより、IRセンサ318は、十分な情報/データをマイクロプロセッサ314に与え、IRセンサの読取値と既知の表/チャートとを比較することにより、ユーザの手206の3−D位置を判定する。
本発明の一実施形態において、ユーザの手206の3−D位置は、カメラ320により検出される。カメラ320は、ユーザの手206のビデオ画像をキャプチャする。キャプチャされた画像のサイズを、ユーザの手206の既知のサイズと比較することにより、拡張現実デバイス200からユーザの手206までの距離が、マイクロプロセッサ314により求められる。拡張現実デバイス200の位置に対するユーザの手206の方向は、拡張現実デバイス200内の他のセンサ(例えば、3−D加速度計310)により判定することができる。
図3はまた、I/Oカード322が、図2に示されるコンピュータ202、ユーザ204により保持される電子デバイス等を含む他のデバイスとデータ/情報を交換することを可能にする入力/出力(I/O)カード322も示す。
ここで図4を参照すると、透明な視認グラス302を通した例示的なビュー(図2に示される拡張現実デバイス200の着用が見るような)が示される。図4に示されるように、拡張現実デバイス200のユーザ/着用者は、実オブジェクト及び仮想オブジェクトの両方を見る。実オブジェクトは、物理的ディスプレイ410(図2に示される物理的ディスプレイ210に類似した)である。仮想オブジェクトは、示される複数の仮想空間408a〜408c(ここで「c」は任意の整数である)内にあり、図2に示される仮想空間208に類似している。仮想空間408a〜408cの各々は、拡張現実デバイス200により生成される境界により境界付けられる。本発明の1つ又は複数の実施形態において、仮想空間408a〜408cの各々は、特定のグラフィック・ドライバ(例えば、図2のグラフィック・ドライバ209からの)及び/又は特定のアプリケーション(例えば、図2のアプリケーション244からの)と関連付けられる。つまり、一実施形態において、図3のオーバーレイ・プロジェクタ304は、アプリケーション244により生成される画像を透明な視認グラス302上に投影し、これにより、仮想空間408a〜408c内のこれらの画像の外観(appearance)が生成される。一実施形態において、仮想空間408a〜408cからの各仮想空間は、特定のアプリケーションからのコンテンツを表示するための環境を提供する。一実施形態において、このコンテンツは、アプリケーションが生成するものの完全バージョンであり、一方、別の実施形態において、仮想空間408a〜408cは、アプリケーションのアイコンのための環境のみを提供する。
例えば、仮想空間408aがウェブページと関連付けられると仮定する。一実施形態において、このウェブページは、リアルタイム・アクティブ・モードで、(透明な視認グラス302を介して)拡張現実デバイス200の着用者に視認可能である。つまり、仮想空間408a内に示される仮想画像上に、実際のモニタ上に表示されるものも表示される。しかしながら、他の実施形態においては、仮想空間408a内に、そのウェブページのアイコン、スナップショット、又は他の静止表示だけが表示される。
いずれの実施形態においても(仮想空間408a内に動的ウェブページが表示されようと、又は仮想空間408a内にウェブページのアイコン画像だけが表示されようと)、本発明は、拡張現実デバイス200の着用者が、ウェブページを仮想空間(例えば、仮想空間408a内の)から実空間に(例えば、物理的ディスプレイ410上に)移動させることを可能にする。ユーザにより、種々のアクション(例えば、仮想空間408aを通ってユーザの手を物理的ディスプレイ410の方にスイープすることなど)を取ることができ、それにより、ウェブページが物理的ディスプレイ410上に表示される。仮想空間408aから物理的ディスプレイ410へのこのウェブページの表示の動きにより、コンピュータ202が、物理的ディスプレイ210/410上へのウェブページの表示を制御するだけでなく、キーボード又は他の入力(例えば、図1に示されるキーボード118又はマウス120)を使用してウェブページ及びその表示を制御/操作することも可能になる。
つまり、本発明は、ユーザが、アプリケーションと関連した仮想画像を物理的ディスプレイ上に移動することを可能にし、これにより、ユーザが、(1)物理的ディスプレイ上のアプリケーションのコンテンツを見ること、及び(2)物理的ディスプレイをサポートするコンピュータと関連したハードウェアを用いて、アプリケーション及びそのコンテンツを操作する能力を有することができるようにする。
ここで図5を参照すると、図2に示される物理的ディスプレイ210が、仮想グラフィック・デバイス1〜4(仮想グラフィック・デバイス501a〜501d)として説明される4つの仮想空間に取り囲まれると仮定する。仮想グラフィック・デバイス501a〜501dの各々は、物理的ディスプレイ210自体と同じ仮想寸法を有することに留意されたい。つまり、仮想グラフィック・デバイス501a〜501dの各々について、拡張現実デバイス200の着用者が透明な視認グラス302上で見るものの寸法は、透明な視認グラス302を通して見られる物理的ディスプレイ410の寸法と合致するような大きさにされている。
本発明の一実施形態において、物理的ディスプレイ210の見掛け上の寸法は、物理的ディスプレイ210上に見出される物理的マーカーから得られる。例えば、物理的ディスプレイ210の4つのコーナー部の各々に配置された4つのマーカー(三角形として示される)の1つである、図5のマーカー503を考える。三角形/マーカーは、物理的ディスプレイ210の物理的ハウジング上に取り付けることができ、又は物理的ディスプレイ210の画面上に電子的に表示することができる。いずれの実施形態においても、図3のカメラ320で、4つの三角形/マーカーを含む物理的ディスプレイ210の写真を撮る。次に、マイクロプロセッサ314は、キャプチャされた画像に対してエッジ検出アルゴリズムを実行し、4つの三角形/マーカーを識別する。4つの三角形/マーカーの位置により、マイクロプロセッサ314が、ユーザの視点による物理的ディスプレイ210の見掛け上のサイズを求めることが可能になる。ひとたび物理的ディスプレイ210のサイズ及び位置が確認されると、仮想現実において物理的ディスプレイ210を取り囲む拡張現実(AR)マーカー505は、物理的ディスプレイ210の画面位置及び配向を、仮想グラフィック・デバイス501a〜501dが配置される基底/基準位置として示す。
図4及び図5に示される例は、物理的ディスプレイ210が、拡張現実デバイス200の着用者の視線に対して直角である(即ち、垂直である)と仮定するが、時として、特に物理的ディスプレイ210がタブレット・コンピュータ又は他の可動デバイスの一部である場合、物理的ディスプレイが、ユーザ/着用者に向かって又はこれから遠ざかるように傾斜されることがある。こうした傾斜を補償するために、システムは、補償手順を用いる。
従って、図6において、物理的ディスプレイ210が点線609で示される高さを有すると仮定する。しかしながら、物理的ディスプレイ210が視認者604に向かって傾斜される場合、物理的ディスプレイ210が今や線610に沿って傾斜されているため、視線603に沿って見ている視認者604は、物理的ディスプレイ210を、線601で示される高さだけを有するものとして知覚する。(線610の長さと線609の長さは同じであることに留意されたい。)
線610と線609との間の知覚される高さの差は、単に、物理的ディスプレイ210の傾斜により引き起こされる錯視にすぎない。
配向角度を計算するために、余弦法則が用いられる。
Figure 0006619005
従って、A(角607)の余弦は、線611までの線609の長さを線610の長さで除算したものに等しい。隣辺(adjacent)の長さは、線601のものと同じであり、これは拡張現実デバイス200内のカメラ320により撮られた傾斜した物理的ディスプレイ210の写真により測定される。斜辺(hypotenuse)の長さは、物理的ディスプレイ210の実際の高さであり、視線603に対して垂直な場合に物理的ディスプレイ210の写真を撮るカメラ320により得ることができ、又は物理的ディスプレイの寸法を含む、物理的ディスプレイから伝送される識別子(例えば、ユニバーサル・ユニーク識別子−UUID)により提供することができる。従って、この情報は、角A(角607)の値をもたらし、システムが、図5に示される仮想グラフィック・デバイス501a〜501dのサイズを調整することを可能にする。
ここで図7を参照すると、物理的ディスプレイのために仮想空間内の特定の領域からのコンテンツをグラフィック・ドライバとペアリングするための、1つ又は複数のハードウェア・デバイスにより実施される1つ又は複数の動作の高レベルフローチャートが提示される。
開始ブロック702の後、ブロック704に記載されるように、拡張現実デバイス(例えば、図2の拡張現実デバイス200)は、第1の仮想空間(例えば、図2の仮想空間208)を定める。第1の仮想空間は、拡張現実デバイスにより生成される第1の空間境界(例えば、図3の3−D空間境界308)により境界付けられる。第1の空間境界は、図3の透明な視認グラス302上に表示されるので、拡張現実デバイスのユーザにしか見えない。代替的な実施形態において、空間境界及びその関連した仮想グラフィック・デバイスは、第2のビデオ・ディスプレイのような第2のデバイスに伝送することができ、従って、複数の人が、拡張現実(図3のオーバーレイ・プロジェクタ304により生成される)及び/又はユーザが現実の物理世界(図3のカメラ320によりキャプチャされるような)から見るものを見ることが可能になる。
ここでブロック706を参照すると、次に、1つ又は複数のプロセッサ(例えば、図3のマイクロプロセッサ314又は図1のプロセッサ104)は、第1の仮想空間を、複数のグラフィック・デバイスからの第1のグラフィック・ドライバと関連付け、グラフィック・ドライバは、物理的ディスプレイ上に画像を生成する。つまり、プロセッサは、特定の仮想空間(例えば、仮想空間208)を特定のグラフィック・ドライバ(図2のグラフィック・ドライバ209からの)に割り当てる。従って、各仮想空間は、特定のアプリケーション/コンテンツ、及び特定のアプリケーション/コンテンツをサポートするグラフィック・ドライバに特有のものである。
ここでブロック708を参照すると、ビデオ・アダプタ・ハードウェア・カード(例えば、図1のビデオ・アダプタ108)は、拡張現実デバイスから、第1の仮想空間選択ジェスチャを示す第1の信号を受け取る。ユーザが、第1の仮想空間(即ち、ユーザに対して、仮想境界により境界付けられるように「見える」実空間内の領域)を通ってユーザの手を動かすといった、第1の仮想空間を選択する第1の物理的運動を行うことに応答して、拡張現実デバイスにより、第1の仮想空間選択ジェスチャを示す第1の信号が生成される。
ブロック710に記載されるように、ビデオ・アダプタ・ハードウェア・カードが第1の仮想空間選択ジェスチャを示す第1の信号を受け取ることに応答して、ビデオ・アダプタ・ハードウェア・カードは、第1のグラフィック・ドライバを実施することにより、物理的ディスプレイ上に第1の仮想空間と関連したコンテンツを表示する。つまり、以前に仮想拡張デバイスを通してしか視認できなかったものは、物理的デバイス上に配置されず、それは、その物理的デバイスをサポートするコンピュータにより直接操作することができる。
フローチャートは、終了ブロック712で終了する。
本発明の実施形態において、第1の仮想空間は、拡張現実デバイスにより定められる複数の仮想空間からのものであり、複数の仮想空間は、拡張現実デバイスのユーザにしか見えない。つまり、拡張現実デバイスの使用により、複数の仮想空間が視認可能である(図4及び図5を参照されたい)。
本発明の1つの実施形態において、物理的ディスプレイ上に表示されるリアルタイムのコンテンツは、拡張現実デバイス上に表示されない。つまり、この実施形態において、コンテンツが物理的ディスプレイ上に表示されるとき、このコンテンツは、拡張現実デバイスにより生成される仮想空間において、もはや見ることができない。むしろ、システムは、以前はコンテンツにあてられ、今は物理的ディスプレイ上に表示されているあらゆる仮想空間を削除する。
本明細書で説明されるように、本発明の一実施形態において、第1の仮想空間選択ジェスチャは、第1の仮想空間を通るユーザの動きである。例えば、ユーザは、拡張現実デバイス上に表示される第1の仮想空間に相関する空間内の領域を通ってユーザの手を動かすことができる。しかしながら、別の実施形態においては、物理的ディスプレイ上に表示するために、その仮想空間内に提示されるコンテンツを選択するのに、単に拡張現実デバイスを特定の仮想空間に向けるだけで十分である。従って、ユーザは、特定の仮想空間が図3に示される透明な視認グラス302の中心にくるように、ユーザの頭を動かすことができる。何らかの二次的動作(まばたきをする、又は単に拡張現実デバイスを、例えば3秒といった所定の時間より長く固定位置に保持するといった)をとることにより、システムは、物理的ディスプレイ上で表示するために、仮想空間及びその関連したアプリケーション/ドライバ/コンテンツを選択する。ユーザがどこを見ているか、及びどの仮想空間が見られているかの判断は、本明細書で特に図3において説明される拡張現実デバイス200のコンポーネントにより達成される。
本発明の1つの実施形態において、図6に示されるように、1つ又は複数のプロセッサは、拡張現実からのセンサ信号を用いて、実物理空間における物理的ディスプレイの偏向に従って第1の仮想空間の寸法を調整することができる。
本発明の1つの実施形態において、拡張現実デバイスは、該拡張現実デバイスにより生成される第2の空間境界により境界付けられる第2の仮想空間を定め、第2の空間境界は、拡張現実デバイスのユーザにしか見えない。次に、1つ又は複数のプロセッサは、第2の仮想空間を複数のグラフィック・ドライバからの第2のグラフィック・ドライバと関連付ける。ビデオ・アダプタ・ハードウェア・カードは、拡張現実デバイスから、第2の仮想空間選択ジェスチャを示す第2の信号を受け取り、ユーザが第2の仮想空間を選択する第2の物理的運動をすることに応答して、第2の信号は、拡張現実デバイスにより生成される第2の仮想空間選択ジェスチャを示す。ビデオ・アダプタ・ハードウェア・カードが、第2の仮想空間選択ジェスチャを示す第2の信号を受け取ることに応答して、ビデオ・アダプタ・ハードウェア・カードは、第1のグラフィック・ドライバを第2のグラフィック・ドライバに置き換え、第2の仮想空間と関連したコンテンツが、今や物理ディスプレイ上にあり、そして、第1の仮想空間と最初に関連付けられ、物理的ディスプレイに移動されたコンテンツは、今や物理的ディスプレイから除去される。つまり、第2の仮想空間は、物理的ディスプレイから、第1の仮想空間と最初に関連付けられたコンテンツを追い出すことができる。
本発明の1つの実施形態において、ハードウェア・グラフィック・カードは、物理的ディスプレイ上の複数の位置決めアイコンを表示する(図5に示されるマーカー503及び他の位置決め三角形を参照されたい)。図5に説明されるように、1つ又は複数のプロセッサは、物理的ディスプレイ上の複数の位置決めアイコンに基づいて、物理的ディスプレイの知覚されたサイズを計算することができる。次に、拡張現実デバイスは、物理的ディスプレイの知覚されたサイズに合致するように、第1の仮想空間のサイズを調整することができる。
図面内のフローチャート及びブロック図は、本発明の種々の実施形態による、システム、方法、及びコンピュータ・プログラム製品の可能な実装の、アーキテクチャ、機能及び動作を示す。この点に関して、フローチャート内の各ブロックは、指定された論理機能を実装するための1つ又は複数の実行可能命令を含む、モジュール、セグメント、又はコードの一部を表すことができる。幾つかの代替的な実装において、ブロック内に示される機能は、図に示される順序とは異なる順序で生じることがある。例えば、連続して示される2つのブロックは、関与する機能に応じて、実際には実質的に同時に実行されることもあり、又はこれらのブロックはときとして逆順で実行されることもある。ブロック図及び/又はフローチャート図の各ブロック、及びブロック図及び/又はフローチャート図内のブロックの組み合わせは、指定された機能又は動作を実行する、又は専用のハードウェアとコンピュータ命令との組み合わせを実行する、専用ハードウェア・ベースのシステムによって実装できることにも留意されたい。
本明細書で用いられる用語は、特定の実施形態を説明する目的のためのものに過ぎず、本発明を限定することを意図したものではない。本明細書で用いられる場合、単数形「1つの(a)」、「1つの(an)」及び「その(the)」は、文脈が特に明示しない限り、複数形も同様に含むことを意図したものである。「含む(comprise)」及び/又は「含んでいる(comprising)」という用語は、本明細書で用いられる場合、記述された特徴、整数、ステップ、操作、要素、及び/又はコンポーネントの存在を指示するが、1つ又は複数の他の特徴、整数、ステップ、操作、要素、コンポーネント、及び/又はそれらの群の存在又は追加を排除するものではないこともさらに理解されるであろう。
以下の特許請求の範囲における全ての「手段又はステップと機能との組み合わせ(ミーンズ又はステップ・プラス・ファンクション)」要素の対応する構造、材料、動作及び均等物は、その機能を、明確に特許請求される他の特許請求された要素と組み合わせで実行するためのあらゆる構造、材料又は動作を含むことが意図されている。本発明の種々の実施形態の説明は、例証及び説明を目的として提示されたものであり、網羅的であること又は本発明を開示された形態に限定することを意図したものではない。本発明の範囲及び趣旨から逸脱しない多くの修正及び変形が、当業者には明らかになるであろう。実施形態は、本発明の原理及び実際的用途を最も良く説明するために、そして、当業者が、企図した特定の用途に適した種々の修正を伴う実施形態に関して本発明を理解できるように、選択され、説明された。
さらに、本開示において説明されるいずれの方法も、VHDL(VHSICハードウェア記述言語)プログラム及びVHDLチップを用いて実装できることに留意されたい。VHDLは、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)及び他の類似の電子デバイスのための例示的な設計入力言語である。従って、本明細書で説明されるいずれのソフトウェア実装方法も、ハードウェア・ベースのVHDLプログラムによってエミュレートすることができ、次にこれは、FPGAのようなVHDLチップに適用される。
このように本出願の本発明の実施形態を詳細に説明し、その例証的な実施形態を参照すると、添付の特許請求の範囲に定められる本発明の範囲から逸脱することなく、修正及び変形が可能であることが明らかであろう。
102、202:コンピュータ
104:プロセッサ
106:システム・バス
108:ビデオ・アダプタ
109、209:グラフィック・ドライバ
110、210、410:ディスプレイ
112:バス・ブリッジ
114:入力/出力(I/O)バス
116:I/Oインターフェース
124:受送信機
128:ネットワーク
130:ネットワーク・インターフェース
132:ハードドライブ・インターフェース
134:ハードドライブ
136:システム・メモリ
138:オペレーティング・システム(OS)
140:シェル
142:カーネル
144、244:アプリケーション・プログラム
146:ブラウザ
148:拡張現実協調論理(ARCL)
150:ソフトウェア配備サーバ
152、200:拡張現実デバイス
204:ユーザ
206:ユーザの手
208、408a〜408c:仮想空間
302:視認グラス
304:オーバーレイ・プロジェクタ
306:2−D空間境界
308:3−D空間境界
310:加速度計
312:EMGセンサ
314:マイクロプロセッサ
316:モーション・センサ
320:カメラ
501a〜501d:仮想グラフィック・デバイス
503:マーカー
604:視認者

Claims (19)

  1. 物理的ディスプレイのために仮想空間内の特定の領域からのコンテンツをグラフィック・ドライバとペアリングするための方法であって、
    拡張現実デバイスにより、第1の仮想空間を定めることであって、前記第1の仮想空間は、前記拡張現実デバイスにより生成される第1の空間境界により境界付けられ、前記第1の空間境界は前記拡張現実デバイスのユーザにしか見えない、定めることと、
    1つ又は複数のプロセッサにより、前記第1の仮想空間を複数のグラフィック・ドライバからの第1のグラフィック・ドライバと関連付けることであって、前記グラフィック・ドライバは前記物理的ディスプレイ上に画像を生成する、関連付けることと、
    ビデオ・アダプタ・ハードウェア・カードにより、前記拡張現実デバイスから、第1の仮想空間選択ジェスチャを示す第1の信号を受け取ることであって、前記第1の仮想空間選択ジェスチャを示す前記第1の信号は、前記ユーザが前記第1の仮想空間を選択する第1の物理的運動を行うことに応答して、前記拡張現実デバイスにより生成される、受け取ることと、
    前記ビデオ・アダプタ・ハードウェア・カードが前記第1の仮想空間選択ジェスチャを示す前記第1の信号を受け取ることに応答して、前記第1のグラフィック・ドライバを実装する前記ビデオ・アダプタ・ハードウェア・カードにより、前記物理的ディスプレイ上に前記第1の仮想空間と関連したコンテンツを表示することと、
    を含む、方法。
  2. 前記第1の仮想空間は、前記拡張現実デバイスにより定められる複数の仮想空間からのものであり、前記複数の仮想空間は、前記拡張現実デバイスの前記ユーザにしか見えない、請求項1に記載の方法。
  3. 前記物理的ディスプレイ上に表示されるリアルタイム・コンテンツは、前記拡張現実デバイスにより表示されない、請求項2に記載の方法。
  4. 前記拡張現実デバイスの前記ユーザは、前記拡張現実デバイスの着用者である、請求項1〜3の何か1項に記載の方法。
  5. 前記拡張現実デバイスは、拡張現実グラスである、請求項1〜4の何か1項に記載の方法。
  6. 前記第1の仮想空間選択ジェスチャは、前記第1の仮想空間を通る前記ユーザの動作である、請求項1〜5の何か1項に記載の方法。
  7. 前記第1の仮想空間選択ジェスチャは、前記拡張現実デバイスを前記第1の仮想空間に向けるユーザの動作である、請求項1〜5の何か1項に記載の方法。
  8. 前記第1の仮想空間選択ジェスチャは、前記ユーザが前記ユーザの視野を前記第1の仮想空間に向けることである、請求項1〜5の何か1項に記載の方法。
  9. 1つ又は複数のプロセッサにより、前記拡張現実デバイスからのセンサ信号を用いて、実物理空間における前記物理的ディスプレイの偏向に応じて前記第1の仮想空間の寸法を調整することをさらに含む、請求項1〜8の何か1項に記載の方法。
  10. 前記拡張現実デバイスにより、第2の仮想空間を定めることであって、前記第2の仮想空間は、前記拡張現実デバイスにより生成される第2の空間境界により境界付けられ、前記第2の空間境界は前記拡張現実デバイスの前記ユーザにしか見えない、定めることと、
    1つ又は複数のプロセッサにより、前記第2の仮想空間を前記複数のグラフィック・ドライバからの第2のグラフィック・ドライバと関連付けることと、
    前記ビデオ・アダプタ・ハードウェア・カードにより、前記拡張現実デバイスから、第2の仮想空間選択ジェスチャを示す第2の信号を受け取ることであって、前記第2の仮想空間選択ジェスチャを示す前記第2の信号は、前記ユーザが前記第2の仮想空間を選択する第2の物理的運動を行うことに応答して、前記拡張現実デバイスにより生成される、受け取ることと、
    前記ビデオ・アダプタ・ハードウェア・カードが前記第2の仮想空間選択ジェスチャを示す前記第2の信号を受け取ることに応答して、前記ビデオ・アダプタ・ハードウェア・カードが前記第1のグラフィック・ドライバを前記第2のグラフィック・ドライバに置き換えることにより、前記物理的ディスプレイ上に前記第2の仮想空間と関連したコンテンツを表示することであって、前記第1の仮想空間と関連したコンテンツは前記物理的ディスプレイから除去される、表示することと、
    をさらに含む、請求項1〜9の何か1項に記載の方法。
  11. 前記第1の仮想空間は2次元である、請求項1〜10の何か1項に記載の方法。
  12. 前記第1の仮想空間は3次元である、請求項1〜10の何か1項に記載の方法。
  13. 前記ビデオ・アダプタ・ハードウェア・カードにより、前記物理的ディスプレイ上に複数の位置決めアイコンを表示することと、
    1つ又は複数のプロセッサにより、前記物理的ディスプレイ上の前記複数の位置決めアイコンに基づいて、前記物理的ディスプレイの知覚されるサイズを求めることと、
    前記拡張現実デバイスにより、前記物理的ディスプレイの前記知覚されるサイズに合致するように、前記第1の仮想空間のサイズを調整することと、
    をさらに含む、請求項1〜12の何か1項に記載の方法。
  14. 前記第1の仮想空間と関連付けられ、前記物理的ディスプレイ上に表示される前記コンテンツは、アプリケーション・プログラムである、請求項1〜13の何か1項に記載の方法。
  15. 物理的ディスプレイのために仮想空間内の特定の領域からのコンテンツをグラフィック・ドライバとペアリングするためのシステムであって、
    拡張現実デバイスであって、拡張現実デバイスは第1の仮想空間を定め、前記第1の仮想空間は拡張現実デバイスにより生成される第1の空間境界により境界付けられ、前記第1の空間境界は拡張現実デバイスのユーザにしか見えない、拡張現実デバイスと、
    前記第1の仮想空間を複数のグラフィック・ドライバからの第1のグラフィック・ドライバと関連付ける1つ又は複数のプロセッサであって、1つ又は複数のプロセッサは、前記拡張現実デバイスから、前記ユーザが前記第1の仮想空間を選択する第1の物理的運動を行うことに応答して、前記拡張現実デバイスにより生成される前記第1の仮想空間の選択ジェスチャを示す第1の信号を受け取る、1つ又は複数のプロセッサと、
    ビデオ・アダプタ・ハードウェア・カードであって、ビデオ・アダプタ・ハードウェア・カードは、前記第1の仮想空間の選択ジェスチャを示す前記第1の信号を受け取ることに応答して、前記第1のグラフィック・ドライバを実装し、前記物理的ディスプレイ上に前記第1の仮想空間と関連したコンテンツを表示する、ビデオ・アダプタ・ハードウェア・カードと、
    を備える、システム。
  16. 前記第1の仮想空間は、前記拡張現実デバイスにより定められる複数の仮想空間からのものであり、前記複数の仮想空間内は前記拡張現実デバイスの前記ユーザにしか見えず、前記複数の仮想空間内に表示されるリアルタイム・コンテンツは、視認可能であり、前記物理的ディスプレイ上に表示されない、請求項15に記載のシステム。
  17. 前記1つ又は複数のプロセッサは、前記拡張現実デバイスからのセンサ信号を用いて、実物理空間における前記物理的ディスプレイの偏向に応じて前記第1の仮想空間の寸法を調整する、請求項15〜16の何か1項に記載のシステム。
  18. 請求項1〜14の何か1項に記載の方法の各ステップをコンピュータに実行させる、コンピュータ・プログラム。
  19. 請求項18に記載の前記コンピュータ・プログラムを、コンピュータ可読ストレージ媒体に記録した、コンピュータ可読ストレージ媒体。
JP2017528924A 2014-12-22 2015-12-16 仮想空間に提示されるアプリケーションと物理的ディスプレイとの選択的ペアリング Expired - Fee Related JP6619005B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US14/579,714 US9696549B2 (en) 2014-12-22 2014-12-22 Selectively pairing an application presented in virtual space with a physical display
US14/579,714 2014-12-22
US14/829,704 2015-08-19
US14/829,704 US9740005B2 (en) 2014-12-22 2015-08-19 Selectively pairing an application presented in virtual space with a physical display
PCT/IB2015/059653 WO2016103115A1 (en) 2014-12-22 2015-12-16 Selectively pairing application presented in virtual space with physical display

Publications (2)

Publication Number Publication Date
JP2018506098A JP2018506098A (ja) 2018-03-01
JP6619005B2 true JP6619005B2 (ja) 2019-12-11

Family

ID=56130054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017528924A Expired - Fee Related JP6619005B2 (ja) 2014-12-22 2015-12-16 仮想空間に提示されるアプリケーションと物理的ディスプレイとの選択的ペアリング

Country Status (6)

Country Link
US (2) US9696549B2 (ja)
JP (1) JP6619005B2 (ja)
CN (1) CN107111365B (ja)
DE (1) DE112015005721T5 (ja)
GB (1) GB2549870B (ja)
WO (1) WO2016103115A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9723109B2 (en) 2014-05-28 2017-08-01 Alexander Hertel Platform for constructing and consuming realm and object feature clouds
US10838207B2 (en) 2015-03-05 2020-11-17 Magic Leap, Inc. Systems and methods for augmented reality
JP7136558B2 (ja) 2015-03-05 2022-09-13 マジック リープ, インコーポレイテッド 拡張現実のためのシステムおよび方法
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
CA3007367A1 (en) 2015-12-04 2017-06-08 Magic Leap, Inc. Relocalization systems and methods
WO2017182315A1 (en) * 2016-04-22 2017-10-26 Thomson Licensing Method and device for compositing an image
KR20190034321A (ko) 2016-08-02 2019-04-01 매직 립, 인코포레이티드 고정-거리 가상 및 증강 현실 시스템들 및 방법들
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
IL298822A (en) 2017-03-17 2023-02-01 Magic Leap Inc A mixed reality system with color virtual content distortion and a method for creating virtual content using it
IL290142B2 (en) 2017-03-17 2023-10-01 Magic Leap Inc A mixed reality system with the assembly of multi-source virtual content and a method for creating virtual content using it
JP7055815B2 (ja) 2017-03-17 2022-04-18 マジック リープ, インコーポレイテッド 仮想コンテンツをワーピングすることを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法
US10379345B2 (en) * 2017-05-15 2019-08-13 Daqri, Llc Virtual expansion of desktop
KR102374408B1 (ko) * 2017-09-08 2022-03-15 삼성전자주식회사 가상 현실에서의 포인터 제어 방법 및 전자 장치
CN109511004B (zh) * 2017-09-14 2023-09-01 中兴通讯股份有限公司 一种视频处理方法及装置
US10777007B2 (en) * 2017-09-29 2020-09-15 Apple Inc. Cooperative augmented reality map interface
WO2019091943A1 (en) * 2017-11-07 2019-05-16 Koninklijke Philips N.V. Augmented reality drag and drop of objects
CN111213184B (zh) * 2017-11-30 2024-04-09 惠普发展公司,有限责任合伙企业 基于增强现实的虚拟仪表板实现
US10572007B2 (en) 2017-12-15 2020-02-25 International Business Machines Corporation Preventing unintended input
DE102018110644B4 (de) * 2018-05-03 2024-02-15 Carl Zeiss Meditec Ag Digitales Mikroskop und digitales Mikroskopieverfahren
EP3803688A4 (en) * 2018-06-05 2021-08-04 Magic Leap, Inc. MATCHING CONTENT WITH A 3D SPATIAL ENVIRONMENT
US10712901B2 (en) * 2018-06-27 2020-07-14 Facebook Technologies, Llc Gesture-based content sharing in artificial reality environments
EP3827299A4 (en) 2018-07-23 2021-10-27 Magic Leap, Inc. SYSTEM OF MIXED REALITY WITH VIRTUAL CONTENT DISTORTION AND PROCESS FOR GENERATING VIRTUAL CONTENT WITH IT
US11036284B2 (en) 2018-09-14 2021-06-15 Apple Inc. Tracking and drift correction
US11366514B2 (en) 2018-09-28 2022-06-21 Apple Inc. Application placement based on head position
US10897564B1 (en) 2019-06-17 2021-01-19 Snap Inc. Shared control of camera device by multiple devices
US11340857B1 (en) 2019-07-19 2022-05-24 Snap Inc. Shared control of a virtual object by multiple devices
WO2021061351A1 (en) * 2019-09-26 2021-04-01 Apple Inc. Wearable electronic device presenting a computer-generated reality environment
US11379033B2 (en) * 2019-09-26 2022-07-05 Apple Inc. Augmented devices
WO2021062278A1 (en) 2019-09-27 2021-04-01 Apple Inc. Environment for remote communication
US11985175B2 (en) 2020-03-25 2024-05-14 Snap Inc. Virtual interaction session to facilitate time limited augmented reality based communication between multiple users
US11593997B2 (en) 2020-03-31 2023-02-28 Snap Inc. Context based augmented reality communication
US11481965B2 (en) * 2020-04-10 2022-10-25 Samsung Electronics Co., Ltd. Electronic device for communicating in augmented reality and method thereof
TWI757824B (zh) 2020-08-10 2022-03-11 宏碁股份有限公司 擴增實境螢幕系統及擴增實境螢幕顯示方法
CN114371819B (zh) * 2020-10-15 2023-10-17 宏碁股份有限公司 扩增实境屏幕系统及扩增实境屏幕显示方法
US11855831B1 (en) 2022-06-10 2023-12-26 T-Mobile Usa, Inc. Enabling an operator to resolve an issue associated with a 5G wireless telecommunication network using AR glasses
KR20240084992A (ko) * 2022-12-07 2024-06-14 삼성전자주식회사 가상 공간들로 진입하기 위한 시각적 객체들을 표시하기 위한 웨어러블 장치 및 그 방법

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2419454A (en) 2004-10-19 2006-04-26 Pranil Ram Multiple monitor display apparatus
SE0601216L (sv) 2006-05-31 2007-12-01 Abb Technology Ltd Virtuell arbetsplats
US20100064251A1 (en) 2008-09-05 2010-03-11 International Business Machines Corporation Toggling window display state by screen in a multi-screened desktop environment
JP5158006B2 (ja) * 2009-04-23 2013-03-06 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP5375338B2 (ja) * 2009-05-29 2013-12-25 セイコーエプソン株式会社 画像表示システム、画像表示装置、画像表示方法、画像供給装置、およびプログラム
US8400548B2 (en) 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
US8736583B2 (en) * 2011-03-29 2014-05-27 Intel Corporation Virtual links between different displays to present a single virtual object
KR101516513B1 (ko) 2011-06-21 2015-05-04 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 증강 현실을 위한 제스쳐 기반 사용자 인터페이스
US8912979B1 (en) 2011-07-14 2014-12-16 Google Inc. Virtual window in head-mounted display
US9497501B2 (en) 2011-12-06 2016-11-15 Microsoft Technology Licensing, Llc Augmented reality virtual monitor
US9952820B2 (en) 2011-12-20 2018-04-24 Intel Corporation Augmented reality representations across multiple devices
US9558590B2 (en) * 2012-03-28 2017-01-31 Microsoft Technology Licensing, Llc Augmented reality light guide display
US20130335405A1 (en) 2012-06-18 2013-12-19 Michael J. Scavezze Virtual object generation within a virtual environment
US20140035819A1 (en) 2012-08-03 2014-02-06 Research In Motion Limited Method and Apparatus Pertaining to an Augmented-Reality Keyboard
US9141188B2 (en) * 2012-10-05 2015-09-22 Elwha Llc Presenting an augmented view in response to acquisition of data inferring user activity
JP5456189B2 (ja) * 2013-02-08 2014-03-26 株式会社東芝 表示制御装置、及び情報送信方法
US9401048B2 (en) * 2013-03-15 2016-07-26 Qualcomm Incorporated Methods and apparatus for augmented reality target detection
US9395764B2 (en) 2013-04-25 2016-07-19 Filippo Costanzo Gestural motion and speech interface control method for 3d audio-video-data navigation on handheld devices
US10228242B2 (en) * 2013-07-12 2019-03-12 Magic Leap, Inc. Method and system for determining user input based on gesture
JP2015102596A (ja) * 2013-11-21 2015-06-04 ラピスセミコンダクタ株式会社 表示デバイスの駆動装置
US10001645B2 (en) * 2014-01-17 2018-06-19 Sony Interactive Entertainment America Llc Using a second screen as a private tracking heads-up display
CN103744638A (zh) 2014-01-21 2014-04-23 国家电网公司 一种多终端组合显示方法
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
CN103943084A (zh) * 2014-04-01 2014-07-23 京东方科技集团股份有限公司 一种显示面板、显示面板驱动方法及3d显示设备

Also Published As

Publication number Publication date
GB201710315D0 (en) 2017-08-09
DE112015005721T5 (de) 2017-10-19
WO2016103115A1 (en) 2016-06-30
CN107111365A (zh) 2017-08-29
US20160180589A1 (en) 2016-06-23
JP2018506098A (ja) 2018-03-01
CN107111365B (zh) 2019-10-08
US9696549B2 (en) 2017-07-04
US20160180592A1 (en) 2016-06-23
GB2549870A (en) 2017-11-01
GB2549870B (en) 2018-03-07
US9740005B2 (en) 2017-08-22

Similar Documents

Publication Publication Date Title
JP6619005B2 (ja) 仮想空間に提示されるアプリケーションと物理的ディスプレイとの選択的ペアリング
KR102235410B1 (ko) 머리-장착형 디스플레이에서의 메뉴 내비게이션
JP6611733B2 (ja) 表示装置の閲覧者の注視誘引
US9829989B2 (en) Three-dimensional user input
KR102049132B1 (ko) 증강 현실 광 가이드 디스플레이
US20210373650A1 (en) Interactive augmented reality experiences using positional tracking
EP3106963B1 (en) Mediated reality
CN107209565B (zh) 用于显示固定大小的增强现实对象的方法和系统
EP3118722B1 (en) Mediated reality
JP2017516250A (ja) 世界固定表示品質のフィードバック
KR20100027976A (ko) 이동 장치에서 제스처 및 움직임 기반 내비게이션 및 3차원 가상 콘텐츠와의 인터랙션
CN108431734A (zh) 用于非触摸式表面交互的触觉反馈
KR20160022922A (ko) 사용자 인터페이스 내비게이션
US11422380B2 (en) Eyewear including virtual scene with 3D frames
WO2020101986A1 (en) Virtual content display opportunity in mixed reality
KR102644590B1 (ko) 가상 및 물리적 카메라들의 위치 동기화
KR20230026503A (ko) 사회적 거리두기를 사용한 증강 현실 경험들
US11194439B2 (en) Methods, apparatus, systems, computer programs for enabling mediated reality
US11366318B2 (en) Electronic device and control method thereof
KR20240049629A (ko) 물리적 액션-기반 증강 현실 통신 교환들
Alger Text Field with Volumetric Input
CN118119911A (zh) 双片上系统眼镜

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191113

R150 Certificate of patent or registration of utility model

Ref document number: 6619005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees