JP6352426B2 - ヘッドマウントディスプレイを使用して拡張ディスプレイを提供するデバイス、方法、及びシステム - Google Patents

ヘッドマウントディスプレイを使用して拡張ディスプレイを提供するデバイス、方法、及びシステム Download PDF

Info

Publication number
JP6352426B2
JP6352426B2 JP2016542702A JP2016542702A JP6352426B2 JP 6352426 B2 JP6352426 B2 JP 6352426B2 JP 2016542702 A JP2016542702 A JP 2016542702A JP 2016542702 A JP2016542702 A JP 2016542702A JP 6352426 B2 JP6352426 B2 JP 6352426B2
Authority
JP
Japan
Prior art keywords
display
physical
hmd
physical display
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016542702A
Other languages
English (en)
Other versions
JP2017510106A (ja
Inventor
ギウネウェル,ヤイール
ライダー,トメル
ロン,アヴィヴ
キヴェイシャ,イェフゲニー
ジアーン,ミーンハオ
Original Assignee
インテル コーポレイション
インテル コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテル コーポレイション, インテル コーポレイション filed Critical インテル コーポレイション
Publication of JP2017510106A publication Critical patent/JP2017510106A/ja
Application granted granted Critical
Publication of JP6352426B2 publication Critical patent/JP6352426B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Description

本明細書に記載の実施形態は、一般に、マルチディスプレイシステムを使用して情報を表示することに関し、より詳細には、マルチディスプレイシステムの物理ディスプレイと併せて使用されるヘッドマウントディスプレイを含むマルチディスプレイシステムを使用して情報を表示することに関する。
コンピュータ生成情報(computer-generated information)とは、デスクトップコンピュータシステム又はポータブルコンピュータシステムにより、生成、処理、又は、生成及び処理された情報を指す。物理ディスプレイは、陰極線管(CRT)、液晶ディスプレイ(LCD)、発光ダイオード、ガスプラズマ、又は他の画像投影技術を使用して、テキスト、ビデオ、及びグラフィック画像等のコンピュータ生成情報をコンピュータシステムユーザに表示する、有体のコンピュータ出力面の投影機構である。
マルチディスプレイシステムは、少なくとも2つの物理ディスプレイを使用して、コンピュータ生成情報をユーザに表示するシステムである。詳細には、マルチディスプレイシステムは、複数の物理ディスプレイに、拡張デスクトップ(extended desktop)と呼ばれる単一の物理ディスプレイを模擬するよう協働させる。マルチディスプレイシステムは、増大した表示領域を提供することにより、従来のシングルディスプレイシステムよりも多くのコンピュータ生成情報をユーザに表示することができる。マルチディスプレイシステムの利点は、乱雑さを低減させマルチタスキングを向上させる増大した表示領域を提供することにより、ユーザが作業効率を上げることを可能にすることを含む。
通常、マルチディスプレイシステムの使用は、固定位置の小さなサブセットに制限される。なぜならば、2以上の物理ディスプレイは、容易に持ち運ぶ又は移動させることができないからである。ユーザにポータビリティを提供する2以上の物理ディスプレイを含むいくつかのマルチディスプレイシステムが存在するが、ポータビリティは準最適に留まっている。さらに、いくつかのマルチディスプレイシステムは、ユーザによる大量のリソースの消費を要する。例えば、多数の物理ディスプレイ(例えば、数十から数千に至る15インチLCD)を含むマルチディスプレイシステムの使用は、相当量の部屋及びエネルギーを要する。
デスクトップコンピュータシステムのユーザに加えて、ラップトップ、ノートブック、ハンドヘルドデバイス、及び携帯電話機等のポータブルコンピュータシステム上で作業するユーザは、2以上のディスプレイの配備(deployment)を可能にするいくつかのオプションを有する。それでも、上述した準最適のポータビリティに加えて、マルチディスプレイシステムの使用に関連する相当のコストが、残り続ける。
本発明が、限定ではなく例として、添付の図面に示される。図面において、同様の参照符号は、同様の要素を示す。
少なくとも1つの物理ディスプレイとヘッドマウントディスプレイにより提供された少なくとも1つの仮想ディスプレイとを含む例示的なマルチディスプレイシステムの図。 少なくとも1つの物理ディスプレイとヘッドマウントディスプレイにより提供される少なくとも1つの仮想ディスプレイとを使用して、ユーザへのコンピュータ生成情報の表示を実施するための例示的なマルチディスプレイシステムを示す簡略化された概略図。 少なくとも1つの物理ディスプレイとヘッドマウントディスプレイにより提供される少なくとも1つの仮想ディスプレイとを含むマルチディスプレイシステムを使用して、コンピュータ生成情報をユーザに表示する例示的な方法を示すフローチャート。 少なくとも1つの物理ディスプレイとヘッドマウントディスプレイにより提供される少なくとも1つの仮想ディスプレイとを含むマルチディスプレイシステムを使用して、コンピュータ生成情報をユーザに表示する上記方法のさらなる特徴を示すフローチャート。 少なくとも1つの物理ディスプレイとヘッドマウントディスプレイにより提供された少なくとも1つの仮想ディスプレイとを含む例示的なマルチディスプレイシステムの図。 少なくとも1つの物理ディスプレイとヘッドマウントディスプレイにより提供される少なくとも1つの仮想ディスプレイとを含むマルチディスプレイシステムを使用して、コンピュータ生成情報をユーザに表示する例示的な方法を実施するための例示的な処理システムを示すブロック図。
本明細書に記載の実施形態は、物理ディスプレイとヘッドマウントディスプレイにより提供される少なくとも1つの仮想ディスプレイとを含むマルチディスプレイシステムを使用して、コンピュータ生成情報をユーザに表示する。
例示的な実施形態に関して、コンピュータシステムの物理ディスプレイと併せて、コンピュータ生成情報を表示するためのヘッドマウントディスプレイが提供される。本ヘッドマウントディスプレイは、生成ロジック、シースルーディスプレイ、及び提示ユニットを含む。生成ロジックは、少なくとも1つの仮想ディスプレイを生成するために使用される。提示ユニットは、シースルーディスプレイ上で少なくとも1つの仮想ディスプレイを提示するために使用される。シースルーディスプレイは、ヘッドマウントディスプレイのユーザが、実世界シーンにおいて、少なくとも1つの仮想ディスプレイ及び物理ディスプレイを見ることを可能にするよう構成されている。少なくとも1つの仮想ディスプレイは、実世界シーンにおける追加のオブジェクトとして、シースルーディスプレイ上で提示され、少なくとも1つの仮想ディスプレイは、ユーザの視覚的視点(visual perspective)から、拡張デスクトップ内でコンピュータ生成情報を提示するために、物理ディスプレイと併せて使用される。
物理ディスプレイとヘッドマウントディスプレイにより提供される少なくとも1つの仮想ディスプレイとを含むマルチディスプレイシステムの1以上の実施形態の利点は、2以上の物理ディスプレイを使用する従来のマルチディスプレイシステムに関連するポータビリティの低下及びリソース消費の増大に対するソリューションということである。
本明細書で使用される「コンピュータ生成情報」という用語は、コンピュータシステムにより生成及び/又は処理された情報を指す。
本明細書で使用される「デスクトップ」という用語は、ヒューマンインタフェース環境であって、ユーザが、該ヒューマンインタフェース環境を介して、アプリケーション、設定、及び/又はデータ等を起動し、アプリケーション、設定、及び/又はデータ等とインタラクトし、アプリケーション、設定、及び/又はデータ等を管理することができる、ヒューマンインタフェース環境を指す。デスクトップは、コンピュータ生成情報をコンピュータシステムのユーザに提示するために使用される。本明細書で使用される「拡張デスクトップ」という用語は、2以上の物理ディスプレイ及び/又は仮想ディスプレイに及ぶ単一のデスクトップを指す。
本明細書で使用される「物理ディスプレイ」という用語は、陰極線管(CRT)、液晶ディスプレイ(LCD)、発光ダイオード(LED)、有機発光ダイオード(OLED)、LCOS(liquid crystal on silicon)、ガスプラズマ、網膜投影、又は他の画像投影技術を使用して、デスクトップ上で、テキスト、ビデオ、及びグラフィック画像等のコンピュータ生成情報をコンピュータシステムユーザに表示するコンピュータ出力及び投影機構を指す。
本明細書で使用される「仮想ディスプレイ」という用語は、物理ディスプレイの外観及び挙動を模擬する、コンピュータグラフィックスで作成された仮想オブジェクトを指す。仮想ディスプレイは、デスクトップとして動作し、エンドユーザは、コンピュータシステム及び/又はヘッドマウントディスプレイのソフトウェア及び/又はハードウェアを使用して、このデスクトップとインタラクトすることができる。
本明細書で使用される「シースルーディスプレイ」という用語は、ユーザが、ディスプレイ上で表示されているものを見ることを可能にしながら、さらに、ユーザが、ディスプレイの奥まで見ることを可能にする物理ディスプレイを指すことを含む。シースルーディスプレイは、CRT、LCD、LED、OLED、LCOS、ガスプラズマ、網膜投影技術、又は他の画像投影技術等の画像投影技術を利用する透明ディスプレイ又は半透明ディスプレイであり得る。本明細書で使用される「シースルーディスプレイ」という用語はまた、人間の眼の前方に配置される又は人間の眼の上に直接配置される、ガラス、プラスチック、又は他の透明物質のレンズ又はピース(piece)を指すこともあり、光線を集中させる、変更する、投射する、又は分散させるために使用される。本明細書で使用される「シースルーディスプレイ」という用語はまた、人間の眼の前方に配置される又は人間の眼の上に直接配置される、ガラス、プラスチック、又は他の透明物質のレンズ又はピースであって、画像投影技術を利用する(上述した)透明ディスプレイ又は半透明ディスプレイの組合せ及び/又は変形を含む、ガラス、プラスチック、又は他の透明物質のレンズ又はピースを指すこともある。
「ヘッドマウントディスプレイ」という用語は、コンピュータ生成情報(画像及び/又はビデオ等)をユーザに提示する能力を有するウェアラブルデバイスであって、ユーザが該ウェアラブルデバイスの奥まで見ることを可能にする能力も有するウェアラブルデバイスを指す。ヘッドマウントディスプレイは、仮想オブジェクトをユーザに提示しながら、さらに、実世界におけるシーンを見る機能をユーザに提供するために使用される。ヘッドマウントディスプレイは、少なくとも3つの異なる方法で、コンピュータ生成情報をユーザに提示する。第1のタイプのヘッドマウントディスプレイは、ユーザの眼の前方に配置される1つ又は2つの半透明レンズにコンピュータ生成情報を投影するプロジェクトを含む。第2のタイプのヘッドマウントディスプレイは、ユーザの眼の前方に配置される1つ又は2つのレンズであって、コンピュータ生成情報をユーザに提示するために該レンズ内に半透明物理ディスプレイを含む1つ又は2つのレンズを含む。このタイプのヘッドマウントディスプレイに含められる半透明物理ディスプレイは、CRT、LCD、LED、OLED、LCOS、ガスプラズマ、又は他の画像投影技術を含む。他のタイプのヘッドマウントディスプレイは、光学系構成に応じて、直接網膜投影技術、拡大レンズ、及び光学リレーレンズのうちの少なくとも1つを使用して、コンピュータ生成情報を提示するヘッドマウントディスプレイを含む。
ヘッドマウントディスプレイは、ユーザの頭に装着され得る、又は、ユーザにより装着されるヘルメットの一部であり得る。1つの眼の前方にディスプレイオプティック(display optic)を有するヘッドマウントディスプレイは、単眼ヘッドマウントディスプレイとして知られており、各眼の前方にディスプレイオプティックを有するヘッドマウントディスプレイは、両眼ヘッドマウントディスプレイとして知られている。ヘッドマウントディスプレイは、仮想オブジェクトが実世界シーンに重ね合わされることを可能にする。これは、時として、拡張現実又は複合現実と呼ばれる。実世界のユーザの視界と仮想オブジェクトとをリアルタイムで合成することは、ユーザが仮想オブジェクト及び実世界を同時に見ることを可能にすることができる半透明物理ディスプレイを介して仮想オブジェクトを提示することにより、行うことができる。この方法は、しばしば、光学シースルーと呼ばれ、この方法を使用するタイプのヘッドマウントディスプレイは、光学ヘッドマウントディスプレイと呼ばれる。実世界のユーザの視界と仮想オブジェクトとをリアルタイムで合成することは、カメラからビデオを受け取り、このビデオと仮想オブジェクトとを電子的に複合することにより、電子的に行うこともできる。この方法は、しばしば、ビデオシースルーと呼ばれ、この方法を使用するタイプのヘッドマウントディスプレイは、ビデオヘッドマウントディスプレイと呼ばれる。
図1は、物理ディスプレイ103と少なくとも1つの仮想ディスプレイ107A〜107Bとを含む例示的なマルチディスプレイシステム100を示している。ヘッドマウントディスプレイ105は、ユーザにより装着され、コンピュータシステム101と併せて使用される。より詳細には、物理ディスプレイ103は、コンピュータシステム101に接続され、コンピュータ生成情報をユーザに提示するために、ヘッドマウントディスプレイ105と併せて使用される。ヘッドマウントディスプレイ105は、物理ディスプレイ103と協働して、拡張デスクトップ内でコンピュータ生成情報をユーザに提示する少なくとも1つの仮想ディスプレイ107A〜107Bを提供する。詳細には、ヘッドマウントディスプレイ105は、ロジックハウジング109、シースルーディスプレイ111、及びフレーム113を含む。ロジックハウジング109及びシースルーディスプレイ111は、それぞれ、少なくとも1つの仮想ディスプレイ107A〜107Bを生成及び提示するために使用される。フレーム113は、シースルーディスプレイ111及びロジックハウジング109を保持するために使用される。フレーム113は、シースルーディスプレイ111及びロジックハウジング109を保持するのに十分頑丈な任意のプラスチック、金属、又は他の材料から作成され得る。いくつかの実施形態に関して、フレーム113はまた、シースルーディスプレイ111とロジックハウジング109との間の電子的及び/又は磁気的接続を提供する材料から作成される。
図1のロジックハウジング109は、コンピュータ生成情報をヘッドマウントディスプレイ105のユーザに提示するために物理ディスプレイ103と併用するための少なくとも1つの仮想ディスプレイ107A〜107Bを生成、構成、及び提示するために使用される複数の論理ユニットを収容する。ロジックハウジング109は、生成ロジック(図示せず)及び提示ユニット(図示せず)を含む
ロジックハウジング109により収容される生成ロジックは、グラフィックス処理装置(GPU)又はグラフィックスレンダリングを実行する他の回路であり得る。限定ではなく例として、ロジックハウジング109内の生成ロジックは、物理ディスプレイ103の(以下で説明する)位置情報、(以下で説明する)スクリーン面積、及び(以下で説明する)面位置(surface position)を使用して、少なくとも1つの仮想ディスプレイ107A〜107Bをレンダリング及び生成するGPUである。生成される仮想ディスプレイ107A〜107Bは、物理ディスプレイ103のコンピュータグラフィックス表現である。一実施形態に関して、仮想ディスプレイ107A〜107Bは、ロジックハウジング109内で見つけられ得る(以下で説明する)算出ロジックにより決定された、物理ディスプレイの位置情報、スクリーン面積、及び面位置に基づいて、ロジックハウジング109内の生成ロジックにより生成される。
図1のシースルーディスプレイ111は、ロジックハウジング109内の生成ロジックにより生成された少なくとも1つの仮想ディスプレイ107A〜107Bをヘッドマウントディスプレイ105のユーザに提示するために、提示ユニットと併せて、ヘッドマウントディスプレイ105により使用される。シースルーディスプレイ111は、少なくとも1つの仮想ディスプレイ107A〜107Bをユーザに提示しながら、さらに、ユーザが物理ディスプレイ103を見ることを可能にする。仮想ディスプレイ107A〜107Bのうちの少なくとも1つは、物理ディスプレイ103と協働して、コンピュータシステム101からのコンピュータ生成情報を拡張デスクトップ内で提示する。この拡張デスクトップは、仮想ディスプレイ107A〜107B及び物理ディスプレイ103に及ぶ単一のデスクトップである。
上述したように、図1のロジックハウジング109は提示ユニットも含む。ロジックハウジング109の提示ユニットは、ハードウェア、ソフトウェア、又はこれらの組合せであり得る。ロジックハウジング109の提示ユニットは、ロジックハウジング109内に存在する他の論理ユニットからの全てのデータを融合し、融合されたデータから、コンピュータ生成情報及び仮想ディスプレイ107A〜107Bのうちの少なくとも1つの最終的な視覚的表現を作成する。提示ユニットにより作成された、コンピュータ生成情報及び仮想ディスプレイ107A〜107Bの最終的な視覚的表現が、シースルーディスプレイ111上で、ヘッドマウントディスプレイ105のユーザに提示される。
限定ではなく例として、ロジックハウジング109の提示ユニットは、人間の眼の前方に配置される又は人間の眼の上に直接配置される、ガラス、プラスチック、又は他の透明物質のレンズ又はピースから作成され、光線を集中させる、変更する、投射する、又は分散させるために使用されるシースルーディスプレイ111上に少なくとも1つの仮想ディスプレイ107A〜107Bを投影するプロジェクタであり得る。この例において、投影される仮想ディスプレイ107A〜107Bは、ロジックハウジング109内の生成ロジックにより生成される。
さらなる非限定的な例に関して、ロジックハウジング109の提示ユニットは、ロジックハウジング109の生成ロジックにより生成された仮想ディスプレイのうちの少なくとも1つを処理し、仮想網膜ディスプレイ(VRD)、網膜スキャンディスプレイ(RSD)、又は網膜プロジェクタ(RP)等のシースルーディスプレイ111を使用して、処理結果を出力して、生成された仮想ディスプレイのうちの少なくとも1つをヘッドマウントディスプレイ105のユーザの眼の網膜上に直接表示するディスプレイコントローラであり得る。
別の非限定的な例に関して、提示ユニットは、ロジックハウジング109の生成ロジックにより生成された仮想ディスプレイ107A〜107Bを処理し、ヘッドマウントディスプレイ105のユーザに、仮想ディスプレイ107A〜107Bの視覚的表現が提示されるように、処理結果を使用して、シースルーディスプレイ111上にフレームバッファを出力するビデオディスプレイコントローラ(VDC)であり得る。さらに別の非限定的な例に関して、提示ユニットは、ロジックハウジング109の生成ロジックにより生成された仮想ディスプレイ107A〜107Bのうちの少なくとも1つを処理し、処理された情報を使用して、シースルーディスプレイ111上でヘッドマウントディスプレイ105のユーザに表示される仮想ディスプレイ107A〜107Bのうちの少なくとも1つの視覚的表現を出力するビデオディスプレイプロセッサ(VDP)であり得る。代替例に関して、ロジックハウジング109の提示ユニットは、ヘッドマウントディスプレイ105のユーザへのコンピュータ生成情報の提示のために、仮想ディスプレイ107A〜107Bのうちの少なくとも1つの視覚的表現をシースルーディスプレイ111に出力するビデオ信号生成器であってもよい。
いくつかの実施形態に関して、少なくとも1つの仮想ディスプレイ107A〜107Bは、ユーザの視覚的視点から、ユーザにより見られている実世界シーンにおける追加のオブジェクトとして、シースルーディスプレイ111上で、ヘッドマウントディスプレイ105を装着しているユーザに提示される。これらの実施形態に関して、物理ディスプレイ103は、ユーザにより見られている実世界シーンにおいて配置されている。例えば、少なくとも1つの仮想ディスプレイ107A〜107Bは、ユーザの視覚的視点から、実世界シーンにおける物理ディスプレイ103に隣接して配置される追加のオブジェクトとして、シースルーディスプレイ111上で提示され得る。代替的に、少なくとも1つの仮想ディスプレイ107A〜107Bは、ユーザの視覚的視点から、実世界シーンにおける物理ディスプレイ103の上に重ね合わされる追加のオブジェクトとして、シースルーディスプレイ111上で提示されてもよい。
いくつかの実施形態に関して、コンピュータ生成情報は、物理ディスプレイ103がヘッドマウントディスプレイ105の視野内にある間に限り、少なくとも1つの仮想ディスプレイ107A〜107B及び物理ディスプレイ103上の拡張ディスプレイ内でユーザに表示される。これらの実施形態に関して、ヘッドマウントディスプレイ105の視野は、加速度計、デジタルコンパス、視覚カメラ、赤外線カメラ、及び、ヘッドマウントディスプレイ105及び/又は物理ディスプレイ103の物理的操作及び/又は向きコンテキスト(orientation context)に関連するデータを収集する且つ/又はそのような物理的操作及び/又は向きコンテキストに関連するパラメータを測定するのに適した他の物理センサのうちの少なくとも1つにより決定され得る。他の実施形態に関して、物理ディスプレイ103は、物理ディスプレイ103の位置情報、面位置、及びスクリーン面積が(以下で説明する)算出ロジックにより決定された後に、ヘッドマウントディスプレイ105の視野内にあると判定される。
図2は、少なくとも1つの物理ディスプレイとヘッドマウントディスプレイ220により提供される少なくとも1つの仮想ディスプレイとを使用して、ユーザへのコンピュータ生成情報の表示を実施するための例示的なマルチディスプレイシステム200を、概略図で示している。
マルチディスプレイシステム200は、ヘッドマウントディスプレイ220及びコンピュータシステム222を含む。図2のコンピュータシステム222は、物理ディスプレイ202を含む。単純さの目的のため、コンピュータシステム222の他の要素は図示されていない。物理ディスプレイ202は、コンピュータシステム222のコンピュータ生成情報を提示するために使用される物理ディスプレイである。
図2のヘッドマウントディスプレイ220は、ヘッドマウントディスプレイ220の位置を決定し、ヘッドマウントディスプレイ220の決定された位置に少なくとも基づいて、物理ディスプレイ202の位置を決定し、物理ディスプレイ202の決定された位置に少なくとも基づいて、物理ディスプレイ202の面位置及びスクリーン面積を決定し、ヘッドマウントディスプレイ220の決定された位置と、物理ディスプレイ202の決定された位置と、物理ディスプレイ202の決定された面位置と、物理ディスプレイ202の決定されたスクリーン面積と、を生成ロジック206に提供する算出ユニット204を含む。
ヘッドマウントディスプレイ220はまた、生成ロジック206、視点ロジック(perspective logic)208、関連付けロジック(association logic)210、提示ユニット218、シースルーディスプレイ212、メモリ214、及びセンサ216を含む。いくつかの実施形態に関して、図1のロジックハウジング109は、算出ロジック204、生成ロジック206、視点ロジック208、関連付けロジック210、提示ユニット218、シースルーディスプレイ212、メモリ214、及びセンサ216のうちの少なくとも1つを収容するために使用される。
図2の算出ユニット204に戻ると、ヘッドマウントディスプレイ220の位置、並びに、物理ディスプレイ202の位置、面位置、及びスクリーン面積は、センサ216から得られたデータ及び/又はパラメータを使用して決定される。一実施形態に関して、センサ216は、加速度計、デジタルコンパス、視覚カメラ、赤外線カメラ、及び、ヘッドマウントディスプレイ220及び/又は物理ディスプレイ202の物理的操作及び/又は向きコンテキストに関連するデータを収集する且つ/又はそのような物理的操作及び/又は向きコンテキストに関連するパラメータを測定するのに適した他の物理センサのうちの少なくとも1つであり得る。
一実施形態に関して、センサ216は、ヘッドマウントディスプレイ220の位置情報を決定し、物理ディスプレイ202の位置情報を決定することにより、ヘッドマウントディスプレイ220の位置及び物理ディスプレイ202の位置を決定する。位置情報を決定することは、ヘッドマウントディスプレイ220の位置を決定すること、ヘッドマウントディスプレイ220のユーザの視覚的視点によって決まる、ヘッドマウントディスプレイ220の視点向き(viewpoint orientation)を決定すること、ヘッドマウントディスプレイ220の決定された位置とヘッドマウントディスプレイ220の決定された視点向きとを使用して、物理ディスプレイの複数の頂点(vertices)を決定すること、物理ディスプレイの決定された複数の頂点とヘッドマウントディスプレイ220の決定された位置とヘッドマウントディスプレイ220の決定された視点向きとを使用して、ヘッドマウントディスプレイ220と複数の頂点の各々との間の各距離を決定することを含む。さらに他の実施形態に関して、ヘッドマウントディスプレイ220の位置情報を決定することはまた、ヘッドマウントディスプレイ220の決定された位置を参照して、物理ディスプレイ202の位置を決定することを含む。
一実施形態に関して、センサ216は、ヘッドマウントディスプレイ220がユーザにより装着されている間に、ヘッドマウントディスプレイ220の位置、ヘッドマウントディスプレイ220の視点向き、及び物理ディスプレイ202の位置を測定するために使用される位置及び方位センサを含む。位置及び方位センサは、ジャイロセンサ、加速度センサ、及び磁気センサのうちの少なくとも1つを含む。
ジャイロセンサは、実世界を近似する平面座標系で測定される、ヘッドマウントディスプレイ220及び/又は物理ディスプレイ202の3方向(X、Y、及びZ)における回転を検出する。加速度センサは、ヘッドマウントディスプレイ220及び/又は物理ディスプレイ202の3つのX方向、Y方向、及びZ方向における並進動作を検出し、磁気センサは、ヘッドマウントディスプレイ220のX方向、Y方向、及びZ方向を使用して、ヘッドマウントディスプレイ220及び/又は物理ディスプレイ202の3D位置座標及び視点向きを検出する。いくつかの実施形態に関して、これらのセンサは、それぞれの測定結果をセンサ216に出力し、センサ216は、この情報を算出ロジック204に送信する。これらの実施形態に関して、算出ロジックは、センサ216により取得された測定結果を使用して、ヘッドマウントディスプレイ220の位置及び視点向き、並びに、物理ディスプレイ202の頂点位置を決定する。
さらに他の実施形態に関して、算出ロジックは、センサ216により取得された情報を使用して、物理ディスプレイ202の各頂点とヘッドマウントディスプレイ220との間の各距離を算出する。
いくつかの実施形態に関して、センサ216により決定された、ヘッドマウントディスプレイ220及び物理ディスプレイ202の位置情報は、ヘッドマウントディスプレイ220の算出ロジック204に転送される。別の実施形態に関して、センサ216は、ヘッドマウントディスプレイ220及び物理ディスプレイ202の位置情報を決定することに加えて、物理ディスプレイ202の頂点の各々の間の各角度を決定することもできる。この実施形態に関して、センサ216は、ヘッドマウントディスプレイ220及び物理ディスプレイ202の位置情報に加えて、物理ディスプレイ202の頂点の各々の間の各角度も、算出ロジック204に転送する。算出ロジック204は、物理ディスプレイ202の各頂点の間の決定された角度を使用して、センサ216により決定された距離の各々を変更する。
センサ216は、ヘッドマウントディスプレイ220及び物理ディスプレイ202の位置情報を算出ロジック204に転送することに加えて、収集されたデータ及び/又はパラメータを、記憶するためにメモリ214に転送する。メモリ214については、以下でより詳細に説明する。
図2の算出ロジック204に戻ると、ヘッドマウントディスプレイ220及び物理ディスプレイ202の位置情報は、物理ディスプレイ202の面位置及びスクリーン面積を算出するために、算出ロジック204により使用される。一実施形態に関して、センサ216は、ヘッドマウントディスプレイ220及び物理ディスプレイ202の位置情報に加えて、物理ディスプレイ202の各頂点の間の角度も、算出ロジック204に転送する。この実施形態に関して、算出ロジック204は、物理ディスプレイ202の各頂点の間の角度を使用して、算出ロジック204により算出された面位置及びスクリーン面積のうちの少なくとも1つを変更する。
面位置とは、物理ディスプレイ202が存在する平面を指す。この平面は、ヘッドマウントディスプレイ220を装着しているユーザにより見られている3次元実世界シーンの2次元アナログ(two-dimensional analogue)である。一実施形態に関して、算出ロジック204により算出される面位置は、3次元ユークリッド空間、2次元ユークリッド空間、2次元デカルト座標系、及び3次元デカルト座標系のうちの少なくとも1つに基づく。
スクリーン面積とは、ヘッドマウントディスプレイ220を装着しているユーザにより見られている3次元実世界シーンの2次元アナログである平面における物理ディスプレイ202の広がりを表現する量を指す。一実施形態に関して、スクリーン面積は、一般的形状の面積を求めるための3次元公式、一般的形状の面積を求めるための2次元公式、及び、面積を求めるために物理ディスプレイ202を単位四角形又は単位三角形に分割することのうちの少なくとも1つに基づいて算出される。さらに他の実施形態に関して、物理ディスプレイ202が湾曲境界を有する場合、スクリーン面積は、物理ディスプレイ202を単位円に分割することに基づいて算出される。物理ディスプレイ202のスクリーン面積及び面位置の両方の算出は、当業者により周知であり、したがって、本明細書に記載の技術に限定されるものではないことを理解されたい。
ヘッドマウントディスプレイ220及び物理ディスプレイ202の位置情報、並びに、物理ディスプレイ202の面位置及びスクリーン面積は、算出ロジック204により、生成ロジック206に転送される。算出ロジック204は、ヘッドマウントディスプレイ220及び物理ディスプレイ202の位置情報、並びに、物理ディスプレイ202の面位置及びスクリーン面積を生成ロジック206に転送することに加えて、収集及び/又は処理されたデータを、記憶するためにメモリ214に転送する。メモリ214については、以下でより詳細に説明する。
少なくとも1つの仮想ディスプレイ(図1の仮想ディスプレイ107A〜107B等)が、算出ロジック204から受信されたデータを使用して、生成ロジック206により生成される。
生成ロジック206は、グラフィックス処理装置(GPU)又はグラフィックスレンダリングを実行する他の回路であり得る。一実施形態に関して、生成ロジック206は、ヘッドマウントディスプレイ220及び物理ディスプレイ202の位置情報、並びに、物理ディスプレイ202の面位置及びスクリーン面積を使用して、グラフィックスレンダリングに必要な複雑な数学的計算及び幾何学的計算を実行する。さらに、生成ロジック206は、その計算結果を使用して、少なくとも1つの仮想ディスプレイ(図1の仮想ディスプレイ107A〜107B等)をレンダリングする。限定ではなく例として、生成ロジック206は、物理ディスプレイ202の位置情報、スクリーン面積、及び面位置を使用して、物理ディスプレイ202のコンピュータグラフィックス表現である少なくとも1つの仮想ディスプレイを生成及びレンダリングする。
一実施形態に関して、生成ロジック206により生成される仮想ディスプレイは、(上述した)センサ216及び算出ロジック204により決定された、ヘッドマウントディスプレイ220及び物理ディスプレイ202の位置情報に排他的に基づく。他の実施形態に関して、生成ロジック206は、ユーザの視覚的視点を決定することができるようにユーザの眼の動きを測定及びトラッキングするためのアイトラッキングセンサ(図示せず)を含む。アイトラッキングセンサから得られたデータは、算出ロジック204により収集及び/又は処理されたデータと併せて、生成ロジック206により使用されて、個々のユーザの視覚的視点に基づいてヘッドマウントディスプレイ220のユーザに提示されることになる少なくとも1つの仮想ディスプレイが生成され得る。アイトラッキングセンサは、組み込みミラー又は磁場センサを有する特別なコンタクトレンズ等の眼取り付け型トラッキング(eye-attached tracking)、又は、瞳孔中心角膜反射技術等の光学的アイトラッキングに基づき得る。ユーザの視覚的視点を決定するためにユーザの眼の動きを算出及び/又はトラッキングする技術は、当業者により周知であり、したがって、本明細書に記載の技術に限定されるものではないことを理解されたい。
いくつかの実施形態に関して、生成ロジック206は、アイトラッキングセンサの測定結果、並びに/又は、算出ロジック204により収集及び/若しくは処理されたデータに基づいて、物理ディスプレイ202のスクリーン面積の倍数であるスクリーン面積を有する仮想ディスプレイを生成する。図4は、生成ロジック(図2の生成ロジック206等)により生成された仮想ディスプレイであって、物理ディスプレイのスクリーン面積の倍数であるスクリーン面積を有する仮想ディスプレイの例示的な表現を示している。
図4は、1つの物理ディスプレイ413とヘッドマウントディスプレイ403により提供された1つの仮想ディスプレイ411とを含む例示的なマルチディスプレイシステム400の図である。マルチディスプレイシステム400は、物理ディスプレイ413を有するコンピュータシステム409と、仮想ディスプレイ411を提示するヘッドマウントディスプレイ403と、を含む。ヘッドマウントディスプレイ403を装着しながら、コンピュータシステム409の物理ディスプレイ413を見ているユーザには、仮想ディスプレイ411が提示される。仮想ディスプレイ411は、生成ロジック413が仮想ディスプレイ411を生成した後、提示ユニット(図示せず)により、ヘッドマウントディスプレイ403のシースルーディスプレイ405上で、ヘッドマウントディスプレイ403を装着しているユーザに提示される。仮想ディスプレイ411は、算出ユニット(図示せず)及び少なくとも1つのセンサ(図示せず)により取得されたデータに基づいて、生成ロジック413により生成される。一実施形態に関して、算出ユニット及び少なくとも1つのセンサは、ヘッドマウントディスプレイ403と物理ディスプレイ413との間の4つの距離407A〜407Dの各々を決定する。算出ユニット及び少なくとも1つのセンサは、距離407A〜407Dを使用して、ヘッドマウントディスプレイ403の位置、物理ディスプレイ413の位置、物理ディスプレイ413の面位置、及び物理ディスプレイ413のスクリーン面積を算出する。他の実施形態に関して、生成される仮想ディスプレイ411は、上述したように、算出ユニット及び少なくとも1つのセンサにより収集及び/又は算出されたデータのうちの少なくとも1つを使用して、生成ロジック413により生成される。限定ではなく例として、物理ディスプレイ413のスクリーン面積が、540cmすなわち83.7平方インチである場合、仮想ディスプレイ411は、1080cmすなわち167.4平方インチのスクリーン面積を有するように、生成ロジック413により生成される(これは、物理ディスプレイ413の例示的なスクリーン面積を2倍することによって達成される)。
図2に戻ると、生成ロジック206により生成された仮想ディスプレイは、視点ロジック208に送信される。生成ロジック206は、ヘッドマウントディスプレイ220の生成された仮想ディスプレイを視点ロジック208に転送することに加えて、生成された仮想ディスプレイを、記憶するためにメモリ214にも転送する。メモリ214については、以下でより詳細に説明する。
視点ロジック208は、物理ディスプレイ202と生成された仮想ディスプレイとに割り当てられる拡張デスクトップの第1の部分と第2の部分との間の所望相対的ディスプレイ向き(desired relative display orientation)を決定する。ヘッドマウントディスプレイ220を装着しているユーザは、自分の頭を動かす又は自分の位置を変えるので、拡張デスクトップの所望相対的ディスプレイ向きが決定される。
この相対的ディスプレイ向きは、マルチディスプレイシステム200のユーザが、物理ディスプレイ202及び少なくとも1つの仮想ディスプレイの拡張デスクトップ内のコンピュータ生成情報を楽に見ることを可能にすることができる。一実施形態に関して、相対的ディスプレイ向きは、(上述した)センサ216及び算出ロジック204により決定された、ヘッドマウントディスプレイ220の位置情報、物理ディスプレイ202の位置情報、物理ディスプレイ202の面位置、及び物理ディスプレイ202のスクリーン面積を使用して、視点ロジック208により決定される。相対的ディスプレイ向きは、生成ロジック206により生成された少なくとも1つの仮想ディスプレイの実世界位置に対する、実世界における物理ディスプレイ202の位置を決定するために使用される。この相対ディスプレイ向きは、ヘッドマウントディスプレイ220及び物理ディスプレイ202が、拡張デスクトップを使用して、コンピュータ生成情報をユーザに提示することを可能にする。
さらに他の実施形態に関して、視点ロジック208は、例えば、加速度計、デジタルコンパス、視覚カメラ、赤外線カメラ、又は、ヘッドマウントディスプレイ220及び/又は物理ディスプレイ202の物理的操作及び/又は向きコンテキストに関連するデータを収集する且つ/又はそのような物理的操作及び/又は向きコンテキストに関連するパラメータを測定するのに適した他の物理センサといった物理センサを含む。このような実施形態に関して、この物理センサは、物理ディスプレイ202と生成された仮想ディスプレイとに割り当てられる拡張デスクトップの第1の部分と第2の部分との間の所望相対的ディスプレイ向きのインジケーションを提供するために使用される。このインジケーションは、ヘッドマウントディスプレイ220及び/又は物理ディスプレイ202の傾き、並進、及び回転のうちの少なくとも1つに応じてこの物理センサにより収集されたデータに基づく。
視点ロジック208は、所望相対的ディスプレイ向きを関連付けロジック210に転送する。視点ロジック208は、所望相対的ディスプレイ向きを関連付けロジック210に転送することに加えて、所望相対的ディスプレイ向きを、記憶するためにメモリ214にも転送する。メモリ214については、以下でより詳細に説明する。
関連付けロジック210は、物理ディスプレイ202、及び生成ロジック206により生成された少なくとも1つの仮想ディスプレイ上で提示される拡張デスクトップの第1の部分及び第2の部分を構成する。一実施形態に関して、この構成は、所望相対的ディスプレイ向きを有し、拡張デスクトップが、物理ディスプレイ202、及び生成ロジック206により生成された仮想ディスプレイ上に同時に一緒になって提供される。別の実施形態に関して、拡張デスクトップは、最初に、物理ディスプレイ202上に提供され、次いで、生成ロジック206により生成された仮想ディスプレイ上に拡張される。
関連付けロジック204による、物理ディスプレイ202及び生成された仮想ディスプレイ上の拡張ディスプレイの構成の後、算出ロジック204、生成ロジック206、視点ロジック208、及び関連付けロジック204により収集及び/又は処理された全てのデータ及び/又はパラメータが、提示ユニット218と、記憶するためにメモリ214と、に転送される。メモリ214については、以下でより詳細に説明する。
提示ユニット218は、ハードウェア、ソフトウェア、又はこれらの組合せであり得る。提示ユニット218は、図2の他の論理ユニットにより収集及び/又は取得されたデータを融合し、融合されたデータから、コンピュータ生成情報及び1以上の仮想ディスプレイの最終的な視覚的表現を作成するために使用される。提示ユニット218により作成された、コンピュータ生成情報及び1以上の仮想ディスプレイの最終的な視覚的表現が、シースルーディスプレイ212上で、ヘッドマウントディスプレイ220のユーザに提示される。
限定ではなく例として、提示ユニット218は、人間の眼の前方に配置される又は人間の眼の上に直接配置される、ガラス、プラスチック、又は他の透明物質のレンズ又はピースから作成され、光線を集中させる、変更する、投射する、又は分散させるために使用されるシースルーディスプレイ212上に少なくとも1つの仮想ディスプレイを投影するプロジェクタであり得る。前述の例に関して、投影される仮想ディスプレイは、生成ロジック206により生成され、視点ロジック208及び関連付けロジック210により、相対的ディスプレイ向きを有するように構成される。
さらなる非限定的な例に関して、提示ユニット218は、生成ロジック206により生成された仮想ディスプレイのうちの少なくとも1つを処理し、仮想網膜ディスプレイ(VRD)、網膜スキャンディスプレイ(RSD)、又は網膜プロジェクタ(RP)等のシースルーディスプレイ212を使用して、処理結果を出力して、生成ロジック206により生成された仮想ディスプレイのうちの少なくとも1つをヘッドマウントディスプレイ220のユーザの眼の網膜上に直接提示するディスプレイコントローラであり得る。
別の非限定的な例に関して、提示ユニット218は、生成ロジック206により生成された仮想ディスプレイと、視点ロジック208及び関連付けロジック210の相対的ディスプレイ向きと、を処理し、ヘッドマウントディスプレイ220のユーザに、コンピュータ生成情報及び仮想ディスプレイの視覚的表現が提示されるように、処理結果を使用して、シースルーディスプレイ212上にフレームバッファを出力するビデオディスプレイコントローラ(VDC)であり得る。さらに別の非限定的な例に関して、提示ユニット218は、生成ロジック206により生成された仮想ディスプレイと、視点ロジック208及び関連付けロジック210の相対的ディスプレイ向きと、を処理し、処理結果を使用して、シースルーディスプレイ212上でヘッドマウントディスプレイ220のユーザに表示されるコンピュータ生成情報及び仮想ディスプレイの視覚的表現を出力するビデオディスプレイプロセッサ(VDP)であり得る。代替例に関して、提示ユニット218は、ヘッドマウントディスプレイ220のユーザへのコンピュータ生成情報及び少なくとも1つの仮想ディスプレイの提示のために、生成ロジック206、視点ロジック208、及び関連付けロジック210のうちの少なくとも1つにより生成及び処理された仮想ディスプレイのうちの少なくとも1つの視覚的表現をシースルーディスプレイ212に出力するビデオ信号生成器であってもよい。
提示ユニット218からの出力は、ヘッドマウントディスプレイ220のユーザへの、生成ロジック206により生成された少なくとも1つの仮想ディスプレイの提示のために、シースルーディスプレイ212に転送される。さらに、提示ユニット218の出力は、記憶するためにメモリ214にも転送される。メモリ214については、以下でより詳細に説明する。
シースルーディスプレイ212上で提示される、提示ユニット218の出力は、生成ロジック206により生成された仮想ディスプレイのうちの少なくとも1つを示す。いくつかの実施形態に関して、生成ロジック206により生成された仮想ディスプレイのうちの少なくとも1つは、拡張デスクトップとして物理ディスプレイ202と協働するよう構成される。一実施形態に関して、生成ロジック206により生成された仮想ディスプレイのうちの少なくとも1つは、視点ロジック208及び関連付けロジック210によりそれぞれ決定された、相対的ディスプレイ向きの拡張デスクトップの構成された第1の部分と第2の部分とに基づいて、提示ユニット218により、シースルーディスプレイ212上で提示される。
いくつかの実施形態に関して、生成ユニット206により生成された仮想ディスプレイのうちの少なくとも1つは、ユーザにより知覚されている実世界シーンにおける追加のオブジェクトとして、提示ユニット218により、シースルーディスプレイ212上で、ヘッドマウントディスプレイ220を装着しているユーザに提示される。例えば、生成ロジック206により生成された仮想ディスプレイは、実世界シーンにおける物理ディスプレイ202に隣接して配置される追加のオブジェクトとして、提示ユニット218により、シースルーディスプレイ212上で提示され得る。代替的に、生成ロジック206により生成された仮想ディスプレイは、実世界シーンにおける物理ディスプレイ202の上に重ね合わされる追加のオブジェクトとして、提示ユニット218により、シースルーディスプレイ212上で提示されてもよい。さらに他の実施形態に関して、コンピュータ生成情報は、上述したように、物理ディスプレイ202がヘッドマウントディスプレイ220の視野内にある間に限り、生成ロジック206により生成された仮想ディスプレイ及び物理ディスプレイ202に及ぶ拡張デスクトップ内で表示される。
一実施形態に関して、メモリ214は、センサ216、算出ロジック204、生成ロジック206、視点ロジック208、関連付けロジック210、及びシースルーディスプレイ212により収集及び/又は処理された全てのデータを記憶するために使用される。
別の実施形態に関して、拡張デスクトップ内でユーザに表示されるコンピュータ生成情報は、ヘッドマウントディスプレイ220のメモリ214に記憶される。メモリ214により記憶されているコンピュータ生成情報は、上述したように、物理ディスプレイ202がヘッドマウントディスプレイ220の視野内にない場合に限り、提示ユニット218により、生成ロジック206により生成された少なくとも1つの仮想ディスプレイ(図1の仮想ディスプレイ107A〜107B等)内で排他的に提示される。限定ではなく例として、シースルーディスプレイ212上で提示されている物理ディスプレイ202及び仮想ディスプレイから構成される拡張デスクトップを見ている、ヘッドマウントディスプレイ220のユーザが、自分の頭を動かし、物理ディスプレイ202が、少なくとも1つの物理センサにより決定された、ユーザの視野内にもはやない場合、メモリ214に記憶されている情報が、提示ユニット218により、シースルーディスプレイ212上で提示されている仮想ディスプレイだけに提示される。メモリ214の利点は、物理ディスプレイ202がヘッドマウントディスプレイ220の視野から除去された後であっても、ヘッドマウントディスプレイ220を使用しているユーザが、拡張デスクトップ内でコンピュータ生成情報を見続けることができることである。
ヘッドマウントディスプレイ220の算出ロジック204は、任意的に、ヘッドマウントディスプレイ220の位置情報、物理ディスプレイ202の位置情報、物理ディスプレイ202の面位置、及び物理ディスプレイ202のスクリーン面積を再決定してもよい。この再決定は、物理ディスプレイ202の物理的動き、ヘッドマウントディスプレイ220の物理的動き、及び、ヘッドマウントディスプレイ220の位置情報の前の決定と物理ディスプレイ202の位置の前の決定と物理ディスプレイ202の面位置の前の決定と物理ディスプレイ202のスクリーン面積の前の決定とのうちの少なくとも1つから経過した時間期間のうちの少なくとも1つに応じて実行され得る。
いくつかの実施形態に関して、ヘッドマウントディスプレイ220及び/又は物理ディスプレイ202の物理的動きは、ヘッドマウントディスプレイ220及び/又は物理ディスプレイ202の傾き、回転、及び並進のうちの少なくとも1つを含む。これらの実施形態に関して、物理ディスプレイ202及びヘッドマウントディスプレイ220のうちの少なくとも1つの物理的動きの判定は、加速度計、デジタルコンパス、視覚カメラ、赤外線カメラ、ジャイロセンサ、磁気センサ、加速度センサ、及び、ヘッドマウントディスプレイ220及び/又は物理ディスプレイ202の物理的操作及び/又は向きコンテキストに関連するデータを収集する且つ/又はそのような物理的操作及び/又は向きコンテキストに関連するパラメータを測定するのに適した他の物理センサのうちの少なくとも1つによる決定に基づき得る。いくつかの実施形態に関して、ヘッドマウントディスプレイ220及び物理ディスプレイ202の位置情報、物理ディスプレイ202の面位置、及び物理ディスプレイ202のスクリーン面積の再決定は、上述したように、センサ216により測定されたデータ及び/又はパラメータに基づき得る。この実施形態に関して、センサ216は、ヘッドマウントディスプレイ220の位置情報を再決定し、物理ディスプレイ202の位置情報を再決定することにより、ヘッドマウントディスプレイ220の位置を再決定し、ヘッドマウントディスプレイ220の再決定された位置に基づいて、物理ディスプレイ202の位置を再決定することができる。
位置情報を再決定することは、ヘッドマウントディスプレイ220の位置を再決定すること、ヘッドマウントディスプレイ220のユーザの視覚的視点によって決まる、ヘッドマウントディスプレイ220の視点向きを再決定すること、ヘッドマウントディスプレイ220の再決定された位置とヘッドマウントディスプレイ220の再決定された視点向きとを使用して、物理ディスプレイの複数の頂点を再決定すること、物理ディスプレイの再決定された複数の頂点とヘッドマウントディスプレイ220の再決定された位置とヘッドマウントディスプレイ220の再決定された視点向きとを使用して、ヘッドマウントディスプレイ220と複数の頂点の各々との間の各距離を再決定することを含む。さらに他の実施形態に関して、ヘッドマウントディスプレイ220の位置情報を再決定することはまた、ヘッドマウントディスプレイ220の再決定された位置を参照して、物理ディスプレイ202の位置を再決定することを含む。
図3A及び図3Bは、少なくとも1つの物理ディスプレイ(図1の物理ディスプレイ103等)とヘッドマウントディスプレイ(図1のヘッドマウントディスプレイ105等)により提供される少なくとも1つの仮想ディスプレイ(図1の仮想ディスプレイ107A〜107B等)とを含むマルチディスプレイシステム(図1のマルチディスプレイシステム100等)を使用して、コンピュータ生成情報をユーザに表示する例示的な方法300を示している。例えば、コンピュータ生成情報は、拡張デスクトップとして協働する物理ディスプレイ103及び仮想ディスプレイ107A〜107Bを使用して、ユーザに提示される。表示されるコンピュータ生成情報は、オーディオ出力若しくは視覚的出力(例えば、音、テキスト、グラフィックス、ビデオ等)、又は、ユーザがインタラクトできるコンピューティングシステム上でユーザに提示することができる任意の他のタイプの情報であり得る。
図3Aのブロック302において、ヘッドマウントディスプレイ105は、ヘッドマウントディスプレイ105の位置情報及び物理ディスプレイ103の位置情報を決定する。一実施形態に関して、ヘッドマウントディスプレイ105及び物理ディスプレイ103の位置情報の決定は、上述したように、図2のセンサ216及び算出ロジック204により実行される。
図3Aのブロック304において、ヘッドマウントディスプレイ105は、物理ディスプレイ103の位置、面位置、及びスクリーン面積を算出する。一実施形態に関して、物理ディスプレイ103の位置、面位置、及びスクリーン面積の算出は、上述したように、図2のセンサ216及び算出ロジック204により実行される。
図3Aのブロック306において、ヘッドマウントディスプレイ105は、任意的に、物理ディスプレイ103の各頂点の間の各角度を決定する。一実施形態に関して、物理ディスプレイ103の角度の決定は、上述したように、図2のセンサ216により実行される。
図3Aのブロック308において、ヘッドマウントディスプレイ105は、任意的に、ブロック306において決定された角度を使用して、ブロック304において算出された面位置及び/又はスクリーン面積を変更する。例えば、この角度は、物理ディスプレイ103の各頂点とヘッドマウントディスプレイ105との間の対応する距離値の各々についての乗数(multiplier)又は他の重み付け値として機能することができる。この変更が実行されて、物理ディスプレイ103の各頂点とヘッドマウントディスプレイ105との間の距離の各々を表す変更された距離値が生成される。次いで、これらの変更された距離値が、物理ディスプレイ103の頂点の各々とともに使用されて、物理ディスプレイ103の変更されたスクリーン面積及び/又は変更された面位置が算出される。一実施形態に関して、物理ディスプレイ103の面位置及びスクリーン面積のうちの少なくとも1つの変更は、上述したように、図2の算出ロジック204により実行される。
図3Aのブロック310において、ヘッドマウントディスプレイ105は、ヘッドマウントディスプレイ105上でユーザに表示される少なくとも1つの仮想ディスプレイ107A〜107Bを生成する。一実施形態に関して、仮想ディスプレイ107A〜107Bは、図3Aのブロック302〜ブロック308において決定された、ヘッドマウントディスプレイ105の位置情報、物理ディスプレイ103の位置情報、物理ディスプレイ103の面位置、及び物理ディスプレイ103のスクリーン面積に基づいて生成される。
別の実施形態に関して、仮想ディスプレイ107A〜107Bは、図3Aのブロック302〜ブロック308において収集及び/又は処理されたデータと併せて、アイトラッキングセンサから得られたデータに基づいて、ヘッドマウントディスプレイ105により生成される。少なくともいくつかのアイトラッキングデータに基づいて仮想ディスプレイ107A〜107Bを生成する利点は、個々のユーザの視覚的視点に基づいて少なくとも1つの仮想ディスプレイ107A〜107Bをヘッドマウントディスプレイ105のユーザに提示することを可能にすることである。アイトラッキングセンサは、組み込みミラー又は磁場センサを有する特別なコンタクトレンズ等の眼取り付け型トラッキング、又は、瞳孔中心角膜反射技術等の光学的アイトラッキングに基づき得る。ユーザの視覚的視点を決定するためにユーザの眼の動きを算出及び/又はトラッキングする技術は、当業者により周知であり、したがって、本明細書に記載の技術に限定されるものではないことを理解されたい。
他の例示的な実施形態に関して、仮想ディスプレイ107A〜107Bは、物理ディスプレイ103のスクリーン面積の倍数であるスクリーン面積と、物理ディスプレイ103の面位置の倍数である面位置と、を有する。いくつかの実施形態に関して、仮想ディスプレイ107A〜107Bの生成は、上述したように、図2の生成ロジック206により実行される。
図3Aのブロック312において、ヘッドマウントディスプレイ105は、物理ディスプレイ103と生成された仮想ディスプレイ107A〜107Bとに割り当てられる拡張デスクトップの第1の部分と第2の部分との間の所望相対的ディスプレイ向きを決定する。一実施形態に関して、所望相対的ディスプレイ向きは、図3Aのブロック302〜ブロック308において決定された、ヘッドマウントディスプレイ105の位置情報、物理ディスプレイ103の位置情報、物理ディスプレイ103の面位置、及び物理ディスプレイ103のスクリーン面積に基づく。別の実施形態に関して、所望相対的ディスプレイ向きは、上述したように、図2の視点ロジック208により決定される。
図3Aのブロック314において、ヘッドマウントディスプレイ105は、図3Aのブロック312において決定された所望相対的ディスプレイ向きを有するように拡張デスクトップを構成する。一実施形態に関して、この構成は、所望相対的ディスプレイ向きの決定に応じて、自動的に実行される。他の実施形態に関して、拡張デスクトップは、物理ディスプレイ103及び仮想ディスプレイ107A〜107B上にコンピュータ生成情報を同時に一緒に提供するよう構成される。物理ディスプレイ103及び仮想ディスプレイ107A〜107B上の拡張デスクトップの構成は、例えば、上述したように、図2の関連付けロジック210により実行され得る。
図3Aのブロック316において、ヘッドマウントディスプレイ105は、ヘッドマウントディスプレイ105を装着しているユーザに、少なくとも1つの仮想ディスプレイ107A〜107Bを提示する。仮想ディスプレイ107A〜107Bは、ヘッドマウントディスプレイ105を装着しているユーザにより見られている実世界シーンにおける追加のオブジェクトとして、ヘッドマウントディスプレイ105のシースルーディスプレイ上で提示される。さらに、図3Aのブロック316において、ヘッドマウントディスプレイ105はまた、ブロック312及びブロック314においてそれぞれ決定され構成された拡張デスクトップ内でコンピュータ生成情報を提示する。一実施形態に関して、仮想ディスプレイ107A〜107Bは、ユーザがヘッドマウントディスプレイ105のシースルーディスプレイを介して見ている間、ユーザにより見られる実世界シーンにおいて混合されているようにユーザには見える。別の実施形態に関して、仮想ディスプレイ107A〜107Bは、実世界シーンにおける物理ディスプレイ103に隣接して配置されているようにユーザには見える。例えば、仮想ディスプレイ107A〜107Bは、物理ディスプレイ103の左側に配置されているスクリーンとしてユーザには見える。別の例に関して、仮想ディスプレイ107A〜107Bは、物理ディスプレイ103の右側に配置されているスクリーンとしてユーザには見える。さらに別の例において、仮想ディスプレイ107A〜107Bは、物理ディスプレイ103の下側に配置されているスクリーンとしてユーザには見える。さらに別の例に関して、仮想ディスプレイ107A〜107Bは、物理ディスプレイ103の上側に配置されているスクリーンとしてユーザには見える。さらなる例に関して、仮想ディスプレイ107A〜107Bは、物理ディスプレイ103の左側、物理ディスプレイ103の右側、物理ディスプレイ103の上側、物理ディスプレイ103の下側、及びこれらの任意の他の組合せ又は変形のうちの少なくとも1つに配置されているスクリーンとしてユーザには見える。
他の実施形態に関して、仮想ディスプレイ107A〜107Bは、仮想ディスプレイ107A〜107B上の情報と物理ディスプレイ103上の情報とがユーザにより同時に見られるように、物理ディスプレイ103の上に重ね合わされているようにユーザには見える。例えば、仮想ディスプレイ107A〜107Bは、物理ディスプレイ103上にオーバーレイされているスクリーンとしてユーザには見える。(上述した)図4は、物理ディスプレイ(物理ディスプレイ413等)の上に重ね合わされている仮想ディスプレイ(仮想ディスプレイ411等)を示す例示的な実施形態を提供している。いくつかの実施形態に関して、ヘッドマウントディスプレイ105のユーザへの少なくとも1つの仮想ディスプレイ107A〜107Bの提示は、例えば、上述したように、図2のシースルーディスプレイ212を使用して実行され得る。
図3Aに戻ると、ブロック318において、ヘッドマウントディスプレイ105は、物理ディスプレイ103がヘッドマウントディスプレイ105の視野内にあるかどうかを判定する。物理ディスプレイ103がヘッドマウントディスプレイ105の視野内にない場合、方法300は、(以下で説明する)図3Bのブロック324に進む。物理ディスプレイ103がヘッドマウントディスプレイ105の視野内にある場合、ブロック320において、ヘッドマウントディスプレイ105は、ヘッドマウントディスプレイ105及び物理ディスプレイ103のうちの少なくとも1つの物理的動きがあったかどうかを判定する。いくつかの実施形態に関して、物理ディスプレイ103及びヘッドマウントディスプレイ105のうちの少なくとも1つの物理的動きの判定は、加速度計、デジタルコンパス、視覚カメラ、赤外線カメラ、ジャイロセンサ、磁気センサ、加速度センサ、及び、ヘッドマウントディスプレイ105及び/又は物理ディスプレイ103の物理的操作及び/又は向きコンテキストに関連するデータを収集する且つ/又はそのような物理的操作及び/又は向きコンテキストに関連するパラメータを測定するのに適した他の物理センサのうちの少なくとも1つによる決定に基づき得る。他の実施形態に関して、物理的ディスプレイ103及びヘッドマウントディスプレイ105のうちの少なくとも1つの物理的動きがあったかどうかの判定は、上述したように、図2のセンサ216により収集されたデータに基づき得る。
図3のブロック320において、物理ディスプレイ103及びヘッドマウントディスプレイ105のうちの少なくとも1つの物理的動きがあったと方法300が判定した場合、方法300は、ブロック302に進み、上述したように、物理的ディスプレイ103及びヘッドマウントディスプレイ105の位置情報を再決定する。いくつかの実施形態に関して、位置情報の再決定は、上述したように、図2のセンサ216及び算出ロジック204により実行される。図3Aのブロック320において、物理ディスプレイ103及びヘッドマウントディスプレイ105の物理的動きはなかったと方法300が判定した場合、方法300は、(以下で説明する)図3Aのブロック322に進む。
図3Aのブロック322において、ヘッドマウントディスプレイ105は、物理ディスプレイ103の位置情報及びヘッドマウントディスプレイ105の位置情報のうちの少なくとも1つの前の決定以降に予め定められた時間期間が経過したかどうかを判定する。予め定められた時間期間が経過した場合、方法300は、図3Aのブロック302に戻り、上述したように、物理ディスプレイ103及びヘッドマウントディスプレイ105の位置情報を再決定する。いくつかの実施形態に関して、位置情報の再決定は、上述したように、図2のセンサ216及び算出ロジック204により実行される。他の実施形態に関して、ヘッドマウントディスプレイ105は、予め定められた時間期間を記憶するために使用されるとともに、算出ロジック(図2の算出ロジック204等)に、上述したように、物理ディスプレイ103及びヘッドマウントディスプレイ105の位置情報を再決定するようにさせるために使用されるタイマロジック(図示せず)を含み得る。
図3Aのブロック322において、予め定められた時間期間が経過していない場合、方法300は、図3Aのブロック316に戻り、上述したように、少なくとも1つの仮想ディスプレイ107A〜107B及び少なくとも1つの物理ディスプレイ103を使用して、拡張デスクトップ内でコンピュータ生成情報を提示し続ける。
上記で示唆されているように、物理ディスプレイ103がヘッドマウントディスプレイ105の視野内にない場合、方法300は、図3Bのブロック324に進む。ブロック324において、ヘッドマウントディスプレイ105は、拡張デスクトップ内で提示されるコンピュータ生成情報が、メモリ(図2のメモリ214等)に記憶されているかどうかを判定する。
拡張デスクトップ内で表示されるコンピュータ生成情報がメモリに記憶されている場合、方法300は、任意的に、図3Bのブロック326に進んでもよい。ブロック326において、ヘッドマウントディスプレイ105は、ヘッドマウントディスプレイ105の仮想ディスプレイ107A〜107B内で排他的に、記憶されている情報を提示する。
拡張デスクトップ内で表示されるコンピュータ生成情報がメモリに記憶されていない場合、又は、ヘッドマウントディスプレイ105が、仮想ディスプレイ107A〜107B内で排他的に、記憶されている情報を表示する場合、方法300は、図3Aのブロック302に戻り、上述したように、物理ディスプレイ103及びヘッドマウントディスプレイ105の位置情報を決定することを開始する。
図5は、少なくとも1つの物理ディスプレイと少なくとも1つの仮想ディスプレイとを含むマルチディスプレイシステムを使用して、コンピュータ生成情報をユーザに表示する方法を実施するための例示的な処理システムを、ブロック図の形で示している。
データ処理システム500は、1以上のマイクロプロセッサ505に接続されるメモリ510を含む。メモリ510は、データ、メタデータ、および、1以上のマイクロプロセッサ505により実行されるプログラムを記憶するために使用され得る。メモリ510は、RAM、ROM、SSD、Flash、PCM等の揮発性メモリ及び不揮発性メモリ、並びに他のタイプのデータストレージのうちの1以上を含み得る。メモリ510は、内部メモリであってもよいし分散メモリであってもよい。
データ処理システム500は、ポート、ドックのためのコネクタ、又は、データ処理システム500を別のデバイス、外部コンポーネント、又はネットワークに接続するための、USBインタフェース、FireWire(登録商標)、Thunderbolt(登録商標)、Ethernet(登録商標)、Fibre Channel等のためのコネクタといったネットワーク及びポートインタフェース515を含む。例示的なネットワーク及びポートインタフェース515はまた、IEEE802.11トランシーバ、赤外線トランシーバ、Bluetooth(登録商標)トランシーバ、無線セルラ電話トランシーバ(例えば、2G、3G、4G等)といった無線トランシーバ、又は、データ処理システム500を別のデバイス、外部コンポーネント、又はネットワークに接続し、記憶される命令、データ、トークン等を受信するための別の無線プロトコルを含む。
データ処理システム500はまた、ディスプレイコントローラ及びディスプレイデバイス520と、1以上の入力/出力(I/O)デバイス及びインタフェース525と、を含む。ディスプレイコントローラ及びディスプレイデバイス520は、ユーザのための視覚的ユーザインタフェースを提供する。I/Oデバイス525は、ユーザが、データ処理システム500への入力を提供し、データ処理システム500からの出力を受け取り、データ処理システム500との間でデータを別の形で移動させることを可能にする。I/Oデバイス525は、マウス、キーパッド、キーボード、タッチパネル、マルチタッチ入力パネル、カメラ、光学スキャナ、オーディオ入力/出力(例えば、マイクロフォン及び/又はスピーカ等)、他の知られているI/Oデバイス、又はこのようなI/Oデバイスの組合せを含み得る。1以上のバスを使用して、図5に示される様々なコンポーネントを相互接続することができることが理解されよう。
データ処理システム500は、拡張デスクトップをユーザに提供する、少なくとも1つの物理ディスプレイと少なくとも1つの仮想ディスプレイとを含むマルチディスプレイシステムのうちの1以上の例示的な表現である。例示的なデータ処理システム500は、図1のマルチディスプレイシステム100又は図4のマルチディスプレイシステム400、図1のコンピュータシステム101、図4のコンピュータシステム409、図1のヘッドマウントディスプレイ105、及び図4のヘッドマウントディスプレイ403である。データ処理システム500は、ビデオヘッドマウントディスプレイ、光学ヘッドマウントディスプレイ、デスクトップコンピュータ、パーソナルコンピュータ、タブレット型デバイス、携帯情報端末(PDA)、PDAのような機能を有するセルラ電話機、Wi−Fi(登録商標)ベースの電話機、セルラ電話機を含むハンドヘルドコンピュータ、メディアプレーヤ、エンターテイメントシステム、又は、これらのデバイスの態様又は機能を組み合わせたデバイス(PDA及びセルラ電話機が1つのデバイス内で組み合わされたメディアプレーヤ等)であり得る。他の実施形態において、データ処理システム500は、ネットワークコンピュータ、サーバ、又は、別のデバイス若しくはコンシューマ電子製品内の組み込み処理デバイスであり得る。本明細書で使用されているとき、コンピュータ、デバイス、システム、処理システム、処理デバイス、コンピュータシステム、及び「処理デバイスを備える装置」という用語は、データ処理システム500と同義で使用され得、上記でリストした例示的な実施形態を含む。
図示されていないさらなるコンポーネントも、データ処理システム500の一部であり得、所定の実施形態において、図5に示されるコンポーネントよりも少ないコンポーネントが、データ処理システム500内で使用されることもある。本説明から、本発明の態様は、ソフトウェアにより少なくとも部分的に具現化され得ることが明らかであろう。すなわち、コンピュータ実装方法300は、コンピュータシステム又は他のデータ処理システム500のプロセッサ又は処理システム505が、メモリ510又は他の非一時的なマシン読み取り可能な記憶媒体に含まれている一連の命令を実行したことに応じて、コンピュータシステム又は他のデータ処理システム500において実行され得る。ソフトウェアは、さらに、ネットワークインタフェースデバイス515を用いて、ネットワーク(図示せず)を介して送信又は受信され得る。様々な実施形態において、本実施形態を実装するために、ハードワイヤード回路が、ソフトウェア命令と組み合わせて使用され得る。したがって、本技術は、ハードウェア回路とソフトウェアとのいかなる特定の組合せにも限定されるものではなく、データ処理システム500により実行される命令に関するいかなる特定のソースにも限定されるものではない。
上述した実施形態の機能のうちの少なくとも一部を提供するプログラムコードを記憶する製品が使用され得る。さらに、上述した実施形態の機能のうちの少なくとも一部を使用して作成されたプログラムコードを記憶する製品が使用され得る。プログラムコードを記憶する製品は、1以上のメモリ(例えば、1以上のフラッシュメモリ、ランダムアクセスメモリ(RAM)−スタティックRAM、ダイナミックRAM、又はその他−)、光ディスク、CD−ROM、DVD−ROM、EPROM、EEPROM、磁気カード、光カード、又は、電子的命令を記憶するのに適した他のタイプの非一時的なマシン読み取り可能な媒体として具現化され得るが、これらに限定されるものではない。さらに、本発明の実施形態は、FPGA、ASIC、プロセッサ、コンピュータ、又はネットワークを含むコンピュータシステムを利用するファームウェア又はハードウェアにより実装され得るが、これらに限定されるものではない。ハードウェア実装又はソフトウェア実装のモジュール及びコンポーネントは、本発明の実施形態を著しく変更することなく、分割され得る又は組み合わされ得る。
本明細書において、ヘッドマウントディスプレイを使用して拡張ディスプレイを提供するシステム及び方法の特定の実施形態が参照されている。上記説明及び図面は、ヘッドマウントディスプレイを使用して拡張ディスプレイを提供するシステム及び方法の例示であり、ヘッドマウントディスプレイを使用して拡張ディスプレイを提供するシステム及び方法を限定するものとして解釈されるべきではない。ヘッドマウントディスプレイを使用して拡張ディスプレイを提供するシステム及び方法のより広範な主旨及び範囲から逸脱することなく、上記実施形態に対する様々な変更が可能であることが明らかであろう。

Claims (18)

  1. ヘッドマウントディスプレイ(HMD)であって、
    少なくとも1つの仮想ディスプレイを生成する生成ロジックと、
    シースルーディスプレイと、
    前記シースルーディスプレイ上で前記少なくとも1つの仮想ディスプレイを提示する提示ユニットであって、
    前記シースルーディスプレイは、ユーザが、実世界シーンにおいて、前記少なくとも1つの仮想ディスプレイと、物理ディスプレイと、を見ることを可能にするよう構成されており、
    前記少なくとも1つの仮想ディスプレイは、前記実世界シーンにおける追加のオブジェクトとして、前記シースルーディスプレイ上で提示され、
    前記少なくとも1つの仮想ディスプレイは、前記ユーザの視覚的視点から、拡張デスクトップ内でコンピュータ生成情報を提示するために、前記物理ディスプレイと併せて使用される、
    提示ユニットと、
    前記拡張デスクトップ内で提示される前記コンピュータ生成情報を記憶するメモリであって、前記物理ディスプレイが前記HMDの視野内にない場合に限り、前記の記憶されているコンピュータ生成情報は、前記少なくとも1つの仮想ディスプレイ内で排他的に提示される、メモリと、
    前記HMDの位置を決定し、
    前記HMDの前記の決定された位置に少なくとも基づいて、前記物理ディスプレイの位置を決定し、
    前記物理ディスプレイの前記の決定された位置に少なくとも基づいて、前記物理ディスプレイの面位置及びスクリーン面積を決定し、
    前記HMDの前記の決定された位置、前記物理ディスプレイの前記の決定された位置、前記物理ディスプレイの前記の決定された面位置、及び前記物理ディスプレイの前記の決定されたスクリーン面積を、前記生成ロジックに提供する
    算出ロジックと、
    を備えたHD。
  2. 前記物理ディスプレイが前記HMDの視野内にある場合に限り、前記コンピュータ生成情報は、前記拡張デスクトップ内で提示される、請求項1記載のHMD。
  3. 前記算出ロジックは、
    前記物理ディスプレイの物理的動きと、
    前記HMDの物理的動きと、
    前記HMDの前記位置の前の決定、前記物理ディスプレイの前記位置の前の決定、前記物理ディスプレイの前記面位置の前の決定、及び前記物理ディスプレイの前記スクリーン面積の前の決定のうちの少なくとも1つから経過した時間期間と、
    のうちの少なくとも1つに応じて、前記HMDの前記位置、前記物理ディスプレイの前記位置、前記物理ディスプレイの前記面位置、及び前記物理ディスプレイの前記スクリーン面積を再決定する、請求項記載のHMD。
  4. 前記算出ロジックは、さらに、前記物理ディスプレイの各頂点の間の各角度を決定し、前記算出ロジックは、前記の決定された角度を使用して、前記物理ディスプレイの前記面位置及び前記スクリーン面積のうちの少なくとも1つを変更する、請求項又は記載のHMD。
  5. 前記生成ロジックは、前記物理ディスプレイの前記スクリーン面積の倍数であるスクリーン面積を有する前記少なくとも1つの仮想ディスプレイを生成し、アイトラッキングデータが、少なくとも1つのアイトラッキングセンサにより収集され、前記生成ロジックは、
    前記の収集されたアイトラッキングデータと、
    前記HMDの前記の決定された位置と、
    前記物理ディスプレイの前記の決定された位置と、
    前記物理ディスプレイの前記の決定された面位置と、
    前記物理ディスプレイの前記の決定されたスクリーン面積と、
    のうちの少なくとも1つに基づいて、前記少なくとも1つの仮想ディスプレイを生成する、請求項記載のHMD。
  6. 前記物理ディスプレイと前記少なくとも1つの仮想ディスプレイとに割り当てられる前記拡張デスクトップの第1の部分と第2の部分との間の所望相対的ディスプレイ向きを決定する視点ロジックと、
    前記所望相対的ディスプレイ向きを有するように、前記拡張デスクトップの前記第1の部分及び前記第2の部分を構成する関連付けロジックであって、前記少なくとも1つの仮想ディスプレイは、前記ユーザの視覚的視点から、前記拡張デスクトップの前記の構成された第1の部分及び第2の部分を提示するために、前記物理ディスプレイと併せて使用される、関連付けロジックと、
    をさらに備えた請求項1記載のHMD。
  7. 前記少なくとも1つの仮想ディスプレイは、前記ユーザの視覚的視点から、前記実世界シーンにおける前記物理ディスプレイに隣接して配置される追加のオブジェクトとして、前記シースルーディスプレイ上で提示される、請求項1記載のHMD。
  8. 前記少なくとも1つの仮想ディスプレイは、前記ユーザの視覚的視点から、前記実世界シーンにおける前記物理ディスプレイの上に重ね合わされる追加のオブジェクトとして、前記シースルーディスプレイ上で提示される、請求項1記載のHMD。
  9. ヘッドマウントディスプレイ(HMD)を使用して、少なくとも1つの仮想ディスプレイを生成するステップと、
    前記HMD上で前記少なくとも1つの仮想ディスプレイを提示するステップであって、
    前記HMDは、ユーザが、実世界シーンにおいて、前記少なくとも1つの仮想ディスプレイと、物理ディスプレイと、を見ることを可能にするよう構成されており、
    前記少なくとも1つの仮想ディスプレイは、前記実世界シーンにおける追加のオブジェクトとして、前記HMD上で提示され、
    前記少なくとも1つの仮想ディスプレイは、前記ユーザの視覚的視点から、拡張デスクトップ内でコンピュータ生成情報を提示するために、前記物理ディスプレイと併せて使用される、
    ステップと、
    前記拡張デスクトップ内で提示される前記コンピュータ生成情報を記憶するステップであって、前記物理ディスプレイが前記HMDの視野内にない場合に限り、前記の記憶されているコンピュータ生成情報は、前記少なくとも1つの仮想ディスプレイ内で排他的に提示される、ステップと、
    前記HMDの位置を決定するステップと、
    前記HMDの前記の決定された位置に少なくとも基づいて、前記物理ディスプレイの位置を決定するステップと、
    前記物理ディスプレイの前記の決定された位置に少なくとも基づいて、前記物理ディスプレイの面位置及びスクリーン面積を決定するステップと、
    前記HMDの前記の決定された位置、前記物理ディスプレイの前記の決定された位置、前記物理ディスプレイの前記の決定された面位置、及び前記物理ディスプレイの前記の決定されたスクリーン面積を、前記HMDに提供するステップと、
    を含むコンピュータ実装方法。
  10. 前記物理ディスプレイが前記HMDの視野内にある場合に限り、前記コンピュータ生成情報は、前記拡張デスクトップ内で提示される、請求項記載のコンピュータ実装方法。
  11. 前記物理ディスプレイの物理的動きと、
    前記HMDの物理的動きと、
    前記HMDの前記位置の前の決定、前記物理ディスプレイの前記位置の前の決定、前記物理ディスプレイの前記面位置の前の決定、及び前記物理ディスプレイの前記スクリーン面積の前の決定のうちの少なくとも1つから経過した時間期間と、
    のうちの少なくとも1つに応じて、前記HMDの前記位置、前記物理ディスプレイの前記位置、前記物理ディスプレイの前記面位置、及び前記物理ディスプレイの前記スクリーン面積を再決定するステップ
    をさらに含む請求項記載のコンピュータ実装方法。
  12. 前記物理ディスプレイの前記位置を決定する前記ステップは、前記物理ディスプレイの各頂点の間の各角度を決定するステップをさらに含み、前記物理ディスプレイの前記面位置及び前記スクリーン面積のうちの少なくとも1つは、前記の決定された角度を使用して変更される、請求項又は11記載のコンピュータ実装方法。
  13. 前記生成することは、前記物理ディスプレイの前記スクリーン面積の倍数であるスクリーン面積を有する前記少なくとも1つの仮想ディスプレイを生成することを含み、前記生成することは、アイトラッキングデータを収集することを含み、前記生成することは、
    前記の収集されたアイトラッキングデータと、
    前記HMDの前記の決定された位置と、
    前記物理ディスプレイの前記の決定された位置と、
    前記物理ディスプレイの前記の決定された面位置と、
    前記物理ディスプレイの前記の決定されたスクリーン面積と、
    のうちの少なくとも1つに基づいて、前記少なくとも1つの仮想ディスプレイを生成することを含む、請求項12記載のコンピュータ実装方法。
  14. 前記物理ディスプレイと前記少なくとも1つの仮想ディスプレイとに割り当てられる前記拡張デスクトップの第1の部分と第2の部分との間の所望相対的ディスプレイ向きを決定するステップと、
    前記所望相対的ディスプレイ向きを有するように、前記拡張デスクトップの前記第1の部分及び前記第2の部分を構成するステップであって、前記少なくとも1つの仮想ディスプレイは、前記ユーザの視覚的視点から、前記拡張デスクトップの前記の構成された第1の部分及び第2の部分を提示するために、前記物理ディスプレイと併せて使用される、ステップと、
    をさらに含む請求項記載のコンピュータ実装方法。
  15. 前記少なくとも1つの仮想ディスプレイは、前記ユーザの視覚的視点から、前記実世界シーンにおける前記物理ディスプレイに隣接して配置される追加のオブジェクトとして、前記HMD上で提示される、請求項記載のコンピュータ実装方法。
  16. 前記少なくとも1つの仮想ディスプレイは、前記ユーザの視覚的視点から、前記実世界シーンにおける前記物理ディスプレイの上に重ね合わされる追加のオブジェクトとして、前記HMD上で提示される、請求項記載のコンピュータ実装方法。
  17. コンピュータ生成情報をユーザに提示するために使用される物理ディスプレイと、
    少なくとも1つの仮想ディスプレイを生成する生成ロジックと、
    ヘッドマウントディスプレイ(HMD)であって、
    シースルーディスプレイと、
    前記シースルーディスプレイ上で前記少なくとも1つの仮想ディスプレイを提示する提示ユニットであって、
    前記シースルーディスプレイは、前記ユーザが、実世界シーンにおいて、前記少なくとも1つの仮想ディスプレイと、前記物理ディスプレイと、を見ることを可能にするよう構成されており、
    前記少なくとも1つの仮想ディスプレイは、前記実世界シーンにおける追加のオブジェクトとして、前記シースルーディスプレイ上で提示され、
    前記少なくとも1つの仮想ディスプレイは、前記ユーザの視覚的視点から、拡張デスクトップ内で前記コンピュータ生成情報を提示するために、前記物理ディスプレイと併せて使用される、
    提示ユニットと、
    を備えたHMDと、
    前記拡張デスクトップ内で提示される前記コンピュータ生成情報を記憶するメモリであって、前記物理ディスプレイが前記HMDの視野内にない場合に限り、前記の記憶されているコンピュータ生成情報は、前記少なくとも1つの仮想ディスプレイ内で排他的に提示される、メモリと、
    前記HMDの位置を決定し、
    前記HMDの前記の決定された位置に少なくとも基づいて、前記物理ディスプレイの位置を決定し、
    前記物理ディスプレイの前記の決定された位置に少なくとも基づいて、前記物理ディスプレイの面位置及びスクリーン面積を決定し、
    前記HMDの前記の決定された位置、前記物理ディスプレイの前記の決定された位置、前記物理ディスプレイの前記の決定された面位置、及び前記物理ディスプレイの前記の決定されたスクリーン面積を、前記生成ロジックに提供する
    算出ロジックと、
    を有するシステム。
  18. 前記算出ロジックは、
    前記物理ディスプレイの物理的動きと、
    前記HMDの物理的動きと、
    前記HMDの前記位置の前の決定、前記物理ディスプレイの前記位置の前の決定、前記物理ディスプレイの前記面位置の前の決定、及び前記物理ディスプレイの前記スクリーン面積の前の決定のうちの少なくとも1つから経過した時間期間と、
    のうちの少なくとも1つに応じて、前記HMDの前記位置、前記物理ディスプレイの前記位置、前記物理ディスプレイの前記面位置、及び前記物理ディスプレイの前記スクリーン面積を再決定するよう構成されている、請求項17記載のシステム。
JP2016542702A 2013-12-27 2013-12-27 ヘッドマウントディスプレイを使用して拡張ディスプレイを提供するデバイス、方法、及びシステム Active JP6352426B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2013/090728 WO2015096145A1 (en) 2013-12-27 2013-12-27 Device, method, and system of providing extended display with head mounted display

Publications (2)

Publication Number Publication Date
JP2017510106A JP2017510106A (ja) 2017-04-06
JP6352426B2 true JP6352426B2 (ja) 2018-07-04

Family

ID=53477407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016542702A Active JP6352426B2 (ja) 2013-12-27 2013-12-27 ヘッドマウントディスプレイを使用して拡張ディスプレイを提供するデバイス、方法、及びシステム

Country Status (8)

Country Link
US (1) US10310265B2 (ja)
EP (2) EP3087427B1 (ja)
JP (1) JP6352426B2 (ja)
KR (1) KR101877846B1 (ja)
CN (1) CN105793764B (ja)
BR (1) BR112016012076A2 (ja)
RU (1) RU2643222C2 (ja)
WO (1) WO2015096145A1 (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015110859A1 (en) * 2014-01-21 2015-07-30 Trophy Method for implant surgery using augmented visualization
JP2017130190A (ja) * 2015-12-04 2017-07-27 株式会社半導体エネルギー研究所 電子機器、表示システム
JP2017130201A (ja) 2016-01-20 2017-07-27 株式会社半導体エネルギー研究所 入力システム、および電子機器
US10317989B2 (en) 2016-03-13 2019-06-11 Logitech Europe S.A. Transition between virtual and augmented reality
CN109074204B (zh) 2016-07-22 2022-08-12 惠普发展公司,有限责任合伙企业 补充信息的显示
EP3599532B1 (en) * 2016-11-14 2022-06-22 Logitech Europe S.A. A system for importing user interface devices into virtual/augmented reality
CN108664082A (zh) * 2017-04-01 2018-10-16 北京暴风魔镜科技有限公司 头戴式显示设备、电子设备、显示虚拟场景的方法及装置
US10726574B2 (en) * 2017-04-11 2020-07-28 Dolby Laboratories Licensing Corporation Passive multi-wearable-devices tracking
JP2018181261A (ja) * 2017-04-21 2018-11-15 京セラドキュメントソリューションズ株式会社 表示装置
CN109804333B (zh) * 2017-06-15 2021-05-28 腾讯科技(深圳)有限公司 基于用户的物理尺寸定制用户界面面板的系统和方法
US10930709B2 (en) 2017-10-03 2021-02-23 Lockheed Martin Corporation Stacked transparent pixel structures for image sensors
US10510812B2 (en) 2017-11-09 2019-12-17 Lockheed Martin Corporation Display-integrated infrared emitter and sensor structures
DE102017126748A1 (de) * 2017-11-14 2019-05-16 Zimmermann Holding-Ag Verfahren zur Darstellung eines dreidimensionalen Objekts sowie diesbezügliches Computerprogrammprodukt, digitales Speichermedium und Computersystem
US11222612B2 (en) * 2017-11-30 2022-01-11 Hewlett-Packard Development Company, L.P. Augmented reality based virtual dashboard implementations
CN108154864B (zh) * 2017-12-22 2020-02-21 联想(北京)有限公司 显示屏处理方法、第一电子设备以及第二电子设备
US10129984B1 (en) 2018-02-07 2018-11-13 Lockheed Martin Corporation Three-dimensional electronics distribution by geodesic faceting
US10838250B2 (en) 2018-02-07 2020-11-17 Lockheed Martin Corporation Display assemblies with electronically emulated transparency
US10951883B2 (en) 2018-02-07 2021-03-16 Lockheed Martin Corporation Distributed multi-screen array for high density display
US10594951B2 (en) 2018-02-07 2020-03-17 Lockheed Martin Corporation Distributed multi-aperture camera array
US10652529B2 (en) 2018-02-07 2020-05-12 Lockheed Martin Corporation In-layer Signal processing
US11616941B2 (en) 2018-02-07 2023-03-28 Lockheed Martin Corporation Direct camera-to-display system
US10690910B2 (en) 2018-02-07 2020-06-23 Lockheed Martin Corporation Plenoptic cellular vision correction
US10979699B2 (en) 2018-02-07 2021-04-13 Lockheed Martin Corporation Plenoptic cellular imaging system
KR102073230B1 (ko) * 2018-06-28 2020-02-04 주식회사 알파서클 특정 영역의 화질을 개선하기 위해 복수의 가상현실영상을 재생하는 가상현실영상재생장치 및 가상현실영상생성방법
US11308922B2 (en) * 2018-07-03 2022-04-19 Telefonaktiebolaget Lm Ericsson (Publ) Portable electronic device for mixed reality headset
US11036284B2 (en) 2018-09-14 2021-06-15 Apple Inc. Tracking and drift correction
KR102055824B1 (ko) * 2018-10-25 2019-12-13 에스케이텔레콤 주식회사 증강현실 영상의 디스플레이 방법 및 이에 사용되는 장치
US10866413B2 (en) 2018-12-03 2020-12-15 Lockheed Martin Corporation Eccentric incident luminance pupil tracking
CN111399631B (zh) * 2019-01-03 2021-11-05 广东虚拟现实科技有限公司 虚拟内容显示方法、装置、终端设备及存储介质
US10698201B1 (en) 2019-04-02 2020-06-30 Lockheed Martin Corporation Plenoptic cellular axis redirection
US11379033B2 (en) * 2019-09-26 2022-07-05 Apple Inc. Augmented devices
TWI745955B (zh) * 2020-05-06 2021-11-11 宏碁股份有限公司 擴增實境系統與其錨定顯示方法
CN113703161B (zh) * 2020-05-22 2023-07-25 宏碁股份有限公司 扩增实境系统与其锚定显示方法
US11927761B1 (en) 2020-07-21 2024-03-12 Apple Inc. Head-mounted display systems
TWI757824B (zh) * 2020-08-10 2022-03-11 宏碁股份有限公司 擴增實境螢幕系統及擴增實境螢幕顯示方法
CN114911398A (zh) * 2021-01-29 2022-08-16 伊姆西Ip控股有限责任公司 显示图形界面方法、电子设备和计算机程序产品
WO2022192011A1 (en) * 2021-03-11 2022-09-15 Dathomir Laboratories Llc Distributed content rendering
EP4325341A4 (en) 2021-09-15 2024-04-17 Samsung Electronics Co., Ltd. DEVICE AND METHOD FOR DISPLAYING EXTENDED SCREEN OF MOBILE DEVICE
EP4202611A1 (en) * 2021-12-27 2023-06-28 Koninklijke KPN N.V. Rendering a virtual object in spatial alignment with a pose of an electronic device
CN117056869A (zh) * 2023-10-11 2023-11-14 轩创(广州)网络科技有限公司 一种基于人工智能的电子信息数据关联方法及系统

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240491A (ja) * 1997-02-26 1998-09-11 Olympus Optical Co Ltd 情報処理装置
US20030012410A1 (en) 2001-07-10 2003-01-16 Nassir Navab Tracking and pose estimation for augmented reality using real features
US20030030597A1 (en) 2001-08-13 2003-02-13 Geist Richard Edwin Virtual display apparatus for mobile activities
JP2007097902A (ja) * 2005-10-05 2007-04-19 Gifu Univ 超音波検査システム
CN101029968A (zh) * 2007-04-06 2007-09-05 北京理工大学 可寻址光线屏蔽机制光学透视式头盔显示器
JP2009245390A (ja) * 2008-03-31 2009-10-22 Brother Ind Ltd 表示処理装置及び表示処理システム
JP5262688B2 (ja) * 2008-12-24 2013-08-14 ブラザー工業株式会社 プレゼンテーションシステム及びそのプログラム
US20100208033A1 (en) 2009-02-13 2010-08-19 Microsoft Corporation Personal Media Landscapes in Mixed Reality
JP2013127489A (ja) 2010-03-29 2013-06-27 Panasonic Corp シースルーディスプレイ
US8884984B2 (en) * 2010-10-15 2014-11-11 Microsoft Corporation Fusing virtual content into real content
JP2012220602A (ja) * 2011-04-06 2012-11-12 Konica Minolta Holdings Inc 投影装置、制御装置、および制御方法
JP5691802B2 (ja) 2011-04-28 2015-04-01 コニカミノルタ株式会社 投影システム、投影装置、投影方法、および制御プログラム
JP2012233963A (ja) * 2011-04-28 2012-11-29 Konica Minolta Holdings Inc 投影システム、投影装置、投影方法、および制御プログラム
US9255813B2 (en) 2011-10-14 2016-02-09 Microsoft Technology Licensing, Llc User controlled real object disappearance in a mixed reality display
US9497501B2 (en) 2011-12-06 2016-11-15 Microsoft Technology Licensing, Llc Augmented reality virtual monitor
US9024844B2 (en) * 2012-01-25 2015-05-05 Microsoft Technology Licensing, Llc Recognition of image on external display
JP5563625B2 (ja) * 2012-06-29 2014-07-30 株式会社ソニー・コンピュータエンタテインメント 画像解析装置、画像解析方法、および画像解析システム
JP5796726B2 (ja) * 2013-03-29 2015-10-21 コニカミノルタ株式会社 ジョブ情報表示装置

Also Published As

Publication number Publication date
KR101877846B1 (ko) 2018-07-12
CN105793764A (zh) 2016-07-20
WO2015096145A1 (en) 2015-07-02
JP2017510106A (ja) 2017-04-06
EP3087427A1 (en) 2016-11-02
RU2016120976A (ru) 2017-12-01
EP3087427A4 (en) 2017-08-02
EP3525033B1 (en) 2021-07-21
US10310265B2 (en) 2019-06-04
US20170168296A1 (en) 2017-06-15
BR112016012076A2 (pt) 2017-08-08
KR20160077159A (ko) 2016-07-01
EP3087427B1 (en) 2019-01-30
EP3525033A1 (en) 2019-08-14
RU2643222C2 (ru) 2018-01-31
CN105793764B (zh) 2018-11-30

Similar Documents

Publication Publication Date Title
JP6352426B2 (ja) ヘッドマウントディスプレイを使用して拡張ディスプレイを提供するデバイス、方法、及びシステム
US11557102B2 (en) Methods for manipulating objects in an environment
KR102283747B1 (ko) 시선 추적을 갖는 타겟 위치결정
CN109791442B (zh) 表面建模系统和方法
KR102460047B1 (ko) 유저 안경 특성을 결정하는 눈 추적용 디바이스를 갖는 헤드업 디스플레이
US11217024B2 (en) Artificial reality system with varifocal display of artificial reality content
EP3000020B1 (en) Hologram anchoring and dynamic positioning
CN110709897B (zh) 用于插入到图像中的图像内容的阴影生成
US20200082632A1 (en) Location-Based Virtual Element Modality in Three-Dimensional Content
EP3814876B1 (en) Placement and manipulation of objects in augmented reality environment
US10687051B1 (en) Movable display for viewing and interacting with computer generated environments
US20190094955A1 (en) Range finding and accessory tracking for head-mounted display systems
CN115735177A (zh) 包括共享对象操纵ar体验的眼戴器
CN114514493A (zh) 增强设备
CN109716395B (zh) 在虚拟现实中保持对象稳定性
Prima et al. A Pointing Device for 3D Interactive Spherical Displays
Takahashi et al. A Perspective-Corrected Stylus Pen for 3D Interaction

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180606

R150 Certificate of patent or registration of utility model

Ref document number: 6352426

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250