JP6246829B2 - ヘッドマウントディスプレイのリソース管理 - Google Patents

ヘッドマウントディスプレイのリソース管理 Download PDF

Info

Publication number
JP6246829B2
JP6246829B2 JP2015545482A JP2015545482A JP6246829B2 JP 6246829 B2 JP6246829 B2 JP 6246829B2 JP 2015545482 A JP2015545482 A JP 2015545482A JP 2015545482 A JP2015545482 A JP 2015545482A JP 6246829 B2 JP6246829 B2 JP 6246829B2
Authority
JP
Japan
Prior art keywords
user
information
sensor
sensors
resource management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015545482A
Other languages
English (en)
Other versions
JP2016502201A (ja
Inventor
ラッタ,スティーヴン
アンソニー ペリー,ジェッド
アンソニー ペリー,ジェッド
ジー. フレック,ロッド
ジー. フレック,ロッド
クレヴェンガー,ジャック
シャファリツキー,フレデリク
スティードリー,ドリュー
マッカロック,ダニエル
マッキンタイア,イアン
バラン,アレクサンドル
サグデン,ベン
ヘイスティングズ,ライアン
マウント,ブライアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2016502201A publication Critical patent/JP2016502201A/ja
Application granted granted Critical
Publication of JP6246829B2 publication Critical patent/JP6246829B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3215Monitoring of peripheral devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • G02B2027/0174Head mounted characterised by optical features holographic
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3287Power saving characterised by the action undertaken by switching off individual functional units in the computer system
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Description

本発明は、ヘッドマウントディスプレイのリソース管理に関する。
ヘッドマウントディスプレイデバイスといった拡張現実デバイスは、種々の形態の入力データを生成する複数のセンサを含み得る。それぞれのセンサは、入力データのキャプチャおよび処理において電力を消費する。そうしたセンサは、例えば、マイクロフォン、画像センサ、深度カメラ、視標追跡センサ、および、位置センサを含んでよい。これらのセンサの連続的なオペレーションは、著しい量の電力を消費し、潜在的にヘッドマウントディスプレイデバイスのバッテリー寿命を低減することがある。加えて、いくつかの例において、一つまたはそれ以上のセンサからのデータはネットワークにわたり送信され得る。そうした入力データの連続的な送信は、また、ネットワークリソースと同様に、著しい量の電力を消費し得る。
許容可能なバッテリー寿命に加えて、拡張現実デバイスのユーザは、また、首尾一貫した、高品質の拡張現実体験を望んでいる。
一つまたはそれ以上のセンサの電源オフ又は配送される電力を削減することは、電力消費及び/又はネットワークデマンドを低減することができるが、一方、そうした電力変動は、また、拡張現実デバイスによって提供される拡張現実体験の質を低下させることもある。
上記の問題を解決するために、ヘッドマウントディスプレイデバイスを含むリソース管理システムおよび関連する方法が提供される。一つの実施例において、ヘッドマウントディスプレイデバイスは、ユーザによって装着されるように構成されており、かつ、動作可能にコンピューティングデバイスに対して接続されている。ヘッドマウントディスプレイデバイスは、また、複数のセンサとホログラフィックオブジェクトを表示するためのディスプレイシステムを含んでいる。
リソース管理システムは、さらに、コンピューティングデバイスのプロセッサによって実行されるリソース管理プログラムを含んでいる。リソース管理プログラムは、選択されたレベルのセンサフィデリティ(fidelity)を達成するために、複数のセンサのうち選択されたセンサがデフォルト電力モードで動作するように構成されている。リソース管理プログラムは、また、一つまたはそれ以上のセンサからユーザ関連情報を受け取るように構成されている。ユーザ関連情報は、オーディオ情報、ユーザ注視情報、ユーザ位置情報、ユーザ動作情報、ユーザ画像情報、および、ユーザの生理学上の情報からなるグループから選択されたものである。
リソース管理プログラムは、さらに、ターゲット情報がユーザ関連情報において検出されたか否かを判断するように構成されている。ターゲット情報が検出された場合、リソース管理プログラムは、選択されたセンサが、デフォルト電力モードよりも少ない電力を使用する低減電力モードにおいて動作するように調整するように構成されている。それにより、低減されたレベルのセンサフィデリティを達成している。
この概要は、以降の詳細な説明においてさらに説明されるコンセプトから選択したものを簡素化された形態において紹介するために提供されている。この概要は、特許請求される技術的事項の主要な特徴または必須の機能を特定することを意図するものではなく、特許請求される技術的事項の範囲を限定するために使用されることを意図するものでもない。さらに、特許請求される技術的事項は、本発明開示のあらゆる部分において示されるいかなる又は全ての欠点を解決する実施について限定されるものではない。
図1は、本発明開示の一つの実施例に従った、リソース管理システムの模式図である。 図2は、本発明開示の一つの実施例に従った、ヘッドマウントディスプレイデバイスの一つの例を示している。 図3は、物理的環境において、図2のヘッドマウントディスプレイデバイスを使用している2人のユーザ、および、本発明開示の一つの実施例に従った、図1のリソース管理システムの模式図である。 図4Aは、本発明開示の一つの実施例に従って、ヘッドマウントディスプレイデバイスにおいてリソースを管理するための方法に係るフローチャートである。 図4Bは、本発明開示の一つの実施例に従って、ヘッドマウントディスプレイデバイスにおいてリソースを管理するための方法に係るフローチャートである。 図4Cは、本発明開示の一つの実施例に従って、ヘッドマウントディスプレイデバイスにおいてリソースを管理するための方法に係るフローチャートである。 図5は、コンピューティングシステムの一つの実施例の簡素化された模式図である。
図1は、ヘッドマウントディスプレイ(HMD)システムにおけるリソースを管理するためのリソース管理システム10に係る一つの実施例の模式図である。リソース管理システム10は、コンピューティングデバイス22のマスストレージ18に保管され得るリソース管理プログラム14を含んでいる。リソース管理プログラム14は、メモリ26の中にロードされ、コンピューティングデバイス22のプロセッサ30によって実行されて、以下により詳細に説明される方法及びプロセスのうち一つまたはそれ以上を実行し得る。コンピューティングデバイス22は、さらに、電源32を含んでよい。コンピューティングデバイスのコンポーネントに対して電力を供給するためのバッテリーといったものである。
一つの実施例において、リソース管理システム10は、コンピューティングデバイス22のマスストレージ18に保管され得る拡張現実ディスプレイプログラム28を含んでいる。拡張現実ディスプレイプログラム28は、第1のHMDデバイス34といった、ディスプレイデバイス上における表示のための仮想環境36を生成し得る。仮想環境36は、ホログラフィックオブジェクトといった、一つまたはそれ以上の仮想オブジェクトを含み得る。いくつかの実施例においては、仮想環境36が生成され、インタラクティブビデオゲーム、モーションピクチャ体験、または、他の好適な電子的ゲームまたは体験に係る形態において拡張現実体験を提供し得る。別の実施例においては、拡張現実ディスプレイプログラム28及び/又はリソース管理プログラム14が、離れて保管され、ネットワーク38といった、コンピューティングデバイスが動作可能に接続されているネットワークをわたり、コンピューティングデバイス22によってアクセスされ得る。
コンピューティングデバイス22は、以下の形態であってもよい。デスクトップコンピューティングデバイス、スマートフォンといったモバイルコンピューティングデバイス、ラップトップ、ノートブック、タブレットコンピュータ、ネットワークコンピュータ、ホームエンターテイメントコンピュータ、インタラクティブテレビ、ゲームシステム、または、他の好適なタイプのコンピューティングデバイス、である。コンピューティングデバイス22に係るコンポーネントおよびコンピューティング態様に関する追加的な詳細は、図5に示されるコンピューティングシステムを参照して以下により詳細に説明される。
コンピューティングデバイス22は、第1のHMDデバイス34と、有線接続を使用して動作可能に接続され得る。もしくは、WiFi、ブルートゥース(登録商標)、または、他のあらゆる好適な無線通信プロトコルを介した無線接続を使用してもよい。加えて、図1に示される実施例は、第1のHMDデバイス34とは別個のコンポーネントとしてコンピューティングデバイス22を示している。他の実施例においては、コンピューティングデバイス22が第1のHMDデバイス34の中に統合され得ることが、正しく理解されよう。
コンピューティングデバイス22は、また、ネットワーク38を介して、一つまたはそれ以上の追加デバイスと動作可能に接続され得る。一つの実施例において、コンピューティングデバイス22は、ネットワーク38を介して、第2のHMDデバイス42と通信することができる。ネットワーク38は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、有線ネットワーク、無線ネットワーク、パーソナルエリアネットワーク、または、これらの組合せの形態であってよく、インターネットを含んでよい。
ここで図2に関しては、また、透明ディスプレイ50を用いたウエアラブルメガネの形態において、HMDデバイス200が提供される。他の実施例において、HMDデバイス200は、観察者の眼の前に透明、半透明、または、不透明なディスプレイが支持されている他の好適な形態であってよいことが正しく理解されよう。図1に示されるHMDデバイス34は、以下により詳細に説明されるようなHMDデバイス200、または、他のあらゆる好適なHMDデバイスの形態であってよいことも、正しく理解されよう。加えて、種々のフォームファクタを有するディスプレイデバイスに係る他の多くのタイプおよび構成も使用され得る。例えば、拡張現実体験を提供するハンドヘルドディスプレイデバイスが、使用されてもよい。
図1と図2を参照すると、この実施例において、第1のHMDデバイス34は、ディスプレイシステム46、および、画像がユーザの眼に対して配送されるようにする透明ディスプレイ50を含んでいる。透明ディスプレイ50は、透明ディスプレイを通じて物理的環境を観察しているユーザに対して、物理的環境の外観を視覚的に拡張するように構成され得る。例えば、物理的環境の外観は、透明ディスプレイ50を介して表示されるグラフィカルコンテンツ(それぞれが色と輝度を有している一つまたはそれ以上のそれぞれのピクセル)によって拡張され得る。
透明ディスプレイ50は、また、仮想オブジェクト表現を表示している一つまたはそれ以上の透明ピクセルを通じて、ユーザが、物理的な、実世界のオブジェクトを観察できるように構成されてもよい。一つの実施例において、透明ディスプレイ50は、レンズ204の中に配置された画像生成エレメントを含み得る(例えば、シースルーの有機発光ダイオード(OLED)ディスプレイ、といったもの)。別の実施例として、透明ディスプレイ50は、レンズ204の端に光変調器を含み得る。この実施例において、レンズ204は、光変調器からユーザの眼まで光を伝送する光ガイドとして役に立つ。そうした光ガイドによって、ユーザは、ユーザが観察している物理的環境の中に配置された3D仮想画像を知覚することができる。一方で、ユーザは、物理的環境における物理的オブジェクトを観察することもできる。
他の実施例において、透明ディスプレイ50は、HMDデバイス200を装着しているユーザの眼に届く前に、物理的環境から受け取った光の選択的なフィルタリングをサポートし得る。そうしたフィルタリングは、ピクセル毎ベースまたはピクセルグループに対して実行され得る。一つの実施例において、透明ディスプレイ50は、一つまたはそれ以上の照明されたピクセルの形態における光を加える第1のディスプレイレイヤ(layer)と、物理的環境から受け取った環境光をフィルタする第2のディスプレイレイヤを含んでよい。これらのレイヤは、異なるディスプレイ解像度、ピクセル密度、及び/又は、ディスプレイ能力を有してよい。
第2のディスプレイレイヤは、一つまたはそれ以上の不透明レイヤ52を含んでよく、その中でブロック画像が生成され得る。一つまたはそれ以上の不透明レイヤ52は、透明ディスプレイ50の中に統合的に形成されてよい。他の実施例において、一つまたはそれ以上の不透明レイヤ52は、透明ディスプレイ50に隣接して別個に設置または取付けられてよい。別個のバイザーの形態といったものである。
第1のHMDデバイス34は、また、種々のシステム及びセンサを含み得る。例えば、第1のHMDデバイス34は、少なくとも一つの内向きセンサ208(図2参照)を使用する視標追跡センサシステム54を含み得る。内向きセンサ208は、ユーザの眼から視標追跡情報の形式において画像データを獲得するように構成されている画像センサであってよい。この情報の獲得と使用についてユーザの同意が得られれば、視標追跡センサシステム54は、ユーザの眼の位置及び/又は移動を追跡するために、この情報を使用し得る。視標追跡センサシステム54は、そして、どこで、及び/又は、どの物理的オブジェクトまたは仮想オブジェクトをユーザが注視しているかを判断し得る。内向きセンサ208は、また、可視スペクトラム及び/又は赤外光をキャプチャするための一つまたはそれ以上の光学センサを含み得る。そうしたセンサは、例えば、HMDデバイス34に対するユーザ顔面の近傍を判断するために使用され得る。
第1のHMDデバイス34は、また、光学センサといった、少なくとも一つの外向きセンサ212を使用する光学センサシステム58を含み得る。外向きセンサ212は、視野の中での動きを検出し得る。ジェスチャベースの入力、もしくは、ユーザにより、または、視野の中における人間または物理的オブジェクトによって実行される他の動きといったものである。外向きセンサ212は、また、物理的環境および環境の中の物理的オブジェクトからの画像情報と深度情報をキャプチャし得る。例えば、外向きセンサ212は、深度カメラ、可視光カメラ、赤外光カメラ、及び/又は、位置追跡カメラ、を含んでよい。いくつかの実施例において、外向きセンサ212は、物理的環境における実世界の照明状況からの可視スペクトラム及び/又は赤外光を観察するための一つまたはそれ以上の光学センサを含み得る。そうしたセンサは、例えば、RGB環境光及び/又は白黒環境光を検出し得る電荷結合素子画像センサを含んでよい。
上述のように、第1のHMDデバイス34は、一つまたはそれ以上の深度カメラを介した深度センシングを含み得る。それぞれの深度カメラは、例えば、立体視システムの左および右カメラを含み得る。一つまたはそれ以上のこれらの深度カメラからの時間分析画像は、お互いに対して、及び/又は、可視スペクトラムカメラといった別の光学センサからの画像に対して記録され、かつ、深度分析ビデオを生成するように結合され得る。
いくつかの実施例において、深度カメラは、構造化照明深度カメラの形態であってよい。数多くの、個別の特徴(例えば、ラインまたはポイント)を有する構造化(structured)赤外照明を投射するように構成されたものである。深度カメラは、シーン(scene)から反射された構造化照明を、構造化照明が投射されるシーンの上に結像するように構成され得る。結像されたシーンの種々の領域における隣接した特徴間でのスペーシングに基づいて、シーンの深度マップが構成され得る。
他の実施例において、深度カメラは、パルス化(pulsed)赤外照明をシーンの上に投影するように構成されている飛行時間(time−of−flight)深度カメラの形態であってよい。この深度カメラは、シーンから反射されたパルス化照明を検出するように構成され得る。2つまたはそれ以上のこれらの深度カメラは、パルス化照明に同期された電子シャッタを含み得る。2つまたはそれ以上の深度カメラに対する統合回数は異なってよい。光源からシーンまで、そして、深度カメラまでの、パルス化照明に係るピクセル分析の飛行時間が、2つの深度カメラの対応するピクセルにおいて受け取られた相対的な光量から識別可能なようにである。第1のHMDデバイス34は、また、構造化照明及び/又は飛行時間深度解析をアシストするための赤外線プロジェクタを含み得る。
他の実施例においては、ユーザ及び/又は物理的環境における人間からのジェスチャベースおよび他の動作入力は、また、一つまたはそれ以上の深度カメラを介して検出され得る。例えば、外向きセンサ212は、深度画像を作成するために既知の相対的位置にある2つまたはそれ以上の光学センサを含み得る。既知の相対的位置にあるこれらの光学センサから結果として生じる動作を使用して、そうした深度画像が生成され、ジェスチャベースおよび他の動作入力に対してマップされ得る。さらに他の実施例においては、レーザーリターン、超音波、赤外線、及び/又は、あらゆる他の深度検出技術が、使用されてよく、かつ、本発明開示の範囲内にある。
外向きセンサ212は、ユーザが置かれている物理的環境の画像をキャプチャすることができる。以下により詳細に説明されるように、そうした画像は、物理的環境情報60の一部であり、第1のHMDデバイス34によって受け取られ、コンピューティングデバイス22に提供され得る。一つの実施例において、拡張現実ディスプレイプログラム28は、3Dモデリングシステムを含んでよく、そうした入力を使用して、キャプチャされた物理的環境をモデル化する仮想環境36を生成する。
第1のHMDデバイス34は、また、一つまたはそれ以上の動作センサを使用する位置センサシステム62を含んでよく、第1のHMDデバイスの位置追跡及び/又は方向検出ができるようにして、物理的環境の中でHMDデバイスの位置を決定する。一つの実施例において、位置センサシステム62は、6軸または6自由度の位置センサシステムとして構成されている慣性計測装置を含み得る。位置センサシステムのこの実施例は、例えば、3つの加速度計および3つのジャイロスコープを含んでよく、3次元空間の中での3つの直交軸(例えば、x、y、z)に沿った第1のHMDデバイス34の位置における変化、および、3つの直交軸(例えば、ロール、ピッチ、ヨー)に沿ったHMDデバイスの方向における変化を示し、または、測定する。
位置センサシステム62は、GPSまたは他のグローバルナビゲーションシステムといった、他の好適な位置決め技術をサポートし得る。例えば、位置センサシステム62は、無線レシーバ(例えば、GPSレシーバまたは携帯レシーバ)を含んでよく、衛星及び/又は地球上の基地局からの無線信号放送を受信する。これらの無線信号は、第1のHMDデバイス34の地理的な位置を特定するために使用され得る。
第1のHMDデバイス34によって受信された無線信号から得られた位置決め情報は、動作センサ216から得られた位置決め情報と組合わされて、第1のHMDデバイス34の位置及び/又は方向の指標を提供することができる。位置センサシステムの所定の実施例について説明されてきたが、他の好適な位置センサシステムも使用され得ることが正しく理解されよう。
動作センサ216は、また、ユーザ入力デバイスとしても使用され得る。首および頭、または、体のジェスチャを介して、ユーザが、第1のHMDデバイス34とインタラクションできるようにである。さらに、いくつかの実施例において、動作センサ216は、比較的に低電力消費であり得る。これらの場合、動作センサ216からの情報は、より大きな電力消費であるより複雑なセンサシステムからの情報の代わりに使用され得る。より複雑なセンサシステムは、システムリソースを保護するために、電源ダウンまたは電源オフされ得る。動作センサの限定的でない実施例は、加速度計、ジャイロスコープ、コンパス、および、方向センサを含んでおり、これらのあらゆる組合せ又は部分的組合せが含まれてよい。
第1のHMDデバイスは、また、一つまたはそれ以上のマイクロフォン220を含むマイクロフォンシステム64を含み得る。いくつかの実施例において、かつ、以下により詳細に説明されるように、マイクロフォン220のアレイ(array)が、ユーザからのオーディオ入力、及び/又は、ユーザの周りの物理的環境からのオーディオ入力を受け取ることができる。追加的または代替的に、HMDデバイス34から分離した一つまたはそれ以上のマイクロフォンがオーディオ入力を受け取るために使用され得る。
他の実施例において、オーディオは、HMDデバイス34上の一つまたはそれ以上のスピーカ224を介してユーザに対して提供され得る。そうしたオーディオは、例えば、音楽、インストラクション、及び/又は、拡張現実ディスプレイプログラム28または他のソースからの他の通信を含み得る。
他の実施例において、第1のHMDデバイス34は、また、通信システム66および関連するトランシーバ228を含み得る。Wi−Fi信号、ブルートゥース信号、等といった無線信号を放送し、他のデバイスからそうした信号を受信するためである。これらの無線信号は、例えば、デバイス間でデータ交換し、及び/又は、ネットワークを作成するために使用され得る。
第1のHMDデバイス34は、また、ロジックサブシステムとストレージサブシステムを有するプロセッサ232を含み得る。図5に関して以降にさらに詳細に説明されるように、HMDデバイスの種々の入力及び出力デバイスと通信している。簡潔には、ストレージサブシステムは、ロジックサブシステムによって実行可能なインストラクションを含んでよく、例えば、センサからの入力を受信し、通信システム66を介して(未処理または処理された形式において)コンピューティングデバイス22に対して転送し、かつ、透明ディスプレイ50を介してユーザに対して画像を提供する。
第1のHMDデバイス34は、また、バッテリー70または好適なポータブル電源を含んでよく、HMDデバイスの種々のコンポーネントに対して電力を提供する。
第1のHMDデバイス34と関連のセンサ、および、上記され図1と図2において図示された他のコンポーネントは、実施例として提供されていることが正しく理解されよう。これらの実施例は、あらゆるやり方において限定的であること意図するものではない。あらゆる他の好適なセンサ、コンポーネント、及び/又は、センサとコンポーネントの組合せが使用され得るようにである。従って、第1のHMDデバイス34は、本発明開示の範囲から逸脱することなく、追加的及び/又は代替的なセンサ、カメラ、マイクロフォン、入力デバイス、出力デバイス、等を含み得ることが理解されるべきである。さらに、第1のHMDデバイス34と種々のセンサおよびサブコンポーネントの物理的な構成は、本発明開示の範囲から逸脱することなく、種々の異なる形態であり得る。
これから図3も参照すると、実施例の説明、および、リソース管理システム10とHMDデバイス34を利用している使用例が提供される。図3は、物理的環境の中に居る第1のユーザ304と第2のユーザ308の模式図である。この実施例において、物理的環境は、壁312、壁に掛けられた絵316、テーブル320および本棚324といった、物理的オブジェクトを含む部屋300である。第1のユーザは、第1のHMDデバイス34を装着し、第2のユーザは第2のHMDデバイス42を装着してよい(図1も参照のこと)。第2のHMDデバイス42は、上記の第1のHMDデバイス34と実質的に同等な構成とオペレーションを有し得る。両方のHMDデバイスは、HMDデバイス200の形態であってよい。
第1のHMDデバイス34のディスプレイシステム46は、第1のユーザ304の眼に、テーブル320上に居る仮想魔法使い326の形態において、ホログラフィックオブジェクトを表示し得る。同様に、第2のHMDデバイス42のディスプレイシステムは、その魔法使いがテーブル320上に現れるように、第2のユーザ308の眼に、仮想魔法使い326を表示し得る。このようにして、図3は、仮想環境36に従って、部屋の中に配置された仮想魔法使い326が居るものとして、部屋300を示している。仮想環境は、第1のHMDデバイス34または第2のHMDデバイス42の拡張現実ディスプレイプログラム28によって生成されるものである。
以下のことが正しく理解されよう。仮想環境36は、物理的環境をモデル化し得ること、および、仮想環境は、ユーザの指標追跡情報、物理的環境からの照明情報、深度情報、画像情報、および、第1のHMDデバイス34及び/又は第2のHMDデバイス42から受け取った位置及び/又は方向情報のうち、一つまたはそれ以上に基づき得ることである。一つの実施例において、そうした情報は、部屋300の3Dマップを有し、かつ、一つまたはそれ以上のホログラフィックオブジェクトを含む仮想環境36を生成するために、コンパイルされ得る。
以下に説明される種々の使用例においてさらに示されるように、リソース管理プロセス14は、選択されたレベルのセンサフィデリティを達成するようにデフォルト電力モードにおいて第1のHMDデバイス34に係る選択されたセンサを操作するように構成されてよい。一つの実施例において、選択されたセンサは、光学センサシステム58、位置センサシステム62、視標追跡センサシステム54、または、マイクロフォンシステム64からのものであり得る。所与のセンサに対するセンサフィデリティの選択されたレベルは、既定のセンサ解像度、センサ周波数またはサンプリングレート、もしくは、他の好適なオペレーション品質に応じたものであってよい。
第1のHMDデバイス34は、視標追跡センサシステム54、光学センサシステム58、位置センサシステム62、及び/又は、マイクロフォンシステム64を介して、ユーザ関連情報72を受け取ることができる。リソース管理プログラム14は、第1のHMDデバイス34からユーザ関連情報72を受け取るように構成され得る。一つの実施例において、ユーザ関連情報は、以下のものを含み得る。オーディオ情報、ユーザ注視情報、ユーザ位置情報、ユーザ動作情報、ユーザ画像情報、及び/又は、ユーザの生理学上の情報である。このユーザ関連情報を使用して、リソース管理プロセス14は、ユーザ関連情報の中にターゲット情報が検出されたか否かを判断するように構成され得る。ターゲット情報が検出された場合、リソース管理プログラム14は、選択されたセンサが、デフォルト電力モードよりも少ない電力を使用する低減電力モードにおいて動作するよう調整するように構成され得る。センサの低減電力モードは、センサフィデリティの低減されたレベルに対応してよい。
いくつかの実施例において、ターゲット情報は、以下のものを含み得る。コンテクストを特定するオーディオ情報、ホログラフィックオブジェクト又は物理的オブジェクト上に固定されているユーザ注視、既定の場所におけるユーザ位置、動作閾値以下のユーザ動作、ユーザの体部位を示す画像情報、及び/又は、意識(awareness)閾値以下のユーザ意識を示す意識関連のユーザの生理学上の情報、である。
一つの実施例において、第1のユーザ304は、第1のHMDデバイス34を装着して、ショッピングモールからユーザの自宅へドライブしている。ドライブの間は、第1のHMDデバイス34の位置センサシステム62におけるGPSセンサが、デフォルト電力モードで動作されてよい。デフォルト電力モードは、デフォルトの場所精度を生じるデフォルトの場所サンプリングレートに対応してよい。そうしたデフォルトの場所精度は、第1のHMDデバイス34を介してユーザ304に対して、例えば、種々の場所に拠るサービスを提供するためには十分であり得る。
ユーザ304は、自宅に到着して、ユーザの家の内側を歩くことができる。この点において、リソース管理プログラム14は、ユーザがユーザの自宅の既定の場所に居ることを示しているGPSセンサからのユーザ位置情報を受け取ることができる。リソース管理プログラム14が、このターゲット情報を検出した場合、リソース管理プログラムは、GPSセンサが、低減された場所サンプリングレートおよび低減された場所精度に対応する低減電力モードにおいて動作するように調整し得る。一つの実施例において、低減電力モードは、GPSセンサがオフされる電源オフ状態に対応してよい。有利なことに、このようにGPSセンサについて選択的に電力を低減することによって、第1のHMDデバイス34の電力消費が低減され、かつ、例えば対応するバッテリー寿命が増加され得る。
ユーザがユーザの家の中に居る場合、GPSセンサによって生成される位置情報は、ユーザの家の中でユーザ304によって典型的に楽しまれている拡張現実体験のいくつかに対して、限定された値を提供し得ることが正しく理解されよう。従って、ユーザの家の既定の場所がターゲット情報として選択されてよく、かつ、ユーザ304によって知覚される際に拡張現実体験の品質を劣化させないやり方で、GPSセンサについて対応する低減電力モードが使用されてよい。加えて、かつ、他の使用例について以下により詳細に説明されるように、他のセンサ及び対応する他のターゲット情報に対する追加の低減電力モードが、同様に、ユーザが知覚する拡張現実体験の品質低下を避けるように設計されたやり方で使用されてよい。
図3に関して、別の実施例においては、第1のユーザ304は、ユーザの家の部屋300の中で座っていてよい。第1のユーザ304は、第1のHMDデバイス34を介して表示され、仮想魔法使い326が主演している3D映画体験に夢中になっている。この実施例において、ターゲット情報は、動作閾値以下のユーザ動作を含んでよい。例えば、動作閾値は、既定の時間量においてユーザが横切ることのない第1のユーザ304周辺の境界として定義され得る。一つの実施例において、境界は、第1のユーザ304を取り囲む半径1メートルの円であり、かつ、既定の時間量は30秒間であってよい。本発明開示の範囲から逸脱することなく、あらゆる好適な境界の距離または構成、および、あらゆる好適な既定の時間量が使用され得ることが、正しく理解されよう。異なる境界の距離および時間量が、異なる場所及び/又はコンテクストに対して、より好適であり得ることも、正しく理解されよう。
この実施例においては、ユーザが在る場所に30秒以上座っている場合、リソース管理プログラム14は、ユーザ動作が動作閾値以下であることを検出するように構成されている。動作閾値化の動作の検出に基づいて、リソース管理プログラム14は、低減電力モードで動作するように位置センサシステム62を調整してよい。例えば、低減電力モードは、低サンプリングレートで動作しているか、または、電源オフされているGPSセンサに応じたものであってよい。
他の実施例において、および、動作閾値化の動作の検出に基づいて、リソース管理プログラム14は、低減電力モードで動作するように、一つまたはそれ以上の他のセンサを調整してよい。例えば、光学センサシステム58における可視光カメラが、デフォルトのリフレッシュレート、例えば、30Hzより遅いリフレッシュレートに対応する低減電力モードに調整され得る。
別の実施例において、第1のユーザ304は、注視ライン330によって示されるように、仮想魔法使い326を注視しているか、または、注視ライン334によって示されるように、絵316を注視している。この実施例において、ターゲット情報は、ホログラフィックオブジェクトまたは物理的オブジェクト上に固定されているユーザ注視を含んでよい。2秒間といった、既定の時間量以上にホログラフィックオブジェクトまたは物理的オブジェクト上に向けられた注視が留まっている場合に、ユーザ注視は、固定されていると判断され得る。本発明開示の範囲を逸脱することなく、例えば、1秒間、3秒間、10秒間、1分間、または、他のあらゆる好適な時間量、といった他の既定の時間量が使用され得ることが正しく理解されよう。加えて、リソース管理プログラム14は、ユーザ304が仮想魔法使い326または絵316を注視していると判断するために、視標追跡センサシステム54から受け取った視標追跡情報を使用し得る。
この実施例においては、リソース管理プログラム14が既定の時間量より多くユーザがオブジェクトを注視していることを検出した場合、リソース管理プログラムは、低減電力モードにおいて動作するよう光学センサシステム58を調整するように構成されてよい。例えば、低減電力モードは、デフォルトのリフレッシュレートより遅いリフレッシュレートで動作している可視光カメラ、または、デフォルトのリフレッシュレートより遅いリフレッシュレートで動作している深度カメラに対応し得る。別の実施例において、低減電力モードは、デフォルトのリフレッシュレートより遅いリフレッシュレートでユーザ304の効き側でない眼に係る画像を記録しているか、または、効き側でない眼に係る画像の記録を止めている内向きセンサ208の画像センサに対応してよい。別の実施例において、低減電力モードは、両眼注視レイインターセクション(ray intersection)とは対照的に、ホログラフィックオブジェクトを用いた単眼注視レイインターセクションを使用したユーザ304のフォーカス検出に対応してよい。
さらに別の実施例において、ユーザ304は、複雑で、高コントラスト領域を含んでいる視覚的に詳細なシーンを表している場所に居る。この実施例において、ターゲット情報は、ユーザが注視している視覚的に複雑で、高コントラストなシーンを含んでよい。ユーザがこのシーンを注視していることをリソース管理プログラム14が検出した場合、プログラムは、シーンの可視性を改善するようディスプレイシステム46を調整するように構成されてよい。例えば、ディスプレイシステム46は、一つまたはそれ以上の仮想映像の輝度を増加し、より複雑でないフォントを使用し、キャラクタのより複雑なレンダリングを活用し、及び/又は、新たな又は相補的な背景を導入するように調整され得る。加えて、リソース管理プログラム14は、また、位置センサシステム62におけるGPSセンサといった、一つまたはそれ以上のセンサに対する電力を減らすように構成されてもよい。
別の実施例において、マイクロフォンシステム64は、コンテクストを特定するオーディオ情報の形態においてターゲット情報を受け取ってよい。そうしたオーディオ情報は、現在のコンテクスト及び/又はユーザ304の場所を特定するために、リソース管理プログラム14によって解釈され得る。このようにして、かつ、コンテクストを特定するオーディオ情報に基づいて、リソース管理プログラム14は、第1のHMDデバイス34に係る一つまたはそれ以上のセンサが低減電力モードにおいて動作するよう調整するように構成されてよい。例えば、第1のユーザ304がバスに乗っており、リソース管理プログラム14は、バスのエンジンおよびバスの運転手のアナウンスのサウンドを解釈して、第1のユーザがバスの中に居ると判断することができる。このコンテクストを特定するオーディオ情報に基づいて、リソース管理プログラム14は、例えば、光学センサシステム58における深度カメラを低減電力モードにおいて動作させ得る。
別の実施例において、マイクロフォンシステム64は、ユーザの声を含んでいる。オーディオ情報の形態においてターゲット情報を受け取ってよい。一つの実施例において、ユーザ304は、再充電することなく、例えば5時間といった、連続した時間量について第1のHMDデバイス34を使用したいとユーザが望んでいることをリソース管理プログラム14に対して伝えることができる。そうしたオーディオ情報を使用して、リソース管理プログラム14は、一つまたはそれ以上のセンサが低減電力モードにおいて動作するよう調整することによって、次の5時間にわたり第1のHMDデバイス34の電力要求を管理し得る。
別の実施例において、第1のHMDデバイス34に係る一つまたはそれ以上のセンサは、意識関連のユーザの生理学上の情報の形態においてターゲット情報を受け取ってよい。意識閾値以下のユーザ意識を示す情報である。例えば、第1のユーザ304の眼の動きが、視標追跡センサシステム54によって追跡され得る。リソース管理プログラム14は、第1のユーザ304のユーザ意識のレベルを評価するために、そうした視標追跡情報を使用し得る。
例えば、そして、再び図3を参照すると、第1のHMDデバイス34が、ユーザ304に対して、仮想魔法使い326を含んでいる3D映画を表示している。リソース管理プログラム14は、ユーザの眼の動きのパターンを分析して、3D映画におけるユーザ意識または興味が意識閾値以下であると判断することができる。一つの実施例において、意識閾値は、ユーザ304が魔法使い326から視線をそらす頻度と相関し得る。例えば、意識閾値は、ユーザ304が、3分間以上のスパンで毎分20秒以上魔法使い326から視線をそらしていることを含んでよい。本発明開示の範囲から逸脱することなく、あらゆる他の好適な時間期間が使用され得ることが正しく理解されよう。リソース管理プログラム14が、ユーザ意識がこの閾値以下であると判断した場合、リソース管理プログラム14は、一つまたはそれ以上のセンサが低減電力モードにおいて動作するよう調整し得る。
種々の他のタイプおよび形態の意識関連のユーザの生理学上の情報が、第1のHMDデバイス34の他のセンサによって受け取られ得ることが正しく理解されよう。そうした他の意識関連のユーザの生理学上の情報は、これらに限定されるわけではないが、心拍数、脈拍、ヘモグロビン飽和量、皮膚導電率、呼吸、発汗、および、脳波活動を含んでよい。そうした情報は、また、ユーザ意識または興味を判断するために、リソース管理プログラム14によって使用され得る。
さらに別の実施例において、第1のHMDデバイス34に係る光学センサシステム58の一つまたはそれ以上のセンサは、ユーザの体部位を示すユーザ画像情報の形態においてターゲット情報を受け取ることができる。例えば、第1のユーザ304は、ユーザの腕を空中であいまいに振ることによって、混雑した街の道路上でタクシーを呼び止めようとしている。光学センサシステム58における深度カメラは、ユーザの腕の振りの画像データをキャプチャすることができる。リソース管理プログラム14は、深度カメラの画像データを分析して、ユーザが緊急シグナリング活動にあると判断し得る。従って、リソース管理プログラム14は、そうしたシグナリング活動に必須でないセンサの一つまたはそれ以上を低減電力モードにおいて動作するように調整し得る。
別の実施例においては、ユーザが一つまたはそれ以上のセンサを使用することなく一般的に行うタスクをユーザ304が実行している場合、一つまたはそれ以上のセンサに対する電力が低減されてよい。例えば、ユーザ304が運転している場合、仮想メニューをナビゲーションするための音声入力の使用履歴を有してよく、それに対応して、手のジェスチャをほとんど使用することはない。従って、ユーザ304が運転しており、仮想メニューを使用していると、リソース管理プログラム14が判断した場合、プログラムは、低減電力モードにおいて動作するように光学センサシステムにおける深度カメラを調整し得る。異なるユーザは異なる使用パターンを有し得ること、および、リソース管理プログラム14は、所与のユーザの使用パターンに従ってセンサの動作をカスタマイズし得ることが、正しく理解されよう。
別の実施例において、そして、図1を参照すると、リソース管理プログラム14は、第1のHMDデバイス34に係る一つまたはそれ以上のセンサから物理的環境情報60を受け取るように構成されてよい。リソース管理プログラム14は、そして、物理的環境60においてターゲット情報が検出されたか否かを判断することができる。図3を参照すると、一つの実施例において、物理的環境情報は、部屋300からの物理的オブジェクト画像を含み得る。例えば、光学センサシステム58は、テーブル320、絵316、壁312、および、本棚324を示している画像データを受け取ることができる。そうした画像データを使用して、リソース管理プログラム14は、ユーザ304がユーザの家の部屋300の中に居ることを判断し得る。従って、リソース管理プログラム14は、低減電力モードにおいて動作するように、位置センサシステム62におけるGPSセンサを調整し得る。
他の実施例において、リソース管理プログラム14は、第1のHMDデバイス34を介して、他のタイプおよび形態の物理的環境情報60を受け取るように構成されてよいことが、正しく理解されよう。そうした他のタイプおよび形態の物理的環境情報60は、これらに限定されるわけではないが、オーディオ情報、環境光レベル、物理的オブジェクト位置、方向と表面情報、および、温度といった環境状況情報を含んでよい。
別の実施例において、リソース管理プログラム14は、第1のHMDデバイス34に対して外部にある第2のHMDデバイス42からネットワーク38を介して物理的環境情報60を受け取るように構成されてよい。図3において示された実施例において、第2のユーザ308によって装着されている第2のHMDデバイス42は、物理的環境情報60を受け取り、ネットワーク38を介して、そうした情報をコンピューティングデバイス22およびリソース管理プログラム14に対して送信することができる。
一つの実施例において、第1のユーザ304と第2のユーザ308は、部屋300の中に歩いて入ることができる。第1のユーザ304によって装着された第1のHMDデバイス34と第2のユーザ308によって装着された第2のHMDデバイス42の両方は、部屋300における物理的オブジェクトから同様な画像データをキャプチャし得る。第2のHMDデバイス42は、キャプチャした画像データを第1のHMDデバイス34に対して送信することができる。有利なことに、第2のHMDデバイス42から画像データを受信することに基づいて、リソース管理プログラム14は、第1のHMDデバイス34における光学センサシステム58に係る一つまたはそれ以上のセンサを、低減電力モードにおいて動作するように調整し得る。
いくつかの実施例においては、2つまたはそれ以上のHMDデバイスが通信して、どちらのHMDデバイスがデータをキャプチャして送信し、かつ、どちらのHMDデバイスがデータを受信するかを決定し得ることが正しく理解されよう。一つの実施例においては、データをキャプチャして他のデバイスに送信するために、最もバッテリー寿命が残っているHMDデバイスが選択され得る。他の実施例においては、データをキャプチャして送信するためにどのHMDデバイスが選択され得るかを決定するために、他の好適なクライテリアが使用されてよい。他のセンサによってキャプチャされた他のタイプの物理的環境データは、また、一つのHMDデバイスによってキャプチャされて送信され、かつ、キャプチャデバイスから一つまたはそれ以上の他のHMDデバイスによって受信され得ることが、正しく理解されよう。
他の実施例において、第1のHMDデバイス及び/又は第2のHMDデバイスは、HMDデバイスに対して外部にある他のデバイスおよびソースからネットワーク38を介して、物理的環境情報及び/又は他の情報を受け取ることができる。例えば、第1のHMDデバイス34は、近くのインドアに在るビーコンからGPS位置情報を受信し得る。別の実施例において、第1のHMDデバイス34は、デバイスがペアとなっているスマートフォンまたはタブレットコンピュータから情報を受信することができる。
さらに別の実施例において、光学センサシステム58における光学センサは、物理的オブジェクト画像データの形態において物理的環境情報60をキャプチャすることができる。リソース管理プログラム14は、光学センサが閾値量の物理的オブジェクト画像データをキャプチャしたか否かを判断するように構成されてよい。例えば、閾値量の画像データは、100MBの画像データであり得る。この実施例においては、光学センサが物理的オブジェクトに係る100MBの画像データをキャプチャした場合、リソース管理プログラム14は、光学センサを、低減電力モードにおいて、および、対応する低減されたレベルのフィデリティにおいて動作するように調整し得る。他のタイプの物理的オブジェクト情報が閾値量に達したか否かを判断するために他のセンサも、また、モニタされ、その上、そうしたセンサが低減電力モードにおいて動作するように調整され得ることが、正しく理解されよう。画像データに係るあらゆる他の好適な閾値量は、この発明開示の範囲から逸脱することなく使用され得ること、および、そうした閾値量は、場所または他のコンテクスト関連要因に基づいて調整され得ることも、正しく理解されよう。
さらに別の実施例において、リソース管理プログラム14は、ターゲットオーディオを検出するように構成されてよい。ターゲットオーディオが検出されない間に、第1のHMDデバイス34の一つまたはそれ以上のマイクロフォン220は、デフォルトの、より遅いポーリング(polling)周波数において動作されてよい。ターゲットオーディオがマイクロフォン220によって受け取られ、かつ、リソース管理プログラム14によって検出された場合、プログラムは、マイクロフォンを、より遅いポーリング周波数より大きなより速いポーリング周波数において動作するように調整し得る。有利なことに、この実施例において、リソース管理プログラム14は、ターゲットオーディオが検出されない限り、マイクロフォン220についてデフォルト電力モードを使用してよい。いくつかの実施例において、ターゲットオーディオは、ユーザ304の認識したスピーチ、緊急放送メッセージ、既定の第三者の認識したスピーチ、ユーザの配偶者または子供のスピーチといったもの、または、あらゆる他の好適なターゲットオーディオを含んでよい。
さらに別の実施例においては、視標追跡センサシステム54の指標追跡センサを使用して、リソース管理プログラム14が、ホログラフィックオブジェクトまたは物理的オブジェクトに対するユーザ注視を検出してよい。図3を参照すると、一つの実施例において、ユーザ304は、壁312の絵316を注視している。ユーザ注視の検出に基づいて、および、ユーザ304が仮想魔法使い326を見ていないとして、リソース管理プログラム14は、第1のHMDデバイス34のディスプレイシステム46の照明出力を低減し得る。より特定的に、リソース管理プログラム14は、ディスプレイシステム46によって生成される仮想魔法使い326の輝度を低減してよく、それにより、ディスプレイシステム46によって消費される電力を低減している。別の実施例において、リソース管理プログラム14は、より多くの環境光がユーザ304の眼に届かないようにブロックするために、ディスプレイシステム46における不透明レイヤ52を利用してよい。このようにして、仮想魔法使い326と他のホログラフィックオブジェクトは、低減された輝度で表示されてよく、それによって、ディスプレイシステム46によって消費される電力を低減している。
別の実施例においては、光学センサシステム58の深度センサが、デフォルトの検知レベルで動作されてよく、既定のサイズのデフォルト照明エリアを照明することを含んでいる。深度センサからの画像データを使用して、リソース管理プログラム14は、第1のユーザ304の前面の現在の照明エリアのサイズが、デフォルト照明エリアの既定のサイズより小さいことを判断し得る。従って、リソース管理プログラム14は、現在の照明エリアのより小さいサイズに応じて、深度センサの照明出力を低減するように構成されてよい。このようにして、深度センサの照明システムによって消費される電力も、また、低減され得る。
別の実施例において、リソース管理システム10は、他のオペレーティングモードを含んでよい。センサデータ収集および関連するフィデリティを電力管理について優先するように選択されるファースト(fast)レスポンスモードといったものである。この実施例においては、リソース管理システム10またはユーザがファーストレスポンスモードを選択する場合、保持するリソース管理プログラム14をそうしたモードがオーバーライドしてよく、もしくは、一つまたはそれ以上のセンサによって消費される電力を増加し、それによって、センサのフィデリティを増してよい。例えば、ユーザが新たな環境の中に移動する場合、ユーザが居る新たな物理的空間をより良くキャプチャするために、一つまたはそれ以上の光学センサの解像度、周波数、及び/又は、電力が増加され得る。他の実施例においては、より高いフレームレート(より低い解像度)において粗い手のジェスチャを検出するためのより低い解像度の深度表示を達成するために、ピクセルビニング(pixel binning)が使用され得る、もしくは、より高い解像度が、サーフェス再構成のために、より低いフレームレートにおいて使用され得る。
別の実施例において、リソース管理プログラム14は、ユーザがHMDデバイスをユーザの頭から取り外したことを判断するように構成され得る。リソース管理プログラム14は、そして、低減電力モードで動作するように、一つまたはそれ以上のセンサを調整する。例えば、第1のユーザ304がHMDデバイス42を取り外して、サーフェス上に置いた場合、位置センサシステム62は、何の動作も検出しなくてよい。例えば30秒間といった、何の動作もない既定期間の後で、リソース管理プログラム14は、低減電力モードで動作するように、位置センサシステム62を調整し得る。
別の実施例において、リソース管理プログラム14は、ユーザが寝入っているか、寝ているかを判断するように構成され得る。リソース管理プログラム14は、そして、低減電力モードで動作するように、一つまたはそれ以上のセンサを調整する。例として、例えば30秒間といった、既定の時間期間を越えて、内向きセンサ208は、第1のユーザ304の閉じられたまぶたを示している画像情報を提供することがある。この情報に基づいて、リソース管理プログラム14は、第1のユーザ304が寝ていると判断することができ、それに応じて、低減電力モードで動作するように、一つまたはそれ以上のセンサを調整し得る。
別の実施例において、例えば1分間といった、既定の時間期間を越えて、位置センサシステム62は、第1のユーザの頭が繰り返し下向きにこっくりしていることを示している位置データを提供することがある。この情報に基づいて、リソース管理プログラム14は、第1のユーザ304が寝入っていると判断することができ、それに応じて、低減電力モードで動作するように、一つまたはそれ以上のセンサを調整し得る。
別の実施例においては、ターゲット情報は、また、ユーザが体験している仮想環境の中で検出され得る。例えば、ユーザが実行している拡張現実アプリケーションによって知らされる所定のユーザのコンテクストが与えられると、リソース管理プログラム14は、仮想環境からのターゲット情報に基づいて、一つまたはそれ以上のセンサを調整し得る。
図4A、4Bおよび4Cは、本発明開示の一つの実施例に従って、HMDデバイスにおいてリソースを管理するための方法400に係るフローチャートである。方法400に係る以降の説明は、上述され、かつ、図1および図2に示されたリソース管理システム10のソフトウェアおよびハードウェアコンポーネントに関して提供される。方法400は、また、他の好適なハードウェアおよびソフトウェアコンポーネントを使用して、他のコンテクストにおいても実行され得ることが、正しく理解されよう。
図4Aを参照すると、404において、方法400は、ユーザによって装着されるように構成されたHMDデバイス34を提供するステップを含んでいる。HMDデバイスは、コンピューティングデバイス22に動作可能に接続され、複数のセンサとホログラフィックオブジェクトを表示するためのディスプレイシステム46を含んでいる。408において、方法400は、選択されたレベルのセンサフィデリティを達成するために、複数のセンサのうち選択されたセンサがデフォルト電力モードで動作するステップを含んでいる。412において、方法400は、複数のセンサのうち一つまたはそれ以上からユーザ関連情報を受け取るステップを含んでいる。ユーザ関連情報は、オーディオ情報、ユーザ注視情報、ユーザ位置情報、ユーザ動作情報、ユーザ画像情報、および、ユーザの生理学上の情報からなるグループから選択されたものである。
414において、方法400は、ユーザ関連情報においてターゲット情報が検出されたか否かを判断するステップを含んでいる。416において、方法400は、任意的に、コンテクストを特定するオーディオ情報、ホログラフィックオブジェクト又は物理的オブジェクト上に固定されているユーザ注視、既定の場所におけるユーザ位置、動作閾値以下のユーザ動作、ユーザの体部位を示す画像情報、および、意識閾値以下のユーザ意識を示す意識関連のユーザの生理学上の情報からなるグループから、ターゲット情報を選択するステップを含んでいる。418において、かつ、ターゲット情報が検出された場合、方法400は、デフォルト電力モードよりも少ない電力を使用する低減電力モードで動作するように、選択されたセンサを調整するステップを含み、それによって、低減したレベルのセンサフィデリティを達成している。
420において、方法400は、任意的に、複数のセンサのうち一つまたはそれ以上から物理的環境情報を受け取るステップを含んでいる。ここで、図4Bを参照すると、422において、方法400は、任意的に、物理的環境情報においてターゲット情報が検出されたか否かを判断するステップを含んでいる。424において、かつ、ターゲット情報が検出された場合、方法400は、任意的に、デフォルト電力モードよりも少ない電力を使用する低減電力モードで動作するように、選択されたセンサを調整するステップを含み、それによって、低減したレベルのセンサフィデリティを達成している。
426において、方法400は、任意的に、HMDデバイスに対して外部にある外部ソースからネットワークを介して物理的環境情報を受け取るステップを含んでいる。428において、かつ、外部ソースからの物理的環境情報の受け取りに基づいて、方法400は、任意的に、低減電力モードで動作するように選択されたセンサを調整するステップを含んでいる。430において、物理的環境情報は、任意的に、物理的オブジェクト画像データを含んでいる。432において、複数のセンサのうち一つまたはそれ以上は、任意的に、光学センサを含んでいる。434において、方法400は、任意的に、光学センサが、物理的オブジェクト画像データの閾値量をキャプチャしたか否かを判断するステップを含んでいる。436において、かつ、物理的オブジェクト画像データの閾値量がキャプチャされた場合、方法400は、任意的に、デフォルト電力モードよりも少ない電力を使用する低減電力モードで動作するように、光学センサを調整するステップを含み、それによって、低減したレベルのセンサフィデリティを達成している。
438において、選択されたセンサは、任意的に、位置センサを含んでおり、かつ、ターゲット情報は、任意的に、動作閾値以下のユーザ動作を含んでいる。ここで図4Cを参照すると、440において、方法400は、任意的に、位置センサを使用して、ユーザ動作が動作閾値以下であることを検出するステップを含んでいる。442において、かつ、動作閾値以下のユーザ動作の検出に基づいて、方法400は、任意的に、低減電力モードで動作するよう位置センサを調整するステップを含んでいる。
444において、複数のセンサは、任意的に、マイクロフォンを含んでいる。446において、方法400は、任意的に、ターゲットオーディオが検出されない場合に、より遅いポーリング周波数においてマイクロフォンを動作するステップを含んでいる。448において、かつ、ターゲットオーディオが検出された場合、方法400は、任意的に、より遅いポーリング周波数より大きなより速いポーリング周波数において動作するようマイクロフォンを調整するステップを含んでいる。
450において、複数のセンサは、視標追跡センサを含んでおり、かつ、ターゲット情報は、任意的に、ホログラフィックオブジェクトまたは物理的オブジェクトのうち一つに対するユーザ注視を含んでいる。452において、方法400は、任意的に、視標追跡センサを使用して、ホログラフィックオブジェクトまたは物理的オブジェクトのうち一つに対するユーザ注視を検出するステップを含んでいる。454において、かつ、ユーザ注視の検出に基づいて、方法400は、任意的に、HMDデバイスのディスプレイシステムの照明出力を低減するステップを含んでいる。
図5は、上述の方法およびプロセスの一つまたはそれ以上を実行することができるコンピューティングシステム500に係る限定的でない実施例の模式図である。コンピューティングデバイス22は、コンピューティングシステム500の形態であってよい。コンピューティングシステム500は、簡素化された形態で示されている。本発明開示の範囲から逸脱することなく、仮想的にあらゆるコンピュータアーキテクチャが使用され得ることが、理解されよう。異なる実施例において、コンピューティングシステム500は、以下の形態であってよい。メインフレームコンピュータ、サーバーコンピュータ、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、ホームエンターテイメントコンピュータ、ネットワークコンピューティングデバイス、モバイルコンピューティングデバイス、ゲームデバイス、等である。上述のように、いくつかの実施例において、コンピューティングシステム22は、HMDデバイスの中に統合されてよい。
図5に示されるように、コンピューティングシステム500は、ロジックサブシステム504およびストレージサブシステム508を含んでいる。コンピューティングシステム500は、任意的に、ディスプレイサブシステム512、通信サブシステム516、センササブシステム520、入力サブシステム522、及び/又は、図5に示されていない他のサブシステムまたはコンポーネントを含んでよい。コンピューティングシステム500は、また、コンピュータで読取り可能な媒体を含んでよい。コンピュータで読取り可能な媒体は、コンピュータで読取り可能なストレージ媒体およびコンピュータで読取り可能な通信媒体を含んでいる。コンピューティングシステム500は、また、任意的に、例えば、キーボード、マウス、ゲームコントローラ、及び/又は、タッチスクリーンといった、他のユーザ入力デバイスを含んでよい。さらに、いくつかの実施例においては、ここにおいて説明された方法およびプロセスが、コンピュータアプリケーション、コンピュータサービス、コンピュータAPI、コンピュータライブラリ、及び/又は、一つまたはそれ以上のコンピュータを含むコンピューティングシステムにおける他のコンピュータプログラムとして、実施されてよい。
ロジックサブシステム504は、一つまたはそれ以上のインストラクションを実行するように構成されている一つまたはそれ以上の物理的デバイスを含み得る。例えば、ロジックサブシステムは、一つまたはそれ以上のインストラクションを実行するように構成されてよく、インストラクションは、一つまたはそれ以上のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、コンポーネント、データストラクチャ、または、他のロジカルコンストラクト(logical construct)の一部である。そうしたインストラクションは、タスクを実行し、データタイプを実施し、一つまたはそれ以上のデバイスの状態を変換し、または、そうでなければ、所望の結果に至るように実施され得る。
ロジックサブシステム504は、ソフトウェアインストラクションを実行するように構成されている一つまたはそれ以上のプロセッサを含み得る。追加的または代替的に、ロジックサブシステムは、ハードウェアまたはファームウェアインストラクションを実行するように構成されている一つまたはそれ以上のハードウェアまたはファームウェアのロジックマシンを含み得る。ロジックサブシステムのプロセッサは、シングルコアまたはマルチコアであってよく、そこで実行されるプログラムは、並行または分散処理のために構成されてよい。ロジックサブシステムは、任意的に、2つまたはそれ以上のデバイスの至る所に配分される個々のコンポーネントを含んでよく、離れて配置され、及び/又は、調和された処理のために構成され得る。ロジックサブシステムの一つまたはそれ以上の態様は、クラウドコンピューティングコンフィグレーションにおいて構成された離れてアクセス可能なネットワークコンピューティングデバイスによって、仮想化され、実行されてよい。
ストレージサブシステム508は、データ、及び/又は、ここにおいて説明された方法およびプロセスを実施するためにロジックサブシステム504によって実行可能なインストラクションを保管するように構成されている一つまたはそれ以上の物理的、永続的なデバイスを含んでよい。そうした方法およびプロセスが実施される場合、ストレージサブシステム508の状態が変換され得る(例えば、異なるデータを保管する)。
ストレージサブシステム508は、取り外し可能な媒体、及び/又は、設置型デバイスを含んでよい。ストレージサブシステム508は、光メモリデバイス(例えば、CD、DVD、HD−DVD、ブルーレイディスク、等)、半導体メモリデバイス(例えば、RAM、EPROM,EEPROM、等)、及び/又は、磁気メモリデバイス(例えば、ハードディスクドライブ、フロッピー(登録商標)ディスクドライブ、テープドライブ、MRAM、等)、などを含んでよい。ストレージサブシステム508は、以降の特性のうち一つまたはそれ以上を伴うデバイスを含んでよい。それらは、揮発性、不揮発性、読出し/書込み、読出し専用、ランダムアクセス、シーケンシャルアクセス、ロケーションアドレス可、ファイルアドレス可、および、コンテンツアドレス可である。
いくつかの実施例において、ロジックサブシステム504およびストレージサブシステム508の態様は、一つまたはそれ以上の共通デバイスの中に統合されてよく、それを通じて、ここにおいて説明された機能性が、少なくとも部分的に行われ得る。そうしたハードウェアロジックコンポーネントは、例えば、フィールドプログラム可能ゲートアレイ(FPGA)、プログラムおよびアプリケーション特定集積回路(PASIC/ASIC)、プログラムおよびアプリケーション特定標準プロダクト(PSSP/ASSP)、システムオンチップ(SOC)システム、および、複合プログラム可ロジックデバイス(CPLD)を含んでよい。
図5は、また、取り外し可能なコンピュータで読取り可能なストレージ媒体524の形態においてストレージサブシステム508の態様として示されており、ここにおいて説明された方法およびプログラムを実施するように実行可能なデータ及び/又はインストラクションを保管するために使用され得る。取り外し可能なコンピュータで読取り可能なストレージ媒体524は、CD、DVD、HD−DVD、ブルーレイディスク、EEPROM、及び/又は、フロッピー(登録商標)ディスク、等の形態であってよい。
ストレージサブシステム508は、一つまたはそれ以上の物理的、永続的デバイスを含むことが正しく理解されよう。対照的に、いくつかの実施例においては、ここにおいて説明されたインストラクションの態様が、純粋信号(例えば、電磁気信号、光信号、等)によって一時的な形でプロパゲート(propagate)され得る。純粋信号は、物理的デバイスによって、少なくとも有限の持続時間に保持されるものではない。さらに、データ、及び/又は、本発明開示に関する情報の他の形態は、純粋信号によってプロパゲートされ得る。
含まれる場合、ディスプレイサブシステム512は、ストレージサブシステム508によって保持されたデータの視覚的表現を表示するために使用され得る。上記の方法およびプロセスが、ストレージサブシステム508によって保持されたデータを変更し、かつ、従って、ストレージサブシステムの状態を変換すると、ディスプレイサブシステム512の状況も、同様に、根本のデータにおける変化を視覚的に表示するよう変換され得る。ディスプレイサブシステム512は、あらゆるタイプの技術を仮想的に使用している一つまたはそれ以上のディスプレイデバイスを含み得る。そうしたディスプレイデバイスは、共有の筐体においてロジックサブシステム504及び/又はストレージサブシステム508と組合わされてよく、もしくは、そうしたディスプレイデバイスは、ペリフェラルディスプレイデバイスであってよい。ディスプレイサブシステム512は、例えば、第1のHMDデバイス34のディスプレイシステム46、透明ディスプレイ50、および、不透明レイヤ52を含み得る。
含まれる場合、通信サブシステム516は、コンピューティングシステム500を、一つまたはそれ以上のネットワーク及び/又は一つまたはそれ以上の他のコンピューティングデバイスと通信可能に接続するように構成され得る。通信サブシステム516は、一つまたはそれ以上の異なる通信プロトコルと互換性のある有線及び/又は無線の通信デバイスを含み得る。限定的でない実施例として、通信サブシステム516は、無線電話ネットワーク、無線ローカルエリアネットワーク、有線ローカルエリアネットワーク、無線ワイドエリアネットワーク、有線ワイドエリアネットワーク、等を介した通信のために構成されてよい。いくつかの実施例において、通信サブシステムによって、コンピューティングシステム500は、インターネットといったネットワークを介して、他のデバイスへ、及び/又は、他のデバイスから、メッセージを送信及び/又は受信することができる。
センササブシステム520は、上述のように、異なる物理的現象(例えば、可視光、赤外光、音響、加速度、方向、位置、等)を検知するように構成されている一つまたはそれ以上のセンサを含み得る。例えば、センササブシステム520は、一つまたはそれ以上の、視標追跡センサ、画像センサ、マイクロフォン、加速度計といった動作センサ、タッチパッド、タッチスクリーン、及び/又は、あらゆる他の好適なセンサ、を含んでよい。センササブシステム520は、例えば、ロジックサブシステム504に対して観察情報を提供するように構成され得る。上述のように、視標追跡情報、画像情報、オーディオ情報、環境光情報、深度情報、位置情報、動作情報、及び/又は、あらゆる他の好適なセンサデータといった観察情報は、上記の方法およびプロセスを実行するために使用され得る。
いくつかの実施例において、センササブシステム520は、深度カメラ(例えば、図2の外向きセンサ212)を含んでよい。深度カメラは、例えば、立体視システムの左および右カメラを含み得る。両方のカメラからの時間分析画像が、お互いに記録され、深度分析ビデオを生成するように結合され得る。他の実施例において、深度カメラは、上述のように、構造化照明深度カメラまたは飛行時間カメラであってよい。
いくつかの実施例において、センササブシステム520は、デジタルカメラといった、可視光カメラを含み得る。本発明開示の範囲から逸脱することなく、仮想的にあらゆるタイプのデジタルカメラ技術が使用され得る。限定的でない実施例として、可視光カメラは、電荷結合素子画像センサを含んでよい。
含まれる場合、入力サブシステム522は、一つまたはそれ以上のセンサまたはユーザ入力デバイスを含み、または、それらとインターフェイスし得る。ゲームコントローラ、ジェスチャ入力検出デバイス、音声認識器、慣性測定装置、キーボード、マウス、または、タッチスクリーンといったものである。いくつかの実施例において、入力サブシステム522は、ナチュラルユーザインプット(NUI)コンポーネントを含み、または、インターフェイスし得る。そうしたコンポーネントは、統合され又は周辺機器であってよく、入力動作の変換及び/又は処理は、オンボードまたはオフボードで扱われてよい。NUIコンポーネントの実施例は、スピーチ及び/又は音声認識のためのマイクロフォン、機械ビジョン及び/又はジェスチャ識別のための赤外線、カラー、立体視、及び/又は深度カメラ、動作検出及び/又は意志認識のための頭部追跡器、眼追跡器、加速度計、及び/又は、ジャイロスコ−プ、同様に、脳活動にアクセスするための電場検知コンポーネント、を含み得る。
用語「プログラム」は、一つまたはそれ以上の所定の機能を実行するために実施されるリソース管理システム10の態様を記述するために使用され得る。いくつかの場合に、そうしたプログラムは、ストレージサブシステム58によって保持されるインストラクションを実行しているロジックサブシステム504を介してインスタンス化され得る。異なるプログラムが、同一のアプリケーション、サービス、コードブロック、オブジェクト、ライブラリ、ルーチン、API、ファンクション、等からインスタンス化され得ることが理解されるべきである。同様に、同一のプログラムは、異なるアプリケーション、サービス、コードブロック、オブジェクト、ライブラリ、ルーチン、API、ファンクション、等によってインスタンス化され得る。用語「プログラム」は、実行ファイル、データファイル、ライブラリ、ドライバ、スクリプト、データベースレコード、等を包含するように意図されている。
ここにおいて説明されたコンフィグレーション及び/又はアプローチは、性質的に典型的なものであること、および、これらの所定の実施例は限定的な意味に考えられるべきでないことが理解されるべきである。数多くの変形が可能だからである。ここにおいて説明された所定のルーチンまたは方法は、あらゆる数の処理ストラテジのうちの一つまたはそれ以上を表し得る。そのように、説明された種々のアクトは、説明されたシーケンスにおいて、他のシーケンスにおいて、並行に、または、いくつかの場合が省略されて実施され得る。
本発明開示に係る技術的事項は、ここにおいて開示された種々のプロセス、システムとコンフィグレーション、および他の特徴、機能、及び/又は、特性に係る全ての新規かつ非自明な組合せ及びサブコンビネーションを含んでいる。それらのあらゆる全ての均等物も同様である。

Claims (8)

  1. ユーザによって装着され、かつ、コンピューティングデバイスに対して動作可能に接続されるように構成されているヘッドマウントディスプレイデバイスであり、複数のセンサおよびホログラフィックオブジェクトを表示するためのディスプレイシステムを含むヘッドマウントディスプレイデバイスと、
    前記コンピューティングデバイスのプロセッサによって実行されるリソース管理プログラムと、を含み、
    前記リソース管理プログラムは、
    前記複数のセンサのうち選択されたセンサを、選択されたレベルのセンサフィデリティを達成するようにデフォルト電力モードで動作し、
    前記複数のセンサのうち一つまたはそれ以上からユーザ関連情報を受け取り、前記ユーザ関連情報は、オーディオ情報、ユーザ注視情報、ユーザ位置情報、ユーザ動作情報、ユーザ画像情報、および、ユーザの生理学上の情報からなるグループから選択されたものであり、
    前記ユーザ関連情報においてターゲット情報が検出されたか否かを判断し、かつ、
    前記ターゲット情報が検出された場合、前記デフォルト電力モードよりも少ない電力を使用する低減電力モードで動作するように、前記選択されたセンサを調整し、それによって、低減したレベルのセンサフィデリティを達成し、さらに、
    前記複数のセンサのうち一つまたはそれ以上から物理的環境情報を受け取り、かつ、
    前記物理的環境情報において前記ターゲット情報が検出されたか否かを判断し、
    前記複数のセンサのうち一つまたはそれ以上は、光学センサを含み、
    前記物理的環境情報は、物理的オブジェクト画像データを含み、
    前記リソース管理プログラムは、さらに、
    前記光学センサが、前記物理的オブジェクト画像データの閾値量をキャプチャしたか否かを判断し、
    前記物理的オブジェクト画像データの前記閾値量がキャプチャされた場合、前記光学センサのデフォルト電力モードよりも少ない電力を使用する低減電力モードで動作するように、前記光学センサを調整する、
    リソース管理システム。
  2. 前記複数のセンサは、光学センサ、位置センサ、視標追跡センサ、および、マイクロフォン、を含むグループから選択される、
    請求項1に記載のリソース管理システム。
  3. 前記選択されたセンサは、位置センサを含み、
    前記ターゲット情報は、動作閾値以下のユーザ動作を含み、
    前記リソース管理プログラムは、さらに、
    前記位置センサを使用して、前記ユーザ動作が前記動作閾値以下であることを検出し、かつ、
    前記動作閾値以下の前記ユーザ動作の検出に基づいて、低減電力モードで動作するように、前記位置センサを調整する、
    請求項1に記載のリソース管理システム。
  4. ユーザによって装着され、かつ、コンピューティングデバイスに対して動作可能に接続されるように構成されているヘッドマウントディスプレイデバイスを提供するステップであり、前記ヘッドマウントディスプレイデバイスは、複数のセンサおよびホログラフィックオブジェクトを表示するためのディスプレイシステムを含む、ステップと、
    前記複数のセンサのうち選択されたセンサを、選択されたレベルのセンサフィデリティを達成するようにデフォルト電力モードで動作するステップと、
    前記複数のセンサのうち一つまたはそれ以上からユーザ関連情報を受け取るステップであり、前記ユーザ関連情報は、オーディオ情報、ユーザ注視情報、ユーザ位置情報、ユーザ動作情報、ユーザ画像情報、および、ユーザの生理学上の情報からなるグループから選択される、ステップと、
    前記ユーザ関連情報においてターゲット情報が検出されたか否かを判断するステップと、を含み、
    前記ターゲット情報が検出された場合、前記デフォルト電力モードよりも少ない電力を使用する低減電力モードで動作するように、前記選択されたセンサを調整し、それによって、低減したレベルのセンサフィデリティを達成し、さらに、
    前記複数のセンサのうち一つまたはそれ以上から物理的環境情報を受け取るステップと、
    前記物理的環境情報において前記ターゲット情報が検出されたか否かを判断するステップと、を含み、
    前記複数のセンサのうち一つまたはそれ以上は、光学センサを含み、
    前記物理的環境情報は、物理的オブジェクト画像データを含み、さらに、
    前記光学センサが、前記物理的オブジェクト画像データの閾値量をキャプチャしたか否かを判断するステップと、
    前記物理的オブジェクト画像データの前記閾値量がキャプチャされた場合、前記光学センサのデフォルト電力モードよりも少ない電力を使用する低減電力モードで動作するように、前記光学センサを調整するステップと、
    を含む、
    ヘッドマウントディスプレイデバイスにおけるリソースを管理する方法。
  5. 前記ターゲット情報は、コンテクストを特定するオーディオ情報、ホログラフィックオブジェクト又は物理的オブジェクト上に固定されているユーザ注視、既定の場所におけるユーザ位置、動作閾値以下のユーザ動作、ユーザの体部位を示す画像情報、および、意識閾値以下のユーザ意識を示す意識関連のユーザの生理学上の情報、を含むグループから選択される、
    請求項に記載の方法。
  6. 前記複数のセンサは、マイクロフォンを含み、
    前記方法は、さらに、
    ターゲットオーディオが検出されない場合、前記マイクロフォンをより遅いポートリング周波数で動作するステップと、
    前記ターゲットオーディオが検出された場合、前記より遅いポーリング周波数より大きなより速いポーリング周波数において前記マイクロフォンを動作するステップと、
    を含む、請求項に記載の方法。
  7. 前記複数のセンサは、視標追跡センサを含み、
    前記ターゲット情報は、ホログラフィックオブジェクトまたは物理的オブジェクトのうち一つに対するユーザ注視を含み、
    前記方法は、さらに、
    視標追跡センサを使用して、ホログラフィックオブジェクトまたは物理的オブジェクトのうち一つに対するユーザ注視を検出するステップと、
    前記ユーザ注視の検出に基づいて、前記ヘッドマウントディスプレイデバイスの前記ディスプレイシステムの照明出力を低減するステップと、
    を含む、請求項に記載の方法。
  8. 前記複数のセンサは、位置センサを含み、
    前記ターゲット情報は、動作閾値以下のユーザ動作を含み、
    前記方法は、さらに、
    位置センサを使用して、前記ユーザ動作が前記動作閾値以下であることを検出するステップと、
    動作閾値以下のユーザ動作の検出に基づいて、前記低減電力モードで動作するように、前記位置センサを調整するステップと、
    を含む、請求項に記載の方法。
JP2015545482A 2012-11-29 2013-11-29 ヘッドマウントディスプレイのリソース管理 Expired - Fee Related JP6246829B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/689,379 US9851787B2 (en) 2012-11-29 2012-11-29 Display resource management
US13/689,379 2012-11-29
PCT/US2013/072476 WO2014085757A2 (en) 2012-11-29 2013-11-29 Head-mounted display resource management

Publications (2)

Publication Number Publication Date
JP2016502201A JP2016502201A (ja) 2016-01-21
JP6246829B2 true JP6246829B2 (ja) 2017-12-13

Family

ID=49880975

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015545482A Expired - Fee Related JP6246829B2 (ja) 2012-11-29 2013-11-29 ヘッドマウントディスプレイのリソース管理

Country Status (6)

Country Link
US (1) US9851787B2 (ja)
EP (1) EP2926212A2 (ja)
JP (1) JP6246829B2 (ja)
KR (1) KR102055967B1 (ja)
CN (1) CN105144022B (ja)
WO (1) WO2014085757A2 (ja)

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
AU2011220382A1 (en) 2010-02-28 2012-10-18 Microsoft Corporation Local advertising content on an interactive head-mounted eyepiece
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US20140294366A1 (en) * 2013-04-01 2014-10-02 Michael-Ryan FLETCHALL Capture, Processing, And Assembly Of Immersive Experience
US9958681B2 (en) * 2013-10-28 2018-05-01 Lg Electronics Inc. Electronic device and control method thereof
US9740242B2 (en) * 2014-01-06 2017-08-22 Leap Motion, Inc. Motion control assembly with battery pack
WO2015139002A1 (en) 2014-03-14 2015-09-17 Sony Computer Entertainment Inc. Gaming device with volumetric sensing
CN110308561A (zh) * 2014-03-14 2019-10-08 索尼互动娱乐股份有限公司 用于头戴式显示器(hmd)的方法和系统
WO2015151548A1 (ja) * 2014-04-03 2015-10-08 ソニー株式会社 電子機器および記録媒体
US20160048022A1 (en) * 2014-08-14 2016-02-18 Qualcomm Incorporated Management for wearable display
US9946361B2 (en) 2014-08-14 2018-04-17 Qualcomm Incorporated Management for wearable display
KR102271833B1 (ko) * 2014-09-01 2021-07-01 삼성전자주식회사 전자 장치, 그 제어 방법 및 기록 매체
JP2016096513A (ja) * 2014-11-17 2016-05-26 株式会社ゼンリンデータコム 情報処理システム、情報処理方法及びプログラム
US20160170206A1 (en) * 2014-12-12 2016-06-16 Lenovo (Singapore) Pte. Ltd. Glass opacity shift based on determined characteristics
EP3268799A1 (en) 2015-03-12 2018-01-17 Essilor International A method for customizing a mounted sensing device
US20180189994A1 (en) * 2015-06-30 2018-07-05 Thomson Licensing Method and apparatus using augmented reality with physical objects to change user states
EP3113158A1 (en) * 2015-07-03 2017-01-04 Nokia Technologies Oy Control of selective actuation of a light filter array
CN105395252A (zh) * 2015-12-10 2016-03-16 哈尔滨工业大学 具有人机交互的可穿戴式血管介入手术三维立体图像导航装置
US10908694B2 (en) * 2016-02-01 2021-02-02 Microsoft Technology Licensing, Llc Object motion tracking with remote device
US10565723B2 (en) * 2016-02-02 2020-02-18 Samsung Electronics Co., Ltd. Systems and methods for drift correction
JP7190903B2 (ja) 2016-03-04 2022-12-16 マジック リープ, インコーポレイテッド Ar/vrディスプレイシステムにおける電流ドレイン低減
IL311155A (en) 2016-03-25 2024-04-01 Magic Leap Inc Virtual and augmented reality systems and methods
CN105867617B (zh) * 2016-03-25 2018-12-25 京东方科技集团股份有限公司 增强现实设备、系统、图像处理方法及装置
CN106027802B (zh) * 2016-07-06 2020-01-03 捷开通讯(深圳)有限公司 移动终端及其参数设置方法
US10529135B2 (en) * 2016-07-27 2020-01-07 Google Llc Low-power mode feature identification at a head mounted display
EP3299871A1 (en) * 2016-09-22 2018-03-28 Essilor International A wearing detection module for spectacle frame
US10302482B2 (en) 2016-10-07 2019-05-28 Microsoft Technology Licensing, Llc Dynamic sensor performance adjustment
US10055028B2 (en) * 2016-12-05 2018-08-21 Google Llc End of session detection in an augmented and/or virtual reality environment
WO2018106220A1 (en) * 2016-12-06 2018-06-14 Vuelosophy Inc. Systems and methods for tracking motion and gesture of heads and eyes
US10579138B2 (en) * 2016-12-22 2020-03-03 ReScan, Inc. Head-mounted sensor system
US10302764B2 (en) * 2017-02-03 2019-05-28 Microsoft Technology Licensing, Llc Active illumination management through contextual information
CN107066073B (zh) * 2017-03-02 2020-07-24 联想(北京)有限公司 一种控制方法及电子设备
US20180255285A1 (en) * 2017-03-06 2018-09-06 Universal City Studios Llc Systems and methods for layered virtual features in an amusement park environment
US11216045B2 (en) * 2017-04-28 2022-01-04 Hewlett-Packard Development Company, L.P. Determining position and orientation of a user's torso for a display system
US10705598B2 (en) 2017-05-09 2020-07-07 Microsoft Technology Licensing, Llc Tracking wearable device and handheld object poses
US10543425B2 (en) * 2017-05-16 2020-01-28 Sony Interactive Entertainment America Llc Systems and methods for detecting and displaying a boundary associated with player movement
CN108038006B (zh) * 2017-11-14 2022-02-08 北京小鸟看看科技有限公司 头戴显示设备的控制方法、设备及系统
US11157076B1 (en) * 2017-12-04 2021-10-26 Snap Inc. Power management for display systems
US10553031B2 (en) 2017-12-06 2020-02-04 Microsoft Technology Licensing, Llc Digital project file presentation
CN107976887B (zh) * 2017-12-18 2020-06-16 苏州大学 一种能减少再现浪费信息的计算全息三维显示方法及系统
CN108304060A (zh) * 2018-02-01 2018-07-20 青岛小鸟看看科技有限公司 一种虚拟现实设备的供电方法、装置及虚拟现实设备
US10827164B2 (en) * 2018-03-01 2020-11-03 Google Llc Active LCD shutters for virtual and augmented reality low persistence
US10825241B2 (en) * 2018-03-16 2020-11-03 Microsoft Technology Licensing, Llc Using a one-dimensional ray sensor to map an environment
DK180186B1 (en) * 2018-05-08 2020-07-23 Maersk Drilling As Augmented reality apparatus
US10748021B2 (en) 2018-05-11 2020-08-18 Samsung Electronics Co., Ltd. Method of analyzing objects in images recorded by a camera of a head mounted device
JP6639563B2 (ja) * 2018-05-31 2020-02-05 株式会社コロプラ 画像表示装置を介して仮想体験をユーザに提供するためのプログラム、コンピュータ及び方法
WO2019246044A1 (en) * 2018-06-18 2019-12-26 Magic Leap, Inc. Head-mounted display systems with power saving functionality
US11694435B2 (en) 2018-06-18 2023-07-04 Magic Leap, Inc. Systems and methods for temporarily disabling user control interfaces during attachment of an electronic device
BE1026463B1 (fr) * 2018-07-10 2020-02-10 Safran Aero Boosters Sa Système de maintenance pour équipement aéronautique
US11966055B2 (en) 2018-07-19 2024-04-23 Magic Leap, Inc. Content interaction driven by eye metrics
US10740918B2 (en) * 2018-09-12 2020-08-11 Dell Products, L.P. Adaptive simultaneous localization and mapping (SLAM) using world-facing cameras in virtual, augmented, and mixed reality (xR) applications
CN111856751B (zh) * 2019-04-26 2022-12-09 苹果公司 具有低光操作的头戴式显示器
TWI781404B (zh) * 2019-05-28 2022-10-21 見臻科技股份有限公司 可依據使用情境切換運作模式的眼動追蹤模組
JP7247784B2 (ja) * 2019-06-26 2023-03-29 トヨタ紡織株式会社 興味推定システム
US11232834B2 (en) 2019-10-29 2022-01-25 Qualcomm Incorporated Pose estimation in extended reality systems
US11158108B2 (en) 2019-12-04 2021-10-26 Microsoft Technology Licensing, Llc Systems and methods for providing a mixed-reality pass-through experience
US11715220B1 (en) 2020-07-30 2023-08-01 Apple Inc Method and device for depth sensor power savings
EP4167019A4 (en) * 2020-09-03 2023-12-06 Samsung Electronics Co., Ltd. METHOD FOR CHANGING THE SETTINGS OF A DISPLAY AND ELECTRONIC DEVICE
US11979657B1 (en) 2020-09-14 2024-05-07 Apple Inc. Power efficient object tracking
US11893698B2 (en) 2020-11-04 2024-02-06 Samsung Electronics Co., Ltd. Electronic device, AR device and method for controlling data transfer interval thereof
US11775057B1 (en) * 2022-05-25 2023-10-03 Microsoft Technology Licensing, Llc Head-mounted display operation based on face tracking

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6124976A (en) 1998-03-17 2000-09-26 Sony Corporation Voltage controlling method for head mounted display unit and head mounted display apparatus
US6279058B1 (en) 1998-07-02 2001-08-21 Advanced Micro Devices, Inc. Master isochronous clock structure having a clock controller coupling to a CPU and two data buses
JP2000041204A (ja) * 1998-07-23 2000-02-08 Canon Inc ヘッドマウント型映像表示装置
US20020040377A1 (en) 1998-09-25 2002-04-04 Newman Edward G. Computer with audio interrupt system
JP2001100870A (ja) 1999-09-28 2001-04-13 Toshiba Corp 情報処理装置
US6690351B1 (en) * 2000-04-06 2004-02-10 Xybernaut Corporation Computer display optimizer
US6674493B2 (en) 2002-01-02 2004-01-06 Intel Corporation Head mounted display using single display including only one liquid crystal shutter
US7379560B2 (en) 2003-03-05 2008-05-27 Intel Corporation Method and apparatus for monitoring human attention in dynamic power management
JP2004312401A (ja) 2003-04-08 2004-11-04 Sony Corp 再生装置および再生方法
JP2005025563A (ja) 2003-07-03 2005-01-27 Canon Inc 仮想現実感生成方法
US20050198257A1 (en) 2003-12-29 2005-09-08 Gupta Ajay G. Power conservation in wireless devices
JP4373286B2 (ja) * 2004-05-06 2009-11-25 オリンパス株式会社 頭部装着型表示装置
US7565562B2 (en) 2004-09-03 2009-07-21 Intel Corporation Context based power management
KR100640893B1 (ko) 2004-09-07 2006-11-02 엘지전자 주식회사 음성 인식용 베이스밴드 모뎀 및 이동통신용 단말기
US7614011B2 (en) 2004-10-21 2009-11-03 International Business Machines Corporation Apparatus and method for display power saving
US20060103591A1 (en) * 2004-11-15 2006-05-18 Canon Kabushiki Kaisha Information processing apparatus and method for providing observer with information
US20070113207A1 (en) * 2005-11-16 2007-05-17 Hillcrest Laboratories, Inc. Methods and systems for gesture classification in 3D pointing devices
JP5195426B2 (ja) 2006-07-25 2013-05-08 株式会社ニコン 出力装置及び映像表示装置
US7543934B2 (en) 2006-09-20 2009-06-09 Ipventures, Inc. Eyeglasses with activity monitoring and acoustic dampening
US20090163226A1 (en) 2007-12-20 2009-06-25 Burges Karkaria Device, system, and method of power saving using location sensing modules
US8036690B1 (en) 2008-06-04 2011-10-11 Sprint Communciations Company L.P. Download prioritization for intelligent content distribution
US9009053B2 (en) * 2008-11-10 2015-04-14 Google Inc. Multisensory speech detection
US20110075257A1 (en) * 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays
KR101688655B1 (ko) * 2009-12-03 2016-12-21 엘지전자 주식회사 사용자의 프레전스 검출에 의한 제스쳐 인식 장치의 전력 제어 방법
EP2617202A4 (en) 2010-09-20 2015-01-21 Kopin Corp BLUETOOTH OR OTHER WIRELESS INTERFACE WITH POWER MANAGEMENT FOR A HEAD-MOUNTED DISPLAY
US9081416B2 (en) 2011-03-24 2015-07-14 Seiko Epson Corporation Device, head mounted display, control method of device and control method of head mounted display
US9217867B2 (en) * 2011-03-24 2015-12-22 Seiko Epson Corporation Head-mounted display device and control method for the head-mounted display device
US8184067B1 (en) * 2011-07-20 2012-05-22 Google Inc. Nose bridge sensor
EP2551784A1 (en) * 2011-07-28 2013-01-30 Roche Diagnostics GmbH Method of controlling the display of a dataset
US8918665B2 (en) * 2011-09-23 2014-12-23 Wing Kong Low Operating input device in low power mode with auxiliary sensor calibrated to main sensor
US8976110B2 (en) * 2011-10-27 2015-03-10 Tobii Technology Ab Power management in an eye-tracking system
US8235529B1 (en) * 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information

Also Published As

Publication number Publication date
WO2014085757A2 (en) 2014-06-05
US20140145914A1 (en) 2014-05-29
EP2926212A2 (en) 2015-10-07
JP2016502201A (ja) 2016-01-21
WO2014085757A3 (en) 2014-11-06
KR20150092226A (ko) 2015-08-12
CN105144022B (zh) 2018-06-22
KR102055967B1 (ko) 2019-12-13
US9851787B2 (en) 2017-12-26
CN105144022A (zh) 2015-12-09

Similar Documents

Publication Publication Date Title
JP6246829B2 (ja) ヘッドマウントディスプレイのリソース管理
JP6317765B2 (ja) 複合現実感表示調整
KR102291777B1 (ko) 바디 락 증강 현실과 월드 락 증강 현실 사이의 전환 기법
KR102115634B1 (ko) 혼합 현실 경험 공유
KR102257255B1 (ko) 혼합 현실 스포트라이트
RU2684189C2 (ru) Адаптивное распознавание событий
KR101935061B1 (ko) 증강 현실 디스플레이를 위한 이해 및 의도-기반 컨텐트
US20140071163A1 (en) Augmented reality information detail
US9430038B2 (en) World-locked display quality feedback
US10175483B2 (en) Hybrid world/body locked HUD on an HMD
US20140139551A1 (en) Augmented reality help
CN106489171B (zh) 立体图像显示器
CN112154405B (zh) 三维推送通知
CN103760973A (zh) 增强现实的信息细节
JP7176520B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2020264149A1 (en) Fast hand meshing for dynamic occlusion
CN114174957A (zh) 使用事件相机的像素传感器进行跟踪
JP2015118578A (ja) 拡張現実情報詳細
EP2887639A1 (en) Augmented reality information detail
US11240482B2 (en) Information processing device, information processing method, and computer program
KR20150071613A (ko) 증강 현실 정보 상세도

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171115

R150 Certificate of patent or registration of utility model

Ref document number: 6246829

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees